Py学习  »  机器学习算法

申报方向:影像组学联合深度学习研究思路

丁香学术 • 昨天 • 10 次点击  
影像组学和医学人工智能是近年来的研究热点,深度学习作为重要的分析方法,与影像组学进行整合效是国自然申报中极为亮眼的研究思路。



接下来我们将为大家介绍什么是深度学习,如何利用深度学习这一热点申报国自然。

一、  什么是深度学习?

1.  机器学习和深度学习之间的关系


人工智能
定义:人工智能是一门研究如何使计算机系统能够执行需要人类智能的任务的科学和工程领域。这包括理解自然语言、感知环境、学习、决策制定等方面的技术。
目标:人工智能的主要目标是模拟和复制人类智能的各个方面,使计算机系统能够执行类似于人类的认知和问题解决任务。这包括推理、学习、感知、语言理解等。

机器学习
定义:机器学习是一种人工智能的分支,关注如何使计算机系统通过从数据中学习模式和规律来改进性能,而无需显式地进行编程。
目标:机器学习的目标是使计算机系统具有从经验中学习的能力,以便在面对新的输入时能够做出准确的预测或决策。这包括监督学习、无监督学习和强化学习等范式。

深度学习
定义:深度学习是机器学习的一种特殊形式,它使用深度神经网络来学习和表示复杂的数据模式。
目标:深度学习的主要目标是通过多层次的非线性变换学习数据的高级抽象表示。通过神经网络的层次结构,深度学习可以学习层次化的特征,使其在处理大规模数据时表现出色。


2. 所以什么是机器学习?

按照学习方式,机器学习可分为以下四类:
•  监督学习
从有标记的数据中学习,即数据中包含自变量和因变量,通过学习已知的输入和输出数据来进行预测,如分类任务和回归任务。
分类任务:预测数据所属的类别,如垃圾邮件检测 、识别动植物类别等。
回归任务:根据先前观察到的数据预测数据,如房价预测,身高体重预测等。

•  无监督学习
分析没有标签的数据,即数据中只有自变量没有因变量,发现数据的规律,如聚类、降维等。
聚类:把相似的东西聚在一起,并不关注这类东西是什么,如客户分组。
降维: 通过提取特征,将高维数据压缩用低维表示,如将汽车的里程数和使用年限合并为磨损值。

•  半监督学习
训练数据只有部分有标记,先使用无监督学习对数据进行处理,再用监督学习对模型进行训练和预测。例如手机可以识别同一个人的照片(无监督学习),当把同一个人的照片打上标签后,之后新增的这个人的照片也会自动加上对应的标签(监督学习)。

•  强化学习
通过与环境进行交互,根据奖励或惩罚来优化算法,直到获得最大奖励,产生最优策略。例如扫地机器人撞到障碍物后,会优化清扫路径。


通俗来说,机器学习就是从数据中通过算法自动归纳逻辑或规则,并根据归纳的结果与新数据来进行预测。

举个例子,如果我们想让计算机看到狗时能判断出是狗,就需要给计算机展示大量狗的图片,同时告诉它这就是狗。经过大量的训练,计算机会总结出一定的规律,当下次看到狗时,捕捉到对应的特征,得出「这是狗」的结论。如果算法不够完善,可能会把猫误认为狗,这就需要计算机通过经验数据自动改进算法,从而增强预测能力。

3. 那什么是深度学习呢?

典型的深度学习算法有以下四种类型:
•  卷积神经网络(Convolutional Neural Network,CNN):常用于图像识别和分类任务。
•  递归神经网络(Recurrent Neural Network,RNN):适用于处理序列数据,如自然语言处理。
•  长短期记忆网络(Long Short-Term Memory,LSTM):一种特殊的 RNN 结构,能够更好地处理长序列数据。
•  生成对抗网络(Generative Adversarial Network,GAN):用于生成新的数据,如图像、音频或文本。


深度学习是机器学习领域的一个新的研究方向,是一种通过多层神经网络来学习和理解复杂数据的算法。机器通过学习样本数据的深层表示来学习复杂任务,最终能够像人一样具有分析学习能力,能够识别文字、图像和声音等。

与传统机器学习不同的是,深度学习使用了神经网络结构,神经网络的长度称为模型的「深度」,因此基于神经网络的学习被称为「深度学习」。

神经网络模拟了人类大脑的神经元网络,神经元节点可以对数据进行处理和转换。通过多层神经网络,数据的特征可以被不断地提取和抽象,从而使机器能更好地解决各种问题。


二、  深度学习有哪些模式?

基于深度学习的影像组学的模型建立是一种动态和高度灵活的过程,具体取决于应用场景和任务要求。不同的模型在不同方面具有优势,选择合适的模型加以微调是一种高效的策略。


这里就以「Transformer」和 「判别式模型」模型为例,给大家展现(如果有想了解其他模型,可以在评论区提出,我们后续会进一步补充为大家详细介绍)

1.  深度学习的分割模型 Transformer
Transformer 模型最初为自然语言处理(NLP)而设计,由编码器和解码器组成其核心是自注意力机制,使模型能够在处理序列数据时在不同位置之间进行关注,从而有效捕捉长距离依赖关系。


2.  深度学习的特征提取和筛选模型 — 判别式模型
判别式模型:判别式模型通常提取类可区分的特征,这类模型可以直接从提取的特征中对实例进行预测,主要包括以下网络模型:
①  卷积神经网络(convolutional neural network,CNN):CNN 结合卷积层、非线性激活函数和池化层自动进行特征学习。常见的模型包括:AlexNet、VGGNet、Inception、多层 CNNs 等。
②  胶囊网络(Capsule Networks):由卷积层和胶囊层组成,可以解决与池化层相关的空间关系信息的丢失问题。
③  循环神经网络(Recurrent Neural Networks,RNN):RNN 能够处理 CT 或 MR 切片等序列数据。同时,长短期记忆网络 (LSTM) 能够进一步解决 RNN 梯度消失的问题。


如果大家想进一步与同行、国自然资深讲师交流,并获取一手动态和热点方向,可以加入「国自然基金撰写交流社群」哦。群内也会定期为大家分享优质课程、撰写经验、模板资料等。

因加群火爆,达到 200 上限后无法直接进群,
麻烦先加小助手企微再拉你~

Python社区是高质量的Python/Django开发社区
本文地址:http://www.python88.com/topic/174998
 
10 次点击