机器学习概述
2023-08-28 10:21:10 18 举报
AI智能生成
机器学习是人工智能的一个分支,它的基本思想是通过训练数据和算法让计算机自动学习并改进其性能。机器学习算法通常根据训练数据集的特征来构建一个数学模型,然后用该模型对新的数据进行预测或分类。常见的机器学习任务包括回归、分类、聚类、推荐系统等。机器学习在许多领域都有广泛的应用,如自然语言处理、图像识别、医疗诊断等。随着大数据和计算能力的不断提升,机器学习正成为解决复杂问题的重要工具。
作者其他创作
大纲/内容
机器学习概述
人工智能发展必备三要素
<b>数据</b>
<b>算法</b>
<b>计算力</b>
CPU,GPU,TPU
CPU主要适合I\O密集型的任务
GPU主要适合计算密集型任务
计算密集型的程序
易于并行的程序
Google TPU介绍
CPU 与 GPU的区别
<b>人工智能和机器学习,深度学习的关系</b>
机器学习是人工智能的一个实现途径
深度学习是机器学习的一个方法发展而来
人工智能的发展历程
人工智能元年
1956
发展历程
第一是起步发展期:1956年—20世纪60年代初
第二是反思发展期:20世纪60年代—70年代初
第三是应用发展期:20世纪70年代初—80年代中
第四是低迷发展期:20世纪80年代中—90年代中
第五是稳步发展期:20世纪90年代中—2010年
第六是蓬勃发展期:2011年至今
主要分支
<b>计算机视觉(CV)</b>
指<font color="#e74f4c">机器感知环境的能力,</font>这一技术类别中的经典任务有<b>图像形成、图像处理、图像提取和图像的三维推理</b>。<font color="#e74f4c">物体检测和人脸识别</font>是其比较成功的研究领域。
发展历史
<b>自然语言处理(NLP)</b>
<b>文本挖掘/分类</b>
可用于理解、组织和分类结构化或非结构化文本文档
主要任务有句法分析、情绪分析和垃圾信息检测
<font color="#e74f4c"><b>文本挖掘和分类领域的一个瓶颈出现在歧义和有偏差的数据上</b></font>
发展历史
<b>机器翻译</b>
利用机器的力量自动将一种自然语言(源语言)的文本翻译成另一种语言(目标语言)
发展历史
<b>语音识别</b>
指识别语音(说出的语言)并将其转换成对应文本的技术
语音识别领域仍然面临着<b>声纹识别</b>和<b>「鸡尾酒会效应」</b>等一些特殊情况的难题
<b>鸡尾酒会效应(英语:cocktail party effect)</b>是指人的一种听力选择能力,在这种情况下,注意力集中在某一个人的谈话之中而忽略背景中其他的对话或噪音。该效应揭示了人类听觉系统听觉系统中令人惊奇的能力,即我们可以在噪声中谈话
发展历史
<b>机器人</b>
机器人的设计、制造、运作和应用,以及控制它们的计算机系统、传感反馈和信息处理
分类
<b>固定机器人</b>
固定机器人通常被用于工业生产(比如用于装配线)。常见的移动机器人应用有货运机器人、空中机器人和自动载具
<b>移动机器人</b>
机器人需要不同部件和系统的协作才能实现最优的作业。其中在硬件上包含<font color="#e74f4c"><b>传感器、反应器和控制器</b></font>;另外还有能够实现感知能力的软件,比如定位、地图测绘和目标识别
发展历史
机器学习工作流程
机器学习
<font color="#e74f4c"><b>从数据中自动分析获得模型,并利用模型对未知数据进行预测</b></font>
工作流程
<b>① 获取数据</b>
数据集
样本
一行数据
特征
一列数据
有些数据有目标值(标签值),有些数据没有目标值
类型构成
数据类型一:特征值+目标值(目标值是连续的和离散的)
数据类型二:只有特征值,没有目标值
聚类算法
数据分割
训练数据
用于训练,构建模型
训练集:70% 80% 75%
测试数据
在模型检验时使用,用于评估模型是否有效
测试集:30% 20% 25%
<b>② 数据基本处理</b>
缺失值
异常值
<b>③ 特征工程</b>
概念
<font color="#e74f4c"><b>使用专业背景知识和技巧处理数据,使得特征能在机器学习算法上发挥更好的作用的过程</b></font>
意义
会直接影响机器学习的效果
包含的内容
<b>特征提取</b>
将任意数据(如文本或图像)转换为可用于机器学习的数字特征
<b>特征预处理</b>
通过<b>一些转换函数</b>将特征数据<b>转换成更加适合算法模型</b>的特征数据过程
<b>特征降维</b>
指在某些限定条件下,<b>降低随机变量(特征)个数</b>,得到<b>一组“不相关”主变量</b>的过程
为什么需要特征工程 ?
机器学习领域的大神Andrew Ng(吴恩达)老师说“<b>Coming up with features is difficult, time-consuming, requires expert knowledge. “Applied machine learning” is basically feature engineering</b>. ”<br>注:业界广泛流传:<b>数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限</b>而已
<b>④ 机器学习(模型训练)</b>
选择合适的算法对模型进行训练
<b>⑤ 模型评估</b>
结果达到要求,上线服务
没有达到要求,重新上面步骤
算法分类
<b>监督学习</b>
定义
输入数据是由输入特征值和目标值所组成
<b>回归 (regression)</b>
函数的输出可以是一个连续的值
<b>分类 (classfication)</b>
输出是有限个离散值
<b>无监督学习</b>
定义
输入数据是由输入特征值组成,没有目标值
<ul><li>输入数据没有被标记,也没有确定的结果。样本数据类别未知</li><li>需要根据样本间的相似性对样本集进行类别划分。</li></ul>
有监督,无监督算法对比
<b>半监督学习</b>
定义
训练集同时包含有标记样本数据和未标记样本数据
监督学习的训练方式
半监督学习训练方式
<b>强化学习</b>
定义
<b>实质是<font color="#e74f4c">make decisions 问题</font>,即自动进行决策,并且可以做连续决策</b>
强化学习的目标就是<b>获得最多的累计奖励</b>
小孩想要走路,但在这之前,他需要先站起来,站起来之后还要保持平衡,接下来还要先迈出一条腿,是左腿还是右腿,迈出一步后还要迈出下一步。<br>小孩就是<b> agent</b>,他试图通过采取<b>行动</b>(即行走)来操纵<b>环境</b>(行走的表面),并且从<b>一个状态转变到另一个状态</b>(即他走的每一步),当他完成任务的子任务(即走了几步)时,孩子得到<b>奖励</b>(给巧克力吃),并且当他不能走路时,就不会给巧克力。<br>主要包含五个元素:<b>agent, action, reward, environment, observation</b>;
监督学习和强化学习的对比
<br>
<b>独立同分布IID((independent and identically distributed)</b>
在概率统计理论中,<font color="#e74f4c">如果变量序列或者其他随机变量有相同的概率分布,并且互相独立,那么这些随机变量是独立同分布</font>
<b>独立</b>:每次抽样之间没有关系,不会相互影响
举例:给一个骰子,每次抛骰子抛到几就是几,这是独立;如果我要抛骰子两次之和大于8,那么第一次和第二次抛就不独立,因为第二次抛的结果和第一次相关
<b>同分布</b>:每次抽样,样本服从同一个分布
举例:给一个骰子,每次抛骰子得到任意点数的概率都是六分之一,这个就是同分布
<b>独立同分布:</b>i.i.d.,每次抽样之间独立而且同分布
<b><font color="#a23735">机器学习领域的重要假设</font></b>
IID独立同分布即假设<b>训练数据和测试数据是满足相同分布的,它是通过训练数据获得的模型能够在测试集获得好的效果的一个基本保障</b>
<b><font color="#a23735">目前发展</font></b>
机器学习并不总要求独立同分布,在不少问题中要求样本数据采样自同一个分布是因为希望用训练数据集得到的模型可以合理的用于测试数据集,使用独立同分布假设能够解释得通<br>目前<b>一些机器学习内容已经不再囿于独立同分布假设下,一些问题会假设样本没有同分布</b>
Alphago 进化史
模型评估
<b>分类模型评估</b>
准确率: 预测正确数量与总样本数量的比例
精确率
召回率
F1-Score
AUC指标
<b>回归模型评估</b>
回归模型
- <b>均方根误差(RMSE):</b> 预测值 减 真实值的平方和除以样本数量, 然后开根号
- <b>相对均方误差(RSE):</b> (预测值 减 真实值的平方和) 除以 (真实值的均值 减 真实值的平方和)
<b>- 平均绝对误差(MAE):</b> 预测值 减 真实值的绝对值的和, 然后除以样本数量
fi是预测值, yi是真实值
<b>- 相对绝对误差(RAE):</b> ( 预测值 减 真实值的绝对值的和) 除以 (真实值的均值 减 真实值的绝对值的和)
<font color="#e74f4c"><b>- 误差越小越好. </b></font>
<b>拟合</b>
<b>欠拟合</b>
- 表现: 在训练集表现不好, 在测试集上表现也不好
- 原因: <b>模型学习的太过粗糙,连训练集中的样本数据特征关系都没有学出来(区分标准太粗糙)</b>
因为机器学习到的天鹅特征太少了,导致区分标准太粗糙,不能准确识别出天鹅。
<b>过拟合</b>
- 表现: 在训练集表现很好, 但是在测试集表现的不好
<b>- 原因: 模型太复杂了, 学到的特征太多了,不好泛化</b>
机器已经基本能区别天鹅和其他动物了。然后,很不巧已有的天鹅图片全是白天鹅的,于是机器经过学习后,会认为天鹅的羽毛都是白的,以后看到羽毛是黑的天鹅就会认为那不是天鹅
深度学习
神经网络
输入 -> 多个层(每一个层有多个节点) -> 输出
0 条评论
下一页