机器学习
机器学习(有时被称为ML)是计算机科学的一个前沿领域,它寻求让计算机执行任务,而不需要明确地编程来执行给定的任务。机器学习使用许多技术来创造算法从数据集中学习并做出预测。它被用在数据挖掘这是一种在数据集中发现先前未知关系的模式和模型的技术。机器学习用于搜索引擎、优化问题、计算机视觉等等。这些概念已被应用于谷歌的自动驾驶汽车,以及亚马逊和Netflix等网站的推荐引擎。
机器学习算法的工作原理是建立一个模型训练集.训练集是输入算法的数据集,其中正确的输出是已知的。ML算法在读取训练集时建立模型,读取下一个输入,预测输出,然后根据实际输出检验其预测,并相应地进行调整。
机器学习有时被认为是纯粹的数据挖掘,但数据挖掘是机器学习的一个子领域无监督学习.机器学习是计算机科学家和被称为“数据工程师”的软件工程师的一个关键课题。
计算机学习意味着什么?
“据说计算机程序能从经验中学习 就某些任务而言 和性能测量 如果其在任务中的表现 ,以 ,随经验提升 ——Tom M. Mitchell,卡内基梅隆大学的计算机科学家[1]
机器学习技术
分组学习技巧
监督式学习
监督式学习是机器学习确定的任务函数带安全标签的数据。例如,在一个检测帖子是否是垃圾邮件的机器学习算法中,训练集将包括标记为“垃圾邮件”的帖子和标记为“非垃圾邮件”的帖子,以帮助教会算法如何识别两者的区别。监督学习算法推断函数并在新示例中使用此函数。由于算法接收的数据集作为输入,而该数据集已经有一个与之相关的正确答案,因此算法将通过比较输出与正确答案进行学习,如果发现错误,它将相应地调整模型。训练继续进行,直到算法输出在期望的精度范围内的信息。
应用最广泛的监督学习算法有:
监督学习通常用于历史数据预测可能发生的未来事件的情况。[3]
分类是监督学习中的一个关键话题。分类将输入分为类或组。由算法来创建一个模型,将新输入分配给其中一个或多个类。例如,算法会将一些邮件分配给“垃圾邮件”类,而将其他邮件分配给“非垃圾邮件”类。分类也可以用无监督学习技术来完成。
无监督学习
无监督学习使用未标记的输入数据。具体来说,因为数据没有标记,所以没有错误或奖励来让算法知道它是接近还是远离正确的解。当使用机器学习解决答案未知的问题时,无监督学习非常重要。无监督学习的目标是接受数据并对其进行探索,以找到数据中的某些结构。
通过推导输入数据中的结构和模式,从无监督学习中创建模型。
无监督学习有以下几种方法:
聚类
聚类是一种流行的无监督学习方法,用于将相似数据分组在一起(以集群形式)。聚类是将一组观察结果划分为特殊的子集或聚类。这样,具有相似特征的数据将被分组在一起。k - means聚类是聚类数据的一种流行方法。
异常检测
异常检测,又称异常值检测,是对不符合数据集其余部分的数据的标识。这个任务不需要标记数据,只要数据集中的大部分数据点是“正常的”,算法寻找与其余数据最不相似的数据点。
许多人工神经网络使用无监督学习,其中算法必须学会在未标记的数据上达到某个目标。无监督神经网络的基本理论是Hebbian理论,它描述的是对神经元在学习期间。
组的相似性
在选择使用哪种算法时,需要注意的是学习方法和训练时间。根据你所拥有的数据类型,一种学习方法可能比另一种更适合这项任务。算法的训练时间是指训练一个模型所需的时间。训练时间随算法的不同而不同,往往与算法的精度密切相关。[4]
下面是一些常见的机器学习算法:
回归算法
回归是一种用来估计变量之间关系的统计方法。通常,回归研究的是当自变量改变时,因变量的典型值如何变化。回归分析估计条件期望因变量给定自变量。换句话说,当自变量固定时,它估计因变量的平均值。[5]
线性回归是一种用于模拟观测变量之间关系的技术。简单线性回归背后的思想是将两个变量的观察值“拟合”成它们之间的线性关系。从图形上看,任务是画出“最拟合”或“最接近”点的线 在哪里 而且 是两个变量的观察结果,这两个变量被认为是线性相关的。
岭回归是最常用的吗回归确定无唯一解方程近似答案的算法。这种类型的问题在机器学习任务中非常常见,必须使用有限的数据选择“最佳”解决方案。脊回归防止过拟合和欠拟合。
基于实例的算法
基于实例的学习,有时被称为基于记忆的学习,是一组将新问题实例与它在训练中看到的实例进行比较的学习算法。通过这样做,它直接从训练实例构建假设,而不是执行显式的泛化。基于实例的学习是一种懒惰的学习.
基于实例的学习的一个优点是,它可以使其模型适应以前未见的数据。这些算法可以根据从数据中学到的东西来存储一个新实例或丢弃一个旧实例。
的 最近邻居算法是一个流行的基于实例的算法。的 -nearest-neighbors算法通过对输入进行分类 最近的邻居。
中可以使用最近的邻居分类或回归机器学习任务。分类涉及到将输入点放入适当的类别中,而回归涉及到在输入点和其他数据之间建立关系。 -NN是机器学习任务中使用的众多算法之一,在诸如计算机视觉而且基因表达分析。
内核的方法是否有一组监督学习方法被用于模式分析在数据集中找到像集群、排名、相关性和分类这样的关系。[7]
支持向量机是一种内核的方法用于对数据进行二进制分类。支持向量机接受一组训练示例,这些示例已经用它们各自的类进行了标记。支持向量机算法然后构建一个模型,对新的输入示例的位置进行预测。
决策树算法
决策树算法使用决策树作为预测模型来映射观察结果。使用的树主要有两种类型。分类树用于分析,以预测输入数据属于哪个类。回归树在预测结果为实数的分析中使用,例如股票价格或参观博物馆的人数。
贝叶斯算法
贝叶斯算法应用贝叶斯定理用于分类和回归等问题。因此,贝叶斯算法使用概率论的概念来建立模型。例如,贝叶斯网络可以帮助描述某些症状和某些疾病之间的概率关系。它可以用来帮助预测人们患某种疾病的可能性。[8]
贝叶斯网络是有向无环图(DAG),其中节点代表随机变量,可以表示未知参数、可观察特征和潜在变量。DAG中的边表示条件依赖性。这意味着没有连接的节点表示彼此有条件独立的变量。[8]
一个常见的贝叶斯算法是朴素贝叶斯分类器.
人工神经网络算法
这些算法使用人工神经网络这是受到生物神经网络(生物大脑中的结构)的启发。一个神经网络本质上是连接节点的一个大集合。每个节点的输出都由该操作以及特定于该节点的一组参数决定。通过将这些节点连接在一起并仔细设置它们的参数,可以学习和计算非常复杂的函数。
深入学习算法
深度学习算法是人工神经网络算法的改进版本。他们使用多层人工神经网络模拟人类大脑将光和声音等处理成视觉和听觉的方式。一般来说,深度学习算法是基于运行在多层数据上的无监督学习构建的。
深度学习用于计算机视觉和语音识别技术。[1]深度学习之所以成为可能,是因为当今可用的大量计算资源。深度学习正在人脸识别和面部表情识别软件、语音识别和处理软件等领域得到应用。
据《麻省理工科技评论》报道,“谷歌深度学习系统在观看了1000万张YouTube视频图像后,在识别猫等物体方面的能力几乎是之前任何图像识别努力的两倍。”[10]
人工智能对机器学习
关于人工智能和机器学习之间的区别存在一些争论。人工智能使用计算模型,比如神经网络,复制生物结构。机器学习使用其中的一些方法(如神经网络),但更侧重于应用统计和概率论。
机器学习的重点是制作从数据中学习的预测系统,而人工智能的目标是制作可能从数据中学习也可能不从数据中学习的智能系统。机器学习(有时被称为ML)是计算机科学的一个前沿领域,它寻求让计算机执行任务,而不需要明确地编程来执行给定的任务。机器学习使用许多技术来创造算法从数据集中学习并做出预测。它被用在数据挖掘这是一种在数据集中发现先前未知关系的模式和模型的技术。机器学习用于搜索引擎、优化问题、计算机视觉等等。这些概念已被应用于谷歌的自动驾驶汽车,以及亚马逊和Netflix等网站的推荐引擎。
机器学习算法的工作原理是建立一个模型训练集.训练集是输入算法的数据集,其中正确的输出是已知的。ML算法在读取训练集时建立模型,读取下一个输入,预测输出,然后根据实际输出检验其预测,并相应地进行调整。
机器学习有时被认为是纯粹的数据挖掘,但数据挖掘是机器学习的一个子领域无监督学习.机器学习是计算机科学家和被称为“数据工程师”的软件工程师的一个关键课题。
参考文献
- ,。机器学习.检索自2016年7月12日https://en.wikipedia.org/wiki/Machine_learning
- Brownlee, J。机器学习算法之旅.检索自2016年7月12日http://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/
- ,。机器学习.检索自2016年7月12日http://www.sas.com/en_id/insights/analytics/machine-learning.html
- Rohrer B。如何为微软Azure机器学习选择算法.检索自2016年7月12日https://azure.microsoft.com/en-us/documentation/articles/machine-learning-algorithm-choice/g
- ,。回归分析.检索自2016年7月12日https://en.wikipedia.org/wiki/Regression_analysis
- ,R。文件:线性regression.svg.检索自2016年7月12日https://en.wikipedia.org/wiki/File:Linear_regression.svg
- ,。内核的方法.检索自2016年7月12日https://en.wikipedia.org/wiki/Kernel_method
- ,。贝叶斯网络.检索自2016年7月12日https://en.wikipedia.org/wiki/Bayesian_network
- Z。文件:神经网络瓶颈架构.检索自2016年7月12日https://commons.wikimedia.org/wiki/File:Neural_network_bottleneck_achitecture.svg
- 霍夫,R。借助巨大的计算能力,机器现在可以实时识别物体并翻译语音。人工智能终于变得智能化了。.检索自2016年7月12日https://www.technologyreview.com/s/513696/deep-learning/