分享

干货 ‖ 机器学习十大算法

 昵称16619343 2017-08-21

戳我加群 ▼

机械鸡邀你与数万名人工智能人才

共赢未来!

毫无疑问,机器学习在过去几年越来越受欢迎。由于大数据是目前技术行业最热门的趋势,机器学习是非常强大的,可以根据大量数据进行预测或计算推理。

如果你想学习机器算法,要从何下手呢?

以我为例,我是在哥本哈根留学期间,学习AI课程入门的。我们用的教科书是一本AI经典书籍:《Peter Norvig’s Artificial Intelligence — A Modern Approach》。

最近我在继续学习这些,包括在旧金山听了几个关于深度学习的技术演讲,参加机器学习大会。这篇文章,我想分享一些我所学到的、最常见的机器学习算法。

机器学习算法可以分为三个大类——有监督学习、无监督学习和强化学习。

  • 在特定数据集(训练集)有标注的情况下,有监督的学习是有用的,需要对其它实例进行预测

  • 如果是在给定的未标记的数据集(数据没有预处理),则无监督学习是有用的

  • 强化学习介于这两者之间 - 每种预测步骤或动作都有一些形式的反馈,但没有精确的标签或错误信息

监督学习

1. 决策树:决策树是一种决策支持工具,使用的决策及其可能产生的后果,包括随机事件的结果,资源消耗和效用的树状图或模型。

从业务决策的角度来看,决策树是人们必须要选择是/否的问题,以评估大多数时候作出正确决策的概率。它允许您以结构化和系统的方式来解决问题,以得出逻辑结论。

2. 朴素贝叶斯分类朴素贝叶斯分类器是一种简单的概率分类器,基于贝叶斯定理,其特征之间具有强大(朴素)的独立性假设。

特征图像是方程 - P(A | B)是后验概率,P(B | A)是似然度,P(A)是类先验概率,P(B)是预测先验概率。

一些现实世界的例子是:

  • 判断邮件是否为垃圾邮件

  • 分类技术,将新闻文章氛围政治或体育类

  • 检查一段表达积极情绪或消极情绪的文字

  • 用于面部识别软件

3. 普通最小二乘回归:如果你了解统计学,你可能已经听说过线性回归。最小二乘法是一种执行线性回归的方法。

您可以将线性回归视为拟合直线穿过点状分布的任务。有多种可能的策略可以做到这一点,“普通最小二乘法”策略就像这样 - 你可以画一条线,然后把每个数据点,测量点和线之间的垂直距离,添加上去; 拟合线将是距离总和的尽可能小的线。

线性是指您正在使用的模型来迎合数据,而最小二乘可以最小化线性模型误差。

4. 逻辑回归: Logistic回归是一个强大的统计学方法,用一个或多个解释变量建模二项式结果。它通过使用逻辑函数估计概率,来衡量分类因变量与一个或多个独立变量之间的关系,后者是累积逻辑分布。

逻辑回归用于生活中:

  • 信用评级

  • 衡量营销活动的成功率

  • 预测某一产品的收入

  • 某一天会有地震吗

5. 支持向量机: SVM是二元分类算法。给定N维空间中两种种类型的点,SVM生成(N-1)维的超平面将这些点分成2组。

假设你有一些可以线性分离的纸张中的两种类型的点。SVM将找到一条直线,将这些点分成两种类型,并尽可能远离所有这些点。

在规模上,使用SVM解决的一些特大的问题(包括适当修改的实现)是:广告、人类基因剪接位点识别、基于图像的性别检测,大规模图像分类...

6. 集成方法:集成方法是构建一组分类器的学习算法,然后通过对其预测进行加权投票来对新的数据点进行分类。原始的集成方法是贝叶斯平均法,但更新的算法包括纠错输出编码、bagging和boosting。

那么集成方法如何工作,为什么它们优于单个模型?

  • 均衡偏差:如果你均衡了大量的倾向民主党的投票和大量倾向共和党的投票,你总会得到一个不那么偏颇的结果。

  • 降低方差:集合大量模型的参考结果,噪音会小于单个模型的单个结果。在金融领域,这被称为投资分散原则(diversification)——一个混搭很多种股票的投资组合,比单独的股票更少变故。

  • 不太可能过度拟合:如果您有单个模型不完全拟合,您以简单的方式(平均,加权平均,逻辑回归)结合每个模型建模,那么一般不会发生过拟合。

无监督学习

7. 聚类算法:聚类是对一组对象进行分组的任务,使得同一组(集群)中的对象彼此之间比其他组中的对象更相似。

每个聚类算法是不同的,比如:

  • 基于Centroid的算法

  • 基于连接的算法

  • 基于密度的算法

  • 概率

  • 降维

  • 神经网络/深度学习

8. 主成分分析: PCA是使用正交变换将可能相关变量的观察值转换为主成分的线性不相关变量值的一组统计过程。

PCA的一些应用包括压缩、简化数据、便于学习、可视化。请注意,领域知识在选择是否继续使用PCA时非常重要。数据嘈杂的情况(PCA的所有组件都有很大差异)的情况不适用。

9. 奇异值分解:在线性代数中,SVD是真正复杂矩阵的因式分解。对于给定的m * n矩阵M,存在分解,使得M =UΣV,其中U和V是酉矩阵,Σ是对角矩阵。

PCA实际上是SVD的简单应用。在计算机视觉技术中,第一个人脸识别算法使用PCA和SVD,以将面部表示为“特征脸”的线性组合,进行降维,然后通过简单的方法将面部匹配到身份; 虽然这种方法更复杂,但仍然依赖于类似的技术。

10. 独立成分分析: ICA是一种统计技术,用于揭示随机变量、测量或信号集合的隐藏因素。ICA定义了观察到的多变量数据的生成模型,通常将其作为大型样本数据库。

在模型中,假设数据变量是一些未知潜在变量的线性混合,混合系统也是未知的。潜变量被假定为非高斯和相互独立的,它们被称为观测数据的独立成分。

ICA与PCA相关,但它是一种更强大的技术,能够在这些经典方法完全失败时找到潜在的源因素。其应用包括数字图像、文档数据库、经济指标和心理测量。

推荐阅读

吴恩达注册了1.5亿美元基金公司,专注于AI投资

Google科学家研究的新算法,可以自动烘焙美味的饼干

不用再数羊了!MIT的新算法让你不再失眠

埃森哲报告:到2035年,人工智能将影响16个行业

2017斯坦福大学CS224N深度学习NLP通关课程

李飞飞主讲 ‖ 斯坦福大学基于卷积神经网络的视觉识别

重磅 ‖ 科学家利用机器学习技术解码大脑(paper)

有人@你,领取27本免费的数据挖掘书籍

专访陆奇:我与李彦宏分工明确,百度要征服世界!

从收银员到斯坦福科学家,李飞飞如何凤凰涅槃?

长期招聘志愿者

加入「AI从业者社群」请备注个人信息

添加小鸡微信 liulailiuwang

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多