机器学习

机器学习是人工智能(Artificial Intelligence)的一个研究分支,是一种实现人工智能的方法;深度学习(deep learning)是一种实现机器学习的技术。

对于学机器学习的实用领域,我们学的是各种模型(算法),包括模型选择、整合、参数的调试,注重逻辑分析和判断的能力,数学内容重在理解而不在公式推导。

机器学习的概念:利用计算机的算力从大量数据中构建正确的模型以完成既定任务,即在已知数据集的基础上,通过反复计算,选择最贴切的函数(function)去描述数据集中自变量 $$x_1$$, $$x_2$$, $$x_3$$, …, $$x_n$$ 和因变量 $$y$$ 之间的关系。

机器学习领域中,自变量称为特征(feature),因变量称为标签(label)。

  • 特征的维度指的是特征的数目。

机器学习的本质是统计建模的过程,只是特征数目和数据量过于庞大,这一原本由数学家来做的工作只能交由机器来完成。

最常见的分类中,机器学习分为监督学习(supervised learning)、无监督学习(unsupervised learning)和半监督学习(semi-supervised learning)。监督学习的训练需要带标签数据,无监督学习不需要带标签数据,半监督学习介于两者之间。

  • 训练集是图片,图片加上了“猫”的标签,训练模型去识别图片中的猫,这是监督学习;图片没打标签,训练的目标是对图片进行分组(聚类,clustering),这是无监督学习。
  • 半监督学习适用于获得有标签数据的成本很高的场景。

深度学习选择人工神经网络(Artificial Neural Network,ANN)模型进行机器学习,常见的 ANN 包括卷积神经网络(Convolutional Neural Network, CNN)、循环神经网络(Recurrent Neural Network,RNN)等。

ANN 的本质上也是对统计学方法的应用,只是它的结构更深、参数更多。

深度学习的优点是无须手工获取数据特征,减少了特征工程(feature engineering)。特征工程是指对数据特征的整理和优化工作,目标是让它们更易于被机器所学习。

  • 如果使用传统算法,图片识别之前需要手工做特征工程,比如识别数字可能需要告诉机器数字 8 有两个圈,通常上下左右都对称,比如辨别猫狗可能需要预定义猫的特征、狗的特征,然后通过机器学习模型进行分类;深度学习通过神经网络把特征提取和分类任务一并解决了。
    • 传统的机器学习算法包括线性回归、逻辑回归、决策树、朴素贝叶斯等。

强化学习(reinforcement learning)研究的目标是智能体(agent)如何基于环境而做出行动反应,以取得最大化的累积奖励。

强化学习和普通机器学习的不同在于,普通机器学习是在开放的环境中学习,如自动驾驶,每一次向前驾驶都带给机器新的环境,新环境(新数据)永无止息;强化学习的环境是封闭的,如 Alpha Go 下围棋,每落一个子,棋盘就少一个目,棋盘永远不会增大或减小,在这样的闭环中,就比较容易实现对机器刚才所采取的策略进行奖惩。

强化学习和监督学习的不同在于,监督学习是从数据中学习,而强化学习是从环境给它的奖惩中学习。监督学习中数据的标签就是答案,结果的对错容易区分,调整参数的方向比较明确;强化学习受到奖惩后的原因不明确,调整策略所需的智能更强,要求思路更广阔、眼光更长远,不追求每次都选择最有动作,要在探索(未知领域)和利用(已有知识)之间找到平衡。

回归(regression)和分类(classification)是两种最常见的机器学习问题类型。

  • 回归问题通常用来预测一个值,其标签的值是连续的,常见的回归算法是线性回归(linear regression)算法以及深度学习中的神经网络等。
  • 分类问题是将事物标记一个类别标签,结果为离散值,也就是类别中的一个选项,常见的算法包括逻辑回归算法、决策树算法以及深度学习中的神经网络等。

回归分析(regression analysis)是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。

  • 最基本的回归分析算法是线性回归,它是通过线性函数对变量间定量关系进行统计分析。
    • 如果只包括一个自变量(特征 $$x$$)和一个因变量(标签 $$y$$),且两者的关系可用一条直线近似表示,这种回归分析就称为一元线性回归分析。
    • 如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。

对于模型 $$y=wx+b$$,$$w$$ 是权重(weight),$$$b$ 是偏置(bias)。

逻辑回归是在线性回归的基础上增加了一个 Sigmoid 逻辑函数,把目标值的输出限制在[0,1]区间而已,除此之外,整个流程即细节都和线性回归非常相似。

联邦学习

定义:机器学习过程中,各参与方数据不出本地,借助其他方数据进行联合训练,建立共享的机器学习模型。

差分隐私(differential privacy)的区别:

  • 联邦学习通过加密机制下的参数交换方式保护用户数据的隐私,加密手段包括同态加密等。
  • 差分隐私、k 匿名(k-anonymity)、l 多样化(l-diversity)等方法是在数据加噪音,或采用概括化的方法模糊某些敏感属性,直到第三方不能区分个体,数据大概率无法被还原,本质上还是传输了原始数据。

横向联邦学习:同质数据,各有各的保有量;同行之间。

纵向联邦学习:同一个用户的数据,各有各的维度;产业链上下游之间。

联邦迁移学习:用户不同,数据维度也不同。


References