MIT实验室研究员:让机器像人一样学习,减少数据和算力依赖

毫无疑问,机器学习与人工智能是近年来最炙手可热的新兴技术。然而,随着人工智能在越来越多的领域投入应用,我们也越来越经常地听到人们这样的抱怨:“我们没有足够的数据……”、“我们没有足够的算力……”

没错,数据和算力的制约,确实是目前机器学习未来发展面临的难题之一。

为什么会出现这种情况,面对这个问题我们又有什么解决方案呢?麻省理工媒体实验室研究员、创业公司 Luminoso 的联合创始人和首席战略官 Catherine Havasi,在 EmTech 的现场讲述了她对这个问题的思考和实践。

图 | 麻省理工媒体实验室研究员 Catherine Havasi (来源:EmTech China)

尽管人工智能技术已经在许多领域取得了傲人的成绩,但目前的人工智能技术也确实还不够智能——人工智能技术对数据和算力的需要是惊人的。举例说明:

在自然语言处理领域,BERT 是一个常用的双向编码器模型。然而,训练一个BERT模型需要 64 个张量处理器(TPU)和 33 亿个单词。而性能仅仅比 BERT 高 2%-15% 的 XLNet 模型,更是需要惊人的 330 亿个单词。

在其它深度学习领域,为了战胜人类棋手,谷歌开发的 AlphaZero 和自己对弈了 6800 万局围棋。

而在自动驾驶领域,汽车必须要撞到墙上几百次,才能慢慢学会这样做是不对的。

然而,作为人类,我们学习的速度就比机器快多了。婴儿在学说话的时候,只需要听到父母的寥寥数语就可以表达自己的意思。是什么导致了这样的学习速度差异呢?

图| 尽管机器学习模仿的是人类的学习过程,但人类学习的速度比机器学习快多了(来源:Catherine Havasi)

早在深度学习风靡全球之前,麻省理工学院就开始研究如何利用少量的数据和资源进行自然语言处理。他们发现,对于任何一种知识来说,机器都是从零开始学习的。显而易见,这需要输入大量的数据和消耗大量的算力。

但人类却不是这样。

我们的学习不是完全零基础的。我们可以从已经学会的东西出发,举一反三,把已经学到的知识直接迁移、应用到其它的学习任务上,快速地学会新的东西。

将这种学习模式应用到机器学习领域,便是模拟人类学习方式的“迁移学习(Transfer learning)”的概念。

图| 迁移学习可以用于图片风格的迁移(来源:Catherine Havasi)

所谓的迁移学习,指的是把一个领域的知识,迁移到另外一个领域,提高这个领域的学习效果。最常见的案例,就是绘画风格的迁移。Havasi表示,利用迁移学习,你可以把自己猫咪的照片改造成好像是毕加索帮你画的一样。

在自然语言处理领域,迁移学习可以大幅提高学习的效率。其所需的数据只有常规模型的 1%-10%。斯坦福大学机器学习专家吴恩达认为,迁移学习将会成为人工智能商业应用的下一个推动力。

早在 2010 年,Havasi 就参与创立了开发迁移学习技术的创业公司 Luminoso。

图| Havasi 开发的技术用在了 73 种语言的学习上(来源:Catherine Havasi)

他们把迁移学习用在了许多领域里。例如,让机器去学习缺乏足够数据资源的语种、利用机器提供高质量的客户服务、还可以把动漫里虚构的形象搬上大银幕……

而在更加严肃的领域,迁移学习还可以用于:

· 从模拟器中学习:比如让汽车通过模拟运行来学习自动驾驶

· 机器人:让机器人更好地拾取形状各异的零件

· 生成属于自己的声音:为因罹患帕金森病、癌症而失语的患者创造属于他们自己的声音,而不是像霍金的轮椅一样,让这个英国人“操着”一口美国口音的英语

其它的应用还包括企业级图像识别、工业/农业人工智能、不同口音的语音识别等许多领域。

图| 迁移学习将助力提高能效(来源:Catherine Havasi)

此外,迁移学习的意义还不只在于提升机器学习的效率,更在于保护地球的环境。有研究显示,训练一个人工智能模型所产生的碳排放,可以达到一辆汽车整个生命周期中所产生的碳排放的 5 倍。现在,全世界都在大量地训练自己的模型,而学习成果之间却没有多少相互借鉴。因此,迁移学习带来的训练效率提升,不止意味着对数据的需求量变少,更意味着碳排放的减少,而这对应对全球气候变暖有着重要的意义。