恶性大数据:人工智能的阿基里斯之踵

恶性大数据:人工智能的阿基里斯之踵

只要敌方人员能访问用于培训己方人工智能的数据集,己方人工智能的盲点极有可能被敌方了解。陆军研究实验室高级研究员布莱恩·萨德勒表示:“只要让我能知道你的数据,我就能用多种方式欺骗你的人工智能系统。”

华盛顿:在关于“人工智能”种种时髦词语的背后,有一个令人沮丧的事实:只用利用大数据集进行培训,机器学习算法才能生效,但我们的数据集可能太小、标签错误、不正确、或者被人恶意篡改。多名美国国家安全局、美国国家地理空间情报局和陆军官员警告:如果数据不正确,大数据就是大问题。

在国家安全领域,恶性大数据是一个亟待解决的问题;该领域的主要威胁不是普通网络罪犯,而是掌握先进技术且资金充足的国家。如果一个懂行的敌对国知道我们使用哪种数据集培训人工智能,他们至少在欺骗我方人工智能方面取得了先机;因为很难获得足够数量的数据集来培训人工智能,只能大量使用共享数据。在最坏情况下,敌方可以向我方人工智能系统提供虚假数据,由此造成我方人工智能系统掌握的现实情况是经过敌方篡改过的;

而且还很难弄清楚我方人工智能系统究竟出了什么问题。机器学习算法的内部运行原理极不透明,也无法预测,即便对人工智能系统设计者本人也是如此,因此在绝对不能出错的领域,例如飞行控制领域,相关工程师拒绝使用人工智能。只要没有发生众所周知的灾难,人们可能永远不知道人工智能一直在犯错;人工智能引发的灾难包括微软公司的Tay聊天机器人尽在上线数小时后就被“钓鱼者”引诱发表种族主义言论或者天网用核武器攻击世界这样灾难。


在诺曼底登陆日,这种外形像谢尔曼坦克的充气虚假目标欺骗了希特勒。

欺骗的科学

孙子在2500年前写道:“兵者诡道也。”随着战争在技术层面变得越来越复杂,为各类新型欺骗手段提供了条件。在二战时期,充气坦克组成的“幽灵部队”在照片中看起来和真正的坦克部队毫无差别,让希特勒相信诺曼底登陆只是佯攻。在1999年,塞尔维亚军队将装着温水的平底锅作为虚假目标,欺骗北约的红外传感器和视觉传感器。在2016年,俄罗斯“钓鱼者工厂”利用社交媒体发布虚假新闻并煽动愤怒情绪,挑起美国国内政治纷争。现在有了人工智能,其分析大数据的速度快于人类数据分析大型团队并且能发现仅用人脑无法发现的数据模式——但人工智能也会犯人脑不会犯的错误,我最初将此称为“人工痴呆”。

美国国家安全局主管黛博拉·弗林克在今天上午举行的“人工智能加速”会议上表示:“人工智能安全,这是一个全新领域。”“虽然你们大多数人无需处理人工智能安全问题,但我们和美国国防部应当知道这样的情况——一个掌握人工智能技术并且具备计算能力的精明敌对方很有可能在仔细检查我们在人工智能安全方面的工作。”

弗林克和其他官员在“人工智能加速”会议表示:情报界仍能从私营部门获得大量技术创新。人工智能甚至可以使用多种算法,例如自身软件的开源算法,并对其进行适当修改。

弗林克表示:“如果其他人能够做到这件事,我就不会去做了。”弗林克的机构为多家重点大学提供科研资金。“有人认为联邦政府,甚至敏感机构,利用我们在外部发现的各类算法,与(工业界和学术界)共享更多信息。”

但弗林克强调:共享数据比借鉴算法更加困难,数据极为珍贵,是人工智能技术的命脉。

陆军研究实验室高级研究员布莱恩·萨德勒表示:只要敌方人员能访问用于培训己方人工智能的数据集,己方人工智能的盲点极有可能被敌方了解。萨德勒告诉我:“只要让我能知道你的数据,我就能用多种方式欺骗你的人工智能系统。”萨德勒好表示:还存在着一个不断发展的“对抗性人工智能”领域,研究不同人工智能如何胜过对方的方法,不仅政府内部在进行此项研究,其他非政府机构也在进行此项研究。

萨德勒表示:“我们研究的内容与其他技术领域重叠。”“无人驾驶汽车研究人员肯定对人类操控环境的方式感兴趣,(例如)在停车标志上贴一根带子,让停车标志看起来像是让路标志。”人工智能与人类不同,人类大脑经过进化,能够分辨语境线索,缺乏想象力的人工智能只能分析复杂现实场景中的少数几个特征。公用事业公司、财政部门和其他非政府“关键基础设施”都逐渐意识到高技术黑客攻击的危险,包括来自其他国家攻击的危险,对各种数据检测技术进行投资,以检测自身数据中的恶性错误。

这意味着:虽然军方和情报机构能够随时使用大规模商业创新技术,但他们仍然需要为自身研发机构提供资金,以解决特定对抗性人工智能和欺骗性数据问题。萨德勒说道:“这是我们确实担心的这些问题,我们也确实正在研究这些问题。”“我们正在处理对抗性人工智能问题,这是商业人工智能系统无需面对的问题。”


大数据和人类智慧

如果没有人类的深入干预,仅提供数据和算法,就不要指望人工智能解决全部问题。美国国家地理空间情报局自动化主管托德·迈尔斯在人工智能大会完成发言后,告诉我:“即便谷歌也没有足够的标签培训数据。这是每个人都要面临的问题。”

在人工智能脆弱的培训阶段,原始数据不适用于机器学习算法。人工智能需要的是经过标签分类的培训数据,以便依据真实情况来确认其做的决定:这段视频显示的是一名恐怖分子还是平民?图片显示的是敌军坦克还是一个虚假目标?这个无线电信号是经过编码传输的信号还是毫无意义的杂音?即便在现在,先进人工智能也会犯一些可笑的错误,例如将牙刷和棒球棍混淆(见图片)。对,最终目的就是让人工智能变得足够好,人类可以放手让人工智能对现实世界数据进行正确处理和分类,其处理数据的速度远远快于人类分析师团队;但在人工智能培训阶段,还得有人检查人工智培训内容,以确定人工智能学到正确的技能。

“一个男孩拿着一只棒球棒。”

那么,谁来检查人工智能的培训内容?谁来处理初始数据分类标签事务?通常,此类事务由人类处理。当然,数据对比技术方案有助于人类数据分析家开展工作。对单个目标利用一种传感器系统进行探测,无法识别其是否为虚假目标,如果利用多种传感器对单个目标进行探测,例如视觉传感器、雷达传感器和红外传感器等,就能识别目标是否为虚假目标。但经验丰富且充满智慧的人脑还无法被其他事物替代,至少现在是如此情况。

弗林克表示:“如果你有大量数据,但没有聪明人来帮助你了解真实情况,人工智能系统可以提供给你一个机械式的答案,但答案的准确度不一定符合你的要求。”

弗林克强调:“聪明人不一定是指精通电脑的人。”例如,如果要探测经过伪装的军事设施或破译敌军无线电信号,让程序员、大数据研究员、人工智能装甲以及特定领域的专家共同工作是至关重要的。

否则,相关人员只能得到处理现实世界抽象数据的数据工具,无法对具体物理现象进行分析。如果某位程序员认为其设计的算法无所不能,可以处理任何问题,无视任何细节,这是最危险的情况,科学家兼漫画家兰德尔·芒罗用漫画表示:


来源:兰德尔·芒罗( Randall Munroe XKCD)

弗林克表示:一个人工智能项目如要取得成功,团队成员应当包括完全了解相关问题的专家、一名研究人员、一名数据研究人员、一个懂得如何运用相关科学的团队;并且数据反馈不会结束。随着人工智能变得成熟,无需利用标签培训数据进行训练,可以与现实世界进行互动,人工智能用户需要持续地向软件团队进行反馈,从而对人工智能软件进行更新、修补及校正。

美国国家安全局给予人工智能使用者纠正或确认计算机结果的权限。本质上,这是一种众包事务,对机器学习算法进行永久培训。

弗林克说道:“我们提供给分析师一些在大部分模型中不存在的事物,让分析师对人工智能系统输出结果进行分析和评定,只要说‘是’和‘否’,点击拇指向上图标或拇指向下图标即可。如果我们的学习算法与模型达不到预期精度,我们将对学习算法和模型进行改进;随着时间的推移,学习算法将变得越来越强大。”