八问人工智能:人类会失业吗?

人工智能技术方兴未艾,机器人在设想的未来生活中更是举足轻重,但是这对我们到底意味着什么?近日,科研网站The Conversation总结出8个有关人工智能和机器 人的问题,并邀请各界人士进行讨论。看完告诉小编,对于这些问题,你是怎么想的呢?

1. 仿人智能有多大可能实现?

人工智能教授Toby Walsh:

仿人智能是可以实现的。

虽说人类大脑是世界上已知最为复杂的系统,没有什么可以和大脑数十亿个神经元和数万亿个神经元连接的复杂程度相媲美,但是也没有什么物理法则阻止我们重现 或超越大脑脑力。

《计算机科学》(Computer Science)读者Kevin Korb:

从阿西莫夫到斯皮尔伯格,人工智能技术在流行作品中可谓炉火纯青。这个问题没有问到的是:人工智能会在什么时间实现?包括 我在内的大多数人工智能研究员认为,答案是近期不可能出现,当前人工智能的关键问题研究进展缓慢。

人工智能作品中不大可能实现的是机器人的情感和道德生活。作品中的机器人不是像《星际迷航》里的Data一样毫无情感,就是像《她》中的机器人一样和人类无差 别。智商、情商和能商相互依存,任何一方不可能离开其他两者单独存在,但科幻小说一般会把它们区分开。柏拉图笔下的苏格拉底也犯了类似的错误。

人工智能立法研究员Gary Lea:

人工智能不是不可能,但实际问题是“什么智能程度才算人工智能?”应用实验也许能帮我们揭晓答案:图灵测试(如 果电脑能在5分钟内回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则电脑通过测试),咖啡测试(机器人能否走进陌生的房 间然后冲一杯咖啡),大学学位测试和工作测试。

如果人工智能系统能通过上述所有测试(还有其他心理学家可能想出的其他测试),那么人工智能应该差不多算是实现了。也许最终的挑战是机器人能否和人类一起 生活而不被发现?

2. 自动化正在取代很多工作。现在是不是应该立法保护这些行业?

机器人学教授Jonathan Roberts:

2013年,牛津大学研究人员根据自动化可行性程度对各类工作进行排序后发现,未来20年内,美国境内近半数的工作将面临计算机 化的风险。2014年,网络上出现了一个名为Humans Need Not Apply的高点击率视频,深入讨论人类是否会因机器人的发展而失业。视频指出,很多工作都将被机器人 或自动化系统取代,就业将会成为未来人类社会的一大问题。

未来会发生什么无法预测,但用机器代替人类不仅仅是技术层面的问题,商业需求、社会态度和特定市场的人类行为等都是需要考虑的因素。

哲学教授Rob Sparrow:

立法保护特定行业并不能解决自动化技术进步导致人类失业这一问题,我们该做的是两件事情:

第一,即使在一个高度自动化的世界里,仍然应该保证人们拥有良好的生活和开展有意义工作的机会。乌托邦思想曾认为:未来有机器人工作,人类则不必辛劳。如 果认为机器人取代人类工作是坏事,那其实是我们认为普通人有收入、能进行让生活更有意义的活动实际取决于雇佣他们的有钱人。事实上,我们应该考虑重新分配 机器产生的财富,在减少人类工作的同时保证人们从事自己喜欢的事情并能从中获得价值。

第二,应该保护社会中的弱势群体,防止他们受到糟糕的待遇。从我母亲的机器人护理经历来看,将机器人引入本就不尽人意的老年人护理行业,很有可能是雪上加 霜。犯人和儿童等群体也是容易被强制引入机器人看护的对象。

人工智能教授Toby Walsh:

社会将发生一些重大变化。美国如今从业人数最多的工作是卡车司机。但30年内,大多数卡车将变成自动驾驶。

如何应对这种变化是整个社会的问题。历史证明,单纯的保护主义作用并不大。每个国家都应参与进来寻求解决办法。此外,我们可以努力适应新世界,保证劳动力 的受教育水平,以此来适应技术创新产生的新工作岗位。

我们要保证每个人都能受益于这场科技浪潮。也许人人都可以减少工作,共享自动化创造的经济利益呢?这可能需要通过从根本上改变社会税收和福利制度才能做到 。

《计算机科学》读者Kevin Korb:

行业保护和限制不是解决之道。我觉得技术发展应该以解决现实问题为目的,这必然会导致经济混乱,而善良的社会将包容落后于 此的人。

但是,只要我们控制好寡头,就能通过改善技术解决这些问题。另外,如果我们能够培养人们对工作的灵活性,聪明的人类是可以应付自动化所带来的冲击的。

国防分析师Jai Galliot:

人们通常认为被自动化取代的人应该去寻找更有意义的工作。但是,这个想法并不全面。

想象一下空军飞行员吧。这些飞行员全身心投入,经过充分的训练,时刻准备着保卫他们的国家和人民。对于现役军人来说,在战场上保家卫国才是最有价值的工作 ,所以对于被替代的军人而言,找到其他有意义的替代工作并没有多大安慰。

澳大利亚青年基金会(Foundation for Young Australians)表示,如今澳大利亚年轻人正在接受培训的工作中,有60%将会因为自动化而被迫转型。可悲的是,一 个机器人可以代替很多工人。

创新和知识经济的时代,发达经济的未来取决于年轻人能否适应由自动化所带来的全球化或共享化的工作。

3. 未来5到10年人工智能去向何处?

人工智能教授Toby Walsh:

人工智能将成为连接所有设备的操作系统,Siri和Cortana这样的应用程序将变成我们与互联世界互动的通道。

人工智能将实现我们与智能手机、汽车、冰箱、中央供暖系统和房门的交互。我们将生活在一个永远在线的世界。

机器人学教授Jonathan Roberts:

未来5到10年,机器学习系统很可能以机器人的形式和我们互动。下一个需要克服的巨大技术挑战是如何赋予机器人视觉。

在过去的四五十年里,这项挑战一直是众多机器人研究人员的课题。领域内越来越多的人相信使用大数据的机器学习最终可以部分解决赋予机器人视觉的问题。

最近,昆士兰科技大学、阿德莱德大学、澳大利亚国立大学和莫纳什大学在澳大利亚研究委员会资助的机器人卓越视觉中心(Centre of Excellence in Robotic Vision)组队,努力解决诸多妨碍机器人视觉的难题。

4. 我们是否应该担心军用和其他武装机器人?

哲学教授Rob Sparrow:

人类最不需要的就是让很多优秀的工程师和机器人专家研发杀人机器。

机器人武器将极易引发冲突,政府会认为开战不会造成任何伤亡,因而将更轻易发起战争。偶发战争的风险将提高,因为军方会在高危环境中部署无人设备,例如潜 在敌方的领空位置或深海港口。这些情况下,机器人可能在人类否决它之前就开战,使用自动化机器人可能会进一步威胁对人类生命。

基于以上原因,我和国外同事们共同建立了国际机器人武装控制委员会(International Committee for Robot Arms Control),支持停止机器人杀手运动 (Campaign to Stop Killer Robots)。

人工智能教授Toby Walsh:

"杀手机器人"是继火药和原子弹之后的下一场革命。如果现在行动起来,也许我们能通过禁令阻止杀人机器人研发的军 备竞赛。

一项禁令不足以使技术停滞。采用自动化技术的自动汽车,每年将在澳大利亚减少1000多起道路交通事故。但是一项禁令足以败坏技术的名声,从而阻止军火公司兜 售或进一步研发杀人机器。这种方法对很多武器都发生过作用,例如激光致盲武器。如果不颁布禁令,恐怖分子和流氓国家将使用杀人机器人对付我们。

对于那些声称现存法律已经涵盖杀人机器人的观点,我不敢苟同。因为我们还不能正确设计它们以避免额外损伤。即便未来我们有能力设计,也无法阻止黑客入侵机 器人使其做出不道德的事情。就算是合法使用,它们也会成为恐怖的武器。

机器人伦理学者Sean Welsh:

我们应该注意军用机器人。但是我们不应该觉得没有现行法律管理武器化机器人。

没有法律详细规定不能用钢琴丝行凶,法律通常只规定严禁谋杀,但我们不能为了停止谋杀而禁用钢琴丝。同样,现存法律已经禁止在和平时期使用任何武器进行谋 杀,在战争时期使用任何武器造成非法死亡。担心自主武器被非法利用不能成为禁止自主武器的理由,就好比担心自动汽车被非法利用(做汽车炸弹)就禁止自动汽 车一样。不加区别的滥用任何武器导致不必要的灾难已经违反了国际人道主义法律。

有人提倡把自主武器与生化武器归为一类。但是,禁止生化武器的主要原因是它们对敌友无差别攻击并会导致不必要的灾难(缓慢痛苦的死亡)。它们毫无人道主义 特征。相比之下,没有任何证据证明“杀手机器人”会进行无差别攻击或带来痛苦的死亡。与人类操作的武器相比,机器人武器的精密度和准确度是它得 到支持的关键。

如果设计正确,机器人武器将降低额外伤亡的可能性。而且机器人武器的目标可以被设定位抓捕而不是杀死敌人。自动武器确实有潜在的人道主义特征。

5. 超级人工智能有多大可能实现?

机器学习和人工智能副教授David Dowe:

我们一度认为机器人无法做到的事情现如今已经一一实现:打败人类象棋冠军(1997年),赢得《危险边缘》(Jeopardy!)益智问 答游戏节目,目前基本成为矿区标准的无人驾驶车,自动翻译等等。

目前,智力测试问答仍是测定智力的方法,我最近也在关注计算机在这些测试方面的表现。

哲学教授Rob Sparrow:

如果人工智能可以出现,那么超级人工智能也可以出现。没有理由相信除人类以外的实体不能获得智力,也没有证据说明最高的人 类智商就是智力的上限。

如果人类能在不久的将来创造出这样的机器,我们应该感到害怕。想想人类是如何对待老鼠的吧,那些比我们聪明无数倍的机器为什么要对我们好呢?

6. 如果我们对自己的思想都所知甚少,我们能有意识地制造出人工意识吗?

《计算机科学》读者Kevin Korb:

作为功能主义信仰者,我相信我们有可能制造出人工意识。这不意味着我们期望制造人工意识,只是说我们有可能。

John Searle(哲学家,语言学家,提出中文房间思想实验)对人工意识可能性的反驳似乎混淆了功能实现性和计算实现性。也就是说,计算出意识也许在逻辑上是不 可能的,但这不意味着嵌入式功能计算机不会有意识。

哲学教授Rob Sparrow:

很多工程师、计算机科学家和科幻小说作家认为我们很快就能创造出人工意识。他们估算人类大脑的神经元数量,并指出我们很快 就能造出有同样数量逻辑门的计算机。

如果你咨询那些真正能“修补”思想的心理学家或心理医生,我觉得你会得到截然不同的答案。治疗重度抑郁症的最先进方法依然包括电击大脑,这就好 比修理抛锚的汽车时把汽油浇在发动机上。我们对思想的了解还不够,所以不能创造人工意识。

7. 半机械人与人工智在概念或技术上有什么区别?

信息系统学副教授Katina Michael:

半机械人(Cyborg)是人类和机器相结合。从定义上看,半机械人指增加技术部件或利用技术提高能力的人。随着技术能力的进步 ,我们发现可以把技术应用于人体,制造假肢和/或用于强化。所以,如果我们选择那种设计,技术将不再是我们的延伸,而是我们身体的一部分。

相比较下,人工智能是通过经验学习模拟人类决策智力的计算机系统。半机械人始于人类并可能经历转变过程,而人工智能则主要以软件的形式根植于计算机系统。

有些研究人员认为,半机械人也可以始于人形机器人并包含活体组织和其他器官。不管是给人安装机器还是给机器安装器官,只要人工智能通过硅微型芯片或纳米技 术植入假肢或人造器官,这个人或机器就是半机械人。

对这种控制论已有早期实验。1998年,Kevin Warwick教授把他的第一个实验命名为Cyborg 1.0,他通过手术在前臂植入了硅芯片响应器。在2002年的Cyborg 2.0项目 中,Warwick通过手术在左臂正中神经纤维里植入了100个电极阵列。

最终我们需要十分小心,防止植入身体的人工智能吞没并控制人类意识。

控制论已经进入了我们的生活

8. 你对人工智能的未来和它给人类带来的利益持乐观态度还是悲观态度?

人工智能教授Toby Walsh:

我既乐观又悲观。人工智能确实是人类的革命性成果,它会改变我们的经济、社会以及我们在世界上的中心地位。如果运用得当, 世界将变得更加美好,所有人都会变得更加健康、富有、快乐。当然,和其他任何技术一样,我们也可能因为选择错误而走入歧途。不幸的是,人类确实做出过错误 选择。

我们知道全球变暖正在发生,但我们似乎没办法不走这条路。我们知道恐怖主义正在破坏世界,但我们也好像无法阻止。人工智能讲给我们的社会带来深刻根本的挑 战,例如完全改变工作的本质。科幻小说将变成科学现实。

哲学教授Rob Sparrow:

我对人工智能对人类的长期影响持悲观态度。

我不想否认人工智能会带来很多好处,尤其在支持人类做出更好的决定和追求现在难以实现的科学目标等方面。通过尝试制造实现大脑功能的机器来研究大脑本身就 是件有趣而且有意义的工作。

但是,人工智能学者造出的系统可能主要用于让富者更富、强者更强,这样的危险是存在的。

而且我认为人工智能的前景可能会让人类自欺欺人,相信自己无须为现在的气候变化做任何努力。人们的注意力可能会从知道该怎么做、但缺少政治意愿的事实上分 散开来。

最后,虽然我们现在还不太清楚人工智能如何实现,但如果工程师成功制造出比人类聪明的超级人工智能,我们就可能有种族灭绝的危险。

机器人学教授Jonathan Roberts:

我对人工智能对人类的长期影响持乐观态度。我认为人工智能有潜力从根本上改变人类,所以,如果你不喜欢改变,那么你也不会 喜欢未来。

我认为人工智能会彻底改变医疗保健,尤其是诊断,并且使个人药物定制成为可能。人工智能全科医生和机器人医生可共享所得,从而创造可访问全世界医疗数据的 超级医生。

我持乐观态度的另一个原因是,人类通常能够发现技术产生的重大负面影响并最终解决问题。事情在人类的掌控中,人类将自然而然地尝试并利用技术来创造更好的世界。

《计算机科学》读者Kevin Korb:

我对人类的中期未来感到悲观。我认为气候变化和随之而来的混乱和战争可能给科技带来巨大破坏,彼时人工智能的发展可能停滞 。

如果那些情况没有发生,那么技术会持续发展,而且在长期内实现人工智能。在此过程中,人工智能将衍生出对经济和社会的益处,所以我认为只要人工智能技术存 在,它的重要性就存在。

人工智能立法研究员Gary Lea:

我认为人工智能的长期未来会喜忧参半。如果科学家和工程师在研究、设计和制造选择中仔细考虑安全和公众福利,而且有合理的 管理框架作为支撑,这样应该没有问题。

因此,总的来说,我对这个问题持谨慎乐观态度,但对人类而言,人工智能还有很多其他长期存在的危险。

相关文献:

1.Predators or Plowshares? Arms Control of Robotic Weapons. | Sparrow, R. 2009. | IEEE Technology and Society 28(1): 25-29, Spring.

2.Computer models solving intelligence test problems: Progress and implications | José Hernández-Oralloa, Fernando Martínez-Plumeda,Ute Schmidb, Michael Siebersb, David L. Dowec | doi:10.1016/j.artint.2015.09.011


(科学之家:译审/编辑:Rui)