我们都在过度解读人工智能的作用?

「人们需要认识到神经科学的局限性,而且我认为将神经网络与其他算法进行优化结合也是非常必要的」—— Michael Jordan

随着深度学习和卷积神经网络概念的加入,人工智能下半场帷幕拉开,机器开启从被动学习到自我学习模式,人工智能越发像个黑盒,你只能看见你输入的和他输出的信息,中间的过程变成了无法解释的行为。

神经网络的不可解释性成为现代神经科学研究领域一大难题,神秘而复杂,人们目前还没有完全揭开其中的奥秘。它能够通过模仿人脑的机制来解释数据,进行无监督学习,因此你无法通过直接研究神经网络来了解它的工作模式,就连负责开发这些应用的工程师也无法解释它们的行为。

尽管存在不确定性,在市场的推动下,每一个行业都怀着对人工智能的美好憧憬,积极用上人工智能至少在提升效率上不曾有过的问题。

目前将人工智能技术划入重点研究对象的行业不在少数,在医疗、社交、自动驾驶、机器人等应用领域十分广泛,尤以金融、医疗及文娱社交的发展最快。能够使用 AI 技术有针对性的为用户筛选优质信息成为每个社交媒体引以为傲的竞争资本。Facebook的人工智能技术会根据用户背景信息判断是否应该向用户展示购物链接,Instagram利用智能算法帮助用户筛选适合他的30%的信息内容,今日头条会通过算法得出的结论给你推荐你“喜欢”和想要看到的新闻。

总有意料之外的事,在Instagram原本的设想中,引入算法之后,虽然会让用户错过70%的信息,但却可以帮助看到信息流中最好的30%。不过这样的设计用户并不买单,完全依赖于机器算法推荐不仅会让用户的视野变窄,更会很容易降低获取有效信息的效率。

人工智能真的能够懂你?为你筛选的新闻真的是你的需要?所有大数据将会指向同一个地方,算法将你框在一个框里,让信息局限在指定区域。

随着人类对人工智能的依赖也更加明显,下面这个问题将越来越受重视。“无论是投资决策、医疗决策还是军事决策,你肯定都不希望把权力交给一个’黑盒子’。”麻省理工学院机器学习应用教授多米·加考拉(Tommi Jaakkola)说。但是,我们还是悲剧的被这个“黑盒子”支配着。

Uber 让人工智能设计了一套新的计价方式,利用人工智能来预估乘客愿意为某次行程支付的最高价格,从而让 Uber 的收益最大化。通过乘客的起始地址和目前时段需求量判断乘客的购买力,从而作出相应的溢价操作,此举颇有“乘火打劫”之势。

但是在整个事件中人工智能给出计费的核心依据竟然没有一个人能解释清楚。

人工智能算法就像一个“黑盒子”,数据进去、结果出来,设计者只会根据结果调整参数,并基于这些数字对个人做出判断,在相应时间作出简单人工干预。“如果机器并不比我们更加擅长解释自己的行为,那就别相信它。”

让目前的人工智能以一个辅助的位置出现却是一个不错的选择,例如Siri和小冰一样活泼有爱的语音识别系统,支付宝面部识别安防系统,Video++精准广告推荐投放系统, 今日头条和腾讯财经的Dreamwriter自动编写稿件的机器人等,都在各自的岗位上辅助推进人类更加效率的工作,这是在尚未搞懂人工智能之前最和谐的相处方式。

机器想要支配人类还为时尚早,但是人类利用机器智能支配同类获得利益的行为却在慢慢滋生,只有将算法“黑盒”打开,才能让神经网络在更合理的环境下为我们服务。