微软CEO提出人工智能十大原则

标签:数据微软AI

访客:30106  发表于:2016-06-30 10:40:38

微软CEO提出人工智能十大原则

编者按:我们对人工智能未来的期待充满了不确定性。霍金认为,AI 的进化速度会比人类更快,而它们的终极目标是不可预测的。所以人类需要确保人工智能的设计符合道德伦理规范,保障措施到位。微软 CEO Satya Nadella 对此的看法相同,他认为人类在 AI 方面必须展开更深入的协调和协作,就设计的伦理和移情框架达成一致。为此他提出了人工智能需要遵循的六大原则,以及未来人类要想不被时代抛弃需要坚持和发展的四个东西。Nadella 认为,未来的 AI 世界人和机器的关系不是非此即彼,而应该是人机携手,共创未来。

(题图是 2016年 的微软 Build 开发者大会,左为视力受损的微软开发者 Saqib Shaikh,右为微软 CEO Satya Nadella,后者正在进行主旨演讲)

相对于有关计算机在 Jeopardy!(智力竞赛)、国际象棋、跳棋、围棋比赛中击败人类的新闻头条的令人心神不安,先进机器学习,亦即所谓的人工智能或者 AI 的前途要比这有希望得多。最终人类和机器将会一起工作—而不是互相对抗。计算机也许会在游戏中获胜,但不妨想象一下人机携手解决战胜疾病愚昧以及贫困等社会最大挑战的可能性。

不过要想做到这一点需要有勇气和雄心,这不是当前技术的渐进式改良所能及的。现在是在 AI 方面展开更深入协调和协作的时候了。

今年早些时候,在跟 Saqib Shaikh 同台的时候我得以窥见了这样的未来。Saqib 是一名微软工程师,他开发出了技术来帮助补偿自己早年丧失的视力。通过利用包括视觉识别以及先进机器学习在内的一系列先进技术,Saqib 和他的同事开发出了可以在他佩戴的太阳镜内嵌的小型计算机上运行的应用。这种技术可以消除歧义并且实时对数据进行解析。实际上,技术是在用声音而不是眼睛替他描绘了一幅世界的画面。他对世界的感受方式更加丰富了,比如说他可以把街头发出的噪音跟玩滑板的人联系在一起,或者从会议当中突然陷入的沉默联想到同事脑子里的东西。当技术在他耳边喃喃细语时他可以阅读 “菜单”。不过对他来说最重要的,也许是他在公园野餐的喧闹中找到了他的爱人。

人机携手之美已经在 AI 是好还是坏的讨论中迷失。我们对 AI 的看法似乎已经陷入到两种声音之间:一种是科幻片《2001 太空漫游》里面 HAL 令人不安的环境音,一种是今天的 Cortana、Siri 以及 Alexa 等个人数字助手友善的提示声。我们可以在机器开车送我们、替我们干杂活、帮助我们做出更好决策的时候做着如何利用空闲时间的白日梦,或者杞人忧天于本世纪末机器人会诱发大规模的经济失控。视你听到的说法不同,所谓的 “奇点”,也即计算机智能超越人类智能的时刻,可能会在 2100年 到来,也可能只是科幻小说的素材。

在我看来,最具建设性的讨论未必是 AI 的正邪之争:争论的焦点应该放在该技术给人和创造者带来的价值上面。在《与机器人共舞(Machines of Loving Grace)》一书中,John Markoff 写道:“回答充斥着智能机器的世界的控制这个难题的最好办法,是理解创造这些系统的人的价值。” 这是一个有趣的问题,必须由整个行业一起讨论和回答。

今年早些时候,我在一场开发者会议上分享了我们对 AI 的看法。首先我们希望开发能够增强人类能力和体验的智能。最终这不会是人类 vs 机器。我们人类有创造力、同理心、情感、肉体性以及洞察力,这些东西可以跟强大的 AI 糅合到一起。计算,也即通过大规模数据获得理性以及更快进行模式识别的能力,可以帮助推动社会前进。其次,我们还必须把信任直接建立到技术里面。我们必须针对隐私、透明和安全给技术增加防护。AI 设备必须设计用于检测新威胁,并且随着 AI 的演变来设计出相应的防护。第三,我们开发的所有技术都必须包容所有人、尊重所有人。

这只是开始,我们还可以走得更远。

技术界不应该决定这一未来的价值观和美德。

科幻小说家阿西莫夫也给出了一个很好的起点,尽管还不够充分:他在 1940年 代提出了 “机器人三原则” 作为故事当中机器人的伦理守则。阿西莫夫定律是层次化的,即第一原则高于第二原则,第二原则高于第三原则。第一原则是机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二原则是机器人必须服从人类的命令,除非这条命令与第一条相矛盾;第三原则是机器人必须保护自己,除非这种保护与以上两条相矛盾。尽管阿西莫夫定律作为策略而言比较方便且具有启发性,但是并没有提供研究人员和技术公司可以遵循的价值观或者设计原则,也没有告诉社会当 AI 和机器学习对经济越来越多的构成产生推动时,人类必须带入这下一个时代的能力是什么。

计算机先驱 Alan Kay 揶揄道:“预测未来的最好办法是创造未来。” 在 AI 的背景下,他的意思是说不要再预测未来的样子了,用有原则的方式去创造未来才是正道。我同意。就像任何软件挑战一样,原则做法始于开发的平台基础。用软件开发的术语来说,AI 正在成为第三种 “运行时”—成为下一个平台。在计算机科学中,运行时是指程序员开发和执行应用的基础系统。换句话说,我们为 PC 编写 Word、PowerPoint 之类的 Office 应用。现在的 Office 365 包含了 Office、Skype 和 Outlook,是写给 web 的。而在 AI 和机器人的世界里,这些生产力和沟通工具将会针对一个全新的平台编写,这个平台不仅管理信息还会从信息中学习并且与物理世界交互。

这个平台或者所谓的第三运行时的样子现在正在构建当中。我还记得 195年 春读到盖茨《互联网浪潮》备忘录的情形。盖茨在里面预测了互联网对连接、硬件、软件开发以及商业的影响。20 多年过去了,我们正目睹着一股新的浪潮来临—人工智能浪潮。那么指导我们思考、设计和开发的普遍设计原则和价值观应该是什么样的呢?

一些人正在带头直面这一问题。MIT Media Lab 的 Cynthia Breazeal 把一生都奉献给了探索更人性化的人工智能和机器人上面。她提出,技术往往忽视了设计的社会和行为因素。Cynthia 在最近的谈话中说我们是所有物种当中最社会化和最富有感情的一种,但是在技术设计中却几乎没有考虑过移情的问题。她说:“我们毕竟是通过沟通和协作来体验世界的。如果我们对一起协作的机器感兴趣,那就不能忽视人性化方法。”

为此,我思考了一些我们作为行业和社会应该共同讨论和辩论的原则和目标。

1、AI 必须用来辅助人类:随着我们开发出来的自动机器越来越多,我们需要尊重人类自治。协作式机器人(co-bots)应当从事采矿之类的危险工作,从而为人类工人竖起一道安全网和提供保护措施。

2、AI 必须是透明的:我们应该能知道技术是如何工作的,它的规则是什么。我们需要的不仅仅是智能机器(intelligent machines),而且是可理解的机器(intelligible machines)。技术会了解人类的事情,但是人类也必须了解机器的事情。大家应该对技术如何审视和分析世界有了解。伦理和设计必须齐头并进。

3、AI 必须实现效能最大化,同时又不能伤害人的尊严:它应该维护文化承诺,支持多样化。在设计这些系统时我们需要有更广泛更深入更多的各种互动。技术界不应该决定这个未来的价值观和美德。

4、AI 必须用于智能隐私:要有复杂的手段保护个人以及群体信息,要能够以增进信任的方式进行。

5、AI 必须承担算法责任以便人类可以撤销非故意的伤害。我们设计这些技术时必须考虑到预期和非预期的情况。

6、AI 必须防止偏见,确保进行适当的、有代表性的调查,从而防止错误的启发法不会造成歧视。

但是人类也必须遵守一些守则—尤其是在考虑清楚我们的后代必须重点考虑和培养哪些技能方面。为了不被时代抛弃,我们的孩子和他们的孩子需要有:

7、同理心—机器很难复制的同理心(Empathy)在人与 AI 共存的世界里非常有价值。感觉到别人的想法和感受,协作和建立关系将会变得至关重要。

8、教育—有人提出,因为寿命延长出生率会下降,因为在教育的投入也会降低。但我认为要想进行创新并管理好我们今天看不清楚的创新,我们就必须不断加大对教育的投资才能拔高我们的思考层次,才能获得更加公平的教育产出。新技术大规模实施所需的知识掌握和技能培养是一个非常困难的社会问题,要花很长时间才能解决。动力织机在 1810年 就发明出来了,但是由于经过充分培训的技工人手不足,服装业完成变革却花了 35年 的时间。

9、创造力—创造力是最梦寐以求的人类技能之一,这一点不会改变。机器会继续丰富和增强我们的创造力。小说家 Jhumpa Lahiri 最近在接受采访中被问到,作为有特殊影响的英国文学作家,为何要用自己的第三语言意大利语来进行新的文学创作?她说道:“不断探索难道不就是创造力的要点吗?”

10、裁决和责任—我们也许愿意接受一个计算机生成的诊断书或者法律判决,但我们更希望由人来最后对结果负责。

公平方面又会怎么发展呢?自动化会导致更公平还是更不公平?一方面,我们被告知无需担心。纵观整个历史,人类劳动力的替代品总是让工人变得更富有也不是更贫穷。另一方面,我们又被告知经济取代作用如此极端以至于创业者、工程师和经济学家应该接受一项 “新的宏伟挑战”—大家要协力设计对劳动力起到补充性而不是替代性作用的技术。换句话说,商业领袖必须用创造者和创造物(maker-and-creation)的心态来取代原来的节省劳力和自动化的心态。

AI 的发展和对社会的影响才刚刚开始。要想真正把握即将到来的这个时代的意义需要进行深入的、多方面的分析。我在微软研究院的同事 Eric Horvitz 是人工智能领域的先驱,他一直在问自己这些问题。Eric 和他的家人为斯坦福大学的 One Hundred Year Study 研究计划提供了资助。该项目将在下一世纪来临前的每一年,就智能计算的崛起、对机器智能认知的变化,以及人际关系的可能改变会引发的近期和远期社会经济学、法律和道德问题进行报告。

尽管未来没有清晰的路线图,但是之前的工业革命我们已经看到过渡并不是一帆风顺,要经历一系列阶段。首先,我们发明和设计了变革的技术,也就是我们现在走到的地方。接着,我们面向未来转型。比方说,无人机飞行员需要培训;旧车的方向盘需要卸掉,因为会被改成无人车。第三,我们要对畸变、不协调以及错位进行引导。在机器看 X 光片的水平更高之后放射科医生的工作是什么?当计算机可以从上百万份资料当中找出无人可以识别的模式之后,律师的职责又是什么呢?但是,如果我们能够吸收合适的价值观和设计原则,如果我们能够准备好作为人类的必备技能的话,人类和社会就能继续繁荣。

认知科学家和哲学家 Colin Allen 得出结论:“正如我们可以设想在人类监视下自治程度不断增加的机器一样,我们也可以设想控制对伦理相关事情敏感度不断增加的机器。当然,不是完美机器,但是会比以前更好。”

我们对 AI 追求的最关键一步是就设计的伦理和移情框架达成一致。

来源:36Kr

评论(0)

您可以在评论框内@您的好友一起参与讨论!

<--script type="text/javascript">BAIDU_CLB_fillSlot("927898");