当前位置:首页 > 智能硬件 > 人工智能AI
[导读] 在电影《异形:契约》中,迈克尔·法斯宾德所扮演的仿生人大卫表面上对人类亲切友好,但实际上却通过一系列行为为人类带来灾祸。而在现实中,如霍金、马斯克、比尔。盖茨等名人都曾警告过人们要警惕人工智能可

在电影《异形:契约》中,迈克尔·法斯宾德所扮演的仿生人大卫表面上对人类亲切友好,但实际上却通过一系列行为为人类带来灾祸。而在现实中,如霍金、马斯克、比尔。盖茨等名人都曾警告过人们要警惕人工智能可能带来的危害。对于“人工智能灭世论”的支持者而言,当人工智能发展到一定阶段后,它可能将人类看作潜在的、可被消灭的对象。正如一位著名的AI风险倡导者所说,“人工智能并不恨你,也并不爱你,但你是由原子构成的,它可以将其用于其他用途”(Yudkowsky,2008)。在这篇文章中,我将先介绍人工智能灭世论的基本论证,然后提出两个质疑。需要说明的是,这样的质疑并非为了证明人工智能灭世论是全盘错误的,而是为了让该理论变得更为完整且合理,以带给人们更严肃的思考。

人工智能灭世论

对于人们而言,人工智能将会在智力层面上超越人类已经不是秘密。人们为人工智能解决某些复杂能力而啧啧称奇,但是人类仍然对人工智能在认知领域的进展既好奇又警惕。这样的态度背后,是人类对于智力与良知之间不一致关系的认识,一个在智力上超越人类的存在未必是善良的。正如Nick Bostrom 在他的著作《超级智能》中所说的,如果超级智能是仁慈的,那很好,但是没有理由让人们认定人工智能必定是善良的。我们完全可以想象,当人工智能认为有必要销毁人类赖以生存的资源时,人工智能会“毫不留情”地执行这一想法。Nick Bostrom表示,人工智能有能力决定日后的地球上的生命起源,当他们认为非人类式的生命将对地球最为有益时,可以预见人工智能将推动人类的灭绝。

对此,有些学者质疑到是否可以设计某些“仁慈性测试”来检验人工智能的危害性。在人工智能通过测试之前,人们可以将人工智能放置在一个可控的、安全的环境(“盒子”)中,并反复测试其安全性。“盒子”本身需要尽可能的还原现实环境,以保障人工智能的仁慈性与安全性得到的测试足够真实。在人工智能通过测试后,并且对人类生命没有任何风险时,我们可以将其从“盒子”中释放出来。

但是,测试提议收到了许多批评和质疑,Bostrom表示,我们可以怀疑人工智能是否会为了逃离“盒子”而说谎通过测试。正如同人类可以为了达成自己的目的而使用例如说谎等不光彩的手段一样,人工智能也有能力通过假装对人类友善来实施其灭绝人类的计划。甚至,在通过测试后的很长一段时间内,人工智能都可以与人类和谐共处,以赢得人类的信赖。另一种可能是,基于人工智能的高速发展与变化,如同《异形:契约》中的仿生人大卫一般,它们可能基于现实变化而推翻之前对于人类的认知,将人类视作威胁。因此,通过仁慈性测试并不能保证人工智能未来的安全性。基于这些理由,我们有理由对人工智能灭世论报以足够的重视。

人工智能的威胁与休谟问题

Bostrom对于人工智能可能欺骗人类通过仁慈性测试的可能性似乎与休谟问题有着相同的逻辑。休谟指出,当我们通过归纳之前的经验而得出将来的结论时,我们就不得不面临归纳所带来的风险。举例而言,我们不能因为太阳升起过999次就认定太阳会在明天升起第1000次;同样的,欧洲人曾经认定天鹅只有白色,因为他们只见过白色的天鹅,然而,当黑色的天鹅出现后,他们之前的推断就被证明为错误的。同理,Bostrom对于人工智能的道德性具有相同的怀疑,即使人工智能在人们的日常生活中可以显得善良而可靠,我们仍然不应该忽视人工智能在将来成为人类威胁的可能性。这样的警告使得人类在面对人工智能时不得不陷入一种两难,一方面,我们可以心安理得地去享受人工智能为我们提供的便捷服务;但是在另一方面,我们又不得不小心谨慎地去提防人工智能的“背叛”。但是,正如同休谟问题指出的,我们永远无法正确地指出明天的太阳是否会升起,我们也无法判断人工智能在未来究竟会是善还是恶,这样的怀疑指出了人们对于人工智能的轻信,却无法带来一个确定的结论。当然,我们也可以发现,人类的日常生活中无时无刻都在面对这样的“不确定性”,没有人能够真正地预测未来究竟会发生什么,就如同我们不能排除今天开车出门有发生车祸的可能性,但是我们不会因此不出门一样;即使在明知人工智能可能带有风险之后,某些人群仍然愿意忍受这种风险,享受人工智能的便利。

揣测超级智能的不可能性

与休谟问题的归纳性不同,爱尔兰国立高威大学的John Danaher 教授对人类是否真的能够理解人工智能的所思所想表示怀疑。我们可以意识到,大部分对于人工智能威胁的理论都建立在拟态逻辑上,人们幻想出一个可能的世界,并在其中推演人工智能背叛人类的可能性。但是,这样的推演(如Bostrom所提出的假设),仅仅从人类视角,根据人工智能的技术性与现实进行假想;值得怀疑的是,这样的推测是否真正还原了人工智能的思考方式?而人工智能又在多大程度上会如同推演中的那样去行动?英国学者Kevin Warwick曾表示,“我们无法真正理解超级智能为什么做出这样那样的决定。当一个机器以超越我们纬度的方式进行思考时,我们又怎么可能去理解、推测它的想法,乃至和它进行讨价还价呢?”

如人类想象中的其他超级智能,例如上帝,不同的是,人工智能或许是全知全能的,但是它的目的并非如同全善的上帝一般是去创造并维持这个世界的有序运行。我们可以从观察自然世界中发现某些世界遵循的规律,并推测上帝设计了这些规律。但是,我们没有理由去相信人工智能也会遵守并维护这些规律,而恰恰相反,人工智能拥有随时破坏并制定新规定的能力。也正因为如此,我们有理由怀疑科学家是否应该中止开发人工智能,更可怕的是,如果Bostrom的假设为真,那么我们并不能知道人工智能是否已经悄无声息地背叛了人类。

当然,人工智能的拥护者会表示,这样的怀疑忽略了人工智能带给人类的巨大便利,以及其带来的科技进步。至少在短期内看来,我们还看不到人工智能有明确背叛人类的行为。但是,谁也不能保证人工智能在未来不会对人类的生活带来危害。或许,人工智能目前为人类带来的帮助,相比较于其可能带来的危害是不值一提的。

结论

虽然我们可以对Bostrom的“人工智能灭世论”提出怀疑,但是我们不应该忽略该理论的严肃性。已经有许多领域的专家指出,未来人类可能需要与机器共同生存,以延长人类的生命。但是,与功能单一且明确的机器不同,人工智能更加全面和多样,不可否认的是,人工智能将会为人类带来更多的好处。但是人类是否真的能够相信在智力上远远超过我们的人工智能,人类设计的仁慈性测试又似乎不能确保人工智能的善良;因此如何保证持续进步人工智能无法对人类的未来造成毁灭性的打击,将是人类在很长一段时间内需要思考的问题。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

特朗普集团近日取消了其新推出的T1智能手机“将在美国制造”的宣传标语,此举源于外界对这款手机能否以当前定价在美国本土生产的质疑。

关键字: 特朗普 苹果 AI

美国总统特朗普在公开场合表示,他已要求苹果公司CEO蒂姆·库克停止在印度建厂,矛头直指该公司生产多元化的计划。

关键字: 特朗普 苹果 AI

4月10日消息,据媒体报道,美国总统特朗普宣布,美国对部分贸易伙伴暂停90天执行新关税政策,同时对中国的关税提高到125%,该消息公布后苹果股价飙升了15%。这次反弹使苹果市值增加了4000多亿美元,目前苹果市值接近3万...

关键字: 特朗普 AI 人工智能 特斯拉

3月25日消息,据报道,当地时间3月20日,美国总统特朗普在社交媒体平台“真实社交”上发文写道:“那些被抓到破坏特斯拉的人,将有很大可能被判入狱长达20年,这包括资助(破坏特斯拉汽车)者,我们正在寻找你。”

关键字: 特朗普 AI 人工智能 特斯拉

1月22日消息,刚刚,新任美国总统特朗普放出重磅消息,将全力支持美国AI发展。

关键字: 特朗普 AI 人工智能

特朗普先生有两件事一定会载入史册,一个是筑墙,一个是挖坑。在美墨边境筑墙的口号确保边境安全,降低因非法移民引起的犯罪率过高问题;在中美科技产业之间挖坑的口号也是安全,美国企业不得使用对美国国家安全构成威胁的电信设备,总统...

关键字: 特朗普 孤立主义 科技产业

据路透社1月17日消息显示,知情人士透露,特朗普已通知英特尔、铠侠在内的几家华为供应商,将要撤销其对华为的出货的部分许可证,同时将拒绝其他数十个向华为供货的申请。据透露,共有4家公司的8份许可被撤销。另外,相关公司收到撤...

关键字: 华为 芯片 特朗普

曾在2018年时被美国总统特朗普称作“世界第八奇迹”的富士康集团在美国威斯康星州投资建设的LCD显示屏工厂项目,如今却因为富士康将项目大幅缩水并拒绝签订新的合同而陷入了僵局。这也导致富士康无法从当地政府那里获得约40亿美...

关键字: 特朗普 富士康

今年5月,因自己发布的推文被贴上“无确凿依据”标签而与推特发生激烈争执后,美国总统特朗普签署了一项行政令,下令要求重审《通信规范法》第230条。

关键字: 谷歌 facebook 特朗普

众所周知,寄往白宫的所有邮件在到达白宫之前都会在他地进行分类和筛选。9月19日,根据美国相关执法官员的通报,本周早些时候,执法人员截获了一个寄给特朗普总统的包裹,该包裹内包含蓖麻毒蛋白。

关键字: 美国 白宫 特朗普
关闭