当前位置:首页 > 原创 > 刘岩轩
[导读]超级智能何时能够到来?影响几何?少数大模型专制的局面,是喜是忧?人工智慧的“幻觉”,是想象力还是BUG?针对这些问题,在由芯原股份主办的“RISC-V和生成式AI论坛”的圆桌讨论环节上,我们找到了答案。

2024年7月6日下午,由上海开放处理器产业创新中心和芯原微电子(上海)股份有限公司主办的“RISC-V和生成式AI论坛”,在上海世博中心成功召开。而作为此次论坛的重头戏,压轴的圆桌讨论环节可谓是星光熠熠、干货满满。

中国RISC-V产业联盟理事长;芯原创始人、董事长兼总裁戴伟民博士担任了此次圆桌会议的主持人,RISC-V国际基金会理事长戴路、华东政法大学政治学研究院院长兼人工智能与大数据指数研究院院长高奇琦、知合计算CEO孟建熠博士、芯来智融半导体科技(上海)有限公司CEO彭剑英女士、乌镇智库理事长张晓东担任了此次圆桌会议的嘉宾。

针对未来超级人工智能展位和超级大模型专制的局面解读,几位嘉宾都进行了精彩地分享。


超级智能何时能够到来?影响几何?

关于从AI发展到AGI(通用人工智能),再进一步发展到超人工智能(ASI)的时间表,目前学界和工业界都有很多不同的观点。预测具体时间非常具有挑战性,因为这不仅涉及技术发展的速度,还包括伦理、政策、经济和社会接受度等多方面的因素。

Aschenbrener(前OpenAI的安全研究员)于今年6月发布了《警世预言》,其中指出2027将会是ASI的元年。

那么ASI的到来会给我们带来何种影响?高奇琦院长认为有三个“失”,可能带来风险。

1-失业问题:历史上自动化无疑已经对就业产生了冲击。如果超人工智能的发展速度过快,我们可能无法做好充分的准备,从而引发更广泛的失业问题。

2-失序问题:当前大量的人工智能生成内容(AIGC)应用可能导致信息过载和信息泡沫,进而使得信任变得困难。当虚假信息泛滥时,人们可能会对所有信息持怀疑态度,这种情况可能严重影响社会秩序。

3-失控问题:随着通用人工智能(AGI)的发展,存在一种可能性是AI发展出自我意识,这已成为众多讨论的话题。尽管“意识”难以明确定义,但不能排除这种可能性。此外,如果恶意分子利用这种类似爱因斯坦级别的智能制造病毒或超级武器,将带来极大的威胁。

针对“失控”这样的巨大风险,必须要采取有效的应对策略。首先,对于大型模型,必须实施严格的分级制度。例如,对于规模巨大的模型,应采取类似于核武器安全控制的方法来管理。高院长表示,尽管当前很难找到恰当的比较对象,核武器安全的类比可能较为适合。如核武器控制一样,虽然通过卫星图像进行检查和监控曾是常规做法,但今天这种方法可能已不再适用。因此,我们需要类似的思考和判断来确保不过多的行为体拥有这种“超能力”,以避免控制上的困难。

而对于“失业”和“失控”这类问题,高院长提出了合理收取税费这样的思路。未来人工智能的使用可能引入类似于强制车险的税收政策,以应对由此产生的问题。这种税收不宜过重,以免阻碍产业发展。收取的税款可以用于解决人工智能引发的问题,并可能用于调节产业发展速度。此外,这种税收机制的构思可能借鉴碳中和交易的思路。关于如何建立这一机制,可以从双边逐步扩展到多边,或者采用类似于APCC的全面协商方式。这将根据实际情况灵活调整,预计未来会有此类进程的发展。


少数大模型专制的局面,是喜是忧?

超级人工智能的实现,需要的超大规模的计算中心来支持超大规模的大模型训练。而考虑到资源和成本的问题,像一千万张H100加速卡这样的计算资源,可能只有少数公司或主体能够负担得起,这种集中可能就会导致超级人工智能的资源分配不均。

张晓东在其发言中探讨了关于未来人工智能大模型的几个关键趋势和问题。他引用了谷歌前CEO在MIT的演讲,提出了一个未来设想,即全球可能只存在几个超级巨大的AI模型,主要集中在美国和中国,少数分布在欧洲。这引发了对于AI资源高度集中的可能性及其带来的经济和社会影响的讨论。张晓东比较了AI发展的两种可能性:一种是极少数的巨型模型主导;另一种是多个较大的模型共存。从安全角度考虑,少数模型可能有助于防止技术滥用,类似于核扩散防控。最后,他提到了技术发展可能超越人类理解(如AlphaZero的棋类表现),显示了超级AI模型的潜在威胁。张晓东认为超级人工智能超越人类智力的可能性很大,而是否有办法来控制超级人工智能尚不明确。“但是现在我们看到的情况,至少不容乐观、就是从我个人的观点来看,不容乐观。”张晓东坦言到。

而高奇琦院长又从政治学和全球治理视角出发,针对全球大型人工智能模型进行了分析。他指出,大型模型作为知识生产的基础,对全球文化有着深远的影响。如果世界上仅存在少数几个以英语为主的大模型,那么强调本土文化的国家可能感到自己被边缘化,因为这些模型的训练语料中,他们的文化内容可能只占很小一部分。最近,日本在开发“主权AI”,即为了保护和促进本土文化而构建的自主大型模型,这突显了在全球范围内维持知识多样性的重要性。高奇琦认为,如果全球只有统一的大模型,可能会导致知识的同质化,从而消灭文化多样性。他强调,找到保持文化独立性和参与全球知识竞争之间的平衡是一个重大挑战。


人工智慧的“幻觉”,是想象力还是BUG?

当谈到超级人工智能的威胁的时候,高院长提出的“失序”问题,其实是来自于AI的“幻觉”。从产业应用的角度来讲,这种“幻觉”是bug,在自动驾驶等场景中,甚至可能是致命的存在。而从另一种角度来看,人工智能的“幻觉”恰恰是其非常像人的一种能力,说明其可能具备更好的创作能力。

张晓东和高奇琦均对人工智能的这种“幻觉”表示赞赏,认为这是其“想象力”的一种表现。但同时两位也强调到,在某些场景中,需要限制这种能力,要通过类似“检索增强”的方式,来将一些幻觉导致的差异进行“对齐”,从而消除在某些场景中,由于这种想象力可能会给人们带来的安全隐患。孟建熠也强调:“如果写文章这种场景是可以幻觉多一点,但是在别的领域‘智商’低一点、解决一部分的问题,我觉得其实已经够了。”

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭