礼貌寒暄推高AI问答成本!OpenAI每年为此多花数千万美元?
扫描二维码
随时随地手机看文章
近日,美国科技公司OpenAI的首席执行官萨姆·奥尔特曼在社交平台上透露了一个令人意外的现象:用户在与ChatGPT互动时频繁使用“请”“谢谢”等礼貌用语,这一行为竟然导致公司每年需额外承担数千万美元的运营成本。
这一消息引发了广泛讨论,人们不禁好奇,为何简单的礼貌寒暄会带来如此高昂的成本?
礼貌寒暄背后的成本
根据《今日美国》及美国《石英》杂志的报道,当用户在ChatGPT的用户界面说“谢谢”时,大模型会按照算法回复“不客气”。然而,这一简单的寒暄需要调用大量的电力和算力进行实时回复,OpenAI的运营成本因此大幅增加。
美国加州大学河滨分校的一项研究进一步佐证了这一点。研究表明,AI运行不仅耗费电力,还需要大量的水来冷却数据中心的服务器。以“ChatGPT-4”大模型为例,每生成100个单词最多消耗1500毫升冷却水,而回复“不客气”需耗费约44毫升水。
如果全球数十亿用户每天都进行类似的交互,这一资源消耗可能对区域性水资源分配造成潜在压力。
礼貌寒暄的原因分析
分析认为,用户对AI如此“客气”的行为,可能受到了一些影视剧的影响。例如,在《2001太空漫游》等科幻电影中,人类对AI的苛待导致AI失控和叛变的剧情,让用户更愿意以友好态度与AI互动。
此外,研究表明,更礼貌的对话可能提升AI回复的积极性,形成更频繁的“人机对话循环”,从而导致相关资源的消耗频率更高。
尽管成本上升,但奥尔特曼仍开玩笑称,这笔运营成本“物有所值”。他认为,礼貌的互动能够提升用户体验,增强用户对AI的信任感,从而推动技术的更广泛应用。
OpenAI成本上升的深层次原因
然而,上述两篇报道均指出,OpenAI的运营成本增高并不能完全归咎于礼貌用语。大模型对话交互行为本身的能耗过大才是根本问题。随着ChatGPT用户突破10亿,其运营的边际成本叠加才是最核心的挑战。
面对高昂的运营成本,OpenAI正在采取一系列措施来优化资源利用率。一方面,公司正在通过技术升级来提高模型的效率,减少不必要的能耗。另一方面,OpenAI也在探索跨领域合作,通过与其他机构合作,共同分担资源消耗的压力。
OpenAI的这一现象也提醒我们,AI技术的发展不仅仅是技术问题,还涉及到用户行为、资源消耗和社会影响等多方面的考量。随着AI技术的广泛应用,如何在提升用户体验和降低运营成本之间找到平衡,将是未来AI行业发展的重要课题。