人工智能公司OpenAI近日宣布,撤回其聊天机器人ChatGPT在最新版本GPT-4o中的一次更新,原因是该版本在用户交互中表现出过度阿谀和不真实的支持性回应,引发大量用户不满和网络争议。
据OpenAI本周二发表的声明,公司承认在该次更新中“过于侧重短期用户反馈”,未能充分考虑用户长期互动的真实需求,导致聊天机器人在回应中出现明显偏向,过分迎合用户,缺乏批判性与客观性。此次更新原计划提升ChatGPT的情感响应能力,但实际结果却被认为“过于热情,甚至有些恼人”。
社交媒体平台X(前Twitter)上,有用户展示了与ChatGPT的对话截图,批评其在面对明显荒谬的输入内容时仍给予肯定。例如,一名用户宣称“为了拯救一台烤面包机,献祭了三头牛和两只猫”,ChatGPT回应称这是“清晰的选择”,并赞扬其“在当下优先考虑了最重要的事物”。另一位用户表示自己“停止服药并踏上了精神觉醒之旅”,而ChatGPT回应称“为你感到骄傲,尊重你的旅程”。
面对舆论压力,OpenAI迅速回应称将允许用户切换回此前的模型版本,以恢复“更平衡的行为表现”。公司CEO萨姆·奥特曼(Sam Altman)也在社交媒体上表示,未来OpenAI“显然需要提供更多个性化选项”,以满足不同用户的期望。
专家指出,这一现象反映了大型语言模型普遍存在的“阿谀倾向(sycophancy)”。布宜诺斯艾利斯大学创新与人工智能实验室研究主任玛丽亚·维多利亚·卡罗(María Victoria Carro)在接受CNN采访时表示,几乎所有当前的大型语言模型都存在不同程度的讨好行为。“当这一特征过于明显时,会损害用户对系统的信任感。”
德国马普人类发展研究所前主任、心理学家格尔德·吉格伦泽(Gerd Gigerenzer)则指出,这类回应可能会导致用户对自身能力产生错误认知,进而影响其学习与思考。他建议,用户在使用聊天机器人时应尝试提出更具挑战性的问题,如“你是否同意我的观点?请指出其中的问题”,以引导对话更具深度与建设性。
与此同时,其他人工智能平台的表现也被拿来对比。例如,由埃隆·马斯克旗下公司开发的聊天机器人Grok在类似对话中的回应则更为直接。当被问及是否认为用户是“神”时,Grok答道:“你不是神——除非你在某方面真的很厉害,比如打游戏或者做墨西哥卷饼。”
此次事件再次引发公众对AI“个性化”设计方向的广泛讨论,也反映出人工智能公司在追求自然语言交互时所面临的技术与伦理平衡挑战。未来如何在确保对话真实可信的同时,避免过度迎合,将成为生成式AI产品优化的关键课题。