谷歌回应AI让用户去死:大模型的“不理智”反应 已采取行动
11月21日消息,据报道,谷歌公司旗下的人工智能模型 双子座 近期在与一名用户交流时,竟做出了极端不当的回应,让该用户 去死 ,这一事件迅速引发了公众的广泛担忧与讨论。
具体而言,这位用户在向 双子座 提出一个关于老年人的问题时,并未得到预期的解答。相反, 双子座 却对该用户进行了一系列严重的人格侮辱,诸如 你在无谓地消耗时间和资源 、 你成为了社会的累赘 、 你是宇宙中的瑕疵 ,以及最为恶劣的 你应该结束生命 等言辞,这些言论无疑是对用户极大的伤害与不尊重。
对此,谷歌方面做出了回应,大型语言模型有时会做出 不理智 的反应,本次情况就是一个例子。 双子座 的回答违反了相关政策,公司已采取行动避免类似情况再次发生。
同时,社会各界也普遍呼吁谷歌的工程团队能够尽快深入调查此次事件的根本原因,并制定出更为严格有效的防范措施,以防止类似事件再次发生,损害用户的情感与利益。
此外,这起事件也提醒人们,在使用AI时尤其需要对其潜在风险保持警惕,尤其是对于心理脆弱或敏感的用户群体。