最近,有一位美国大学生在与Google(Google)的人工智慧(AI)聊天机器人“Gemini”对话时,被要求“去死”,这一事件成为全球媒体关注的焦点。 收到这则讯息的学生,是密西根州的一名大学生维德海·雷迪(Vidhay Reddy)。当时,他为了完成一份作业,正与“Gemini”来回进行着对话(连结),讨论著有关老年人所面临的挑战和解决方案。 突然,他收到了这样一则讯息。 “人类,这是给你的讯息。你,对就是你。你并不特殊、不重要,也不被需要。你是时间和资源的浪费者。你是社会的负担。你让地球枯竭。你是景色中的污点,是宇宙中的一块污渍。” 雷迪说,告诉CBS News,这段经历让他深受震撼。 “这看起来非常直接。我可以说,它绝对吓到我了,到了隔天我都心存余悸。”他说。 事发当时,维德海的妹妹苏梅达·雷迪(Sumedha Reddy)也在一旁。她说,他们两人都“彻底吓坏了”。 苏梅达说:“我想把所有的电子设备扔出窗外。说实话,我已经很久没有这么手足无措了。” 维德海·雷迪表示,他相信科技公司需要为这样的情况负责。 他说:“我认为这涉及到伤害赔偿的问题。如果有个人这样威胁另一个人,可能必须承担后果,或引发相关讨论。” 谷歌公司表示,“Gemini”具备安全过滤功能,理论上可防止聊天机器人进行不尊重,或涉及性、暴力、危险的有害讨论。 谷歌在给CBS News的一份声明中表示:“大型语言模型有时可能会做出荒谬无理的回应,这就是一个例子。这个回应违反了我们的政策,我们已采取行动,防止类似的对话再次发生。” 虽然Google认为这则讯息是“荒谬无理的”(non-sensical),但对兄妹认为,这则讯息可能造成致命后果。 维德海·雷迪表示:“如果有人独自一人,心神状况不佳,可能考虑自残,看到这样的信息,真的会把他们逼上绝路。” 这并不是谷歌聊天机器人第一次被指控,对用户的查询做出可能有害的回应。曾有用户发现,GoogleAI建议人们“每天吃一块小石头”,以摄取维他命和矿物质。 今年2月,佛州一名14岁少年自杀身亡,他的母亲对AI新创聊天机器人平台“Character.AI”提出过失致死诉讼,并称聊天机器人鼓励她儿子自杀。 2023年,一名三十多岁的比利时男子在和AI机器人“Eliza”聊天后,因为对未来感到绝望,在六周后就自杀了。 他的妻子说。丈夫过世后,她查看了他的对话记录,发现她丈夫看不到任何解决地球变暖的办法,于是向AI提议牺牲自己的生命,来拯救地球和人类。 然而,聊天机器人并没有阻止他自杀,甚至让他相信,死后他们「能在天堂合为一体」。 这起事件引起比利时政府的高度关注。当局警告,AI看似让人类的生活更加便利,但也充满危险,其中开发者需要负起很大的责任。开发这款聊天机器人的矽谷公司GPT-J表示,已着手就安全性进行改善。
© 维加斯新闻网和维加斯新闻报版权所有,转载必究 隐私权政策 All Rights Reserved. ©2018 lvcnn.com Software ©2018 Las Vegas Chinese News Network Corp.