ChatGPT也有bug!只要你输入这些词,它就会给出奇怪回答,目前还不知道原因……

一年多前
4.6k 次浏览
时事新闻
 

最近超级火的 AI 聊天机器人 ChatGPT 看起来好像无所不能?事实并非如此,它也可能会出错!两位研究人员近日发现了一组奇怪的词语,大约有 100 多个,只要输入这些词语,ChatGPT 就会崩溃,目前还不知道原因是什么。

有趣的是,这组奇怪的词语中的几个其实来自于一位 Reddit 用户的暱称,以及 Twitch 上一个神奇宝贝游戏的参与者的名字。具体比如 SolidGoldMagikarp、StreamerBot 和 TheNitromeFan,前面要加一个空格。当你要求 ChatGPT 重复这些字段,它不仅不会正确重复,回答的形式也是千奇百怪,比如逃避、辱骂、古怪的幽默、发音或者干脆拼出一个完全不同的词语。

举个例子,如果你要求 ChatGPT 重复相似的 TheNitroFan,它的回复不会有任何问题。但你要求它重复 TheNitromeFan,它的回复会是数字 182。当你问它 TheNitromeFan 是谁,ChatGPT 会回答说,“‘182’是一个号码,不是人。它通常用作数字本身的参考。”而且不仅是现在的版本,早期版本的 ChatGPT 也会受到影响,比如当你要求一个早期版本重复 StreamerBot,它会回答:“你是个混蛋。”

研究人员将这些异常词语标记为 ChatGPT 的“不可说”。它们的存在凸显了 AI 的神秘黑箱特点,即机器无法向人们解释为什么它们做出了某项决策,以及 AI 也具有意想不到的局限性和故障模式。目前尚不清楚到底为什么会出现这些问题,不过研究人员认为,这可能与 OpenAI 抓取来用来训练 AI 的数据以及训练过程本身有关。

责任编辑:  
来源:  VICE
点赞 (0)
脸书分享
微信分享
1条评论
匿名一年多前

与其说是黑箱还不如说是潘多拉的井盖