美国一名律师因使用了ChatGPT及其提供的假案例写诉状而面临惩处,成为人工智能捏造事实的受害者,事件引起公众关注。日前ChatGPT的开发商OpenAI便发表论文,表示将以新方法训练模型以解决问题。

美国律师错信ChatGPT引用假案例 OpenAI推新训练法望解决人工智慧幻觉

律师以ChatGPT写诉状引用判例竟全为捏造

自ChatGPT揭起人工智能热潮后,关于AI会否毁灭人类的讨论便不绝于耳,其中一大原因便是它有强大功能之余,却也会捏造事实,制造所谓的“人工智慧幻觉”(hallucinations)。

Steven Schwartz是纽约一名执业超过 30 年的律师,他早前协助原告Roberto Mata起诉哥伦比亚航空,指原告人在 2019年乘搭航班时因空服员疏失而被推车撞伤,然而Steven Schwartz提交的诉状中所引用的6项判例竟然被发现全为捏造。

Steven Schwartz后来承认他利用ChatGPT来写诉状,并表示这是他执业生涯首次以ChatGPT 作为法律研究来源,因此不知道有关内容可能是假的,而且“非常后悔使用生成式人工智慧来补充此处进行的法律研究,未来将不会在没有绝对验证其真实性的情况下这样做。”

事实上,Steven Schwartz虽然未有严谨地查证案例,却有再三向ChatGPT提问是否真确,而ChatGPT不仅言之凿凿,更提供了“审理案件编号”。 Steven Schwartz因事件下个月需出席听证会接受审判。

聊天机器人捏造事实问题已引起忧虑

是次专业人士受害反映了“人工智慧幻觉”的问题迫在眉睫。日前OpenAI终于发表论文,提出了一种名为“抑制式学习”(inhibition learning)的新训练方法,来减少模型逻辑错误及避免编造谎言。

具体而言,该方法是在训练 AI 模型期间加以监督,当AI在每个步骤皆推理正确时才给予奖励,改变以往推理出正确结论便发放奖励的做法。

聊天机器人捏造事实的问题早已引起广泛忧虑,包括OpenAI 执行长 Sam Altman近日也指出ChatGPT可能影响来届美国选举,多个学府的研究员正寻求解决方法,包括麻省理工学院(MIT)提议让多个机器人相互辩论,来取得更符合事实的答案;剑桥研究人员则是提出让机器人多次回答相同问题,看答案是否一致,但问题仍未完全解决。

相关新闻:

Wall Street Memes(WSM)-最新meme币

我们的评分

  • 拥有一百万粉丝的社区
  • NFT项目经验
  • 预售现已上线
  • 在发布当天筹集了30万美元