“危险”:ChatGPT 编造虚构事实

类人机器人做文书工作和阅读的图示。

一些新西兰律师在从人工智能聊天机器人那里得到答案后,被骗相信了虚构的案例记录,研究人员表示,这项技术将不可避免地进入法律行业和其他行业。

律师协会在上个月的一份会员通讯中透露,其法律图书馆员已收到律师索取有关虚构案件信息的请求——大概来自那些一直在使用 ChatGPT 等工具的人。

“这些案例看起来是真实的,因为 ChatGPT 已经知道案例名称和引文应该是什么样子。但是,图书馆工作人员的调查发现所要求的案例是虚构的,”律师协会说。

“它将在无法获得足够数据的情况下捏造事实和来源。所以下次你使用 ChatGPT 进行法律查询时,请记住其回复中引用的案例可能是假的;由一个善意的 AI 工具编造的。”

虽然像 ChatGPT 这样的聊天机器人功能强大,但它们无法判断哪些信息是真实的。

image

目前,这意味着聊天机器人的目标是给出一个听起来很有道理的答案。它无法验证任何信息,也不知道它所说的是否属实。

“走捷径是人类的天性,所以你确实需要非常自律,”教授说。“这些技术的危险在于,如果它看起来真的很好——人们只是假设它是正确的,而事实并非如此。”

聊天 GPT。

聊天机器人已经能够成功地完成几件事——尽管并不总是准确的。

这些包括成为“非常有价值的研究工具”,作为校对员或制作律师已经使用模板的文书工作。

“你可以要求它编写文件、合同、商业租约和各种其他法律文件,但是在错误的前提下接近它的人可能会误入歧途。”

请先 登录账号 参与评论。
相关内容