一名不列顛哥倫比亞省律師被指控提交了由人工智慧聊天機器人提供的虛假案例,目前正面臨不列顛哥倫比亞省律師協會的調查,以及潛在的法律費用後果。
判詞引用一篇論文:「研究進一步發現,大型語言模型(「LLM」)通常無法糾正使用者在矛盾問題設定中的錯誤法律假設,且 LLM 無法始終預測或並不總是知道何時會產生法律幻覺。」
判詞在這裡。
論文題目是:Large Legal Fictions: Profiling Legal Hallucinations in Large Language Models,在這裏。