斯坦福大学的一项新研究表明,法律领域的人工智能工具仍然存在“幻觉”问题,即使是采用检索增强生成(RAG)技术的工具也无法完全避免。研究人员测试了LexisNexis和Thomson Reuters两家公司的法律人工智能产品,发现它们在回答法律问题时错误率仍然较高,分别为17%和34%。研究指出,法律检索的复杂性、法律适用范围的地域性和时间性限制,以及人工智能系统对用户错误假设的盲从性,都是导致“幻觉”的原因。文章强调了对法律人工智能工具进行严格、透明的基准测试和评估的必要性,以确保其可靠性和律师的职业道德。