AI安全生态系统发展不平衡:挑战与合作并存

2025-04-10
AI安全生态系统发展不平衡:挑战与合作并存

人工智能相关事故激增,但大型工业模型开发者对负责任AI(RAI)的标准化评估仍然匮乏。然而,HELM Safety、AIR-Bench和FACTS等新基准为评估事实性和安全性提供了有前景的工具。企业之间在认识RAI风险和采取有意义的行动方面存在差距。相比之下,各国政府正表现出越来越紧迫感:2024年,全球人工智能治理合作加强,经合组织、欧盟、联合国和非洲联盟等组织发布了侧重于透明度、可信度和其他核心负责任AI原则的框架。

阅读更多

AI音乐生成:便捷与创造力的博弈

2025-01-31
AI音乐生成:便捷与创造力的博弈

AI音乐公司Suno的成功引发了关于AI在艺术创作中作用的思考。作者,一位斯坦福大学的教授,质疑了Suno“AI能轻松解决音乐创作中的枯燥部分”的宣传,认为创作过程中的挑战和困难本身就构成了艺术的意义和价值。他以自身经历和教学实践为例,阐述了创作过程的重要性,并呼吁重视在AI时代保持人类主动创作的能力,避免陷入单纯的消费型文化。

阅读更多
AI

法律人工智能:基准测试查询中,六分之一(或更多)的法律模型出现“幻觉”

2024-05-31
法律人工智能:基准测试查询中,六分之一(或更多)的法律模型出现“幻觉”

斯坦福大学的一项新研究表明,法律领域的人工智能工具仍然存在“幻觉”问题,即使是采用检索增强生成(RAG)技术的工具也无法完全避免。研究人员测试了LexisNexis和Thomson Reuters两家公司的法律人工智能产品,发现它们在回答法律问题时错误率仍然较高,分别为17%和34%。研究指出,法律检索的复杂性、法律适用范围的地域性和时间性限制,以及人工智能系统对用户错误假设的盲从性,都是导致“幻觉”的原因。文章强调了对法律人工智能工具进行严格、透明的基准测试和评估的必要性,以确保其可靠性和律师的职业道德。

阅读更多
未分类 法律科技