欧盟人工智能法案将人工智能模型按用途分为不同风险类别,并施加严格限制。高风险AI系统,例如AI教师,在发布前需满足繁琐的合规要求,包括风险管理、数据质量、技术文档、人为监督等。通用AI模型,如大型语言模型,则根据其能力被指定为系统性风险,面临额外监管。法案的执行权分散到各成员国,导致监管碎片化,合规成本高昂,不利于初创企业发展。文章批评该法案误解了AI的收益来源,过度监管阻碍了AI创新,呼吁欧盟重新审视并修改法案。