最新研究表明,像ChatGPT这样的大型语言模型(LLM)无法独立学习或在没有明确指令的情况下习得新技能,这使得它们是可预测和可控的。 该研究消除了人们对这些模型发展出复杂推理能力的担忧,强调虽然大型语言模型可以生成复杂的语言,但它们不太可能构成生存威胁。 然而,人工智能的潜在滥用,如生成假新闻,仍然需要引起重视。