大型语言模型对学习能力的影响:一项脑电图研究

2025-06-18

一项针对大型语言模型(LLM)在论文写作中认知成本的研究表明,长期使用LLM可能损害学习能力。研究人员将参与者分为三组:LLM组、搜索引擎组和纯脑力组,并通过脑电图(EEG)监测其脑活动。结果显示,LLM组的脑连接性最弱,学习参与度最低,并且在论文归属感和记忆力方面表现不佳,最终成绩也低于纯脑力组。该研究强调了LLM在教育领域的潜在负面影响,并呼吁进一步研究以更好地理解AI对学习环境的影响。

阅读更多

λ-2D:探索将绘画作为编程语言,以Lambda演算的思想为特色

2024-11-08
λ-2D:探索将绘画作为编程语言,以Lambda演算的思想为特色

λ-2D项目旨在探索一种以绘画作为编程语言的新方法,该语言以Lambda演算为基础。作者的目标是创建一种利用绘画优势、指令数量适中且视觉上吸引人的编程语言。该语言使用类似杯子的形状表示函数应用,用希腊字母λ表示函数定义,并通过连线连接符号以传递数据。为了提高实用性,添加了数字和数学运算符等语法糖。此外,该语言还引入了“框架”的概念,允许用户绘制图形并将其用作数据,以及绘制可在运行时控制程序的滑块等GUI元素。作者开发了一个在线演示和编辑器,并通过构建示例程序不断改进语言。λ-2D项目是更大研究的一部分,旨在设计一个用户可以用纸笔绘制程序并通过增强现实接收交互反馈的系统。

阅读更多
未分类

人工智能植入虚假记忆

2024-09-03

麻省理工学院媒体实验室的一项研究表明,使用大型语言模型的生成式聊天机器人可以显著增加虚假记忆的形成。研究人员模拟了犯罪现场目击证人接受采访的场景,结果发现与其他方法相比,生成式聊天机器人诱导的虚假记忆数量要多出三倍。即使在一周后,这些虚假记忆仍然存在,且目击证人对其的信心依然很高。

阅读更多
未分类 虚假记忆