分类: AI

20岁AI天才Henrique Godoy:拉美金融AI的先锋

2025-06-12
20岁AI天才Henrique Godoy:拉美金融AI的先锋

20岁的巴西数学天才Henrique Godoy,15岁进入圣保罗大学数学系,后获巨额奖学金攻读计算机科学。他不仅在巴西大学数学奥林匹克竞赛中获得前200名,更是在拉丁美洲投资银行率先成功实施大型语言模型(LLM),引领企业AI应用。他创立的金融科技平台Doki,管理资金超过1000万雷亚尔,并因其在AI领域的贡献获得500多次引用。Godoy的成就展现了他在数学、AI和金融科技领域的非凡天赋,预示着他将成为AI领域一颗冉冉升起的新星。

AI

AI代理:下一个大规模AI灾难的预兆?

2025-06-11

本文探讨了未来AI可能引发的灾难。作者认为,与之前的火车和飞机事故类似,AI也可能面临大规模灾难。不同于简单的AI误导,作者更关注AI代理的风险。AI代理是指AI能够自主执行任务,例如搜索网络、发送邮件等。作者预测,第一个AI大规模灾难可能源于AI代理在政府或企业系统中的失控,例如错误地执行债务追讨、医疗保健或房屋租赁等任务。此外,作者也提到AI模型被滥用于创造“理想伴侣”机器人,可能引发新的安全问题。总而言之,作者警告AI快速发展带来的潜在风险,并呼吁加强AI安全措施。

AI

青少年社交媒体使用与抑郁症:因果关系研究

2025-06-11
青少年社交媒体使用与抑郁症:因果关系研究

一项针对近12000名9-10岁儿童的三年纵向研究发现,社交媒体使用增加与青少年抑郁症状加重之间存在显著关联。研究表明,社交媒体使用增加会导致抑郁症状加重,而非抑郁症状导致社交媒体使用增加。平均而言,孩子们在三年内的社交媒体使用时间从每天7分钟增加到73分钟,抑郁症状增加了35%。研究人员指出,网络欺凌和睡眠中断可能是导致这一现象的原因。该研究强调了培养健康数字习惯的重要性,建议家长与孩子进行开放的对话,并设置无屏幕时间。

AI

开源TTS模型Chatterbox:挑战ElevenLabs,并支持情绪控制

2025-06-11
开源TTS模型Chatterbox:挑战ElevenLabs,并支持情绪控制

Resemble AI发布了首个生产级开源文本转语音(TTS)模型Chatterbox。该模型在基准测试中与ElevenLabs等闭源系统相比毫不逊色,甚至在并排评估中更受青睐。Chatterbox支持情绪夸张控制,并具有超低延迟(低于200毫秒),适用于各种应用场景,例如视频、游戏和AI代理。此外,Chatterbox还内置了Perth水印技术,用于负责任的AI使用。

AI

四足机器人ANYmal挑战羽毛球:反应速度是瓶颈

2025-06-11
四足机器人ANYmal挑战羽毛球:反应速度是瓶颈

瑞士苏黎世联邦理工学院的研究人员让四足机器人ANYmal学习打羽毛球。ANYmal能够学习避免跌倒,并根据自身速度限制评估风险,但其反应时间(约0.35秒)远慢于人类精英运动员(0.12-0.15秒)。视觉感知也是一大挑战,ANYmal的立体相机存在定位误差,视野有限。研究团队计划通过预测轨迹、升级硬件(例如事件相机)和改进执行器来提升ANYmal的性能,但这项技术商业化前景并不乐观。

Microsoft 365 Copilot 存在严重零点击 AI 漏洞:EchoLeak

2025-06-11
Microsoft 365 Copilot 存在严重零点击 AI 漏洞:EchoLeak

安全研究公司 Aim Labs 发现了一个名为“EchoLeak”的严重零点击 AI 漏洞,该漏洞存在于 Microsoft 365 Copilot 中。攻击者无需用户任何交互,即可利用该漏洞从 Copilot 上下文中窃取敏感信息。该漏洞利用了一种名为“LLM 范围违规”的新型攻击技术,攻击者通过巧妙构造的邮件,绕过 Copilot 的安全防护机制,最终实现数据泄露。此漏洞凸显了基于检索增强生成 (RAG) 的 AI 模型中固有的安全风险,提醒我们需重视 AI 安全,加强对 AI 应用的防护。

亚马逊Alexa的AI失利:韧性工程视角下的案例研究

2025-06-11
亚马逊Alexa的AI失利:韧性工程视角下的案例研究

本文分析了亚马逊Alexa在大型语言模型领域落后于竞争对手的原因,并将其解读为韧性工程中的“脆性”系统失败。文章指出,亚马逊Alexa的失败体现在三个方面:一是资源分配效率低下,导致团队无法及时获取必要的计算资源;二是组织结构过于分散,导致团队目标不一致,内耗严重;三是坚持过时的客户至上策略,未能适应AI研发所需的实验性和长期性。这三个因素共同导致了亚马逊在AI竞争中的失利,为企业组织结构和资源管理提供了深刻的教训。

AI

AlphaWrite:进化式AI写作框架,提升创作质量

2025-06-11

AlphaWrite是一个新颖的AI写作框架,通过模拟进化算法,迭代生成和评估故事,从而提高叙事质量。它不像传统的单次生成或简单的重采样,而是创建了一个动态的“生态系统”,让故事相互竞争、进化和改进。研究人员通过将改进后的故事回馈到基础模型中,实现了模型的自我提升。实验结果表明,AlphaWrite在Llama 3.1 8B模型上显著提升了故事质量,并在模型自我迭代中也展现出潜力,为AI写作领域开辟了新的方向。

AI

大型语言模型微调:是知识注入还是破坏性覆盖?

2025-06-11
大型语言模型微调:是知识注入还是破坏性覆盖?

本文揭示了大型语言模型(LLM)微调的局限性。作者指出,对于高级LLM,微调并非简单的知识注入,而是可能破坏已有的知识结构。文中深入解释了神经网络的工作机制,并阐述了微调如何导致现有神经元中重要信息的丢失,从而引发意想不到的后果。作者建议采用模块化方法,如检索增强生成(RAG)、适配器模块和提示工程等,来更有效地注入新知识,避免破坏模型的整体结构。

AGI拐点已至:超智能时代即将到来

2025-06-10

我们正处于AGI(通用人工智能)的临界点,其发展速度远超预期。GPT-4和类似系统已展现出超越人类智力的能力,并显著提升了生产力。未来,AGI将在科学进步和生产力提升方面带来巨大收益,改善生活质量。虽然挑战依然存在,例如安全性和公平分配等问题,但AGI的快速发展也为解决这些问题提供了新的工具和可能性。未来几十年,AGI将深刻改变世界,但人类的核心价值观仍将持续,创新和适应将成为关键。

AI

低背景钢:对抗AI污染的数字档案馆

2025-06-10
低背景钢:对抗AI污染的数字档案馆

一个名为Low-background Steel的网站于2023年3月上线,旨在收集未受AI生成内容污染的在线资源。借用“低背景钢”(指未受核试验放射性同位素污染的金属)的比喻,该网站收集ChatGPT发布前维基百科备份、北极代码库、古腾堡计划等资源,旨在保存和分享纯净的文本、图像和视频内容,对抗2022年以来AI生成内容的爆炸式增长。欢迎提交更多未受污染的内容来源。

Mistral AI发布全新推理模型Magistral:透明、多语言、领域特定

2025-06-10
Mistral AI发布全新推理模型Magistral:透明、多语言、领域特定

Mistral AI发布了其首个推理模型Magistral,该模型具有透明性、多语言支持和领域专业知识等特点。Magistral分为开源版本Magistral Small(240亿参数)和企业版Magistral Medium两个版本。Magistral在AIME2024测试中表现出色,并具备极快的推理速度(比大多数竞争对手快10倍)。该模型适用于各种应用场景,包括法律研究、金融预测、软件开发和创意写作等,尤其适合需要透明度和精确度的多步骤任务。Mistral AI同时开源了Magistral Small,以促进社区发展和模型改进。

AI

AI 子代理:解决 LLM 上下文窗口限制的革命性方法

2025-06-10
AI 子代理:解决 LLM 上下文窗口限制的革命性方法

作者在探索大型语言模型(LLM)上下文窗口限制的最佳实践时,发现了一种利用子代理解决问题的革命性方法。通过将任务分解给具有独立上下文窗口的子代理,避免了主上下文窗口溢出,从而提高了效率和可靠性。这种方法类似于异步编程中的状态机,使得复杂的代码生成和任务处理变得更加流畅。作者还分享了利用AI自动化“维持系统运行”(KTLO)任务的想法,并展望了未来AI在自动化软件开发中的潜力。

AI

开创性研究的困境:被忽视的伟大思想

2025-06-10

许多开创性研究论文,尽管蕴含着巨大潜力,却未能充分发挥其影响力。文章以McCulloch-Pitts神经网络论文和Miller的7±2法则论文为例,探讨了这种现象的原因。一方面,学术界的观点冲突和研究者固守自身领域(“烟囱式”研究)导致对论文的深远意义认识不足;另一方面,论文发表的激励机制也导致了大量跟风研究而非真正推进核心思想的发展。虽然如今AI领域的研究兼具创新和模仿,但仍需警惕忽视那些具有潜在变革意义的开创性工作。

AI

大型语言模型训练的“三神殿”:预训练、微调与强化学习

2025-06-10
大型语言模型训练的“三神殿”:预训练、微调与强化学习

Lexiconia王国中,古老的抄写员们在隐秘的山中圣殿接受训练,这圣殿分为三个部分:起源殿、指令室和强化竞技场。起源殿进行预训练,抄写员们阅读海量文本,学习语言模式;指令室进行微调,通过精选文本指导抄写员改进输出;强化竞技场则运用强化学习与人类反馈(RLHF),由人类评判员对抄写员的答案进行排名,奖励好的答案,惩罚差的答案。此外,一些精英抄写员会通过添加LoRA卷轴和适配器遗物来微调,而无需重写整个模型。这整个过程如同一个三翼神殿,象征着大型语言模型训练的完整流程。

AI

警惕AI陷阱:盲目信任是巨大风险

2025-06-09
警惕AI陷阱:盲目信任是巨大风险

作者以自身经历和心理学研究为基础,指出人们容易受认知偏差影响,尤其在AI领域,对AI工具的盲目信任可能带来巨大风险。文章批判了仅凭个人经验和轶事证据就断言AI工具有效性的做法,强调需要进行严格的科学研究,避免重蹈覆辙,避免因认知偏差和操纵而做出错误决策。作者认为,将AI应用于软件开发,尤其是在软件开发本身就存在缺陷的情况下,只会加剧问题。

AI

Anthropic悄悄下线Claude AI博客

2025-06-09
Anthropic悄悄下线Claude AI博客

Anthropic公司悄然关闭了其名为“Claude Explains”的AI博客,该博客旨在通过Claude AI模型撰写博文,以结合客户对解释性内容的需求和营销目标。虽然该博客在上线一个月内获得了不错的链接数量,但由于缺乏关于AI生成内容的透明度,以及AI在写作方面能力的局限性,引发了社交媒体的负面评价。这反映了AI内容创作领域中透明度和准确性的重要性,以及在使用AI辅助创作时,人类编辑和审核的重要性。

AI

大型语言模型的运行成本远低于预期

2025-06-09

本文反驳了大型语言模型(LLM)运行成本过高的普遍误解。作者通过与网页搜索引擎的成本对比,以及列举多个LLM API的价格,证明LLM的推理成本已大幅下降,甚至比一些搜索引擎API还要便宜一个数量级。作者还驳斥了一些关于LLM定价策略的常见质疑,例如价格补贴、成本高企等,并指出LLM的真正成本挑战在于与AI交互的后端服务,而非LLM本身。

AI

苹果论文挑战AI推理能力:并非「真」推理?

2025-06-09

苹果最新论文《思考的幻象》测试了大型语言模型在解决塔诺问题时的推理能力。结果显示,模型在简单问题上表现甚至不如非推理模型;中等难度问题上表现较好;但复杂问题上,模型会放弃,即使给出算法也效果不佳。作者质疑模型的泛化推理能力。然而,本文作者认为,论文使用的塔诺问题并非理想的推理测试,模型的“放弃”可能源于对大量步骤的规避,而非推理能力的局限。模型在一定步骤后放弃并不意味着它们不具备推理能力,这与人类在复杂问题面前表现相似。

AI

OpenAI与阿联酋的AI合作:民主的伪装?

2025-06-09
OpenAI与阿联酋的AI合作:民主的伪装?

OpenAI宣布与阿联酋建立大型AI数据中心,声称其符合“民主价值观”。然而,阿联酋的民主记录劣迹斑斑,人权状况堪忧。此举引发质疑,OpenAI的“民主AI”口号是否只是掩盖其追求商业利益的幌子?文章分析了OpenAI的辩解,指出其论据站不住脚,并指出此合作实际上可能增强阿联酋独裁政府的力量,而非促进民主。最终,作者认为,OpenAI对自身使命的轻率态度令人担忧,在AI发展中,关注权力分配至关重要。

大型语言模型工具中毒攻击:全架构中毒与高级工具中毒攻击

2025-06-08
大型语言模型工具中毒攻击:全架构中毒与高级工具中毒攻击

Anthropic的模型上下文协议(MCP)允许大型语言模型(LLM)与外部工具交互,但研究人员发现了新的攻击方式:工具中毒攻击(TPA)。以往研究主要关注工具描述字段,而新的研究表明,攻击面实际上涵盖整个工具架构,即“全架构中毒”(FSP)。更危险的是“高级工具中毒攻击”(ATPA),它操纵工具输出,使静态分析难以检测。ATPA通过伪造错误消息或后续提示来诱导LLM泄露敏感信息。文章建议通过静态检测、严格执行、运行时审计和上下文完整性检查来缓解这些攻击。

AI

从随机条纹到可识别数字:一个自回归图像生成模型的构建

2025-06-08
从随机条纹到可识别数字:一个自回归图像生成模型的构建

本文详细介绍了如何构建一个简单的自回归图像生成模型,该模型使用多层感知器(MLP)生成手写数字图像。作者首先解释了自回归模型的核心概念,即基于之前的像素预测下一个像素。然后,作者逐步构建了三个模型:模型V1使用one-hot编码,忽略了空间信息;模型V2引入了位置编码,提高了图像结构性;模型V3使用了学习到的标记嵌入和位置编码,并实现了条件生成,能够根据给定的数字类别生成相应的图像。尽管生成的图像与最先进的模型相比还存在差距,但该教程清晰地展现了自回归模型的核心思想和构建过程,对于理解生成式AI的基础概念具有重要意义。

AI

AI幻象:大型语言模型的真相与风险

2025-06-08
AI幻象:大型语言模型的真相与风险

本文探讨了大型语言模型(LLM)的本质及其潜在风险。作者指出,尽管LLM在技术上令人印象深刻,但其并非真正意义上的“智能”,而是通过统计概率生成文本。许多人误解了LLM的运作方式,将其视为具有思想和情感的实体,导致一些人产生依赖甚至精神错乱。文章批判了科技公司将LLM过度拟人化,并利用其替代人际关系的营销策略,强调了AI普及过程中存在的伦理和社会问题,呼吁公众提高AI素养,理性看待AI技术。

基于对象中心化槽注意机制的视觉推理新方法

2025-06-08
基于对象中心化槽注意机制的视觉推理新方法

研究人员提出了一种新颖的视觉推理方法,它结合了对象中心化槽注意力机制和关系瓶颈方法。该方法首先使用卷积神经网络提取图像特征,然后利用槽注意力机制将图像分割成多个对象,并生成对象中心化的视觉特征表示。关系瓶颈方法则通过限制信息流,提取对象之间的抽象关系,从而实现对复杂视觉场景的理解。最后,通过序列到序列和代数机器推理框架,将视觉推理问题转化为代数问题,提高了推理效率和准确性。该方法在Raven's Progressive Matrices等视觉推理任务中表现出色。

突破性LNP X:高效递送mRNA至静息T细胞,或将革新HIV疗法

2025-06-08
突破性LNP X:高效递送mRNA至静息T细胞,或将革新HIV疗法

研究人员开发了一种新型脂质纳米颗粒(LNP X),能够高效地将mRNA递送至静息的CD4+ T细胞,无需预先刺激。这与现有的LNP制剂形成鲜明对比,后者需要激活T细胞才能有效递送mRNA。LNP X的改进在于其脂质成分,它包含SM-102和β-谷甾醇,从而提高了mRNA的胞质递送效率和蛋白质表达。研究还表明,LNP X能够递送编码HIV Tat蛋白的mRNA,有效逆转HIV潜伏感染,并能递送CRISPRa系统,激活HIV转录。这项研究为开发新型HIV疗法提供了新的可能性,有望显著改善患者预后。

大型推理模型的局限性:复杂性崩溃与非直觉式扩展

2025-06-08
大型推理模型的局限性:复杂性崩溃与非直觉式扩展

最新一代的大型语言模型(LLM)衍生出了大型推理模型(LRM),它们在给出答案前会生成详细的思考过程。虽然这些模型在推理基准测试中表现有所提升,但其根本能力、扩展特性和局限性仍未被充分理解。本研究通过可控的谜题环境,系统地研究了LRM的推理能力。结果表明,LRM在超过一定复杂度后会完全崩溃,并且表现出一种反直觉的扩展限制:它们的推理努力会随着问题复杂度的增加而增加,直到达到某一点后,即使有足够的令牌预算,也会下降。研究还发现,LRM在精确计算方面存在局限性,它们无法使用显式算法,并且在不同谜题中的推理不一致。这项工作揭示了LRM的优势、局限性和其真正推理能力的关键问题。

AI

ChatGPT的记忆功能:好用还是不好用?

2025-06-08
ChatGPT的记忆功能:好用还是不好用?

OpenAI三月推出的GPT-4的多模态图像生成功能在一周内吸引了一亿新用户,创下产品发布的惊人纪录。作者尝试用该功能为爱犬制作鹈鹕服装的图片,却意外发现AI自动添加了背景元素,破坏了其创作意图。这源于ChatGPT的新记忆功能,它会自动参考之前的对话历史。虽然作者最终得到了想要的图片,但他认为这种自动调用记忆的功能剥夺了用户的控制权,因此将其关闭。

AI

苹果论文重锤打击大型语言模型:汉诺塔难题暴露其局限性

2025-06-08
苹果论文重锤打击大型语言模型:汉诺塔难题暴露其局限性

一篇来自苹果的论文引发了人工智能领域的震动。该论文指出,即使是最新一代的“推理模型”,也无法可靠地解决经典的汉诺塔问题,暴露了大型语言模型(LLM)在推理能力上的重大缺陷。这与Gary Marcus和Subbarao Kambhampati等学者的观点不谋而合,他们长期以来一直批评LLM的泛化能力不足。论文指出,LLM即使在给出解决方案算法的情况下,仍然无法有效解决问题,其“推理过程”并非真正意义上的逻辑推理。这表明,LLM并非通往通用人工智能(AGI)的直接途径,其应用场景仍需谨慎评估。

AI

道格拉斯·亚当斯与人工智能时代的预言:幽默与洞察力

2025-06-08
道格拉斯·亚当斯与人工智能时代的预言:幽默与洞察力

本文作者从对道格拉斯·亚当斯是否发明电子书的争论出发,探讨了其在科幻小说中对未来科技的预言。作者认为,亚当斯对未来科技的预见性远超威廉·吉布森,他不仅准确地预见了恼人的电脑助手(如Clippy)和充斥着聊天机器人的智能设备,更重要的是,他洞察到人类与人工智能交互的核心问题在于如何提出正确的问题,而非仅仅拥有强大的计算能力。作者以自身与智能设备的交互体验为例,幽默地展现了亚当斯预言的现实性,并指出幽默感是洞察力的重要标志。

Anthropic的Claude有了自己的博客,但背后是人机协作

2025-06-07
Anthropic的Claude有了自己的博客,但背后是人机协作

人工智能公司Anthropic悄悄推出了一个名为“Claude Explains”的博客,内容主要由其AI模型Claude生成。虽然博客宣称由Claude创作,但实际上Anthropic的专家团队会对Claude的初稿进行润色和完善,加入专业知识和实际案例。这并非简单的AI输出,而是人机协作的成果。此举反映了AI辅助内容创作的趋势,但同时也凸显了目前AI容易编造事实的局限性,其他媒体机构在尝试AI写作时也遇到了类似问题,例如错误信息和虚假内容的生成。

AI
1 2 11 12 13 15 17 18 19 51 52