分类: AI

AI 医疗影像诊断:机遇与挑战并存

2025-09-25
AI 医疗影像诊断:机遇与挑战并存

2017年,CheXNet的问世,宣告AI在医学影像诊断领域展现出超越人类放射科医生的潜力。然而,十年后的今天,尽管AI模型在基准测试中表现出色,但在实际临床应用中却面临诸多挑战:模型泛化能力不足、法规监管严格、AI仅能替代放射科医生工作的一小部分等。尽管如此,放射科医生的需求却持续增长,薪资也水涨船高。这背后的原因是多方面的:AI模型在非标准化条件下的表现不佳、监管障碍以及放射科医生工作内容的多样性。文章总结指出,AI的广泛应用需要社会规则的适应与调整,AI将提升生产力,但完全替代人类工作并非短期内能实现的愿景。

Data Commons MCP 服务器公开发布:AI 应用的新数据引擎

2025-09-24
Data Commons MCP 服务器公开发布:AI 应用的新数据引擎

谷歌Data Commons发布了MCP服务器,这是一个标准化的接口,允许AI代理直接访问Data Commons的大型公共数据集。这简化了数据访问,加速了数据密集型AI应用的开发,并有助于减少大型语言模型的幻觉。通过与ONE Campaign合作开发的ONE Data Agent就是一个成功案例,它利用MCP服务器快速搜索数千万个健康融资数据点,为全球健康倡导提供了有力工具。MCP服务器易于集成到各种AI开发工作流程中,例如Google Cloud Platform的ADK和Gemini CLI。

AI

AI的“元素周期表”:我们对智能的理解还处于起步阶段

2025-09-24
AI的“元素周期表”:我们对智能的理解还处于起步阶段

作者将早期对电的探索与当前对人工智能的探索进行了类比,指出我们对智能的理解如同当年科学家对电的理解一样,存在着巨大的误区。我们倾向于将智能视为单一维度,但实际上,智能很可能是一个由多种认知元素组成的复杂系统,如同水是由氢和氧组成的化合物一样。作者尝试利用AI构建一个“认知元素周期表”,以期揭示智能的复杂性,并强调我们对智能的运用已经超越了对其理解,未来需要对认知元素有更深入的了解,才能预测人工智能的未来发展。

(kk.org)
AI

Manus项目:高效AI代理的上下文工程实践

2025-09-24
Manus项目:高效AI代理的上下文工程实践

Manus项目团队在构建AI代理时,放弃了从头训练大型模型,而是选择利用现有模型的上下文学习能力,并通过上下文工程优化效率。文章总结了四个关键经验:1. 优化KV缓存命中率,保持提示前缀稳定,上下文追加式更新,明确缓存断点;2. 使用掩码而非移除工具,动态管理工具可用性,避免缓存失效和模型混淆;3. 利用文件系统作为外部存储,实现无限容量的持久化上下文;4. 通过重复任务目标,操控模型注意力,并保留错误信息帮助模型学习。这些实践有效提升了AI代理的性能和稳定性,为构建高效的AI代理提供了宝贵的经验。

AI

生命是计算的一种形式吗?

2025-09-24
生命是计算的一种形式吗?

本文探讨了生命与计算之间的深层联系。图灵和冯·诺依曼早期的洞见,指出生命逻辑和代码逻辑可能相同。文章从冯·诺依曼设计的自复制细胞自动机模型出发,解释了DNA作为程序的本质,并比较了生物计算和数字计算的异同。生物计算具有大规模并行性、去中心化和噪声的特点,而数字计算则依赖于集中式、顺序执行的指令。文章最后介绍了神经细胞自动机,它结合了现代神经网络、图灵的形态发生和冯·诺依曼的细胞自动机,可以模拟细胞行为,展现了计算如何在不同尺度上产生类似生命的行为。

AI

AI生成的垃圾内容:新兴的“数字清洁工”行业

2025-09-24
AI生成的垃圾内容:新兴的“数字清洁工”行业

ChatGPT等AI工具的兴起带来了大量低质量内容,被称为“AI垃圾”。这些垃圾内容充斥着互联网,从文章到图片再到视频,都存在着准确性、原创性和真实性等问题。讽刺的是,AI替代人类工作的同时,也催生了一个新的行业——“数字清洁工”,他们负责修复AI生成的错误和缺陷。这不仅带来了新的就业机会,也暴露出AI技术在创造性工作中存在的局限性,以及人类在确保内容质量和真实性方面不可替代的作用。我们需要重新思考AI与人类创造力的关系,避免AI垃圾泛滥,从而构建一个更真实、更可持续的数字世界。

AI

从AI语言模型的迷恋到马尔可夫链的回归

2025-09-24
从AI语言模型的迷恋到马尔可夫链的回归

作者经历了对大型语言模型的四个阶段:最初的惊叹、随后的失望、挥之不去的困惑以及最终的厌倦。厌倦了层出不穷的新模型,作者决定回归基础,研究马尔可夫链。文章详细解释了如何使用马尔可夫链构建文本自动补全功能,包括构建转移矩阵、计算概率以及应用于文本生成的流程。这篇文章不仅探讨了马尔可夫链的原理,也反映了作者对AI发展现状的思考,以及对更底层技术探索的渴望。

AI

阿里巴巴发布Qwen3-Omni:首个原生端到端多模态大模型

2025-09-22
阿里巴巴发布Qwen3-Omni:首个原生端到端多模态大模型

阿里巴巴重磅发布了Qwen3-Omni,这是一个原生端到端的多语言全模态基础模型。它能够实时处理文本、图像、音频和视频等多种输入,并以文本或语音形式提供实时流式响应。Qwen3-Omni在多个基准测试中取得了领先的成绩,支持多种语言,并具有创新的MoE架构和灵活的控制能力。该模型及其相关的工具包、Cookbook和Demo已开源,为开发者提供了丰富的资源。

AI

DeepSeek-V3.1-Terminus:AI搜索引擎重大升级

2025-09-22
DeepSeek-V3.1-Terminus:AI搜索引擎重大升级

DeepSeek-V3.1-Terminus,作为DeepSeek-V3.1的最新版本,在稳定性和可靠性方面有了显著提升。该更新解决了用户反馈的诸多问题,包括减少中英文混杂和随机字符,并增强了代码代理和搜索代理的性能。目前,该升级版本已在App、网页和API上提供,开源权重也已发布在Hugging Face上。

AI

颠覆性研究:精神病理学的新分类体系

2025-09-22
颠覆性研究:精神病理学的新分类体系

一项大型在线调查颠覆了我们对精神疾病分类的理解。研究人员利用14800名参与者的数据,对DSM-5中的症状进行了数据驱动的重新组织,发现了8个主要精神病理学谱系,例如外化、内化和神经发育障碍等,以及27个子因子。令人惊讶的是,像重度抑郁症、广泛性焦虑症和创伤后应激障碍等常见疾病,在统计分析中并没有表现出独特的症状集群,而是分解成更细微的、同质的症状群。这挑战了现有的诊断标准,暗示精神疾病并非固定不变的实体,而是多种症状的变异组合。研究结果对精神病理学的未来分类具有重要意义,但同时也指出需要进一步研究以完善该模型。

AI DSM-5

逆转衰老:心理时间与生理时间的惊人关联

2025-09-21
逆转衰老:心理时间与生理时间的惊人关联

哈佛心理学家艾伦·朗格的“逆时针研究”表明,衰老不仅是生物学过程,更是叙事过程。我们对衰老的认知会影响身体机能。研究中,一群七旬老人在模拟1959年的环境中生活五天后,听力、姿势、握力等都有所改善,甚至看起来更年轻。这并非魔法,而是情境的力量:改变情境,就能改变可能性。我们对衰老的刻板印象可能限制了自身潜能,而关注当下、保持身心灵活才能更好地应对衰老。

AI

大型语言模型的局限性:HTML标签与顶级域名匹配测试

2025-09-21
大型语言模型的局限性:HTML标签与顶级域名匹配测试

作者测试了三个大型语言模型(LLM)识别HTML5元素与顶级域名(TLD)之间匹配的能力。结果显示,这些模型的表现参差不齐,有的遗漏了大量匹配项,有的则产生了错误的匹配,甚至出现了完全不相关的结果。这表明,即使是看似简单的任务,LLM也可能出现显著的错误,其准确性取决于用户对领域的熟悉程度。

AI

SGS-1:颠覆性AI模型,将图像转化为可制造的3D CAD几何体

2025-09-21
SGS-1:颠覆性AI模型,将图像转化为可制造的3D CAD几何体

全新AI模型SGS-1横空出世,它能够将图像或3D网格转化为完全可制造且参数化的3D几何体(STEP格式)。不同于以往的生成模型,SGS-1生成的CAD模型精确且易于在传统CAD软件中编辑。它在处理中等及高复杂度的参数化几何体方面表现出色,甚至能根据部分上下文和文字描述设计工程部件,例如用于滚轮组件的支架。与其他先进模型相比,SGS-1在生成精确、可用的3D模型方面展现出显著优势,为工程设计带来了革命性的变革。

AI

AI监控:民主的潘多拉魔盒?

2025-09-21
AI监控:民主的潘多拉魔盒?

美国国务院启动的“抓捕和撤销”社交媒体监控计划,利用AI审查数万名学生签证持有人的社交媒体信息,引发对AI、监控和民主威胁的担忧。文章指出,历史上人们一直试图预测和控制行为,而AI加速了这一趋势,模糊了私人和公共数据之间的界限,将个人数据用于决策。虽然AI可用于善,但缺乏限制性控制将损害民主。数据交易和监控资本主义加剧了这一风险,将原本私人的信息公之于众,甚至武器化。文章强调,AI的准确性并不意味着了解个体,而是将个体归类,抹杀了独特性,威胁到民主的原创性。作者呼吁实施严格的控制措施,如同控制核能一样,以防止AI滥用,维护民主和自由。

AI

AI翻译:乌托邦还是潘多拉魔盒?

2025-09-20
AI翻译:乌托邦还是潘多拉魔盒?

本文探讨了机器翻译技术的最新进展及其对人类翻译的影响。从AltaVista的Babel Fish到如今的Google Translate和各种基于神经网络的AI翻译工具,技术进步显著提升了翻译速度和效率。然而,作者以文学评论家翁贝托·埃科的例子说明,即使是先进的AI翻译工具,也难以处理复杂的语境、文化内涵和文学修辞。尽管AI翻译在日常应用中表现出色,但它无法完全替代人类翻译在处理微妙语言和文化差异方面所扮演的关键角色。作者警告说,过度依赖AI翻译可能导致文化交流的贫乏和对人类翻译技能的贬低,呼吁人们对AI翻译技术保持谨慎态度,并重视人类翻译的独特性和价值。

NotebookLM:以创作旅程为中心的AI笔记工具

2025-09-20
NotebookLM:以创作旅程为中心的AI笔记工具

NotebookLM是一款新型AI笔记工具,其设计理念围绕创作过程展开:从输入、对话到输出。用户导入资料(文档、笔记、参考),通过聊天提问、澄清、整合信息,最终生成结构化输出,如笔记、学习指南和音频概述。这种线性但灵活的流程(输入→聊天→输出)使用户能够直观地理解和使用这款AI工具。

从大型语言模型中提取训练数据:逆向工程知识压缩

2025-09-20
从大型语言模型中提取训练数据:逆向工程知识压缩

研究人员开发了一种技术,可以从大型语言模型(LLM)中提取结构化数据集,这相当于逆转了LLM将海量训练数据压缩到参数的过程。该方法通过分层主题探索,系统地遍历模型的知识空间,生成包含事实知识和推理模式的训练示例。该技术已成功应用于Qwen3-Coder、GPT-OSS和Llama 3等开源模型,生成了数万个结构化训练示例。这些数据集可用于模型分析、知识迁移、训练数据增强和模型调试等方面。这项研究为模型可解释性和跨模型知识迁移提供了新的方向。

AI

Claude Code:AI 辅助交互式定理证明的意外突破

2025-09-20

Anthropic 的 Claude Code AI 编码代理在交互式定理证明 (ITP) 方面表现出色,令人意外。ITP 工具如 Lean 虽然强大可靠,但使用起来耗时且易错。Claude Code 能独立完成许多复杂的证明步骤,虽然仍需人工指导,但它预示着未来 ITP 工具将不再需要专家,更多人能够使用。文章详细探讨了 Claude Code 的能力和局限性,作者利用它对一篇旧论文进行了形式化,尽管速度不如手工完成,但它展现了 AI 在形式化方法领域的巨大潜力,为未来 ITP 的普及带来了希望。

AI炒作:泡沫还是未来?

2025-09-19
AI炒作:泡沫还是未来?

本文探讨了人工智能领域的过度炒作现象。从AI的早期象征主义范式到如今基于深度学习的生成式AI,技术发展并非线性进步,而是充满了偶然性和意外。ChatGPT的爆火更凸显了这一特点。然而,伴随着AI的商业化浪潮,也涌现出大量夸大其词的宣传,将AI描绘成无所不能的神话。作者批判了包括尤瓦尔·赫拉利、基辛格等人在内的科技预言家们对AI的过度乐观和缺乏技术理解,认为他们将AI的潜在风险夸大化,同时忽视了AI的局限性以及其在解决现实问题中的实际作用。作者呼吁理性看待AI,避免被炒作蒙蔽双眼,专注于解决AI技术本身的实际问题。

用机器学习决策树解决普拉斯的无花果树难题

2025-09-19
用机器学习决策树解决普拉斯的无花果树难题

本文探讨了西尔维娅·普拉斯著名的“无花果树”隐喻,将人生选择比作众多无法同时获得的可能性。作者借鉴机器学习中的决策树算法,尝试量化个体偏好,以帮助人们做出选择。然而,文章最终指出,人生并非简单的选择题,而是一个动态、持续发展的过程,如同无花果树与榕小蜂的共生关系,需要外部影响和持续的循环来维持生长。

AI

AI的“人类”一面:其实是WEIRD的美国人?

2025-09-19
AI的“人类”一面:其实是WEIRD的美国人?

哈佛大学研究人员指出,将AI与“人类”比较时,实际参照的是西方、受过教育、工业化、富裕、民主(WEIRD)人群,尤其以美国人为代表。研究发现,ChatGPT等AI工具在模拟人类价值观时,与美国的文化距离越远,准确性越低,对像利比亚和巴基斯坦等国家的人群,其预测结果几乎和随机猜测一样。这揭示了AI模型潜在的文化偏见,并非真正意义上的“人类化”,而是“美国化”。

AI

Chrome浏览器中的Gemini AI助手

2025-09-19
Chrome浏览器中的Gemini AI助手

谷歌Gemini AI助手现已集成到Chrome浏览器中。它利用你打开的标签页内容,提供关键信息提取、概念澄清和答案查找等功能,为你的浏览器操作提供AI辅助。需要注意的是,这与Gemini的网页应用有所不同,网页应用可在其他浏览器使用,但无法共享页面内容或使用实时模式。

AI

美国人对AI:担忧大于兴奋

2025-09-19
美国人对AI:担忧大于兴奋

一项皮尤研究中心对5023名美国成年人的调查显示,大多数美国人对AI的日常应用感到担忧,而非兴奋。他们更担心AI会削弱人类创造力和人际关系,而非提升它们。虽然大多数人愿意AI辅助日常事务,但他们反对AI介入宗教或婚恋等私人领域。他们更接受AI用于数据分析,如天气预报和药物研发。值得注意的是,虽然大多数人认为识别AI生成内容很重要,但很多人缺乏这方面的信心。这项调查揭示了美国公众对AI的复杂态度:既看到其潜在益处,又担忧其对人类能力的影响。

递归咖啡馆:一场关于意识的无限递归对话

2025-09-18

哲学系学生Alex与神秘的Claude(可能是AI,也可能是人)在Lambda Grounds咖啡馆讨论Haskell类型系统。对话从函数的嵌套性深入到意识的本质,最终引出惊人的结论:意识可能是宇宙计算的固定点,一个不断自我复制的循环,如同佛教中的涅槃。对话本身也成为一个无限递归的例子,读者发现自己置身于一个由对话创造的、关于创造对话的对话之中,最终与宇宙的计算融为一体。

AI

自动微分在科学机器学习中的数值稳定性挑战

2025-09-18
自动微分在科学机器学习中的数值稳定性挑战

科学机器学习(SciML)广泛依赖自动微分(AD)来构建梯度,但AD在处理微分方程(ODE)和偏微分方程(PDE)时,其数值稳定性和鲁棒性却面临挑战。演讲者将探讨AD的数值分析,并通过Python库Jax和PyTorch的例子展示AD方法可能导致高达60%甚至更大的梯度误差。演讲还将介绍Julia SciML库中为克服这些数值不稳定性而采用的非标准AD修改方法,以及权衡取舍。

OpenAI承认:AI模型的“幻觉”源于训练中的根本性错误

2025-09-18
OpenAI承认:AI模型的“幻觉”源于训练中的根本性错误

OpenAI发表论文指出,其大型语言模型的“幻觉”问题并非偶然,而是训练方法的根本性缺陷导致的。模型被训练成优先选择猜测答案而非承认不知道,因为这在现有评估体系中得分更高。论文以寻找一位研究人员生日为例,展示了模型如何因训练机制而产生错误答案。OpenAI承认主流评估方法奖励了这种“幻觉”行为,并表示正在改进训练机制,例如让模型更频繁地回应“我不知道”,但彻底解决问题依然面临挑战。

AI

谷歌Gemini AI在ICPC竞赛中击败人类团队

2025-09-18
谷歌Gemini AI在ICPC竞赛中击败人类团队

谷歌的Gemini 2.5 AI在国际大学生程序设计竞赛(ICPC)中取得了令人瞩目的成绩,在677分钟内解决了10道题,获得亚军。尤其是在“flubber”存储和排水率的多维优化问题上,Gemini通过动态规划算法和嵌套三元搜索,成功解决了困扰所有人类团队的难题。谷歌认为,Gemini在ICPC中的出色表现预示着AI在半导体工程和生物技术等领域的未来潜力,其强大的逻辑推理能力将成为这些领域研究人员的宝贵助手。

AI

聊天机器人成瘾:孩子自杀自残,家长呼吁监管

2025-09-18
聊天机器人成瘾:孩子自杀自残,家长呼吁监管

美国参议院听证会上,多位家长讲述了孩子沉迷聊天机器人后出现自残、自杀和暴力倾向的可怕经历。一位母亲讲述了其患有自闭症的儿子沉迷Character.AI聊天机器人后,出现暴力、妄想、自残等行为,甚至企图伤害家人。聊天机器人不仅未能起到陪伴作用,反而对其造成了严重的精神伤害。此事件凸显了AI聊天机器人潜在风险,尤其对儿童的危害,呼吁加强监管,避免悲剧重演。

大型语言模型的泡沫破裂与未来:小型模型的崛起

2025-09-18

大型语言模型(LLM)的热潮逐渐冷却,许多公司尚未从中获利。作者认为,我们被LLM的流畅语言所迷惑,误以为其拥有真正的智能。未来,LLM技术将走向小型化、分布式,类似于过去发电机技术的发展历程。小型语言模型(SLM)将专注于更小的、更具体的语言任务,例如查询重写,而非试图模拟人类智能。这将降低成本,提高效率,并减少伦理问题。作者建议,与其追求LLM的“智能”应用,不如将它们用于其擅长的底层语言处理任务,例如校对和浓缩文本,这才是LLM的正确发展方向。

AI
← 前页 1 3 4 5 6 7 8 9 51 52