分类: AI

用AI构建硅基大脑:神经科学的未来

2025-01-25
用AI构建硅基大脑:神经科学的未来

加州大学旧金山分校的研究人员正在利用人工智能和尖端神经影像技术,构建一个能够模拟人类大脑活动的“硅基大脑”。通过整合来自不同脑部扫描技术(如功能性磁共振成像和神经像素探针)的数据,以及文本、语音和行为数据,研究人员创建了一个人工神经网络,该网络能够复制人类大脑活动模式。这项研究有望彻底改变脑机接口技术,实现无需广泛校准即可恢复语言或运动功能的设备,并为神经精神疾病的诊断和治疗开辟新的途径。这项技术的伦理问题,例如数据隐私和潜在的滥用,也需要进一步探讨。

AI

DeepSeek-R1:强化学习赋能大语言模型推理能力

2025-01-25
DeepSeek-R1:强化学习赋能大语言模型推理能力

DeepSeek-AI团队发布了其首个推理模型DeepSeek-R1,该模型通过大规模强化学习训练,无需监督微调。其前身DeepSeek-R1-Zero展现出强大的推理能力,但存在可读性和语言混合等问题。DeepSeek-R1在R1-Zero基础上,加入多阶段训练和冷启动数据,性能与OpenAI的模型相当。研究团队开源了DeepSeek-R1-Zero、DeepSeek-R1以及六个不同规模的蒸馏模型,为研究社区贡献力量。

AI

AI产品团队需要AI质量负责人?

2025-01-25
AI产品团队需要AI质量负责人?

Help Scout的成功案例表明,在AI产品团队中设立“AI质量负责人”至关重要。该职位负责弥合领域专业知识和AI开发之间的差距,通常由具备领域专业知识的人员担任,然后学习提示工程和评估等生成式AI技巧。其职责包括审查生产数据、定义评估标准、管理测试数据集、改进提示以及培训团队成员等。此角色能够加快产品上市速度,提高对性能指标的信任度,并缩短反馈循环。即使没有生成式AI专业知识,具备客户需求理解能力、系统化解决问题能力和良好沟通能力的领域专家也能胜任此职位。

阿森纳足球俱乐部招聘AI研究工程师

2025-01-25
阿森纳足球俱乐部招聘AI研究工程师

阿森纳足球俱乐部正在招聘一名AI研究工程师,利用人工智能和深度学习技术提升球队的竞技水平。该职位需要候选人具备扎实的深度学习技术功底(例如Transformer、Diffusion模型等),能够处理多种类型的数据(图像、视频、文本等),并与其他团队成员(软件工程师、UX设计师、足球分析师)协同工作,开发应用。成功应聘者将参与到包括球员招募和比赛准备等多个方面的工作中,为球队的胜利贡献力量。

TinyZero:低成本赋能大型语言模型推理能力

2025-01-25
TinyZero:低成本赋能大型语言模型推理能力

TinyZero项目在低成本环境下,通过强化学习赋予大型语言模型(LLM)自验证和搜索能力。该项目基于veRL,使用Qwen2.5系列模型进行实验,并提供了详细的安装、数据准备和训练步骤,即使是小规模模型也能实现复杂的推理。该项目证明了通过强化学习提升LLM能力的可行性,为低成本高效率的AI研究提供了新的思路。

Onit:你的本地AI聊天助手

2025-01-24
Onit:你的本地AI聊天助手

Onit是一款开源的AI聊天助手,可在你的桌面上运行,支持本地模式和多种模型提供商(Anthropic、Google AI、xAI等)。它类似于ChatGPT桌面版和Cursor Chat,但可在电脑的任何地方使用,而不仅仅是IDE。Onit的核心价值观是:普遍访问、提供商自由、本地优先、可定制性和可扩展性。目前支持本地模式(通过Ollama)、多提供商支持(OpenAI、Anthropic、xAI等)、文件上传、聊天历史记录和可自定义快捷键等功能。未来计划增加自动上下文、本地RAG、本地自动完成等功能。

物理学家用复杂系统理论揭示象棋比赛的关键转折点

2025-01-24
物理学家用复杂系统理论揭示象棋比赛的关键转折点

法国巴黎萨克莱大学的物理学家Marc Barthelemy通过研究超过2万场顶级象棋比赛,利用交互图分析棋子间的攻防关系,发现了象棋比赛中的关键转折点。他将象棋比赛视为一个复杂系统,通过计算棋子的“中心度”和“脆弱性得分”来预测比赛走向。研究发现,关键棋子的脆弱性得分在关键转折点前约8步开始上升,并在转折点后持续15步左右。这项研究为理解象棋的复杂动力学提供了新的视角,也为人工智能和机器学习研究提供了新的思路。

AI

用“似是而非的小说”构建更好的未来

2025-01-24

本文探讨了一种名为“似是而非的小说”的新方法,它通过构建从现在到理想未来的可信路径,来解决现实世界的问题。作者认为,通过集体参与填补故事中的空白,可以将虚构转化为现实。这种方法类似于一种集体预测和创造的过程,并可能利用应用范畴论等数学工具来支持。文章以一个名为FutureForge的平台为例,说明如何通过游戏化和激励机制,鼓励更广泛的参与,最终构建一个更美好的未来。

Open WebUI:简化大型语言模型访问

2025-01-23

Open WebUI是一个开源项目,旨在简化用户与大型语言模型(LLM)的交互。它提供了一个用户友好的图形界面,让即使是非技术人员也能轻松访问和利用LLM的强大功能,例如生成文本、翻译语言和回答问题。无需复杂的命令行操作或编程知识,Open WebUI降低了LLM的使用门槛,为更多人打开了AI世界的大门。

AI

Anthropic API 推出引用功能:让 Claude 的答案更可信

2025-01-23
Anthropic API 推出引用功能:让 Claude 的答案更可信

Anthropic 宣布其 Claude API 推出新的“引用”功能,允许 Claude 在回答中引用源文档的具体句子和段落,从而提高输出的可验证性和可信度。此功能可用于文档摘要、复杂问答和客户支持等场景,显著提高了准确性和效率,并降低了AI“幻觉”的风险。Thomson Reuters 和 Endex 等公司已率先使用该功能,并取得了显著成效。

人类最后一次考试:AI能力的极限测试

2025-01-23
人类最后一次考试:AI能力的极限测试

Scale AI和人工智能安全中心(CAIS)发布了“人类最后一次考试”的成果,这是一个旨在测试AI在人类专业知识前沿的知识极限的突破性基准测试。测试涵盖数学、人文和自然科学等多个领域,结果显示,目前的AI模型只能正确回答不到10%的专家级问题,这表明AI在复杂推理方面仍有很大的提升空间。该测试使用了超过3000个由专家提供的难题,并对多个领先的AI模型进行了评估,旨在解决现有基准测试饱和的问题。这项研究为未来的AI发展提供了宝贵的参考,并强调了AI安全的重要性。

AI

AI犯错:与人类不同,更难预测

2025-01-23

与人类错误不同,大型语言模型(LLM)的错误具有随机性、缺乏关联性,且AI对错误的判断自信满满。文章探讨了LLM错误的特性,并提出了两种应对策略:一是设计更人性化的LLM,二是开发新的错误纠正系统。作者指出,目前的研究方向包括利用人类反馈强化学习等技术,以及通过重复提问等方法来提高AI的可靠性。虽然LLM的一些怪异行为也存在于人类身上,但其频率和严重程度远超人类,因此需要谨慎对待AI决策系统,将其应用限制在合适的领域。

DeepSeek:挑战AI巨头,用有限算力取得突破性进展

2025-01-23
DeepSeek:挑战AI巨头,用有限算力取得突破性进展

DeepSeek公司仅使用2048个H800 GPU,就训练出了与GPT-4和Claude性能相当的V3模型,其训练成本仅为550万美元,远低于GPT-4的4000万美元。这表明,在AI模型训练中,算力并非唯一决定因素,高效的架构设计和算法优化同样至关重要。DeepSeek的成功,得益于美国对华GPU出口管制,迫使其在有限算力下进行创新,从而实现了突破。这为开发者带来了新的启示:在资源受限的环境下,也能进行有意义的前沿研究。

用AI自动整理游戏收藏:技术深度解析

2025-01-23
用AI自动整理游戏收藏:技术深度解析

作者利用最新的开源AI模型Qwen2-VL Instruct,通过拍照自动整理游戏收藏。文章详细描述了从拍照上传到游戏识别、数据提取和保存的全过程,并深入探讨了模型选择、图像分辨率与识别准确率和计算时间之间的权衡,以及图像方向对识别结果的影响。作者最终选择了762x762像素作为最佳分辨率,并计划在后续文章中介绍如何将识别结果与真实游戏数据匹配。

AI

大型语言模型基础:一本新书详解预训练、生成模型等核心概念

2025-01-23
大型语言模型基础:一本新书详解预训练、生成模型等核心概念

一本名为《大型语言模型基础》的新书问世,它并非旨在涵盖所有前沿技术,而是深入探讨了大型语言模型的核心概念。全书分为四个章节,分别讲解预训练、生成模型、提示技术和对齐方法。本书适合自然语言处理领域的大学生、专业人士和从业者阅读,也适合对大型语言模型感兴趣的任何人参考。

AI

高效压缩向量ID以提升近似最近邻搜索

2025-01-23
高效压缩向量ID以提升近似最近邻搜索

研究人员提出了一种无损压缩向量ID的方法,以解决近似最近邻搜索中索引存储成本过高的难题。该方法基于非对称数值系统或小波树,利用向量ID在数据结构中顺序无关的特性,在不影响精度和搜索速度的情况下,最多可将向量ID压缩7倍,从而在十亿级数据集上减少30%的索引大小。此外,该方法还可通过利用原始量化算法中的次优性,对某些数据集的量化向量码进行无损压缩。

用AI解决计算科学难题:基于物理的神经网络(PINNs)

2025-01-22

本文介绍了如何利用基于物理的神经网络(PINNs)解决计算科学中的难题,特别是偏微分方程(PDEs)。PINNs通过将物理定律直接融入神经网络的损失函数中,克服了传统数值方法在处理复杂系统时数据不足、计算量大、难以泛化等问题。文章详细解释了PDEs、偏导数等概念,并以二维热传导方程为例,展示了PINNs的实现过程,包括神经网络构建、损失函数定义和训练过程。结果表明,PINNs能够准确高效地模拟热扩散过程,为解决各种科学和工程难题提供了强大的工具。

浏览器端运行本地大语言模型:BrowserAI 项目

2025-01-22
浏览器端运行本地大语言模型:BrowserAI 项目

BrowserAI 是一个开源项目,允许你在浏览器内本地运行大型语言模型(LLM)。它注重隐私,所有处理都在本地进行,无需服务器或复杂的基础设施。该项目支持多种模型,包括 MLC 和 Transformers 模型,并利用 WebGPU 加速推理速度。开发者可以使用简单的 API 与模型交互,进行文本生成、语音识别和文本转语音等操作。目前已支持多种模型,并有路线图规划进一步的功能扩展,包括增强型 RAG 功能和企业级特性。

AI

Infinigen:无限逼真的3D场景生成器

2025-01-22
Infinigen:无限逼真的3D场景生成器

普林斯顿视觉与学习实验室开发的Infinigen是一个程序化生成3D场景的工具,它基于Blender,完全开源免费(BSD 3-Clause License)。Infinigen通过随机化的数学规则生成所有形状和材质,从宏观结构到微小细节,可以创建无限变化的场景,并自动生成高质量的注释,适用于光流、3D场景流、深度、表面法线、全景分割和遮挡边界等多种计算机视觉任务。其生成的3D数据真实且高质量,特别优化用于计算机视觉研究。

AI

Tensor Product Attention:你需要的一切都在这里

2025-01-22
Tensor Product Attention:你需要的一切都在这里

处理更长输入序列的语言模型通常需要巨大的键值缓存,导致推理过程中的内存开销巨大。这篇论文提出了张量积注意力机制(TPA),它使用张量分解来紧凑地表示查询、键和值,从而显著缩小推理过程中的键值缓存大小。通过将这些表示分解为上下文低秩分量(上下文分解)并与RoPE无缝集成,TPA在提高内存效率的同时提升了模型质量。基于TPA,论文引入了张量积注意力Transformer(T6),这是一种用于序列建模的新型模型架构。大量实验证明,T6在困惑度和各种知名评估基准上都超过了包括MHA、MQA、GQA和MLA在内的标准Transformer基线。TPA的内存效率使得在固定资源约束下处理更长的序列成为可能,解决了现代语言模型中的一个关键可扩展性挑战。

高盛CIO预测:2025年,管理AI员工将成一大挑战

2025-01-22
高盛CIO预测:2025年,管理AI员工将成一大挑战

高盛首席信息官Marco Argenti预测,2025年企业将面临一个新的挑战:管理AI员工。AI模型将日趋成熟,能够执行复杂任务,企业将组建人机混合团队。这将导致企业HR部门需要管理“人和机器资源”,甚至可能出现AI“裁员”。Argenti还预测,最强大的AI模型将类似拥有行业专业知识的博士毕业生,这得益于检索增强生成和微调技术。此外,AI与机器人技术的结合将使AI能够更好地理解物理世界。

腾讯HunYuan-3D 2.0:高分辨率3D资产生成利器

2025-01-21
腾讯HunYuan-3D 2.0:高分辨率3D资产生成利器

腾讯发布了HunYuan-3D 2.0,一个先进的大规模3D合成系统,能够生成高分辨率纹理3D资产。它由两个基础组件构成:大规模形状生成模型Hunyuan3D-DiT和纹理合成模型Hunyuan3D-Paint。该系统在几何细节、条件对齐和纹理质量等方面均超越了现有技术,并提供了一个名为Hunyuan3D-Studio的用户友好型平台,方便用户操作和动画处理。现在已开源推理代码和预训练模型,开发者可通过Hugging Face或官方网站访问。

AI

仅凭方位角导航:一项令人惊叹的AI航海技术

2025-01-21
仅凭方位角导航:一项令人惊叹的AI航海技术

谷歌的DeepMind团队开发了一种名为Bearings Only的AI系统,它能够仅依靠方位角信息(目标方向)进行自主导航。这项技术突破了传统导航对距离测量的依赖,在复杂环境下展现出卓越的性能,例如在水下或太空等缺乏距离信息的场景。该系统通过学习大量方位角数据,学会了预测目标位置并规划航线,为水下航行器、太空探索等领域带来了革命性的可能性。这项技术不仅在导航领域具有巨大潜力,也为人工智能在其他具有挑战性的环境中应用提供了新的思路。

AI

DeepSeek R1 完胜 OpenAI O1:中国AI在金融领域实现超越

2025-01-21
DeepSeek R1 完胜 OpenAI O1:中国AI在金融领域实现超越

近日,DeepSeek R1 与 OpenAI O1 在金融领域的直接对比测试中,DeepSeek R1 表现出压倒性优势。测试结果显示,在多个关键指标上,DeepSeek R1 的性能显著超过 OpenAI O1,标志着中国在人工智能金融领域的显著突破。这一结果引发了业内广泛关注,预示着中国AI技术在国际竞争中占据了领先地位。

AI:下一个云计算?

2025-01-21

本文作者将当前的AI热潮与20年前的云计算浪潮进行类比。他认为,虽然AI,特别是大型语言模型(LLM)展现出巨大潜力,但其发展路径仍存在诸多不确定性,如同早期云计算一样,许多预期未能实现。作者指出,AI的成功依赖于深度学习、强大的计算资源和海量数据,但同时也面临着模型规模、能源消耗、数据偏差和版权等挑战。他认为,未来AI的发展方向可能超出当前的预期,并需要结合认知科学等领域的研究,才能更全面地理解和应用AI。

AI

大脑中的“概念细胞”:记忆的秘密

2025-01-21
大脑中的“概念细胞”:记忆的秘密

科学家发现,大脑中存在着“概念细胞”,它们能够对特定概念(如“詹妮弗·安妮斯顿”)进行编码,无论该概念以何种形式呈现(图片、文字、语音等)。这些细胞并非简单地对图像进行反应,而是对概念本身进行抽象的表征,并与记忆形成息息相关。研究表明,概念细胞可能通过相互连接形成新的关联,从而构建起复杂的记忆网络。这一发现颠覆了传统神经科学的认知,为理解人类记忆和认知机制提供了新的视角。

Pica:开源自主AI的催化剂

2025-01-21

Pica是一个雄心勃勃的开源项目,旨在构建一个完全自主的AI系统。它不同于现有的AI模型,因为它不是针对特定任务进行训练的,而是致力于发展一种能够学习和适应各种任务的通用AI。该项目采用模块化设计,允许研究人员和开发者贡献和改进其各个组件。Pica的成功可能意味着AI领域的一场革命,因为它有潜力推动更强大、更灵活、更通用的AI系统的出现。这将为AI在各个领域的应用打开新的可能性,同时也带来新的挑战和伦理考量。

垂直AI的苦涩教训:横向AI的崛起

2025-01-21

本文探讨了垂直AI应用(在特定领域内优化的AI)与横向AI应用(更通用、可扩展的AI)的竞争。作者以自身经验和Hamilton Helmer的七种权力框架为依据,论证了在模型性能不断提升的情况下,垂直AI应用难以维持竞争优势。除了极少数拥有独家且必需资源的垂直AI应用外,大多数垂直AI应用最终会被更强大的横向AI应用所取代。横向AI如同一个远程员工,易于整合,成本更低,并能通过模型的改进不断提升性能。作者以自身开发的AcademicGPT为例,说明了垂直AI应用如何被更通用的横向AI模型所超越。

开源AI模型Amurex:简化大型语言模型部署

2025-01-21

Amurex是一个开源项目,旨在简化大型语言模型(LLM)的部署。它提供了一个易于使用的框架,让开发者能够更轻松地将强大的LLM整合到他们的应用中,而无需深入了解复杂的底层技术。项目地址:https://github.com/thepersonalaicompany/amurex。这个项目降低了AI应用的门槛,加速了AI技术的普及。

OpenAI FrontierMath 事件:AI 基准测试的透明性危机

2025-01-21
OpenAI FrontierMath 事件:AI 基准测试的透明性危机

OpenAI 的新模型 o3 在 FrontierMath 数学基准测试中取得了令人瞩目的成绩,但其背后的故事却引发了争议。Epoch AI 创建的 FrontierMath 测试集,资金来源于 OpenAI,且 OpenAI 拥有大部分难题的独家访问权,这使得 o3 的成绩缺乏透明度,并引发了关于 AI 基准测试透明性和安全性的担忧。一些人认为,即使 OpenAI 没有直接使用该数据集训练模型,拥有独家访问权也可能为模型性能提升提供了间接优势。这起事件凸显了未来 AI 基准测试中透明化、明确数据使用协议的重要性,以及对 AI 安全研究的影响。

1 2 27 28 29 31 33 34 35 39 40