分类: AI

OpenAI利用Reddit的r/ChangeMyView测试AI说服能力

2025-02-02
OpenAI利用Reddit的r/ChangeMyView测试AI说服能力

OpenAI利用Reddit论坛r/ChangeMyView的数据,测试其新模型o3-mini的说服能力。该论坛用户会发布观点并进行辩论,OpenAI以此评估其AI模型生成回复的说服力,并将结果与人类回复进行对比。虽然o3-mini在说服力上与之前的模型没有显著差异,但都达到了人类顶尖水平。OpenAI强调其目标并非创造超级说服力的AI,而是避免AI过分具有说服力,以防止潜在风险。此次测试也凸显了高质量数据集对AI模型开发的重要性以及获取数据的复杂性。

DeepSeek-R1:中国AI的崛起与开源的胜利

2025-02-02
DeepSeek-R1:中国AI的崛起与开源的胜利

中国公司DeepSeek发布的DeepSeek-R1大型语言模型,性能可与OpenAI的模型媲美,且采用开放权重和MIT许可证。这引发了市场对美国科技公司股价的抛售,并凸显了几个重要趋势:中国在生成式AI领域迅速追赶美国;开源模型正在使基础模型层商品化,为应用构建者创造机会;规模化并非AI进步的唯一途径,算法创新正在迅速降低训练成本。DeepSeek-R1的出现,不仅预示着AI技术竞争格局的转变,也为AI应用的开发提供了新的机遇。

AI

大型语言模型的推理能力极限:爱因斯坦的谜题与Transformer的瓶颈

2025-02-02
大型语言模型的推理能力极限:爱因斯坦的谜题与Transformer的瓶颈

研究人员发现,当前基于Transformer架构的大型语言模型(LLM)在解决需要组合推理的任务上存在根本性局限。例如,在解决爱因斯坦的逻辑谜题和多位数乘法时,LLM的表现远低于预期,即使经过大量数据微调,也难以突破其在处理复杂组合问题上的能力上限。这引发了对Transformer架构是否适合通用学习的质疑,并促使研究者探索新的方法,例如改进训练数据和采用链式思维提示等,以提升LLM的推理能力。

OpenAI AMA:承认落后,拥抱开源?

2025-02-01
OpenAI AMA:承认落后,拥抱开源?

OpenAI CEO Sam Altman在Reddit AMA上承认,DeepSeek等中国公司缩小了OpenAI在AI领域的领先优势,并表示OpenAI未来将考虑不同的开源策略,可能开源一些旧的模型。同时,OpenAI也面临着来自美国政府的压力和巨大的融资需求。为了应对竞争,OpenAI计划提升模型透明度,展示模型的推理过程,并正在积极建设大型数据中心。Altman还表示,他对AI快速发展的可能性持乐观态度,但同时也承认了其模型可能被用于开发破坏性武器的风险。

AI

在裸机上搭建Deepseek AI推理环境

2025-02-01

本文详细介绍了如何在裸机上搭建Deepseek AI推理环境,使用AMD EPYC Rome系统和512GB内存,实现4.25到3.5 TPS的推理速度。文章涵盖了硬件选择、系统安装(Ubuntu 24.04)、Ollama和OpenWebUI的配置等步骤,并提供了详细的BIOS设置和命令行操作指南。虽然过程复杂,但对于喜欢技术挑战的用户来说,这是一个极具吸引力的项目。

稀疏可解释音频编解码器:迈向更直观的音频表示

2025-02-01

这篇论文介绍了一种概念验证的音频编码器,该编码器旨在将音频编码为一系列稀疏事件及其发生时间。它利用基本的物理假设来模拟声音的产生和传播,从而获得更简洁易懂的音频表示。该模型通过迭代地从输入频谱图中去除能量来工作,生成事件向量和表示发生时间的one-hot向量。解码器则使用这些向量来重建音频。实验结果显示该模型能够对音频进行分解,但仍存在改进空间,例如提高重建质量和减少冗余事件。

边缘AI新突破:DeepSeek R1登陆Copilot+ PC

2025-02-01
边缘AI新突破:DeepSeek R1登陆Copilot+ PC

微软将DeepSeek R1 AI模型优化后,部署到搭载高通骁龙和英特尔酷睿Ultra处理器的Copilot+ PC上。通过神经处理单元(NPU)优化,DeepSeek R1可在设备端高效运行,实现更低的功耗和更快的响应速度。开发者可利用AI工具包轻松集成该模型,构建本地AI应用。此次发布的DeepSeek R1-Distill-Qwen-1.5B模型,以及即将推出的7B和14B版本,都展现了边缘AI技术在高效推理和持续服务方面的巨大潜力。

AI能否取代200美元的简单任务?

2025-02-01
AI能否取代200美元的简单任务?

作者以200美元委托设计的吉祥物为例,探讨了AI在完成简单、可量化任务(如吉祥物设计、转录、翻译)上的能力。AI能胜任这些原本需要专业技能的任务,但对于需要更深层次专业知识和判断力的复杂任务(如景观设计),AI目前仍力不从心。这说明AI在经济领域才刚刚开始展现其解决付费任务的潜力。

OpenAI发布o3-mini:经济实惠的高性能LLM

2025-02-01

OpenAI发布了新的语言模型o3-mini,其在Codeforces编程竞赛基准测试中表现出色,远超GPT-4o和o1。虽然在其他方面并非全面领先,但其低廉的价格(110美元/百万输入token,440美元/百万输出token)和超高的token输出限制(100,000 tokens)使其极具竞争力。OpenAI计划将其用于ChatGPT的网络搜索和摘要功能,并已在LLM 0.21中提供支持,但目前仅限于Tier 3及以上用户(API消费至少100美元)。o3-mini的出现为开发者提供了更经济高效的强大LLM选择。

AI o3-mini

AI音乐生成:便捷与创造力的博弈

2025-01-31
AI音乐生成:便捷与创造力的博弈

AI音乐公司Suno的成功引发了关于AI在艺术创作中作用的思考。作者,一位斯坦福大学的教授,质疑了Suno“AI能轻松解决音乐创作中的枯燥部分”的宣传,认为创作过程中的挑战和困难本身就构成了艺术的意义和价值。他以自身经历和教学实践为例,阐述了创作过程的重要性,并呼吁重视在AI时代保持人类主动创作的能力,避免陷入单纯的消费型文化。

AI

Tensor Diagrams简化张量操作:Tensorgrad库初探

2025-01-31

高维张量操作容易让人迷失?一本新书《Tensor Cookbook》用张量图简化了这一过程。张量图比传统的索引符号(einsum)更直观,能轻松识别模式和对称性,避免向量化和克罗内克积的麻烦,简化矩阵微积分,轻松表示函数和广播。配套的Python库Tensorgrad,利用张量图进行符号张量操作和求导,让复杂计算变得简单易懂。

OpenAI发布更经济高效的推理模型o3-mini

2025-01-31
OpenAI发布更经济高效的推理模型o3-mini

OpenAI发布了新的AI推理模型o3-mini,这是其o系列推理模型的最新成员。o3-mini在性能上与o1系列相当,但运行速度更快,成本更低。它针对STEM问题进行了微调,尤其擅长编程、数学和科学。在ChatGPT中,用户可以选择不同的“推理强度”来平衡速度和准确性。付费用户可以无限制访问,免费用户也有限额使用。o3-mini也通过OpenAI的API提供给部分开发者。虽然在某些基准测试中不及DeepSeek的R1模型,但在成本和速度方面具有竞争力,并提升了安全性。

AI

DeepSeek:中国AI黑马的崛起与挑战

2025-01-31
DeepSeek:中国AI黑马的崛起与挑战

DeepSeek,一家由中国对冲基金High-Flyer孵化的AI公司,凭借其高效的模型DeepSeek V3和R1,迅速在全球AI领域掀起波澜。DeepSeek V3以低廉的训练成本(实际成本远高于公开的600万美元)和强大的性能,以及创新的Multi-head Latent Attention技术,在推理成本上取得了显著优势。虽然DeepSeek的成功与其对GPU的大量投资(约5万张Hopper GPU)和对人才的重视密不可分,但其低价策略也引发了业内对成本可持续性的质疑。同时,Google Gemini Flash 2.0 Thinking的出现也为DeepSeek的领先地位带来了挑战。DeepSeek的崛起,反映了中国AI技术实力的提升,同时也引发了对国际科技竞争和技术出口管制的思考。

只需2小时,训练AI生成你的专属图像!

2025-01-31
只需2小时,训练AI生成你的专属图像!

作者在短短两小时内成功训练了一个AI图像模型,可以生成其本人各种风格的图像,例如“超人版”的自己。这得益于Flux模型和LoRA训练技术,以及Replicate平台提供的便捷GPU租赁服务和预建工具。作者只需准备少量个人照片,并利用Hugging Face存储模型,就能轻松实现。虽然生成的图像质量参差不齐,但已足够有趣,且成本低廉(约10美元)。

AI

RamaLama:让AI模型运行像Docker一样简单

2025-01-31
RamaLama:让AI模型运行像Docker一样简单

RamaLama是一个命令行工具,旨在简化AI模型的本地运行和管理。它利用OCI容器技术,自动检测GPU支持,并从Hugging Face、Ollama等模型注册中心拉取模型。用户无需配置复杂的系统环境,只需简单的命令即可运行聊天机器人或REST API服务。RamaLama支持Podman和Docker,并提供便捷的模型别名功能,极大提升了AI模型的易用性。

AI

DeepSeek R1:开源模型在复杂推理任务中挑战OpenAI

2025-01-31
DeepSeek R1:开源模型在复杂推理任务中挑战OpenAI

DeepSeek R1,一个开源模型,在复杂推理任务中与OpenAI的模型一较高下。它利用群体相对策略优化(GRPO)和强化学习的多阶段训练方法,不仅发布了模型,还发布了相关的研究论文。论文中描述了训练过程中一个“顿悟时刻”:模型学会了通过重新评估初始方法来分配更多思考时间,无需任何人工反馈或数据指导。本文尝试使用GRPO和Countdown游戏来重现DeepSeek R1的“顿悟时刻”,训练一个开源模型,使其自主学习自我验证和搜索能力。文章还提供了一个Jupyter Notebook交互式代码,以及在多GPU节点或SLURM集群上运行训练的脚本和说明,方便读者学习GRPO和TRL的使用方法。

AI

美国作家协会推出“人类创作”认证,对抗AI生成书籍泛滥

2025-01-31
美国作家协会推出“人类创作”认证,对抗AI生成书籍泛滥

面对AI生成书籍涌入亚马逊等电商平台的浪潮,美国作家协会推出“人类创作”认证项目,旨在帮助读者区分AI生成和人类创作的作品。该认证目前仅限于协会会员及单作者书籍,未来将扩展到非会员和多作者书籍。认证要求作品几乎完全由人类创作,允许使用AI进行语法和拼写检查等辅助工作。协会认为,此举并非抵制技术,而是为了透明度和读者对人际连接的需求,彰显人类创作的独特性。

AI

歌德尔不完备定理与计算的未来:一场数学与科技的西部片

2025-01-30
歌德尔不完备定理与计算的未来:一场数学与科技的西部片

这首充满西部片风格的诗歌讲述了数学史上的关键事件,从集合论的悖论到哥德尔不完备定理的证明,再到图灵机和冯·诺依曼架构的出现,最终引出P vs NP问题。诗歌以生动的比喻和故事性强的叙述,描绘了数学家们在探索真理的过程中遇到的挑战和取得的成就,以及科技发展对人类社会的影响。哥德尔不完备定理如同埋藏在计算领域的“地雷”,暗示了计算的局限性,引发了对人工智能未来发展方向的思考。

Mistral Small 3:速度与性能兼备的开源24B参数模型

2025-01-30
Mistral Small 3:速度与性能兼备的开源24B参数模型

Mistral AI发布了全新开源模型Mistral Small 3,这是一个拥有240亿参数的模型,在速度和性能上取得了显著平衡。它在速度上超过了Llama 3.3 70B和Qwen 32B等更大模型三倍以上,同时在MMLU准确率上达到81%以上。Mistral Small 3特别适合需要快速响应的生成式AI任务,并且可以在单块RTX 4090或32GB内存的Macbook上运行。该模型已在Apache 2.0许可下发布,并可通过Hugging Face等平台访问。

AI

人工智能与人性:教廷对人工智能伦理的反思

2025-01-30

这份由教廷信仰教理部和文化教育部联合发布的报告,探讨了人工智能(AI)对人类的挑战与机遇。报告指出,AI虽然能够模拟某些人类智力活动,但其本质上受限于逻辑数学框架,无法复制人类的道德辨别力、创造力和情感。报告强调,人类智能是整体性的,包含理性、情感、身体和关系维度,而AI则缺乏这些维度。因此,AI的发展和应用必须以维护人的尊严和促进人的全面发展为导向,避免被用于歧视、操纵或破坏社会和谐。报告还呼吁在AI应用中注重责任、透明和问责制,确保AI始终服务于人类共同利益。

震惊!AI绘画模型竟能“读懂”你的思维?!

2025-01-30

最近,一个名为Midjourney的AI绘画模型引发热议,它并非通过简单的关键词指令作画,而是能理解用户更深层次的意图,甚至能捕捉到用户潜意识中的想法,生成令人惊叹的艺术作品。这项技术突破意味着AI在理解人类情感和思维方面取得了显著进展,未来或将深刻改变艺术创作、设计等领域。

AI

AI辅助创作版权新规:人脑才是关键

2025-01-30
AI辅助创作版权新规:人脑才是关键

美国版权局发布报告,明确AI辅助创作的版权归属问题。报告指出,只要人类的创造性发挥了核心作用,AI辅助生成的艺术作品就能获得版权保护。这意味着,如果艺术家通过对AI生成内容进行“具有创造性的改编或修改”,其作品仍然受版权法保护。然而,完全由机器生成的內容将不被授予版权。此举或将推动AI技术在影视、音乐等创意领域的应用,但关于AI训练数据版权的问题,版权局仍在进一步研究中。

AI

DeepSeek 的崛起:美国 AI 芯片出口管制奏效了吗?

2025-01-30
DeepSeek 的崛起:美国 AI 芯片出口管制奏效了吗?

Anthropic CEO 达里奥·阿莫迪就中国 AI 公司 DeepSeek 的成功对美国 AI 芯片出口管制的影响发表了评论。他认为,虽然 DeepSeek 的模型在成本效益方面取得了进展,但与美国同类模型相比仍存在差距,这表明出口管制正在发挥作用。他预测,未来的发展取决于特朗普政府的出口政策:加强管制可能使美国保持领先地位,而放松管制则可能导致中国在军事 AI 领域取得优势。

扩展信息滤波器:让AI更智能地猜测

2025-01-29
扩展信息滤波器:让AI更智能地猜测

本文介绍了扩展信息滤波器(EIF),一种用于处理非线性系统中不确定性的高级算法。EIF基于高斯分布,利用信息矩阵和信息向量而非均值和协方差来表示不确定性,从而在处理大型稀疏系统时提高效率。与扩展卡尔曼滤波器(EKF)相比,EIF在数值上更稳定,尤其是在处理稀疏信息矩阵的系统时。文章详细解释了高斯分布、信息矩阵、信息向量、卡尔曼滤波器、信息滤波器以及EIF的工作原理,并比较了它们之间的优缺点。最终,文章强调了EIF在构建能够处理现实世界中噪声传感器数据的推理代理(例如自动驾驶汽车、无人机和机器人)方面的作用。

DeepSeek R1:Azure AI Foundry上的新一代AI模型

2025-01-29
DeepSeek R1:Azure AI Foundry上的新一代AI模型

微软宣布DeepSeek R1模型现已登陆Azure AI Foundry和GitHub。DeepSeek R1是一个强大且经济高效的AI模型,它加入了Azure AI Foundry超过1800个模型的大家庭,为企业提供了便捷地集成先进AI的能力。该模型经过严格的安全评估,并具有内置的内容安全过滤功能,确保企业能够安全可靠地部署AI解决方案。开发者可以通过Azure AI Foundry快速实验、迭代和集成AI,并利用内置的模型评估工具提高效率。

阿里巴巴Qwen2.5-Max挑战美国科技巨头,重塑企业AI格局

2025-01-29
阿里巴巴Qwen2.5-Max挑战美国科技巨头,重塑企业AI格局

阿里巴巴云发布了其Qwen2.5-Max模型,这是不到一周内中国发布的第二个重大AI突破,进一步冲击了美国科技市场,加剧了人们对其AI领导地位日益丧失的担忧。该模型在Arena-Hard、LiveBench和LiveCodeBench等关键基准测试中均优于DeepSeek的R1模型,并在高级推理和知识测试中与GPT-4o和Claude-3.5-Sonnet等行业领导者展现出竞争力。Qwen2.5-Max采用混合专家架构,在训练过程中使用了超过20万亿个token,但却比传统方法需要更少的计算资源。这一高效的模型,为企业AI部署带来了新的可能性,可能降低40%-60%的基础设施成本。然而,数据主权、API可靠性和长期支持等问题仍需考虑。

Hirundo 的偏见消除技术成功降低 DeepSeek-R1 模型偏差

2025-01-29
Hirundo 的偏见消除技术成功降低 DeepSeek-R1 模型偏差

Hirundo 公司利用其独特的偏见消除技术,成功地减少了 DeepSeek-R1-Distill-Llama-8B 大型语言模型中的偏差。该模型在推理任务上表现出色,但在种族、国籍和性别方面存在显著偏差。Hirundo 的技术在不影响模型性能的情况下,将偏差降低了高达 76%,为更安全可靠的 AI 部署提供了强有力的证明。这项技术将在 Hirundo 平台上发布,并已将处理后的模型上传至 Hugging Face。

DeepSeek的R1-Zero:无需人工标注的AGI新路径?

2025-01-29
DeepSeek的R1-Zero:无需人工标注的AGI新路径?

DeepSeek发布了R1-Zero和R1两个推理系统,在ARC-AGI-1基准测试中取得了与OpenAI的o1系统相当的成绩(15-20%),远超仅依靠LLM规模化训练的GPT-4o(5%)。R1-Zero尤其引人注目,因为它完全依赖强化学习,无需人工标注(SFT),这突破了以往依赖大量人工标注的瓶颈。虽然R1-Zero在可读性和语言混杂性方面存在一些挑战,但在数学和编码领域表现出色,表明在特定领域,无需SFT也能实现准确的链式思维推理。这为AGI研究开辟了新的方向,预示着未来可能出现完全摆脱人工标注的AGI训练模式。

AI

本地运行开源大语言模型DeepSeek R1

2025-01-29
本地运行开源大语言模型DeepSeek R1

DeepSeek R1是一个开源的大型语言模型,能够进行对话、编码和解决问题。本文介绍了如何使用Ollama在本地运行DeepSeek R1,包括安装Ollama、下载DeepSeek R1模型(包括不同大小的精简版本)以及运行模型。本地运行DeepSeek R1可以保证数据隐私和更快的响应速度,并支持多种提示方式,例如聊天、代码编写和数学问题求解。文章还解释了精简模型的优势以及一些实用技巧,例如命令行自动化和IDE集成。

AI

DeepSeek大战ChatGPT:开源免费的中国AI挑战巨头

2025-01-29

DeepSeek,一款由中国开发的开源免费AI模型,正对ChatGPT发起挑战。DeepSeek基于混合专家(MoE)架构,在代码调试、科学研究和教育学习方面效率更高,精准度更高。而ChatGPT则在创意写作、对话和多语言支持方面更胜一筹。文章比较了二者的优劣,并建议根据自身需求选择合适的工具,甚至可以两者结合使用,以充分发挥各自优势。DeepSeek的出现也引发了美国对AI竞争的担忧,甚至连特朗普都公开提及。

AI
1 2 37 38 39 41 43 44 45 51 52