Anthropic 宣布其 Claude API 现已支持 CORS 请求,允许开发者直接从用户浏览器调用 Claude 大语言模型。此前,开发者需要搭建代理服务器才能实现类似功能。尽管该功能存在 API 密钥泄露的风险,但 Anthropic 提供了新的请求头以启用 CORS 支持,方便开发者构建内部工具或“自带 API 密钥”模式的客户端应用程序。
本文是作者在 PyCon US 2024 上主题演讲的文字稿。作者首先对人工智能,特别是大型语言模型进行了概述,介绍了其工作原理、优缺点以及潜在应用。作者更倾向于使用“模仿智能”来描述大型语言模型,因为它们本质上是在模仿人类语言,而非真正具备智能。作者还探讨了提示工程、检索增强生成、函数调用等技术,以及如何利用这些技术构建实际应用。作者以自己开发的 AI 语音计数器和数据提取工具为例,展示了大型语言模型在解决实际问题方面的潜力。最后,作者强调了负责任地使用人工智能的重要性,并鼓励 Python 社区积极探索人工智能技术,构建更加智能化的应用程序。
文章强调了为产品功能、创意或任何希望他人理解和讨论的事物创建可链接网页的重要性。作者以ChatGPT代码解释器和“无聊技术”为例,说明了拥有专门页面和链接的好处,这不仅有利于搜索引擎优化,还能促进更有效的对话和信息传播。
本文介绍了如何使用名为LLM的命令行工具来调用大型语言模型。LLM支持OpenAI、Anthropic Claude等多种模型,可以通过插件扩展功能,也支持本地运行模型。文章详细介绍了LLM的安装、基本用法、插件系统、模型日志记录、嵌入和向量搜索等功能,并结合实际案例展示了如何使用LLM完成文本摘要、代码生成、网页抓取等任务。
Charity Majors 在文章中反驳了生成式 AI 可以取代初级程序员的观点。软件工程需要学徒式的经验积累,初级工程师是团队不可或缺的一部分,他们通过实践学习和成长为中高级工程师。优秀的团队需要不同技能水平的成员,初级工程师为团队带来活力,并推动高级工程师不断学习和进步。作者建议公司创造良好的环境,帮助初级工程师学习和成长。
本文介绍了 RAG(检索增强生成)应用中出现的意外提示注入问题。作者以自己的 LLM 项目文档为例,说明了在使用语义搜索进行文档检索时,由于语义相似度匹配的特性,可能导致意外的文本片段被纳入提示,从而改变 LLM 的行为。作者还强调了这种问题在 RAG 应用中的普遍性以及可能带来的安全风险。
Windows 11 新功能 Recall 可以截取用户屏幕截图、运行本地 OCR 并将文本存储在 SQLite 数据库中,方便用户搜索历史活动记录。然而该功能存在巨大安全隐患,恶意软件可以轻易获取数据库中存储的大量用户信息。安全专家 Kevin Beaumont 认为该功能适用人群非常有限,对于普通用户来说弊大于利。
大型语言模型如 ChatGPT 不会像人类那样,记住在对话中你说过的所有内容并用以更新自身的知识。它们更像是无状态函数,根据输入的文本预测接下来的内容,每次新对话都是独立的,不会记住所谓的“训练”内容。虽然一些模型提供记忆功能,但这只是将部分信息记录在当前对话上下文中,并非真正记住。过度担心模型会记住所有输入并泄露隐私,实际上是基于对技术原理的误解。
该网站讨论了人工智能在数据新闻中的应用。它概述了人工智能在数据可视化、事实核查和预测建模等领域的使用方式。它还探讨了人工智能在数据新闻中存在的挑战和机遇。