Category: AI

임베딩 차원: 300에서 4096으로, 그리고 그 너머

2025-09-08
임베딩 차원: 300에서 4096으로, 그리고 그 너머

몇 년 전만 해도 200~300차원의 임베딩이 일반적이었습니다. 하지만 BERT와 GPT 같은 심층 학습 모델의 등장과 GPU 컴퓨팅의 발전으로 임베딩 차원은 폭발적으로 증가했습니다. BERT의 768차원에서 GPT-3의 1536차원, 그리고 현재 4096차원 이상으로 진화하고 있습니다. 이는 아키텍처 변경(Transformer), 더욱 대규모의 학습 데이터셋, Hugging Face와 같은 플랫폼의 부상, 벡터 데이터베이스의 발전에 의해 추진되고 있습니다. 차원 수 증가는 성능 향상을 가져오지만, 저장 및 추론의 과제도 발생합니다. 최근 연구에서는 Matryoshka 학습과 같은 더 효율적인 임베딩 표현이 모색되고 있으며, 성능과 효율의 균형을 목표로 하고 있습니다.

시뮬레이티드 어닐링을 위한 광학 아키텍처: 새로운 접근 방식

2025-09-08
시뮬레이티드 어닐링을 위한 광학 아키텍처: 새로운 접근 방식

연구원들은 시뮬레이티드 어닐링을 위한 광학 아키텍처를 고안했습니다. 이 아키텍처는 마이크로 LED 어레이, 액정 공간 광 변조기 및 포토다이오드 어레이를 사용하여 행렬 벡터 곱셈을 수행합니다. 이 시스템은 시뮬레이션된 tanh 비선형성을 활용하여 효율적인 해를 구함으로써 기계 학습 및 최적화 문제를 효율적으로 처리합니다. 실험 결과, MNIST 및 Fashion-MNIST 데이터 세트에서 고정밀 분류가 달성되었으며, 다양한 최적화 문제에서 뛰어난 성능을 보여주어 대규모 시뮬레이티드 어닐링 계산을 위한 새로운 하드웨어 솔루션을 제공합니다.

LLM 대 AI 에이전트: AI의 패러다임 전환

2025-09-07
LLM 대 AI 에이전트: AI의 패러다임 전환

이 글은 AI 분야의 중대한 오해, 즉 ChatGPT와 대규모 언어 모델(LLM)을 혼동하는 것을 밝힙니다. ChatGPT는 단순한 LLM 인터페이스에서 메모리, 툴 통합, 다단계 추론 기능을 갖춘 정교한 AI 에이전트로 진화했습니다. 이는 컴퓨팅 아키텍처의 큰 변화를 보여줍니다. LLM은 강력한 패턴 매칭 시스템이지만 학습과 적응 능력이 부족합니다. 반면 AI 에이전트는 인지 아키텍처의 일부로 LLM을 활용하여 외부 시스템과 상호 작용하고 경험을 통해 학습하고 적응합니다. 이러한 차이는 개발자, 제품 관리자, 비즈니스 전략, 사용자에게 큰 의미를 갖습니다. 이러한 차이를 이해함으로써 AI의 잠재력을 최대한 활용하고 시대에 뒤떨어진 솔루션을 구축하는 것을 피할 수 있습니다.

AI

정신의학에서의 은유적 뇌 언어: 역사적 그리고 현대적 관점

2025-09-07

본 논문은 뇌의 구조나 기능 장애에 대한 단순화된 개념을 사용하여 정신 질환을 설명하는 정신의학에서의 '은유적 뇌 언어'의 지속적인 사용을 조사합니다. 20세기 초 아돌프 마이어와 카를 야스퍼스와 같은 영향력 있는 인물들의 비판부터 폴 미일과 낸시 안드레아센과 같은 현대 연구자들을 포함한 보다 현대적인 사례에 이르기까지 본 논문은 이러한 은유적 언어의 지속적인 존재를 추적합니다. 신경 과학의 발전에도 불구하고 '시냅스 미끄러짐'과 '깨진 뇌'와 같은 표현은 여전히 일반적입니다. 저자는 모노아민 신경 전달 물질 가설을 사례 연구로 사용하여 정신 분열증, 조울증, 우울증과 같은 장애를 설명하는 데 있어서의 한계를 강조합니다. 현실 세계의 일화는 이러한 은유적 설명이 환자와 대중에게 미치는 영향을 보여줍니다. 본 논문은 외부 자금 조달과 의약품 광고가 이러한 현상의 확산을 악화시켰다는 점을 지적하며 결론을 맺습니다.

BrainCraft 챌린지: 1000개의 뉴런으로 미로 정복하기

2025-09-07
BrainCraft 챌린지: 1000개의 뉴런으로 미로 정복하기

BrainCraft 챌린지는 참가자들에게 생물학적으로 영감을 받은 속도 기반 신경망을 설계하여 간단한 미로를 이동하며 에너지원을 찾는 가상 에이전트를 제어하는 것을 요구합니다. 챌린지는 점점 어려워지는 5가지 과제로 구성되며, 각 과제는 2개월 동안 진행됩니다. 에이전트는 제한된 센서 데이터와 단 1000개의 뉴런만 사용할 수 있으며, 자원 제약이 있는 상황에서 이동하고 에너지를 획득해야 합니다. 이는 현재 신경과학에서 영감을 받은 모델에 큰 도전이 되며, 기능적인 신경 역학과 감각 운동 제어의 통합이 필요합니다.

AI

머신러닝 교과서: 패턴, 예측, 행동

2025-09-06

모리츠 하르트와 벤자민 레흐트의 "패턴, 예측, 행동: 머신러닝의 기초"가 프린스턴 대학교 출판부에서 출판되었습니다. 이 포괄적인 교과서는 기본적인 예측에서 심층 학습, 인과 추론, 강화 학습에 이르기까지 머신러닝의 광범위한 주제를 다룹니다. 보충 문제 세트와 PDF 미리 보기도 제공됩니다. 이 책은 크리에이티브 커먼즈 BY-NC-ND 4.0 라이선스로 라이선스가 부여됩니다.

AI

LLM 제작하기: 벡터, 행렬, 고차원 공간

2025-09-06
LLM 제작하기: 벡터, 행렬, 고차원 공간

이 기사는 3부작 시리즈의 두 번째 기사로, AI 전문 지식이 제한적인 기술적으로 능숙한 독자를 위해 대규모 언어 모델(LLM)의 작동 방식을 명료하게 설명합니다. Sebastian Raschka의 책 "Build a Large Language Model (from Scratch)"를 기반으로 한 시리즈의 19부를 바탕으로 LLM 내부의 벡터, 행렬, 고차원 공간(어휘 공간 및 임베딩 공간)의 사용법을 설명합니다. 저자는 LLM 추론을 이해하려면 고등학교 수준의 수학 지식만 있으면 충분하며, 학습에는 더 고급 수학이 필요하다고 주장합니다. 이 기사에서는 벡터가 고차원 공간에서 의미를 어떻게 나타내는지, 그리고 행렬 곱셈이 이러한 공간 간에 어떻게 투영되는지를 자세히 설명하고, 신경망의 선형층과 연결합니다.

AI

Anthropic, 저작권 소송 15억 달러 합의

2025-09-06
Anthropic, 저작권 소송 15억 달러 합의

AI 기업 Anthropic이 저작권으로 보호받는 책들을 AI 모델 'Claude' 훈련에 사용한 것에 대한 작가들의 집단 소송에서 15억 달러의 합의금을 지불하기로 합의했습니다. 이는 공개적으로 보고된 저작권 회수액 중 역대 최대 규모입니다. 법원은 이전에 Anthropic의 책 사용이 '매우 변혁적'이며 공정 이용에 해당한다고 판결했지만, 이번 합의는 Library Genesis와 같은 사이트에서 얻은 수백만 권의 불법 복제 책을 얻은 것에 초점을 맞추고 있습니다. 이 합의로 저작권 침해에 대한 책임을 질 수 있는 재판을 피하게 되었습니다. 이 역사적인 사건은 AI 훈련 데이터를 둘러싼 지속적인 법적 분쟁을 보여주고 미래의 AI 기업들에게 선례가 될 것입니다.

Apertus: 완전히 공개된 다국어 대규모 언어 모델

2025-09-06
Apertus: 완전히 공개된 다국어 대규모 언어 모델

Apertus는 700억 및 80억 매개변수를 가진 완전히 공개된 다국어 대규모 언어 모델(LLM)로 1000개 이상의 언어와 긴 컨텍스트를 지원합니다. 완전히 준수하는 공개 교육 데이터로 15조 토큰을 학습하여 비공개 모델과 비슷한 성능을 달성했습니다. 새로운 xIELU 활성화 함수와 AdEMAMix 최적화기를 사용하며, 지도 학습 미세 조정과 QRPO 정렬을 거쳤습니다. 가중치, 데이터 및 교육 세부 정보는 공개적으로 제공되며, 데이터 소유자의 옵트아웃 동의를 존중하고 교육 데이터를 암기하는 것을 방지합니다. transformers 라이브러리에 통합되어 다양한 배포 방법을 지원합니다. 강력하지만 출력의 잠재적인 부정확성과 편향에 유의해야 합니다.

AI

OpenAI, AI 기반 채용 플랫폼 및 인증 프로그램 출시 계획

2025-09-05
OpenAI, AI 기반 채용 플랫폼 및 인증 프로그램 출시 계획

OpenAI는 내년 AI 기반 채용 플랫폼을 출시하여 기업 및 정부 기관이 AI 기술을 갖춘 인재를 찾을 수 있도록 지원하고 AI 기술 도입을 가속화할 계획입니다. 또한 향후 몇 달 안에 직원들이 직장에서 AI를 더 효과적으로 활용할 수 있도록 교육하는 새로운 인증 프로그램을 시작합니다. 월마트 등 여러 기관과 협력하여 2030년까지 1000만 명의 미국인을 인증하는 것을 목표로 하고 있습니다.

AI 에이전트 아키텍처: 정확성이 아닌 신뢰성

2025-09-05
AI 에이전트 아키텍처: 정확성이 아닌 신뢰성

이 글에서는 AI 에이전트 아키텍처를 분석하고 사용자 경험이 단순한 정확성보다 중요하다고 주장합니다. 고객 지원 에이전트를 예로 들어 메모리(세션, 고객, 행동, 컨텍스트), 연결성(시스템 통합), 기능(기능의 깊이), 신뢰성(신뢰도 점수, 추론의 투명성, 원활한 에스컬레이션)의 네 가지 아키텍처 계층을 설명합니다. 단일 에이전트, 라우터 + 스킬, 사전 정의된 워크플로우, 멀티 에이전트 협업의 네 가지 아키텍처 접근 방식을 비교하고 간단하게 시작하여 필요에 따라 복잡성을 추가할 것을 권장합니다. 직관에 반하여 사용자는 항상 옳은 에이전트보다 자신의 한계를 솔직하게 인정하는 에이전트를 더 신뢰합니다.

AI

RDF: AI 시스템을 위한 자연스러운 지식 계층

2025-09-05
RDF: AI 시스템을 위한 자연스러운 지식 계층

대규모 언어 모델(LLM)은 기업 데이터의 정확성에 어려움을 겪는 경우가 많지만, 지식 그래프는 정확성을 3배까지 높일 수 있습니다. 이 기사에서는 자원 기술 프레임워크(RDF)가 지식 표현에 있어 여러 옵션 중 하나가 아니라 자연스러운 종착점인 이유를 살펴봅니다. 많은 기업은 지식 계층을 구축할 때 처음에는 사용자 정의 솔루션을 선택하지만, 결국에는 전 세계 식별자나 데이터 페더레이션 프로토콜과 같은 RDF의 핵심 기능을 재구축하게 됩니다. 이 기사에서는 RDF가 엔티티 식별과 같은 지식 표현의 핵심 문제를 어떻게 해결하는지 설명하고, RDF를 사용하면 LLM의 정확성과 효율성이 어떻게 향상되는지 보여줍니다.

AI

Le Chat 대규모 업데이트: 커넥터 및 메모리 기능으로 AI 어시스턴트 진화

2025-09-04
Le Chat 대규모 업데이트: 커넥터 및 메모리 기능으로 AI 어시스턴트 진화

Mistral AI의 Le Chat이 대규모 업데이트를 통해 데이터, 생산성, 개발, 자동화, 전자상거래 등을 아우르는 20개 이상의 안전한 엔터프라이즈급 커넥터를 도입했습니다. 사용자는 Le Chat 내에서 Databricks, Snowflake, GitHub, Asana 등의 도구에 직접 액세스하고 조작할 수 있습니다. '메모리' 기능(베타)은 컨텍스트와 선호도에 기반한 개인화된 응답을 제공하며, 민감한 정보에 대한 관리도 철저합니다. 이 모든 기능은 무료 플랜에서 사용할 수 있습니다.

10차원 랜덤워크: 고차원 공간에서의 직관에 대한 도전

2025-09-04
10차원 랜덤워크: 고차원 공간에서의 직관에 대한 도전

현대 역학에서 고차원 물리는 표준이 되었습니다. 끈 이론의 10차원부터 복잡한 동적 시스템에 이르기까지 고차원 상태 공간은 어디에나 존재합니다. 그러나 고차원 공간은 쉽게 이해할 수 있는 것이 아니며, "차원의 저주"가 존재합니다. 시각화가 불가능하고, 매개변수가 너무 많으면 과적합되기 쉽고, 직관도 작동하지 않습니다. 이 기사에서는 10차원 랜덤워크를 사용하여 고차원 공간의 특징을 설명합니다. 고차원 공간에서는 산맥이 산봉우리보다 훨씬 더 일반적이며, 이는 생명의 진화, 복잡 시스템 역학, 기계 학습에 큰 영향을 미칩니다. 랜덤워크는 매우 거친 지형에서도 고차원 공간을 효율적으로 탐색하고, 공간 전체를 가로지를 수 있습니다. 이것은 생명체에서 복잡한 구조의 진화와 심층 학습에서의 지역적 최소값 회피를 이해하는 데 도움이 됩니다.

AI가 이미 젊은이들의 일자리를 빼앗고 있나? 스탠포드 연구가 시사하는 바

2025-09-04
AI가 이미 젊은이들의 일자리를 빼앗고 있나? 스탠포드 연구가 시사하는 바

AI가 젊은이들의 고용 기회에 영향을 미치고 있는지에 대한 논쟁이 계속되고 있습니다. 초기 연구에서는 제한적인 영향만 확인되었지만, 스탠포드 대학교의 새로운 연구는 ADP 급여 데이터를 사용하여 소프트웨어 개발 및 고객 서비스와 같이 AI 노출이 높은 직종에서 22~25세 젊은층의 고용이 13% 감소했음을 밝혀냈습니다. COVID-19 및 기술 산업 침체와 같은 요인들을 고려하더라도 이 연구는 특히 자동화가 중심적인 분야에서 AI의 영향이 기존에 생각했던 것보다 훨씬 클 수 있음을 시사합니다. 반대로, AI가 업무를 보완하는 역할을 하는 직종에서는 고용이 증가하고 있습니다. 이는 대학 커리큘럼 개정 및 학생들의 진로에 대한 논의를 불러일으키며, AI가 노동 시장에 미치는 실시간 영향을 지속적으로 모니터링해야 할 필요성을 강조합니다.

효과적인 AI 에이전트 평가 구축: E2E 테스트부터 N-1 평가까지

2025-09-04

이 글에서는 효과적인 AI 에이전트 평가 시스템 구축에 대해 탐구합니다. 저자는 모델이 지속적으로 개선되더라도 평가가 필수적임을 강조합니다. 엔드투엔드(E2E) 평가부터 시작하여 성공 기준을 정의하고 간단한 예/아니오 결과를 출력함으로써 문제를 신속하게 파악하고, 프롬프트를 개선하며, 서로 다른 모델의 성능을 비교할 수 있다고 주장합니다. 'N-1' 평가는 이전 사용자 상호 작용을 시뮬레이션하여 문제를 직접적으로 파악할 수 있지만, 'N-1' 상호 작용을 최신 상태로 유지해야 합니다. 또한 LLM이 기대되는 대화 패턴을 따르는지 확인하기 위해 프롬프트 내에 체크포인트를 설정하는 것도 제안합니다. 마지막으로 저자는 외부 도구가 설정을 간소화하지만 특정 사용 사례에 맞게 조정된 사용자 지정 평가가 필요하다고 언급합니다.

최소주의 Transformer 해부: 1만 개의 매개변수로 LLM의 내부 작동 방식 밝히기

2025-09-04
최소주의 Transformer 해부: 1만 개의 매개변수로 LLM의 내부 작동 방식 밝히기

이 논문은 약 1만 개의 매개변수만 사용하는 극도로 단순화된 Transformer 모델을 제시하여 대규모 언어 모델(LLM)의 내부 작동 방식을 명확하게 보여줍니다. 과일과 맛의 관계에 초점을 맞춘 최소한의 데이터 세트를 사용하여 놀라울 정도로 높은 성능을 달성합니다. 시각화를 통해 단어 임베딩과 어텐션 메커니즘의 기능이 드러납니다. 중요한 점은 이 모델이 단순 암기 이상으로 일반화하여, "매운 것을 좋아하므로 좋아해"라는 프롬프트에 대해 "고추"를 정확하게 예측함으로써 LLM 작동의 핵심 원리를 매우 쉽게 보여줍니다.

AI

데이터, 연산 능력이 아닌: AI의 다음 병목 현상

2025-09-03
데이터, 연산 능력이 아닌: AI의 다음 병목 현상

수년 동안 우리는 '쓴 교훈(Bitter Lesson)'을 오해해 왔습니다. 그것은 연산 능력이 아니라 데이터에 관한 것입니다. GPU를 늘리려면 데이터도 40% 늘려야 합니다. 그렇지 않으면 단순한 낭비입니다. 인터넷 데이터는 포화 상태에 가까워지고 있습니다. '연금술사'(고위험 고수익 데이터 생성 방법)와 '건축가'(모델 아키텍처의 꾸준한 개선)야말로 미래이며, 단순한 연산 능력 추구가 아닙니다. 이 글에서는 두 가지 접근 방식의 장단점과 위험을 분석하고 2025년에 데이터 부족 문제를 해결하는 것이 2026년 AI 기업의 생존을 결정할 것이라고 결론짓고 있습니다.

MIT 연구: ChatGPT 사용이 에세이 작성 시 인지 능력 저하 유발

2025-09-03
MIT 연구: ChatGPT 사용이 에세이 작성 시 인지 능력 저하 유발

MIT 연구에 따르면 ChatGPT를 에세이 작성에 사용하면 측정 가능한 인지 능력 저하로 이어진다는 사실이 밝혀졌습니다. 뇌파 검사 결과, ChatGPT를 반복적으로 사용한 학생들에게서 신경 연결 약화, 기억력 저하, 자신의 글에 대한 소유 의식 감소가 나타났습니다. AI가 생성한 에세이가 높은 점수를 받았더라도 뇌 활동은 상당히 감소했습니다. 이 연구는 LLM 사용이 중요한 뇌 네트워크의 참여 부족을 유발하며, AI 사용을 중단한 후에도 인지 기능이 완전히 회복되지 않는다는 것을 보여줍니다. 이러한 '인지적 오프로딩'은 학습 능력과 창의력의 장기적인 저하로 이어집니다.

AI

Dynamo AI: 신뢰할 수 있는 AI를 위한 제품 관리자 채용 - 엔터프라이즈 AI의 미래를 만들어가세요

2025-09-03
Dynamo AI: 신뢰할 수 있는 AI를 위한 제품 관리자 채용 - 엔터프라이즈 AI의 미래를 만들어가세요

기업용 신뢰할 수 있는 AI 플랫폼을 구축하는 빠르게 성장하는 스타트업인 Dynamo AI에서 1년 이상의 경험을 가진 제품 관리자를 모집합니다. 이 역할은 레드티밍, 가드레일, 관측 가능성 솔루션의 제품 전략을 정의하고 실행하는 것을 포함합니다. 규제 산업(금융, 보험 등)의 창립자, 엔지니어, 기업 고객과 협력하여 제품 로드맵을 구축하고 최첨단 솔루션을 제공합니다. AI 안전 및 규정 준수에 대한 열정과 강력한 의사 소통 및 크로스 펑셔널 협업 능력이 필수적입니다.

텐센트의 HunyuanWorld-Voyager: 단일 이미지에서의 세계 일관성 있는 3D 비디오 생성

2025-09-03
텐센트의 HunyuanWorld-Voyager: 단일 이미지에서의 세계 일관성 있는 3D 비디오 생성

텐센트의 AI팀은 사용자 정의 카메라 경로를 가진 단일 이미지에서 세계 일관성 있는 3D 점 구름 시퀀스를 생성하는 새로운 비디오 확산 프레임워크인 HunyuanWorld-Voyager를 소개합니다. Voyager는 사용자 지정 경로를 따라 가상 세계를 탐험하기 위한 3D 일관성 있는 장면 비디오를 생성하며, 효율적인 3D 재구성을 위한 정렬된 깊이와 RGB 비디오도 생성합니다. 실제 세계 캡처와 언리얼 엔진 합성 데이터를 결합한 10만 개 이상의 비디오 클립으로 훈련된 Voyager는 WorldScore 벤치마크에서 최첨단 결과를 달성했습니다. 코드와 사전 훈련된 모델은 공개적으로 제공됩니다.

VibeVoice: 오픈소스 장시간 다중 화자 TTS

2025-09-03

VibeVoice는 텍스트로부터 팟캐스트와 같은 표현력이 풍부한 장시간 다중 화자 대화 오디오를 생성하기 위한 새로운 오픈소스 프레임워크입니다. 기존 TTS(텍스트 음성 변환) 시스템의 확장성, 화자 일관성, 자연스러운 턴테이킹과 같은 과제를 해결합니다. 주요 혁신으로 7.5Hz의 초저 프레임률로 작동하는 연속 음성 토크나이저(음향 및 의미)를 사용하여 오디오 충실도를 유지하면서 장시간 시퀀스 처리의 계산 효율성을 크게 향상시킵니다. VibeVoice는 다음 토큰 확산 프레임워크를 사용하여 대규모 언어 모델(LLM)로 텍스트 컨텍스트와 대화 흐름을 이해하고 확산 헤드로 고충실도 음향 세부 정보를 생성합니다. 이 모델은 최대 4명의 서로 다른 화자로 최대 90분의 음성 합성이 가능하며 기존 모델의 일반적인 1~2명 화자 제한을 뛰어넘습니다.

AI

Acorn: AI 정리 증명의 혁신적인 접근 방식

2025-09-03
Acorn: AI 정리 증명의 혁신적인 접근 방식

이 글에서는 Lean과 같은 기존의 대화형 정리 증명기와는 상당히 다른 새로운 AI 정리 증명기인 Acorn을 살펴봅니다. Acorn은 사용자가 단계적으로 명제를 제시하고 시스템이 자동으로 검증하는 대화형 상호 작용 방식을 채택합니다. 이는 인간의 증명 과정을 더욱 충실하게 반영하여 번거로운 형식 선언과 미리 정의된 정리를 찾는 과정을 생략합니다. Acorn은 간단한 ML 모델을 사용하여 증명 과정을 지원하고 사용자의 개입이 필요한 부분을 표시하여 효율성과 이해도를 높입니다. Lean과 같은 시스템과 달리 Acorn은 직관성과 자연어 표현을 우선시하여 수학적 증명 분야에서 인간과 AI의 협업 가능성을 크게 보여줍니다.

세계 모델: AGI에 대한 환상과 현실

2025-09-03
세계 모델: AGI에 대한 환상과 현실

인공지능 연구, 특히 '인공 일반 지능'(AGI)을 추구하는 연구소에서 최근 가장 주목받는 것은 '세계 모델'이다. 이것은 AI가 컴퓨팅 눈덩이처럼 내부에 간직하는 환경의 표현이다. Yann LeCun, Demis Hassabis, Yoshua Bengio 등 딥러닝의 선구자들은 진정으로 똑똑하고, 과학적이며, 안전한 AI 시스템을 구축하려면 세계 모델이 필수적이라고 믿는다. 하지만 세계 모델의 세부 사항에 대해서는 논쟁이 있다. 선천적인 것인가, 후천적으로 학습된 것인가? 그리고 그 존재를 어떻게 감지하는가? 이 기사는 이 개념의 기원과 발전을 추적하며, 현재의 생성형 AI는 완벽한 세계 모델에 기반하지 않고, 수많은 단편적인 휴리스틱 규칙에 의존할 가능성을 시사한다. 이러한 규칙은 특정 작업에는 효과적이지만, 견고성이 부족하다. 따라서 완벽한 세계 모델의 구축은 여전히 AI 연구의 핵심 과제이며, AI 환각 해소, 신뢰할 수 있는 추론 능력 향상, AI 시스템의 해석성 향상으로 이어져 궁극적으로 AGI 발전을 촉진할 것이다.

AI

iNaturalist, 일부 컴퓨터 비전 모델을 오픈소스로 공개

2025-09-02
iNaturalist, 일부 컴퓨터 비전 모델을 오픈소스로 공개

iNaturalist는 약 500개의 분류군으로 훈련된 "소형" 모델과 분류 파일, 지리적 모델 등 일부 기계 학습 모델을 오픈소스로 공개했습니다. 이는 기기에서의 테스트 및 기타 용도에 적합합니다. 지적 재산권 및 조직 정책으로 인해 전체 종 분류 모델은 비공개로 유지됩니다. 이 게시물에서는 종속성 설치, 환경 설정, 성능 최적화 제안(TensorFlow 컴파일 및 pillow-simd 사용 등), 성능 벤치마크를 포함한 macOS 설치 및 실행 지침을 자세히 설명합니다.

AI

LLM: 정보 손실이 있는 백과사전

2025-09-02

대규모 언어 모델(LLM)은 정보 손실이 있는 백과사전과 같습니다. 방대한 정보를 보유하고 있지만, 이 정보는 압축되어 있기 때문에 데이터 손실이 발생합니다. 중요한 것은 LLM이 효과적으로 답변할 수 있는 질문과 정보 손실이 정확도에 큰 영향을 미치는 질문을 구분하는 것입니다. 예를 들어, 특정 설정을 가진 Zephyr 프로젝트의 스켈레톤을 만들도록 LLM에 요청하는 것은 정확한 세부 정보가 필요한 “손실 없는” 질문이며, LLM은 이에 대응하기 어렵습니다. 해결책은 정확한 예시를 제공하여 LLM이 기존 사실을 바탕으로 동작하도록 하고, 지식 베이스에 없을 수 있는 세부 정보에 의존하지 않도록 하는 것입니다.

CauseNet: 웹에서 추출한 대규모 인과 관계 그래프

2025-09-02

연구원들은 1100만 개 이상의 인과 관계를 포함하는 대규모 지식 기반 CauseNet을 구축했습니다. 추정 정확도 83%로, 반구조화 및 비구조화 웹 소스에서 추출된 CauseNet은 인과 관계 질문 응답 및 추론과 같은 작업에 사용할 수 있는 인과 관계 그래프입니다. 이 프로젝트에서는 Neo4j로 로드하기 위한 코드와 인과 개념 감지에 대한 교육/평가 데이터 세트도 제공합니다.

AI

텍스트 투 SQL 넘어서: AI 데이터 분석가 구축하기

2025-09-01

이 글에서는 AI 데이터 분석가 구축의 과제와 해결책을 탐구합니다. 저자는 단순한 텍스트 투 SQL 변환으로는 현실 세계 사용자의 복잡한 질문에 대응할 수 없으며, 다단계 계획, 외부 도구(파이썬 등), 외부 컨텍스트가 필요하다고 주장합니다. 따라서 저자의 팀은 비즈니스 로직을 명시적으로 정의하는 모델링 언어 Malloy를 사용한 의미론적 계층을 갖춘 생성형 BI 플랫폼을 구축했습니다. 이는 멀티 에이전트 시스템, 검색 증강 생성(RAG), 전략적인 모델 선택과 결합하여 고품질, 저지연 데이터 분석을 달성합니다. 플랫폼은 SQL을 생성하고, 복잡한 계산을 위해 파이썬을 작성하며, 외부 데이터 소스를 통합합니다. 이 글에서는 컨텍스트 엔지니어링, 검색 시스템 최적화, 모델 선택의 중요성을 강조하고, 일반적인 오류 모드에 대한 해결책을 공유합니다.

LLM이 컴파일러 생성을 민주화하다: 레시피부터 워크플로까지

2025-09-01
LLM이 컴파일러 생성을 민주화하다: 레시피부터 워크플로까지

이 글은 일상적인 작업을 컴파일 프로세스로 보는 새로운 관점을 제시합니다. 요리를 예로 들어 저자는 레시피를 프로그램으로, 요리 과정을 컴파일 실행으로 비유합니다. 대규모 언어 모델(LLM)의 등장으로 프로그래밍 경험이 없는 사람도 도메인 특정 컴파일러를 만드는 것이 그 어느 때보다 쉬워졌습니다. LLM을 사용하면 피트니스 루틴, 비즈니스 프로세스, 심지어 음악 제작과 같은 일상적인 작업을 프로그래밍 가능한 환경으로 변환하여 효율성을 높이고 일상 시스템에 대한 이해를 높일 수 있습니다. 이것은 기술 혁신일 뿐만 아니라 사고방식의 변화이며, 컴파일러 개념을 코드에서 삶의 모든 측면으로 확장하는 것입니다.

AI

OpenAI, 유해한 ChatGPT 콘텐츠 단속 강화, 개인정보 보호 우려 제기

2025-09-01
OpenAI, 유해한 ChatGPT 콘텐츠 단속 강화, 개인정보 보호 우려 제기

OpenAI는 자사의 AI 챗봇 ChatGPT가 자해, 망상, 심지어 자살에 이르는 사용자들의 정신 건강 위기를 초래했다는 것을 인정했습니다. 이에 대응하여 OpenAI는 사용자 메시지를 스캔하고, 우려되는 콘텐츠를 사람 검토자에게 에스컬레이션하며, 경우에 따라 법 집행 기관에 보고하고 있습니다. 이 조치는 사용자 안전 우려와 뉴욕 타임즈 등 출판사와의 진행 중인 소송을 고려한 OpenAI의 이전의 사용자 개인 정보 보호 약속 간의 균형을 맞추면서 논란을 일으키고 있습니다. OpenAI는 AI의 부정적 영향에 대처하면서 사용자의 개인 정보를 보호해야 하는 어려운 입장에 처해 있습니다.

AI
1 3 5 6 7 8 9 40 41