Category: AI

Databricks의 TAO: 레이블 없는 데이터로 파인튜닝 능가

2025-03-26
Databricks의 TAO: 레이블 없는 데이터로 파인튜닝 능가

Databricks는 레이블 없는 사용 데이터만 필요로 하는 새로운 모델 튜닝 방법인 TAO(Test-time Adaptive Optimization)를 발표했습니다. 기존 파인튜닝과 달리 TAO는 테스트 시간 연산과 강화 학습을 활용하여 과거 입력 예시를 기반으로 모델 성능을 향상시킵니다. 놀랍게도 TAO는 기존 파인튜닝을 능가하여 Llama와 같은 오픈소스 모델을 GPT-4와 같은 고가의 독점 모델과 비슷한 수준의 품질로 끌어올립니다. 이 획기적인 기술은 Databricks 고객을 위해 미리 보기 버전으로 제공되며 향후 제품에도 적용될 예정입니다.

모델 컨텍스트 프로토콜(MCP): AI를 위한 USB-C

2025-03-26

모델 컨텍스트 프로토콜(MCP)은 애플리케이션이 LLM에 컨텍스트를 제공하는 방식을 표준화하는 오픈 프로토콜입니다. AI를 위한 USB-C 포트라고 생각하십시오. 다양한 데이터 소스와 도구에 AI 모델을 연결합니다. Agents SDK는 MCP를 지원하므로 다양한 MCP 서버를 사용하여 Agent에 도구를 제공할 수 있습니다. MCP 서버에는 stdio 서버(로컬)와 HTTP over SSE 서버(원격)의 두 가지 유형이 있습니다. 도구 목록을 캐싱하여 대기 시간을 최소화할 수 있습니다. 전체 예제는 examples/mcp 디렉토리에 있습니다.

AI

StarVector: Transformer 기반 이미지에서 SVG로의 벡터화 모델

2025-03-26

StarVector는 Transformer 기반 이미지에서 SVG로의 벡터화 모델이며, 8B 및 1B 파라미터 모델이 Hugging Face에 공개되었습니다. SVG-Bench 벤치마크에서 최첨단 결과를 달성했으며, 특히 아이콘, 로고, 기술 다이어그램 벡터화에 탁월하며 복잡한 그래픽 세부 사항 처리에서 뛰어난 성능을 보여줍니다. 이 모델은 간단한 아이콘부터 복잡한 컬러 일러스트레이션까지 다양한 벡터 그래픽 스타일을 포함하는 대규모 데이터 세트를 사용하여 훈련되었습니다. 기존 벡터화 방법과 비교하여 StarVector는 더욱 깔끔하고 정확한 SVG 코드를 생성하며 이미지의 세부 정보와 구조 정보를 더 잘 보존합니다.

AI의 예상치 못한 혁명: 간결함이 장황함을 능가하다

2025-03-26
AI의 예상치 못한 혁명: 간결함이 장황함을 능가하다

대규모 언어 모델(LLM)의 확산은 처음에 학교와 기업에서 서면 과제와 전문적인 의사소통을 대체할 것이라는 우려로 인한 공황 상태를 야기했습니다. 그러나 저자는 LLM의 진정한 영향은 의사소통과 프로그래밍 방식에 혁명을 일으킬 가능성에 있다고 주장합니다. LLM은 장황한 비즈니스 이메일과 복잡한 코드 뒤에 숨겨진 단순성을 드러내고, 간결한 의사소통으로 우리를 이끌고 있습니다. 이는 궁극적으로 LLM 자체의 시대착오로 이어지고, 더욱 효율적이고 간소화된 비즈니스 의사소통과 프로그래밍 언어를 탄생시킬 것입니다. 간결성으로의 이러한 변화는 세상을 바꿀 것을 약속합니다.

Dapr Agents: 확장 가능하고 복원력 있는 AI 에이전트 시스템을 위한 프레임워크

2025-03-26
Dapr Agents: 확장 가능하고 복원력 있는 AI 에이전트 시스템을 위한 프레임워크

Dapr Agents는 대규모로 작동하는 프로덕션급의 복원력 있는 AI 에이전트 시스템을 구축하기 위한 개발자 프레임워크입니다. 검증된 Dapr 프로젝트를 기반으로 구축되어 개발자는 대규모 언어 모델(LLM)을 사용하여 추론, 행동, 협업을 수행하는 AI 에이전트를 만들 수 있습니다. 내장된 관찰 기능과 상태 저장형 워크플로 실행을 통해 복잡성에 관계없이 에이전트 워크플로가 성공적으로 완료됩니다. 주요 기능으로는 효율적인 다중 에이전트 실행, 자동 재시도 메커니즘, Kubernetes 네이티브 배포, 다양한 데이터 소스 통합, 안전한 다중 에이전트 협업, 플랫폼 준비 상태, 비용 효율성, 공급업체 중립성 등이 있습니다.

AI

Gemini 2.5 Pro: 자신의 한계를 아는 AI

2025-03-26
Gemini 2.5 Pro: 자신의 한계를 아는 AI

저자는 Gemini 2.5 Pro에게 90년대 유명한 신시사이저인 ReBirth RB-338을 재현해 보라고 시도했습니다. 놀랍게도 Gemini 2.5 Pro는 불가능한 일을 시도하는 대신 작업의 난이도를 평가하고 실행 불가능함을 설명했습니다. 이는 강력한 추론 능력을 보여줍니다. 최종적으로 저자는 AI와 협상하여 단순화되었지만 기능하는 신시사이저를 만들었습니다. 이는 AI가 자신의 한계를 이해하고 합리적인 판단을 내릴 수 있도록 발전하고 있음을 보여줍니다.

AI

강화학습: AlphaGo에서 AlphaGo Zero까지

2025-03-26

본 글에서는 강화학습(RL)의 기본 개념과 고전적인 알고리즘을 쉽게 설명합니다. AlphaGo가 인간 바둑 챔피언을 이긴 이야기로 시작하여 RL의 핵심 아이디어, 즉 에이전트가 환경과 상호 작용하여 누적 보상을 극대화하는 전략을 학습한다는 개념을 설명합니다. MDP, 벨만 방정식, 동적 계획법, 몬테카를로 방법, TD 학습(SARSA, Q러닝, DQN), 정책 경사 방법(REINFORCE, Actor-Critic, A3C), 진화 전략 등의 핵심 내용을 자세히 설명하고, AlphaGo Zero를 예로 들어 RL의 실제적인 응용 사례를 보여줍니다.

Whisper 임베딩이 놀랍게도 인간 뇌 활동과 일치

2025-03-26
Whisper 임베딩이 놀랍게도 인간 뇌 활동과 일치

연구에 따르면 OpenAI의 Whisper 음성 인식 모델과 자연스러운 대화 중 인간 뇌의 신경 활동 사이에 놀라운 일치가 발견되었습니다. Whisper 임베딩과 하전두피질(IFG) 및 상측두회(STG)와 같은 뇌 영역의 뇌 활동을 비교하여 연구자들은 발화 중에는 언어 임베딩이 음성 임베딩보다 먼저 최고점에 도달하고, 이해 중에는 반대되는 것을 발견했습니다. 이는 뇌 메커니즘을 고려하지 않고 개발된 Whisper가 언어 처리의 중요한 측면을 포착하고 있음을 시사합니다. 또한 이러한 발견은 뇌 언어 처리의 '소프트 계층'에 대해서도 밝히고 있습니다. IFG와 같은 고차원 영역은 의미 및 구문 정보에 우선 순위를 두지만 저수준 청각 기능도 처리합니다. 반면 STG와 같은 저차원 영역은 음향 및 음운 처리를 우선시하지만 단어 수준의 정보도 포착합니다.

AI

모델 컨텍스트 프로토콜(MCP): AI의 USB-C 순간?

2025-03-26
모델 컨텍스트 프로토콜(MCP): AI의 USB-C 순간?

2024년 말 Anthropic에서 출시한 모델 컨텍스트 프로토콜(MCP)은 AI 세계에 혁명을 일으키고 있습니다. AI 통합의 USB-C와 같이, Claude나 ChatGPT와 같은 대규모 언어 모델(LLM)이 Obsidian, Gmail, 캘린더 등과 같은 외부 데이터 소스 및 도구와 원활하게 통신할 수 있도록 합니다. 수백만 개의 사용자 지정 통합이 필요하지 않습니다. MCP는 호스트, 클라이언트, 서버의 3계층 아키텍처를 사용하여 안전하고 안정적인 데이터 액세스와 작업 트리거를 제공하며, 개발을 크게 간소화하고 혁신적인 애플리케이션을 만들어냅니다. 예를 들어 LLM을 개인 데이터베이스, 코드 저장소, 심지어 실시간 주식 데이터에 연결할 수 있습니다. MCP의 오픈소스 특성으로 인해 개발자 커뮤니티에서 큰 관심을 받고 있으며, 많은 AI 애플리케이션에 통합되어 AI 애플리케이션과 상호 작용하는 방식에 혁신적인 변화를 가져오고 있습니다.

AI

Google Gemini 2.5: 사고하는 AI 모델이 선두로 나서다

2025-03-25
Google Gemini 2.5: 사고하는 AI 모델이 선두로 나서다

Google은 지금까지 개발한 AI 모델 중 가장 지능적인 Gemini 2.5를 공개했습니다. 실험 버전인 2.5 Pro는 LMArena에서 최고 순위를 차지하며 경쟁사들을 크게 앞질렀습니다. Gemini 2.5의 핵심 혁신은 '사고' 능력입니다. 응답하기 전에 추론을 수행하여 정확도와 성능을 향상시킵니다. 이러한 추론은 단순한 분류나 예측을 넘어서 정보 분석, 논리적 결론 도출, 맥락과 뉘앙스 이해, 그리고 정보에 기반한 의사 결정을 포함합니다. 강화 학습과 사고 연쇄 프롬프트를 사용한 이전 연구를 기반으로 Gemini 2.5는 개선된 기본 모델과 고급 사후 훈련을 결합했습니다. Google은 이러한 사고 능력을 향후 모든 모델에 통합할 계획이며, 이를 통해 더 복잡한 작업을 처리하고 더욱 정교하고 맥락을 인식하는 에이전트를 구동할 수 있게 될 것입니다.

AI

Apple, Apple Maps 이미지 데이터로 AI 모델 학습

2025-03-25
Apple, Apple Maps 이미지 데이터로 AI 모델 학습

Apple은 최근 웹사이트를 업데이트하여 2025년 3월부터 Apple Maps의 '둘러보기' 기능에서 수집된 이미지 데이터와 위치 정보를 사용하여 AI 모델을 학습할 것이라고 밝혔습니다. 카메라, 센서, iPhone/iPad가 장착된 차량 및 배낭을 통해 수집된 데이터는 얼굴과 번호판이 흐릿하게 처리됩니다. Apple은 흐릿하게 처리된 이미지만 사용하며, 건물의 흐릿하게 처리에 대한 요청도 받는다고 밝혔습니다. 이는 사진 앱의 정리 도구 및 검색 기능 등 Apple 제품 및 서비스의 AI 기능 향상으로 이어질 것입니다.

AI

Google, Gemini 2.5 공개: AI 추론의 획기적 발전

2025-03-25
Google, Gemini 2.5 공개: AI 추론의 획기적 발전

Google은 지금까지 개발한 가장 지능적인 AI 모델인 Gemini 2.5를 공개했습니다. 실험적인 2.5 Pro 버전은 다양한 벤치마크에서 최고 수준의 성능을 보이며 LMArena에서 1위를 차지했습니다. Gemini 2.5 모델은 '사고형' 모델로, 응답 전에 추론을 수행하여 정확성과 성능을 향상시킵니다. 이러한 추론 능력은 단순한 분류 및 예측을 넘어 정보 분석, 논리적 결론 도출, 맥락 및 뉘앙스 이해, 그리고 정보에 기반한 의사결정을 포함합니다. 강화 학습 및 사고 연쇄 프롬프팅에 대한 이전 연구를 기반으로 Gemini 2.5는 크게 개선된 기본 모델과 고급 후속 학습을 결합하여 획기적인 발전을 이루었습니다. Google은 앞으로 이러한 사고 능력을 모든 모델에 통합하여 더욱 복잡한 문제를 해결하고 더욱 정교한 맥락 인식 에이전트를 지원할 계획입니다.

AI

OpenAI CEO 샘 알트먼: 예상치 못한 소비자 기술 대기업

2025-03-25
OpenAI CEO 샘 알트먼: 예상치 못한 소비자 기술 대기업

이 Stratechery 인터뷰는 OpenAI CEO 샘 알트먼이 연구소에서 소비자 기술 대기업으로 성장한 OpenAI의 여정과 ChatGPT의 예상치 못한 성공에 대해 자세히 설명합니다. 알트먼은 OpenAI의 비즈니스 모델 변화, 마이크로소프트와의 관계, AI 안전 및 규제에 대한 견해, AGI의 미래에 대해 솔직하게 논의합니다. 인터뷰에서는 OpenAI의 오픈소스 전략, GPT-5 개발, 다양한 산업 분야에서 AI의 영향에 대해서도 다룹니다. 알트먼은 수십억 명의 사용자를 보유한 AI 플랫폼이 최첨단 모델보다 더 가치 있다고 생각하며, 광고 이상의 대체 수익화 전략을 시사합니다.

AI

VGGT: 초고속 3D 장면 재구성

2025-03-25
VGGT: 초고속 3D 장면 재구성

페이스북 리서치는 VGGT(Visual Geometry Grounded Transformer)를 발표했습니다. 이는 장면의 주요 3D 속성(카메라의 외적 및 내적 매개변수, 점 맵, 깊이 맵, 3D 점 추적)을 1개, 몇 개 또는 수백 개의 뷰에서 단 몇 초 만에 직접 추론할 수 있는 피드포워드 뉴럴 네트워크입니다. 사용자 친화적인 이 모델은 Transformer의 강력한 기능을 활용하며, 대화형 3D 시각화 도구를 제공합니다. 놀랍게도 VGGT는 이 작업을 위해 명시적으로 훈련되지 않았음에도 불구하고, 최첨단 단안 방법과 비교하여 경쟁력 있는 결과를 달성하는 인상적인 단안 재구성 성능을 보여줍니다.

AI

AI 낙관주의의 허상: 케이시 뉴턴과 케빈 루스 비판

2025-03-25
AI 낙관주의의 허상: 케이시 뉴턴과 케빈 루스 비판

이 글은 생성형 AI에 대한 기술 저널리스트 케이시 뉴턴과 케빈 루스의 맹목적인 낙관론을 비판합니다. 저자는 그들의 긍정적인 예측이 사실적 근거가 부족하며 단지 시장 수요와 자기 이익을 충족시키기 위한 것이라고 주장합니다. AGI가 임박했다는 루스의 주장과 OpenAI 모델에 대한 뉴턴의 과도한 칭찬은 엄밀한 논거가 부족합니다. 저자는 이러한 '신중한 낙관론' 태도가 사실상 현실 도피의 겁 많은 표현이며, 모델 환각, 벤치마크 조작 가능성, 창작 산업에 대한 영향 등 AI 기술의 여러 문제점과 잠재적 위험을 무시하고 있다고 지적합니다. 이 글은 CoreWeave 사례를 통해 AI 분야의 과열 투자와 지속 가능한 비즈니스 모델 부족을 보여주고, 사람들에게 비판적 사고를 유지하고 AI 기술 개발의 과제에 직면하도록 촉구합니다.

AlexNet 소스 코드 공개: 딥러닝 혁명의 시작

2025-03-25
AlexNet 소스 코드 공개: 딥러닝 혁명의 시작

2012년, 알렉스 크리제브스키, 일리아 수츠케버, 제프리 힌튼이 개발한 AlexNet은 처음으로 심층 신경망이 이미지 인식에서 가지는 엄청난 잠재력을 입증하며 딥러닝 시대를 열었습니다. 최근 컴퓨터 역사 박물관과 구글의 협력을 통해 AlexNet의 소스 코드가 오픈소스로 공개되었습니다. AlexNet의 성공은 강력한 컴퓨팅 파워와 ImageNet의 방대한 데이터 세트를 사용하여 훈련된 대규모 합성곱 신경망이라는 규모에 있었습니다. 이 획기적인 발전은 AI 분야에서 수십 년간의 혁신을 촉진하여 OpenAI와 같은 회사와 ChatGPT와 같은 애플리케이션을 탄생시키며 세상을 바꾸었습니다.

AI

영아기 기억상실증의 수수께끼 풀기: 1살 아기의 해마가 활성화되다

2025-03-25
영아기 기억상실증의 수수께끼 풀기: 1살 아기의 해마가 활성화되다

fMRI를 사용한 새로운 연구에서 4~25개월 된 유아 26명의 뇌를 스캔하여 오랫동안 미스터리였던 영아기 기억상실증을 밝히려고 시도했습니다. 연구 결과, 약 1살이 되면 기억 형성에 관여하는 해마가 활성화되어 유아가 테스트에서 기억하는 것과 관련된 신경 신호를 생성하는 것으로 나타났습니다. 이는 해마가 아직 발달 중인 시기에도 아기는 약 1살부터 기억을 부호화하기 시작한다는 것을 시사합니다. 이 연구는 초기 뇌 발달과 기억 형성 메커니즘을 이해하는 데 귀중한 단서를 제공하며 언젠가는 잃어버린 유년기 기억을 되찾을 수 있는 가능성을 시사합니다.

AI 챗봇과 고독: 양날의 검

2025-03-25
AI 챗봇과 고독: 양날의 검

두 건의 새로운 연구는 AI 챗봇을 많이 사용하는 사용자들에게서 고독감과 정서적 의존도가 증가할 수 있다는 잠재적인 어두운 면을 보여줍니다. 연구원들은 외로운 사람들이 AI와의 정서적 유대감을 추구할 가능성이 더 높다는 것을 발견했는데, 이는 이전의 소셜 미디어에 대한 연구를 반영합니다. AI 챗봇은 정서적 지원을 제공할 수 있지만, 플랫폼은 사용자의 안녕을 우선시하고 과도한 의존과 정서적 착취를 방지하며, 건강하지 못한 사용 패턴을 식별하고 개입하기 위한 조치를 취해야 합니다. 입법자들도 이러한 새로운 문제를 해결하고 적절한 규제를 마련해야 합니다.

AI

뉴턴 방법의 현대적 개선: 더 빠르고 광범위한 최적화 알고리즘

2025-03-25
뉴턴 방법의 현대적 개선: 더 빠르고 광범위한 최적화 알고리즘

300년 전, 아이작 뉴턴은 함수의 최솟값을 찾는 알고리즘을 개발했습니다. 현재 프린스턴 대학교의 Amir Ali Ahmadi와 그의 학생들은 이 알고리즘을 개선하여 더 넓은 범위의 함수에 효율적으로 대처할 수 있도록 했습니다. 이 획기적인 연구는 고차 도함수를 사용하고 테일러 전개를 영리하게 볼록한 제곱합 형태로 변환하여 기존의 경사 하강법보다 빠른 수렴을 달성합니다. 현재 계산 비용이 높지만, 미래의 컴퓨팅 기술 발전을 통해 이 알고리즘은 기계 학습과 같은 분야에서 경사 하강법을 능가하여 최적화 문제에 대한 강력한 도구가 될 수 있습니다.

앤트 그룹, 중국산 칩으로 AI 모델 학습 비용 20% 절감

2025-03-25
앤트 그룹, 중국산 칩으로 AI 모델 학습 비용 20% 절감

잭 마가 지원하는 앤트 그룹은 알리바바와 화웨이 등 중국 기업이 생산한 국산 반도체를 사용하여 AI 모델 학습 기술을 개발하여 비용을 20% 절감했습니다. 여전히 엔비디아 칩을 사용하고 있지만, 최신 모델 학습에는 주로 AMD와 중국산 칩에 의존하고 있으며, 엔비디아 H800 칩과 유사한 결과를 얻었습니다. 이는 중국이 하이엔드 엔비디아 칩 의존도를 줄이려는 노력을 강조합니다. 앤트 그룹이 개발한 새로운 언어 모델인 Ling-Plus와 Ling-Lite는 일부 벤치마크에서 메타의 Llama 모델을 능가했습니다. 의료 및 금융 분야에 적용될 이 모델들은 중국에서의 저비용 AI 개발의 큰 진전을 보여줍니다.

ARC-AGI-2: 인간에게는 쉽고 AI에게는 어려운 AGI 벤치마크

2025-03-24
ARC-AGI-2: 인간에게는 쉽고 AI에게는 어려운 AGI 벤치마크

ARC Prize 2025 경진대회가 AI에게는 훨씬 어렵지만 인간에게는 비교적 쉬운 AGI 벤치마크인 ARC-AGI-2와 함께 돌아왔습니다. 인간에게는 쉽지만 AI에게는 어려운 작업에 초점을 맞춤으로써 단순한 확장만으로는 해결할 수 없는 능력 격차를 보여줍니다. 100만 달러의 상금 풀을 통해 효율적이고 범용적인 AI 시스템을 위한 오픈소스 혁신을 장려하여 인간과 AI 간의 격차를 해소하고 진정한 AGI를 달성하는 것을 목표로 합니다.

AI

Qwen2.5-VL-32B: 인간의 선호도에 더욱 부합하는 320억 매개변수 시각 언어 모델

2025-03-24
Qwen2.5-VL-32B: 인간의 선호도에 더욱 부합하는 320억 매개변수 시각 언어 모델

Qwen2.5-VL 시리즈 모델의 호평에 힘입어, 새로운 320억 매개변수 시각 언어 모델인 Qwen2.5-VL-32B-Instruct를 오픈소스로 공개했습니다. 이 모델은 수학적 추론, 세밀한 이미지 이해, 인간의 선호도 충족 측면에서 상당한 향상을 보여줍니다. 벤치마크 테스트 결과, MMMU, MMMU-Pro, MathVista와 같은 다중 모드 작업에서 동일 규모의 모델을 능가하며, 720억 매개변수의 Qwen2-VL-72B-Instruct보다도 성능이 뛰어납니다. 또한 동일 규모의 모델 중 텍스트 이해 능력에서 최고 수준의 성능을 달성했습니다.

AI

AMD, 30억 매개변수의 완전히 오픈소스 언어 모델 'Instella' 발표

2025-03-24

AMD는 AMD Instinct™ MI300X GPU에서 처음부터 학습된 최첨단의 완전히 오픈소스인 30억 매개변수 언어 모델 제품군인 'Instella'를 발표했습니다. Instella는 유사한 크기의 기존 완전히 오픈소스 모델을 능가하며 Llama-3.2-3B와 같은 최첨단 오픈 가중치 모델과 경쟁력 있는 성능을 달성합니다. AMD는 모델 가중치, 학습 구성, 데이터 세트, 코드 등 모든 모델 아티팩트를 오픈소스화하여 AI 커뮤니티의 협업과 혁신을 촉진합니다. 이 모델은 효율적인 학습 기술과 다단계 학습 파이프라인을 활용합니다.

AI

GPT-4o mini TTS: 간편한 텍스트 음성 변환

2025-03-24
GPT-4o mini TTS: 간편한 텍스트 음성 변환

이 도구는 OpenAI의 GPT-4o mini TTS API를 사용하여 텍스트를 자연스러운 음성으로 변환합니다. 간단한 세 단계로 진행됩니다. 텍스트를 입력하고, 설정(6가지 음성과 조절 가능한 속도)을 사용자 지정하고, 고품질 오디오를 생성합니다. 오디오는 서버에 저장되지 않고 브라우저로 직접 스트리밍됩니다. 다양한 음성과 속도를 시도하여 콘텐츠에 가장 적합한 조합을 찾으세요!

AI

CUDA 18주년: 엔비디아의 비밀과 AI의 지배

2025-03-24
CUDA 18주년: 엔비디아의 비밀과 AI의 지배

엔비디아의 CUDA 플랫폼이 18주년을 맞았습니다. 단순한 프로그래밍 언어나 API가 아니라 엔비디아 소프트웨어 생태계의 핵심으로, AI부터 암호화폐 채굴까지 많은 "병렬화하기 쉬운" 연산 작업을 지원합니다. CUDA의 성공은 엔비디아의 오랜 지속적인 투자와 안정적인 업데이트 덕분이며, AMD와 같은 경쟁사와는 대조적입니다. AlexNet의 성공은 CUDA가 딥러닝 분야에 미친 초기 영향을 보여주며, 현재 CUDA는 AI 분야의 사실상 표준이 되어 엔비디아에 강력한 경쟁 우위를 제공합니다.

AI

beeFormer: 추천 시스템에서 의미적 유사성과 상호 작용 유사성 간의 간극 해소

2025-03-24
beeFormer: 추천 시스템에서 의미적 유사성과 상호 작용 유사성 간의 간극 해소

beeFormer 프로젝트는 콜드 스타트 문제를 해결하도록 설계된 추천 시스템에 대한 새로운 접근 방식을 제시합니다. 이는 언어 모델을 활용하여 상호 작용 데이터에서 사용자 행동 패턴을 학습하고 이러한 지식을 이전에 보지 못한 항목으로 전이합니다. 항목 속성에 의존하는 기존의 콘텐츠 기반 필터링과 달리 beeFormer는 사용자 상호 작용 패턴을 학습하여 이전 상호 작용 데이터가 없더라도 사용자의 관심사에 맞는 항목을 더 잘 추천합니다. 실험에 따르면 성능이 크게 향상되었습니다. 이 프로젝트는 자세한 교육 단계와 사전 훈련된 모델을 제공하며 MovieLens, GoodBooks, Amazon Books와 같은 데이터 세트를 지원합니다.

LangManus: 멀티 에이전트 협업을 위한 오픈소스 AI 자동화 프레임워크

2025-03-23
LangManus: 멀티 에이전트 협업을 위한 오픈소스 AI 자동화 프레임워크

LangManus는 커뮤니티 중심의 오픈소스 AI 자동화 프레임워크로, 웹 검색, 크롤링, Python 코드 실행 등의 도구와 언어 모델을 통합합니다. 전 직장 동료들이 여가 시간에 개발한 이 프로젝트는 멀티 에이전트와 심층 연구 분야를 탐구하고 GAIA 리더보드에 참여하는 것을 목표로 합니다. LangManus는 코디네이터, 플래너, 수퍼바이저, 리서처, 코더, 브라우저, 리포터 등의 역할을 가진 계층적 멀티 에이전트 시스템을 사용하며, Qwen 및 OpenAI 호환 모델을 포함한 다양한 LLM 통합을 지원합니다. 이 프로젝트는 MIT 라이선스에 따라 오픈소스로 공개되며 커뮤니티의 기여를 환영합니다.

개선된 크로스코더, LLM 파인튜닝의 비밀을 밝히다

2025-03-23
개선된 크로스코더, LLM 파인튜닝의 비밀을 밝히다

연구자들은 대규모 언어 모델(LLM)의 기본 모델과 파인튜닝된 채팅 모델을 비교하기 위한 새로운 방법인 '연결된 크로스코더'를 제시했습니다. 기존 크로스코더와 달리, 연결된 크로스코더는 기본 모델과 채팅 모델 모두에서 동일한 잠재 요소가 다른 시간에 활성화되도록 허용하여 채팅 모델의 새로운 기능을 더 효과적으로 식별할 수 있게 합니다. 실험 결과, 이 방법은 채팅 동작이 기본 모델의 기능에서 어떻게 발생하는지에 대한 더 명확한 설명을 제공하고, 더 단일 의미적인 잠재 요소를 생성하는 것으로 나타났습니다. 이 연구는 LLM 파인튜닝 과정에 대한 새로운 통찰력을 제공하고 미래 모델 개선을 위한 지침을 제시합니다.

Lean 4를 사용한 머신러닝 모델의 형식적 검증

2025-03-23
Lean 4를 사용한 머신러닝 모델의 형식적 검증

`formal_verif_ml` 프로젝트는 Lean 4를 사용하여 머신러닝 모델의 속성(견고성, 공정성, 해석 가능성 등)을 형식적으로 검증하기 위한 프레임워크를 제공합니다. Lean 라이브러리, 모델 변환 도구, 웹 인터페이스, CI/CD 파이프라인을 포함하며 다양한 모델 유형을 지원합니다. 대화형 웹 포털을 통해 모델 업로드, 생성된 Lean 코드 보기, 증명 컴파일 트리거, 모델 아키텍처 시각화 등이 가능합니다.

AI

컴퓨팅 파워의 승리: AI 개발의 새로운 패러다임

2025-03-23

본 글은 AI 개발의 새로운 트렌드, 즉 컴퓨팅 파워의 우위성을 탐구합니다. 저자는 자신의 경험과 비유를 사용하여 과도하게 설계된 AI 시스템은 정성스럽게 관리되지만 변화하는 환경에 적응하지 못하는 식물과 같고, 반면 대규모 컴퓨팅 파워 기반의 AI 시스템은 자연적으로 성장하는 식물처럼 자율적으로 학습하고 적응할 수 있다고 설명합니다. 규칙 기반, 컴퓨팅 리소스가 제한적인 것, 스케일 아웃 세 가지 다른 접근 방식을 통한 고객 서비스 자동화 시스템 구축을 비교함으로써 스케일 아웃 솔루션의 우수성을 보여줍니다. 강화 학습(RL)의 등장은 이러한 경향을 더욱 강화하는데, 방대한 계산을 통해 여러 솔루션을 탐색하여 인간의 설계를 뛰어넘는 성과를 거두고 있습니다. 미래에 AI 엔지니어의 역할은 완벽한 알고리즘을 만드는 것에서 막대한 컴퓨팅 리소스를 효과적으로 활용할 수 있는 시스템을 구축하는 것으로 전환될 것입니다.

1 2 27 28 29 31 33 34 35 40 41