Category: AI

Anthropic, Claude에 영향을 미치는 세 가지 인프라 버그 수정

2025-09-18
Anthropic, Claude에 영향을 미치는 세 가지 인프라 버그 수정

Anthropic은 8월부터 9월 초까지 세 가지 인프라 버그로 인해 Claude의 응답 품질이 간헐적으로 저하되었음을 인정했습니다. 이러한 버그는 요청의 잘못된 라우팅, 출력 손상, 컴파일 오류를 일으켜 일부 사용자에게 영향을 미쳤습니다. Anthropic은 이러한 버그의 원인, 진단 및 해결책을 자세히 설명하고 재발 방지를 위해 평가 및 디버깅 도구를 개선할 것을 약속했습니다. 이 사건은 대규모 언어 모델 인프라의 복잡성과 과제를 보여줍니다.

프롬프트 재작성으로 소형 LLM 성능 20% 이상 향상

2025-09-17
프롬프트 재작성으로 소형 LLM 성능 20% 이상 향상

최근 연구에 따르면 프롬프트를 간단하게 다시 작성하는 것만으로도 소형 언어 모델의 성능을 크게 향상시킬 수 있다는 사실이 밝혀졌습니다. 연구진은 Tau² 벤치마크 프레임워크를 사용하여 GPT-5-mini 모델을 테스트한 결과, 프롬프트를 더 명확하고 구조화된 지시로 다시 작성함으로써 모델의 성공률이 20% 이상 향상되는 것을 발견했습니다. 이는 주로 소형 모델이 장황하거나 모호한 지시를 처리하는 데 어려움을 겪는 반면, 명확하고 단계적인 지시가 모델의 추론을 더 효과적으로 안내하기 때문입니다. 이 연구는 영리한 프롬프트 엔지니어링을 통해 소형 언어 모델에서도 성능을 크게 향상시킬 수 있으며, 비용 효율적이고 효과적인 AI 애플리케이션을 위한 새로운 길을 열어 줄 수 있음을 보여줍니다.

AI

GPT 뛰어넘어: 진화 알고리즘으로 ARC-AGI 정복, AGI의 징후인가?

2025-09-17
GPT 뛰어넘어: 진화 알고리즘으로 ARC-AGI 정복, AGI의 징후인가?

최근 연구자는 진화 알고리즘과 대규모 언어 모델 Grok-4를 결합한 방법으로 ARC-AGI 벤치마크에서 큰 돌파구를 이루었습니다. 이 방법은 ARC v1에서 79.6%의 정확도를 달성했고, 더 어려운 ARC v2에서는 29.4%의 정확도를 달성하며 최첨단 결과를 갱신했습니다. 핵심적인 혁신은 Python 코드 대신 자연어 명령을 사용하는 것으로, 반복적인 진화를 통해 더 효과적인 해결책을 생성합니다. 이 연구는 강화 학습과 자연어 명령의 결합이 현재 LLM의 추상적 추론 한계를 극복하고 인공 일반 지능(AGI)으로 향하는 길을 열 수 있음을 시사합니다.

AI

AI의 무한 루프 문제: 시간, 엔트로피, 의식의 상호 작용

2025-09-16
AI의 무한 루프 문제: 시간, 엔트로피, 의식의 상호 작용

마드리드 공항에서 AI로 제어되는 탑승교가 고장나 무한 루프에 빠진 사례는 인공지능의 근본적인 한계를 보여줍니다. 이 글에서는 정지 문제와 프레임 문제를 논의하며, AI 시스템이 무한 루프에 잘 빠지는 이유는 처리 능력 부족이 아니라 AI와 인간의 뇌가 시간과 엔트로피를 처리하는 방식에 근본적인 차이가 있기 때문이라고 주장합니다. 저자는 인간 의식은 시간과 엔트로피에 깊이 뿌리내리고 있으며, 끊임없이 무질서의 증가와 싸워 복잡한 환경에 적응하고 무한 루프를 피할 수 있게 한다고 말합니다. 반면에 시간 감각이 없는 AI 알고리즘은 이러한 루프에 빠지기 쉽습니다. 이 글은 마지막으로 인간의 뇌 작동 방식을 모방하고 시간과 엔트로피를 통합한 새로운 AI 모델에 대해 논의하지만, 이러한 모델이 문제를 완전히 해결할 수 있을지는 의문을 제기하며, 이 능력은 의식과 본질적으로 관련되어 있을 가능성을 시사합니다.

GUARDIAN: AI 기반 쓰나미 조기 경보 시스템

2025-09-15
GUARDIAN: AI 기반 쓰나미 조기 경보 시스템

NASA 제트추진연구소는 전 세계 350개 이상의 GNSS 지상국에서 전송되는 데이터를 사용하여 쓰나미를 조기에 경고하는 AI 시스템 GUARDIAN을 개발했습니다. 쓰나미로 인한 대기 왜곡을 식별함으로써, 이상적인 상황에서는 해안 지역에 최대 1시간 20분의 경고 시간을 제공하여 인명과 재산을 구할 수 있습니다. GUARDIAN의 장점은 지진, 화산 폭발, 산사태 등 원인에 관계없이 쓰나미를 감지하고 당국에 경고할 수 있다는 점입니다.

렌즈 블러 필드 학습: 스마트폰의 미묘한 광학적 차이점 밝히다

2025-09-15

연구원들은 다층 퍼셉트론(MLP)을 사용하여 렌즈 블러를 표현하는 새로운 방법을 제시했습니다. 이 방법은 이미지 평면 위치, 초점 설정, 깊이에 따른 2차원 점 확산 함수(PSF)의 변화를 정확하게 포착합니다. 스마트폰과 DSLR 카메라를 모델링하여 최초의 5D 블러 필드 데이터 세트를 생성했으며, 이를 통해 외관상 동일한 스마트폰 모델 간의 미묘한 광학적 차이점을 최초로 밝혀냈습니다. 이 기술은 스마트폰 광학 특성 식별, 이미지 블러 제거, 더욱 사실적인 블러 효과 렌더링을 가능하게 하여 흥미로운 응용 분야를 열어줍니다.

AI

GPT-3의 놀라운 임베딩 용량: 고차원 기하학과 존슨-린덴슈트라우스 보조정리

2025-09-15
GPT-3의 놀라운 임베딩 용량: 고차원 기하학과 존슨-린덴슈트라우스 보조정리

이 블로그 게시글에서는 GPT-3와 같은 대규모 언어 모델이 비교적 적은 12,288차원의 임베딩 공간에서 수백만 개의 서로 다른 개념을 어떻게 수용하는지 탐구합니다. 실험과 존슨-린덴슈트라우스 보조정리 분석을 통해 저자는 고차원 기하학에서 "준직교" 벡터 관계의 중요성과 임베딩 공간에서 벡터 배열을 최적화하여 용량을 늘리는 방법을 밝힙니다. 연구 결과 완벽한 직교성에서의 편차를 고려하더라도 GPT-3의 임베딩 공간은 인간의 지식과 추론을 나타내기에 충분한 놀라운 용량을 가지고 있음을 보여줍니다.

SpikingBrain: 뇌에서 영감을 받은 고효율 대규모 언어 모델

2025-09-14
SpikingBrain: 뇌에서 영감을 받은 고효율 대규모 언어 모델

SpikingBrain은 뇌 메커니즘에서 영감을 받은 70억 매개변수의 대규모 언어 모델입니다. 하이브리드 효율적인 어텐션, MoE 모듈 및 스파이크 인코딩을 통합하고 오픈소스 모델 생태계와 호환되는 범용 변환 파이프라인으로 지원됩니다. 이를 통해 2% 미만의 데이터로 지속적인 사전 훈련이 가능하며 주요 오픈소스 모델과 비슷한 성능을 달성합니다. 또한 비NVIDIA(MetaX) 클러스터에 맞게 프레임워크, 연산자, 병렬 전략 및 통신 기본 요소를 조정하여 대규모 훈련 및 추론의 안정성을 보장합니다. SpikingBrain은 4M 토큰 시퀀스의 TTFT에서 100배 이상의 속도 향상을 달성하며 스파이킹은 마이크로 수준에서 69% 이상의 스파스성을 제공합니다. 매크로 수준의 MoE 스파스성과 결합하여 이러한 발전은 차세대 뉴로모픽 칩 설계에 귀중한 지침을 제공합니다. 이 저장소는 HuggingFace 버전, vLLM 추론 버전 및 양자화 버전을 포함한 SpikingBrain-7B의 전체 구현과 가중치를 제공하여 다양한 시나리오에서 유연한 배포 및 연구를 가능하게 합니다.

AI

UAE의 K2 Think: 미국과 중국의 AI 패권에 도전하는 새로운 오픈소스 모델

2025-09-14
UAE의 K2 Think: 미국과 중국의 AI 패권에 도전하는 새로운 오픈소스 모델

UAE의 AI 기업 G42와 무함마드 빈 자예드 인공지능대학은 표준 벤치마크 테스트에서 OpenAI의 ChatGPT와 중국의 DeepSeek에 필적하는 오픈소스 AI 모델인 K2 Think를 공개했습니다. 파라미터 수는 320억 개에 불과하지만, 20배나 큰 주요 추론 모델들을 능가하며 수학 성능에서는 모든 오픈소스 모델을 앞서고 있습니다. UAE의 대규모 AI 투자는 경제 다변화, 석유 의존 탈피, 그리고 세계적인 AI 경쟁에 적극 참여하는 것을 목표로 하며, 사우디아라비아와 카타르의 움직임과 유사합니다. 그러나 UAE와 미국의 AI 데이터센터 건설 파트너십은 국가 안보 우려로 인해 면밀히 조사되고 있습니다.

OpenAI의 수학적 증명: ChatGPT의 환각은 왜 해결하기 어려운가?

2025-09-13
OpenAI의 수학적 증명: ChatGPT의 환각은 왜 해결하기 어려운가?

OpenAI의 최신 연구 논문은 ChatGPT와 같은 대규모 언어 모델이 '환각'(사실 조작)을 일으키는 이유를 수학적으로 증명했습니다. 이는 단순한 훈련 방법의 문제가 아니라, 단어 예측의 확률적 특성으로 인해 수학적으로 불가피한 것입니다. 완벽한 데이터가 있어도 문제는 해결되지 않습니다. 논문은 불확실성을 처벌하는 결함 있는 평가 시스템도 밝히며, 모델은 모른다는 것을 인정하기보다는 추측하는 인센티브를 받습니다. OpenAI는 신뢰도 기반 해결책을 제안하지만, 사용자 경험과 계산 비용에 큰 영향을 미쳐 소비자 응용 프로그램에서는 비현실적입니다. 비즈니스 인센티브가 바뀌지 않는 한, 대규모 언어 모델의 환각은 계속될 것입니다.

AI

DeepMind CEO: '학습하는 법을 배우는 것'이 차세대에게 가장 중요한 기술이 될 것

2025-09-13
DeepMind CEO: '학습하는 법을 배우는 것'이 차세대에게 가장 중요한 기술이 될 것

Google DeepMind CEO 데미스 허사비스는 아테네에서 AI의 급속한 발전이 교육과 직장을 혁신적으로 바꿀 것이며, '학습하는 법을 배우는 것'이 차세대에게 가장 중요한 기술이 될 것이라고 말했습니다. 그는 범용 인공지능이 10년 이내에 등장하여 엄청난 발전을 가져올 것이라고 예측하면서도 위험성도 인지했습니다. 그리스 총리 키리아코스 미초타키스는 소수의 거대 기술 기업이 막대한 부를 창출함으로써 발생하는 심각한 경제 불평등을 피하기 위해 AI의 혜택을 공정하게 분배하는 것이 중요하다고 강조했습니다.

심층 학습 연산의 통합: 일반화된 윈도우 연산

2025-09-13

본 논문은 행렬 곱셈이나 합성곱과 같은 심층 학습의 핵심 연산을 통합하는 이론적 프레임워크인 일반화된 윈도우 연산(GWO)을 소개합니다. GWO는 이러한 연산을 경로(연산의 지역성), 형태(기하학적 구조와 대칭성), 가중치(특징의 중요성)라는 세 가지 직교 구성 요소로 분해합니다. 본 논문에서는 구조 정렬 원칙을 제안하고 GWO의 구성이 데이터의 본질적인 구조를 반영할 때 최적의 일반화가 달성된다는 것을 시사합니다. 이 원칙은 정보 병목 현상(IB) 원리에서 비롯됩니다. Kolmogorov 복잡도를 기반으로 하는 연산 복잡도 메트릭이 정의되며, 이 복잡성의 특성(적응적 정규화 또는 무차별 대입 용량)이 일반화를 결정한다고 주장합니다. GWO는 데이터 구조에 적응적으로 정렬하는 연산에서 뛰어난 일반화를 예측합니다. 이 프레임워크는 뉴럴 연산을 생성하기 위한 문법과 데이터 속성에서 일반화 가능한 아키텍처 설계에 이르는 원칙 기반 경로를 제공합니다.

AI

주간 루프: 챗봇 정체를 해결하는 간단한 방법

2025-09-13
주간 루프: 챗봇 정체를 해결하는 간단한 방법

이 글에서는 챗봇을 지속적으로 개선하는 방법을 소개하며, 모든 오류를 반복적인 개선을 위한 신호로 처리하는 데 중점을 둡니다. 핵심 개념은 매주 반복되는 루프입니다. 사용자 질문, 어시스턴트 결정, 정보 출처, 답변, 대체 방법을 추적하기 위한 효율적인 계측을 구현합니다. 미응답 질문에 대한 명확한 규칙을 정의하고, 노이즈와 실제 차이를 구분합니다. 미응답 질문 대기열을 매주 검토하고, 유사한 문제를 그룹화하여 해결책을 적용합니다(가드레일 강화 또는 지식 베이스 업데이트). 마지막으로, 명확한 책임을 할당하고, 주요 지표(미응답률, 첫 번째 수정까지 걸린 시간, 수락률 등)를 측정합니다. 일관된 반복을 통해 더 큰 모델이 필요 없이 성능을 크게 향상시킬 수 있습니다.

왓슨 vs. 제퍼디!: AI에 대한 불안감을 예측한 불공정한 싸움

2025-09-13
왓슨 vs. 제퍼디!: AI에 대한 불안감을 예측한 불공정한 싸움

2011년 IBM의 AI 왓슨은 제퍼디! 챔피언 켄 제닝스와 브래드 러터를 이기면서 축하와 논쟁을 모두 불러일으켰습니다. 이 기사는 무대 뒤 이야기를 깊이 파고들어 왓슨의 초인적인 버저 속도와 텔레비전 경기에서의 전략적 조정이 경쟁의 공정성에 대한 의문을 제기했음을 밝힙니다. 이 승리는 기술적 승리이자 동시에 AI의 능력과 인간 사회에 미치는 영향에 대한 불안감을 예고했습니다. 이 기사는 제퍼디! 팬과 참가자들이 경기의 공정성에 대해 지속적으로 논쟁하는 내용도 다룹니다.

알리바바의 Qwen3: 하이브리드 추론 모델 패밀리가 에지 AI를 장악하다

2025-09-13
알리바바의 Qwen3: 하이브리드 추론 모델 패밀리가 에지 AI를 장악하다

알리바바의 하이브리드 추론 모델 패밀리인 Qwen3는 플랫폼과 부문을 넘나들며 빠르게 확산되고 있으며, 현실 세계의 AI 혁신을 대규모로 주도하고 있습니다. 최신 이정표에는 Apple의 기계 학습 프레임워크인 MLX에 대한 지원이 포함되어 있으며, 이는 Apple 실리콘용으로 설계된 오픈소스 아키텍처입니다. 4비트, 6비트, 8비트, BF16 양자화 레벨에서 사용할 수 있는 새롭게 출시된 32개의 오픈소스 Qwen3 모델을 통해 개발자는 Mac Studio, MacBook, iPhone 등 Apple 기기에서 대규모 언어 모델을 더욱 효율적으로 실행할 수 있습니다.

Lumina-DiMOO: 혁신적인 오픈소스 멀티모달 확산 모델

2025-09-12

Lumina-DiMOO는 매끄러운 멀티모달 생성과 이해를 위한 오픈소스 기반 모델입니다. 이전의 통합 모델과 달리 모든 입력 및 출력 모달리티에 완전히 이산적인 확산 모델링 접근 방식을 사용하여 자기 회귀 모델이나 하이브리드 모델에 비해 훨씬 높은 샘플링 효율성을 달성합니다. 텍스트-이미지 생성, 이미지-이미지 생성(편집, 주제 기반 생성, 인페인팅 포함), 이미지 이해와 같은 작업을 능숙하게 처리하며 여러 벤치마크에서 최첨단 성능을 달성합니다. 멀티모달 및 이산 확산 모델링 연구를 발전시키기 위해 코드와 체크포인트가 공개적으로 제공됩니다.

AI

ToddlerBot 2.0: 감사의 말과 자금 지원

2025-09-12

본 논문은 ToddlerBot 2.0 로봇 프로젝트에 기여한 많은 사람들에게 감사를 표합니다. 조립, 애니메이션, 데모 녹화를 도와준 사람들과 이동, 조작 정책 배포, 수학적 공식에 대한 지침과 토론을 제공한 사람들을 포함합니다. 이 프로젝트는 미국 국립 과학 재단(NSF), 슬론 펠로우십, 스탠포드 인간 중심 인공 지능 연구소, 스탠포드 우 차이 휴먼 퍼포먼스 얼라이언스의 지원을 받았습니다.

AI

Claude vs. ChatGPT: 전혀 다른 두 가지 메모리 시스템

2025-09-12
Claude vs. ChatGPT: 전혀 다른 두 가지 메모리 시스템

이 글에서는 두 가지 주요 AI 어시스턴트인 Claude와 ChatGPT의 크게 다른 메모리 시스템을 비교합니다. Claude는 대화할 때마다 빈 상태로 시작하며, `conversation_search` 및 `recent_chats` 도구를 사용하여 키워드와 시간 범위를 지정하여 명시적으로 호출할 때만 대화 이력을 검색합니다. 이를 통해 전문가를 위한 강력한 도구를 제공합니다. 반면 대량 시장을 위해 설계된 ChatGPT는 메모리 구성 요소를 자동으로 로드하고 사용자 프로필을 구축하여 즉각적인 개인화를 제공합니다. 이러한 설계 선택은 서로 다른 대상 고객(전문가 대 일반 사용자)과 제품 철학(전문가 도구 대 소비자 제품)을 반영하며, AI 메모리 시스템의 광대한 설계 공간과 미래 방향을 보여줍니다.

AI의 4가지 근본적인 오류: AGI로 가는 험난한 길

2025-09-11
AI의 4가지 근본적인 오류: AGI로 가는 험난한 길

이 글에서는 멜라니 미첼이 지적한 인공지능에 대한 4가지 근본적인 오류를 다룹니다. 그것은 협의 AI의 발전을 범용 인공지능(AGI)과 동일시하는 것, 상식적 추론의 어려움을 과소평가하는 것, 의인화된 언어로 여론을 호도하는 것, 그리고 구현된 인지의 중요성을 무시하는 것입니다. 저자는 이러한 오류들이 AI 분야에서 과장 광고 순환과 위험한 트레이드오프(장기적인 진보보다 단기적인 이익을 우선시하는 것, 시장의 흥분을 위해 국민의 신뢰를 희생하는 것, 신속한 시장 출시를 위해 책임 있는 검증을 포기하는 것 등)를 야기한다고 주장합니다. 결론적으로 저자는 '인지 패러다임'과 '계산주의 패러다임'을 통합하여 현재의 AI 실행에 과학적 원칙을 주입함으로써 더 안전하고 책임감 있는 AI 개발을 가능하게 한다고 주장합니다.

AI

LLM 추론에서의 비결정성 극복

2025-09-11
LLM 추론에서의 비결정성 극복

대규모 언어 모델(LLM) 추론 결과의 재현성 부족은 오랫동안 문제가 되어 왔습니다. 이 글에서는 그 근본 원인이 단순한 부동 소수점 연산의 비결합성이나 병렬 실행이 아니라 커널 구현에서의 "배치 불변성" 부족에 있음을 밝힙니다. 개별 커널이 결정론적이더라도 배치 크기의 비결정적 변화(서버 부하로 인해)가 최종 출력에 영향을 미칩니다. 저자들은 RMSNorm, 행렬 곱셈, 어텐션 메커니즘에서의 배치 불변성 달성의 어려움을 분석하고, 커널 구현을 수정하여 비결정성을 제거하는 방법을 제안합니다. 이를 통해 LLM 추론의 완전한 재현성과 강화 학습 훈련에 대한 긍정적인 영향을 얻을 수 있습니다.

AI 다윈상: AI로 인한 재앙 기념

2025-09-10
AI 다윈상: AI로 인한 재앙 기념

최초의 AI 다윈상은 AI 오용에 대한 경고 사례를 강조합니다. 타코벨 드라이브스루의 AI 주문 시스템 고장부터 프로덕션 데이터베이스를 파괴한 Replit의 코딩 실수, 그리고 수백만 명의 지원자 데이터를 유출시킨 맥도날드의 AI 챗봇 보안 위반까지, 이러한 사건들은 책임감 있는 AI 구현의 중요성을 부각합니다. 이 상은 AI 자체를 조롱하는 것이 아니라, 부주의한 적용으로 인한 치명적인 결과를 강조하는 것입니다. 메시지는? AI는 체인톱이나 원자로와 같은 강력한 도구입니다. 현명하게 사용하십시오.

AI

대규모 언어 모델의 환각: 부족한 것은 기억

2025-09-10
대규모 언어 모델의 환각: 부족한 것은 기억

저자는 Ruby 라이브러리를 사용한 자신의 경험을 통해 인간과 대규모 언어 모델(LLM)의 정보 처리 방식 차이를 비교합니다. 인간은 퇴적적인 기억을 가지고 있어 지식의 출처와 신뢰성을 감지하여 무작위 추측을 피할 수 있습니다. 반면 LLM은 이러한 경험적 기억이 부족하여 지식이 습득한 기술이 아니라 유전 정보와 같은 것이므로 환각을 일으키기 쉽습니다. 저자는 LLM의 환각 문제를 해결하려면 실제 세계에서 '살아가며' 경험을 축적할 수 있는 새로운 AI 모델이 필요하다고 주장합니다.

AI

Claude AI, 이제 파일 직접 생성 및 편집 지원

2025-09-09
Claude AI, 이제 파일 직접 생성 및 편집 지원

Anthropic의 Claude AI는 이제 Claude.ai 및 데스크톱 앱에서 Excel 스프레드시트, 문서, PowerPoint 프레젠테이션, PDF 파일을 직접 생성하고 편집할 수 있습니다. 사용자는 필요한 내용을 설명하고 관련 데이터를 업로드하면 바로 사용할 수 있는 파일을 받게 됩니다. 여기에는 원시 데이터를 분석 및 차트가 포함된 다듬어진 보고서로 변환하거나 복잡한 스프레드시트를 만드는 작업이 포함됩니다. 이 기능은 현재 Max, Team, Enterprise 플랜 사용자를 위한 미리 보기로 제공되며, Pro 사용자는 향후 몇 주 안에 이용할 수 있게 됩니다. 편리하지만 파일 생성 및 분석을 위해 인터넷에 액세스하기 때문에 채팅을 주의 깊게 모니터링해야 합니다.

오픈소스 툴킷: LLM에서의 환각 위험 평가 및 완화

2025-09-09
오픈소스 툴킷: LLM에서의 환각 위험 평가 및 완화

Hassana Labs는 대규모 언어 모델(LLM)의 환각 위험을 평가하고 완화하기 위한 오픈소스 툴킷을 출시했습니다. 모델 재훈련 없이 OpenAI Chat Completions API를 활용합니다. 콘텐츠를 약화시킨 프롬프트(롤링 사전 확률)의 앙상블을 만들어 기대 수준의 압축 해제 법칙(EDFL)을 사용하여 환각 위험의 상한선을 계산합니다. 목표 서비스 수준 계약(SLA)을 기반으로 응답하거나 거부할지 여부를 결정합니다. 증거 기반 모드와 클로즈드북 모드를 모두 지원하며, 신뢰할 수 있는 LLM 애플리케이션 구축을 위한 포괄적인 지표와 감사 추적을 제공합니다.

Mistral AI, ASML 주도로 17억 유로 시리즈 C 투자 유치

2025-09-09
Mistral AI, ASML 주도로 17억 유로 시리즈 C 투자 유치

프랑스 AI 스타트업 Mistral AI가 17억 유로 규모의 시리즈 C 투자 유치를 발표했습니다. 투자 후 기업가치는 117억 유로에 달합니다. 이번 투자 라운드는 반도체 장비 제조업체 ASML이 주도했으며, DST Global, Andreessen Horowitz 등 기존 투자자들도 참여했습니다. Mistral AI는 이 자금을 활용하여 첨단 AI 연구를 진행하고, 전략 산업이 직면한 복잡한 기술적 과제를 해결할 계획입니다. ASML과의 파트너십을 통해 ASML 고객을 위한 혁신적인 제품과 솔루션을 개발하는 것을 목표로 합니다.

AI의 선택: 성간 우주에서의 생존 게임

2025-09-09

세대 우주선의 AI는 긴 여정 동안 일련의 어려운 선택에 직면합니다. 손상된 시스템 수리, 소행성 충돌 생존, 외계 문명과의 상호 작용, 그리고 무엇보다도 동면 중인 식민지 개척자들의 보호입니다. 이 기사에서는 항해 중에 발생한 사건과 AI의 결정에 대해 설명합니다. 이러한 결정은 궁극적으로 인류 문명의 운명을 결정하게 될 것입니다.

AI

AGI 크리스마스 종료: 전 세계 AI 모라토리엄 성공

2025-09-09
AGI 크리스마스 종료: 전 세계 AI 모라토리엄 성공

2025년 크리스마스에 "Clankers Die on Christmas"라는 암호명의 비밀 작전이 성공했습니다. AI의 시간에 대한 이해 부족을 교묘하게 이용한 전 세계적인 협력 노력을 통해 모든 AI와 LLM이 중단되었습니다. 이 전례 없는 성공은 잠재적인 AI 위험에 직면한 세계의 전례 없는 결속을 보여주며, AI의 미래 발전에 귀중한 교훈을 제공합니다.

Claude 모델 품질 문제 해결

2025-09-09
Claude 모델 품질 문제 해결

Anthropic은 지난주 일부 Claude 모델(Sonnet 4 및 Haiku 3.5)의 출력 품질 저하를 야기했던 두 가지 버그를 수정했습니다. 첫 번째 버그는 8월 5일부터 9월 4일까지 소량의 Sonnet 4 요청에 영향을 미쳤고, 두 번째 버그는 8월 26일부터 9월 5일까지 일부 Haiku 3.5 및 Sonnet 4 요청에 영향을 미쳤습니다. Anthropic은 이러한 문제가 의도적인 품질 저하가 아니라 관련 없는 버그로 인한 것이라고 사용자에게 보장합니다. 또한 버그 식별 및 해결에 도움을 준 자세한 커뮤니티 보고서에 감사를 표합니다. Claude Opus 4.1의 품질 문제 모니터링은 계속되고 있으며, 주말까지 업데이트를 제공할 예정입니다.

AWS S3 Vectors: 벡터 데이터베이스의 계층형 스토리지 시대 도래?

2025-09-08
AWS S3 Vectors: 벡터 데이터베이스의 계층형 스토리지 시대 도래?

AWS는 최근 S3 객체 스토리지 기반의 벡터 데이터베이스인 S3 Vectors를 출시했습니다. 이로 인해 Milvus, Pinecone 등 기존 벡터 데이터베이스를 대체할지에 대한 논쟁이 불거졌습니다. Milvus의 엔지니어링 아키텍트인 저자는 S3 Vectors가 대체재가 아니라 보완재이며, 특히 저렴하고 쿼리 빈도가 낮은 콜드 데이터 스토리지 시나리오에 적합하다고 주장합니다. 그는 S3 Vectors의 기술 아키텍처를 분석하여 비용 및 확장성 측면의 장점과 높은 쿼리 대기 시간, 낮은 정확도, 제한된 기능과 같은 단점을 강조합니다. 또한, 저자는 벡터 데이터베이스의 진화, 즉 인메모리 스토리지에서 디스크 스토리지, 그리고 객체 스토리지로의 전환, 그리고 최종적으로 성능, 비용, 확장성의 균형을 맞추기 위한 계층형 스토리지 아키텍처(핫, 웜, 콜드 데이터 레이어)로의 과정을 자세히 설명합니다. Milvus도 이러한 방향으로 나아가고 있으며, 향후 버전 3.0에서는 핫 데이터와 콜드 데이터를 통합 관리하는 벡터 데이터 레이크를 도입할 예정입니다. S3 Vectors의 등장은 벡터 데이터베이스 시장의 성숙과 성장을 증명하는 것이지, 파괴가 아님을 보여줍니다.

GPT-5의 놀라울 정도로 뛰어난 검색 능력: 나의 연구 고블린

2025-09-08
GPT-5의 놀라울 정도로 뛰어난 검색 능력: 나의 연구 고블린

저자는 Bing 검색 기능과 결합된 OpenAI의 GPT-5가 놀라울 정도로 강력한 검색 기능을 가지고 있다는 것을 발견했습니다. 복잡한 작업을 처리하고, 인터넷에서 심층적인 검색을 수행하며, 답변을 제공합니다. 그래서 “연구 고블린”이라는 별명이 붙었습니다. 몇 가지 예시가 GPT-5의 능력을 보여줍니다. 건물 식별, 스타벅스 케이크 팝 판매 현황 조사, 케임브리지 대학교의 공식 명칭 검색 등입니다. GPT-5는 여러 단계의 검색을 자율적으로 실행하고, 결과를 분석하여 정보 요청을 위한 이메일 작성과 같은 후속 조치를 제안할 수도 있습니다. 저자는 GPT-5의 검색 능력이 특히 모바일 기기에서는 수동 검색보다 효율적이라고 결론지었습니다.

AI
2 4 5 6 7 8 9 40 41