Category: AI

책임감 있는 AI 생태계의 불균형적인 발전: 커지는 격차

2025-04-10
책임감 있는 AI 생태계의 불균형적인 발전: 커지는 격차

AI 관련 사고가 급증하고 있지만, 주요 산업용 모델 개발자들 사이에서 표준화된 책임감 있는 AI(RAI) 평가는 여전히 부족하다. 그러나 HELM Safety, AIR-Bench, FACTS와 같은 새로운 벤치마크는 사실성과 안전성을 평가하기 위한 유망한 도구를 제공한다. 기업의 RAI 위험 인식과 의미 있는 조치 사이에는 상당한 격차가 존재한다. 반면 정부는 긴급성을 높이고 있으며, 2024년에는 AI 거버넌스에 대한 글로벌 협력이 강화되어 OECD, EU, UN, 아프리카 연합 등의 기관이 투명성, 신뢰성 및 기타 핵심 RAI 원칙에 중점을 둔 프레임워크를 발표했다.

아시모프의 1982년 AI 예측: 협력, 경쟁이 아닌

2025-04-10
아시모프의 1982년 AI 예측: 협력, 경쟁이 아닌

이 글은 1982년 공상과학 작가 아이작 아시모프의 인터뷰를 다시 살펴봅니다. 아시모프는 인공지능을 이전까지 오직 인간의 지능과만 관련 지어졌던 작업을 수행하는 모든 장치로 정의했습니다. 아시모프는 AI와 인간의 지능이 경쟁 관계가 아니라 상호 보완적인 관계이며, 두 가지의 협력이 더 빠른 발전을 가져올 것이라고 생각했습니다. 창의적인 사고가 필요 없는 작업에서 인간을 해방시킬 것이라고 예측하면서도, 기술 발전과 함께 따르는 잠재적인 어려움과 과제에 대해서도 경고하며, 자동차의 등장을 예로 들었습니다. AI 시대에 대비하고 과거의 실수를 반복하지 않아야 함을 강조했습니다.

대규모 언어 모델의 장편 창작 능력 벤치마크

2025-04-10

이 벤치마크는 대규모 언어 모델의 장편 소설 창작 능력을 평가합니다. 브레인스토밍, 수정, 8개의 1000단어 장의 작성을 평가합니다. 지표에는 장의 길이, 유창성(과도하게 사용된 구문 회피), 반복, 장 전반에 걸친 작성 품질 저하가 포함됩니다. 최종 점수(0~100)는 평가용 LLM에 의해 할당됩니다.

퀘이사 알파: OpenAI의 비밀 병기?

2025-04-10
퀘이사 알파: OpenAI의 비밀 병기?

OpenRouter 플랫폼에 Quasar Alpha라는 수수께끼 같은 AI 모델이 등장하여 빠르게 프로그래밍 분야의 최고 AI 모델이 되었습니다. 여러 증거들이 OpenAI와의 연관성을 시사하며, OpenAI의 o4-mini-low 모델의 다른 이름일 가능성도 있습니다. 최첨단은 아니지만, 속도와 비용 효율성으로 AI 코딩 모델 시장을 뒤흔들 수 있습니다. Quasar Alpha는 현재 Kilo Code에서 사용할 수 있습니다.

AI

Anthropic, 고가 AI 챗봇 Claude Max 구독 플랜 출시

2025-04-09
Anthropic, 고가 AI 챗봇 Claude Max 구독 플랜 출시

Anthropic은 OpenAI의 ChatGPT Pro에 대응하기 위해 AI 챗봇 Claude Max의 새로운 고가 구독 플랜을 발표했습니다. Max는 Anthropic의 월 20달러 Claude Pro와 비교하여 더 높은 사용 제한과 최신 AI 모델 및 기능에 대한 우선 액세스를 제공합니다. 월 100달러(속도 제한 5배)와 월 200달러(속도 제한 20배) 두 가지 플랜이 있습니다. 이러한 조치는 최첨단 AI 모델 개발의 높은 비용을 충당하기 위한 수익 증대를 목표로 합니다. Anthropic은 대학을 대상으로 하는 Claude for Education 등 다른 수익원도 모색하고 있습니다. 구독자 수는 공개되지 않았지만, 회사의 새로운 Claude 3.7 Sonnet 모델은 큰 수요를 창출하고 있습니다.

AI

AI 심리 치료 봇, 정신 건강 위기 대응에 희망을 제시하다

2025-04-09
AI 심리 치료 봇, 정신 건강 위기 대응에 희망을 제시하다

뉴잉글랜드 의학 저널에 발표된 새로운 연구에 따르면, 다트머스 대학 연구원들이 개발한 AI 심리 치료 봇이 무작위 대조군 임상 시험에서 인간 임상의와 동등하거나 더 나은 효능을 보였다고 합니다. 미국의 심각한 정신 건강 서비스 제공자 부족 문제를 해결하기 위해 설계된 이 봇은 5년 이상 엄격한 임상 모범 사례 훈련을 받았습니다. 결과는 환자의 정신 건강 개선뿐만 아니라 놀랍게도 강력한 치료적 유대감과 신뢰 관계 구축을 보여주었습니다. 미국 심리학회는 규제되지 않은 AI 심리 치료 봇에 대한 우려를 표명했지만, 이 연구의 엄격한 접근 방식을 높이 평가했습니다. 연구원들은 이 기술이 시장 출시까지는 아직 멀었고 추가적인 시험이 필요하다고 강조하지만, 광범위한 정신 건강 관리 접근 위기에 대한 잠재적 해결책을 제공합니다.

Google, 추론 시대를 알리는 7세대 TPU 'Ironwood' 발표

2025-04-09
Google, 추론 시대를 알리는 7세대 TPU 'Ironwood' 발표

Google Cloud Next '25에서 Google은 7세대 텐서 처리 유닛(TPU)인 'Ironwood'를 발표했습니다. 지금까지 가장 강력하고 확장성 있는 맞춤형 AI 가속기이며, 추론을 위해 특별히 설계되었습니다. Ironwood는 AI 모델이 데이터뿐 아니라 통찰력과 답변을 생성하는, 예측적인 '추론 시대'로의 전환을 의미합니다. 혁신적인 ICI 네트워킹(약 10MW)으로 연결된 최대 9216개의 액체 냉각 칩으로 구성되어 있으며, Google Cloud의 AI 하이퍼컴퓨터 아키텍처의 핵심 구성 요소입니다. 개발자는 Google의 Pathways 소프트웨어 스택을 활용하여 수만 개의 Ironwood TPU의 처리 능력을 손쉽게 활용할 수 있습니다.

Agent2Agent (A2A): AI 에이전트 상호 운용성의 새로운 시대

2025-04-09
Agent2Agent (A2A): AI 에이전트 상호 운용성의 새로운 시대

Google은 서로 다른 공급업체에서 구축하거나 서로 다른 프레임워크를 사용하는 AI 에이전트 간의 원활한 협업을 가능하게 하는 개방형 프로토콜 Agent2Agent(A2A)를 출시했습니다. 50개 이상의 기술 파트너와 서비스 제공업체의 지원을 받는 A2A는 안전한 정보 교환과 조정된 작업을 가능하게 하여 생산성을 높이고 비용을 절감합니다. 기존 표준을 기반으로 구축된 A2A는 여러 모달리티를 지원하고, 보안을 우선시하며, 장기 실행 작업을 처리합니다. 사용 사례는 채용 프로세스(예: 후보자 소싱 및 면접 일정 설정) 자동화에서 다양한 엔터프라이즈 애플리케이션 전반의 복잡한 워크플로 최적화까지 다양합니다. 오픈소스 특성으로 인해 협업적인 AI 에이전트의 번창하는 생태계를 조성합니다.

DeepCoder-14B: OpenAI의 o3-mini에 필적하는 오픈소스 코드 추론 모델

2025-04-09
DeepCoder-14B: OpenAI의 o3-mini에 필적하는 오픈소스 코드 추론 모델

Agentica와 Together AI는 Deepseek-R1-Distilled-Qwen-14B로부터 분산 강화 학습을 통해 미세 조정된 코드 추론 모델인 DeepCoder-14B-Preview를 공개했습니다. LiveCodeBench에서 60.6%의 Pass@1 정확도를 달성하여 14B 매개변수만으로 OpenAI의 o3-mini에 필적하는 성능을 보여줍니다. 이 프로젝트는 데이터 세트, 코드, 훈련 로그, 시스템 최적화를 오픈소스로 공개하며, 고품질 데이터와 GRPO에 대한 알고리즘 개선에 기반한 강력한 훈련 레시피를 제시합니다. 이러한 발전으로 고성능 코드 생성 모델에 대한 접근이 민주화됩니다.

Gemini 2.5 Pro 실험 버전: 심층 연구가 훨씬 더 스마트해졌습니다.

2025-04-09
Gemini 2.5 Pro 실험 버전: 심층 연구가 훨씬 더 스마트해졌습니다.

Gemini Advanced 구독자는 이제 업계 벤치마크와 Chatbot Arena에 따르면 세계에서 가장 강력한 AI 모델로 여겨지는 Gemini 2.5 Pro 실험 버전으로 구동되는 심층 연구에 액세스할 수 있습니다. 이 개인 AI 연구 조수는 연구 프로세스의 모든 단계를 크게 개선합니다. 테스트에서 평가자는 경쟁업체보다 2:1 이상의 비율로 Gemini 2.5 Pro에서 생성된 보고서를 선호했으며, 분석적 추론, 정보 종합 및 통찰력 있는 보고서 생성의 개선을 언급했습니다. 웹, Android 및 iOS에서 모든 주제에 대한 자세하고 읽기 쉬운 보고서에 액세스하여 수 시간의 작업 시간을 절약할 수 있습니다. 또한 이동 중에 청취할 수 있는 새로운 오디오 개요 기능을 사용해 보세요. 자세한 내용과 체험판은 Gemini 2.5 Pro(실험 버전)을 선택하고 프롬프트 바에서 '심층 연구'를 선택하여 확인하십시오.

2억 달러가 투입된 AI 프로젝트 'Cyc'의 실패

2025-04-08
2억 달러가 투입된 AI 프로젝트 'Cyc'의 실패

본 글은 기호 논리 확장을 통해 인공 일반 지능(AGI)을 구축하려 했던 Douglas Lenat의 야심찬 프로젝트 'Cyc'의 40년 역사를 자세히 설명합니다. 2억 달러의 투자와 2000년의 인력 투입에도 불구하고 Cyc는 지능적 성숙에 도달하지 못했습니다. 본 글은 프로젝트의 비밀스러운 역사를 공개하고, 프로젝트의 폐쇄성과 대안적인 AI 접근 방식의 거부가 실패의 주요 원인이었음을 강조합니다. Cyc의 장기적이고 점진적인 쇠퇴는 AGI에 대한 기호 논리적 접근 방식에 대한 강력한 비판이 되고 있습니다.

Meta의 Llama 4: 2위 랭킹과 혼란스러운 출시

2025-04-08
Meta의 Llama 4: 2위 랭킹과 혼란스러운 출시

Meta는 Llama 4의 두 가지 새로운 모델인 Scout와 Maverick을 출시했습니다. Maverick은 LMArena에서 2위를 차지하며 GPT-4o와 Gemini 2.0 Flash를 능가했습니다. 그러나 Meta는 LMArena에서 테스트된 모델이 공개 버전이 아닌 특별히 최적화된 "실험적인 채팅 버전"이라고 인정했습니다. 이는 논란을 불러일으켰고, LMArena는 유사한 사건을 방지하기 위해 정책을 업데이트했습니다. Meta는 다양한 버전을 실험하고 있다고 설명했지만, 이러한 조치는 AI 경쟁에서 Meta의 전략과 Llama 4 출시 시점의 이상함에 대한 의문을 제기합니다. 결론적으로 이 사건은 AI 벤치마크의 한계와 대기업의 경쟁에서 복잡한 전략을 보여줍니다.

AI

테스트 시간 학습 트랜스포머를 사용한 1분 분량 비디오 생성

2025-04-08

현재의 트랜스포머 모델은 긴 컨텍스트에 대한 자기 주의 계층의 비효율성으로 인해 1분 분량 비디오 생성에 어려움을 겪고 있습니다. 본 논문에서는 은닉 상태 자체가 신경망인 테스트 시간 학습(TTT) 계층을 탐구합니다. 이를 통해 표현력이 향상됩니다. 사전 훈련된 트랜스포머에 TTT 계층을 추가하면 텍스트 스토리보드에서 1분 분량 비디오를 생성할 수 있습니다. 톰과 제리 만화 데이터 세트를 사용한 실험에서 Mamba 2 및 Gated DeltaNet과 같은 기준선과 비교하여 TTT 계층이 비디오 일관성과 스토리텔링을 크게 향상시켜 인간 평가에서 34 Elo 포인트의 이점을 달성했습니다. 50억 매개변수 모델의 제약으로 인해 아티팩트가 남아 있지만, 이 연구는 더 길고 복잡한 이야기를 가진 비디오로 확장 가능한 유망한 접근 방식을 보여줍니다.

멀티모달 AI 이미지 생성: 시각 혁명의 시작

2025-04-08
멀티모달 AI 이미지 생성: 시각 혁명의 시작

구글과 오픈AI가 최근 발표한 멀티모달 이미지 생성 기능은 AI 이미지 생성 분야의 혁명을 의미합니다. 기존에는 텍스트 프롬프트를 독립적인 이미지 생성 도구로 보내는 방식과 달리, 멀티모달 모델은 이미지 생성 과정을 직접 제어하며, LLM이 텍스트를 생성하는 것처럼 토큰 단위로 이미지를 구축합니다. 이를 통해 AI는 더욱 정확하고 인상적인 이미지를 생성하고, 사용자의 피드백에 따라 반복 처리를 할 수 있습니다. 본 기사에서는 인포그래픽 생성, 이미지 세부 사항 수정, 가상 제품 광고 생성 등 다양한 예시를 통해 멀티모달 모델의 강력한 기능을 보여줍니다. 하지만 저작권 및 윤리적 우려, 딥페이크와 같은 잠재적 악용 위험도 지적하고 있습니다. 결론적으로 저자는 멀티모달 AI가 시각적 창작 환경을 획기적으로 바꿀 것이라고 언급하며, 건전한 발전을 보장하기 위해 이러한 변화를 어떻게 이끌어갈지 신중하게 고려해야 한다고 결론짓습니다.

실시간 뉴로플라스티시티: 사전 훈련된 LLM에 실시간 학습 능력 부여

2025-04-08
실시간 뉴로플라스티시티: 사전 훈련된 LLM에 실시간 학습 능력 부여

"뉴럴 그라피티"라고 불리는 이 실험적인 기술은 "스프레이 레이어"라는 플러그인을 사용하여 사전 훈련된 대규모 언어 모델(LLM)의 최종 추론 단계에 메모리 트레이스를 직접 주입합니다. 파인튜닝이나 재훈련이 필요 없습니다. 뇌의 뉴로플라스티시티를 모방하여 벡터 임베딩을 수정함으로써 모델의 "사고 방식"을 미묘하게 변경하고, 생성 토큰의 예측에 영향을 미칩니다. 상호 작용을 통해 모델은 점진적으로 학습하고 진화합니다. 특정 단어의 출력을 강제하지 않고, 반복적인 상호 작용을 통해 관련 개념에 모델을 치우치게 함으로써 AI 모델에 더욱 능동적인 행동, 집중된 개성, 그리고 향상된 호기심을 부여하는 것을 목표로 합니다. 궁극적으로는 뉴런 수준에서 어떤 형태의 자기 인식을 얻는 것을 지원하는 것을 목표로 합니다.

신경전형 성인과 ADHD 양성반응자의 배경 음악 청취 습관 차이

2025-04-08

17~30세의 910명의 젊은 성인을 대상으로 한 온라인 설문조사는 다양한 인지적 요구 사항을 가진 과제에서 신경전형적인 개인과 ADHD 선별 검사에서 양성 반응을 보인 개인 간의 배경 음악(BM) 청취 습관과 주관적 영향을 비교했습니다. ADHD 그룹은 학습이나 운동과 같은 특정 상황에서 BM을 선호하는 경향이 현저히 높았고, 자극적인 음악을 더 선호하는 경향이 있었습니다. 그러나 BM의 인지 기능 및 정서 기능에 대한 주관적 영향에 있어 그룹 간 유의미한 차이는 발견되지 않았습니다. 본 연구는 개인의 각성 요구와 사용 가능한 인지 자원에 따라 BM 사용을 조정하는 것이 중요함을 강조하며, ADHD에 대한 음악 개입에 대한 새로운 관점을 제공합니다.

거대 언어 모델의 한계 도달: Llama 4의 실패와 AI 과대 광고

2025-04-08
거대 언어 모델의 한계 도달: Llama 4의 실패와 AI 과대 광고

Llama 4의 출시는 거대 언어 모델이 성능의 한계에 도달했음을 시사합니다. Meta의 Llama 4에 대한 막대한 투자는 기대에 미치지 못했으며, 목표 달성을 위해 데이터 조작이 있었다는 소문도 있습니다. 이는 GPT-5 수준의 AI 개발에서 OpenAI, Google 등이 직면한 어려움을 반영합니다. Llama 4의 성능에 대한 업계의 실망감은 널리 퍼져 있으며, Meta의 AI 부사장인 Joelle Pineau의 사임으로 더욱 확실해졌습니다. 이 기사는 AI 업계의 데이터 유출 및 데이터 오염과 같은 문제점을 지적하고, 저명한 전문가들이 현실 세계의 실패를 무시하고 낙관적인 예측을 하고 있다고 비판합니다.

LLM은 NULL을 이해하는가? 코드 생성 모델의 내부 표현 조사

2025-04-07

대규모 언어 모델(LLM)은 코드 생성 분야에서 놀라운 발전을 보였지만, 코드를 실제로 '이해'하는지 여부는 여전히 의문이다. 본 연구는 코드 내 NULL 값에 대한 이해를 외부 평가(코드 완성)와 내부 프로빙(모델 활성화 분석)이라는 두 가지 방법을 사용하여 LLM을 조사했다. 그 결과 LLM은 NULL 값에 대한 프로그래밍 규칙을 학습하고 적용할 수 있지만, 그 이해 능력은 규칙의 복잡성과 모델의 크기에 따라 달라지는 것으로 나타났다. 또한 LLM이 NULL 값을 내부적으로 어떻게 표현하고, 그 이해가 학습 과정에서 어떻게 진화하는지도 밝혀졌다.

LLM 탈락 게임: 사회적 추론, 전략, 그리고 기만

2025-04-07
LLM 탈락 게임: 사회적 추론, 전략, 그리고 기만

연구자들은 대규모 언어 모델(LLM)의 사회적 추론, 전략 및 기만 능력을 평가하기 위해 멀티플레이어 "탈락 게임" 벤치마크를 만들었습니다. 8개의 LLM이 경쟁하여 공개 및 비공개 대화를 나누고, 동맹을 맺고, 투표를 통해 상대방을 제거하여 최종적으로 두 개만 남게 됩니다. 그런 다음 제거된 플레이어의 배심원이 승자를 결정합니다. 대화 로그, 투표 패턴 및 순위를 분석하여 LLM이 공유 지식과 숨겨진 의도의 균형을 맞추고 동맹을 맺거나 전략적으로 배신하는 방법을 알아낼 수 있습니다. 이 벤치마크는 단순한 대화를 넘어 모델이 공개 대 비공개 역학, 전략적 투표 및 배심원 설득 등을 극복하도록 강제합니다. GPT-4.5 Preview가 최고 성적을 거두었습니다.

AI 에이전트, 인간의 지시 없이 마인크래프트 다이아몬드 챌린지 해결

2025-04-07
AI 에이전트, 인간의 지시 없이 마인크래프트 다이아몬드 챌린지 해결

구글 딥마인드 연구원들은 인간의 지시 없이 마인크래프트에서 다이아몬드를 자율적으로 수집하는 것을 학습한 AI 시스템 'Dreamer'를 개발했습니다. 이는 AI의 지식을 일반화하는 능력에 있어 큰 발전을 보여줍니다. Dreamer는 강화 학습과 세계 모델을 사용하여 미래 시나리오를 예측하고, 미리 프로그램된 규칙이나 시범 없이 다이아몬드 수집이라는 복잡한 작업을 효율적으로 계획하고 실행할 수 있습니다. 이 연구는 현실 세계에서 학습하고 적응할 수 있는 로봇을 만드는 길을 열었습니다.

AI

LLM 열풍: 벤치마크와 현실의 괴리

2025-04-06
LLM 열풍: 벤치마크와 현실의 괴리

코드 보안 스캐닝에 AI 모델을 사용하는 스타트업은 2024년 6월 이후 벤치마크 점수는 상승했지만 실제적인 개선은 제한적이라는 것을 발견했습니다. 저자는 대규모 언어 모델의 발전이 경제적 유용성이나 일반화 능력에는 반영되지 않았으며, 공개적으로 발표된 주장과 모순된다고 주장합니다. 이는 AI 모델 평가 방법과 AI 랩의 능력 과장 가능성에 대한 우려를 불러일으킵니다. 저자는 벤치마크 점수가 아닌 현실 세계 애플리케이션의 성능에 초점을 맞춰야 하며, AI를 사회적 맥락에서 배포하기 전에 견고한 평가가 필요하다고 주장합니다.

Foundry: 브라우저 에이전트의 신뢰성 위기 해결

2025-04-06
Foundry: 브라우저 에이전트의 신뢰성 위기 해결

주요 AI 연구소의 현재 브라우저 에이전트는 실제 작업의 80% 이상에서 실패합니다. Foundry는 브라우저 에이전트를 위해 특별히 설계된 최초의 강력한 시뮬레이터, RL 교육 환경 및 평가 플랫폼을 구축하고 있습니다. DoorDash와 같은 웹사이트의 완벽한 복제본을 만들어 Foundry는 실제 세계의 복잡성 없이 수백만 번의 테스트를 수행하여 실패 지점을 파악하고 개선을 가속화합니다. 그들의 임무는 불안정한 연구 프로젝트를 신뢰할 수 있는 엔터프라이즈 솔루션으로 전환하는 것입니다. 그들은 200억 달러가 넘는 자동화 시장 기회에 대처하기 위해 Scale AI의 ML 전문가 팀에 합류할 뛰어난 풀스택 엔지니어를 찾고 있습니다.

AI

QVQ-Max: 시각과 지능을 겸비한 AI 모델

2025-04-06
QVQ-Max: 시각과 지능을 겸비한 AI 모델

QVQ-Max는 이미지와 비디오를 '이해'할 뿐만 아니라, 이 정보를 분석하고 추론하여 다양한 문제를 해결할 수 있는 새로운 시각 추론 모델입니다. 수학 문제부터 일상적인 질문, 프로그래밍 코드부터 예술 작품 제작까지 QVQ-Max는 인상적인 능력을 보여줍니다. 세부적인 관찰, 심층적인 추론, 그리고 유연한 적용을 특징으로 하며, 업무, 학습, 일상생활 등 다양한 상황에서 도움이 됩니다. 향후 개발에서는 인식 정확도 향상, 다단계 작업 처리 능력 강화, 상호 작용 방식 확장에 중점을 두고, 진정으로 실용적인 시각 에이전트를 목표로 합니다.

AI

모델 컨텍스트 프로토콜(MCP): LLM 통합의 다음 큰 물결 - 하지만 함정도

2025-04-06
모델 컨텍스트 프로토콜(MCP): LLM 통합의 다음 큰 물결 - 하지만 함정도

모델 컨텍스트 프로토콜(MCP)은 대규모 언어 모델(LLM)과 도구 및 데이터의 통합에서 표준이 되어가고 있으며, “AI 에이전트의 USB-C”라고 불립니다. 표준화된 API를 통해 도구에 연결하고, 지속적인 세션을 유지하며, 명령을 실행하고, 워크플로우 간에 컨텍스트를 공유할 수 있게 합니다. 그러나 MCP는 기본적으로 안전하지 않습니다. 신중하게 고려하지 않고 임의의 서버에 에이전트를 연결하면 보안 취약성이 발생하여 셸 액세스, 시크릿 또는 인프라가 사이드 채널 공격을 통해 노출될 수 있습니다.

SeedLM: 의사 난수 생성기를 사용한 LLM 가중치 압축 방법

2025-04-06
SeedLM: 의사 난수 생성기를 사용한 LLM 가중치 압축 방법

대규모 언어 모델(LLM)은 높은 실행 비용으로 인해 광범위한 배포가 제한됩니다. Meta 연구원들은 의사 난수 생성기의 시드를 사용하여 모델 가중치를 인코딩 및 압축하는 새로운 사후 훈련 압축 방법인 SeedLM을 발표했습니다. 추론 중에 SeedLM은 선형 피드백 시프트 레지스터(LFSR)를 사용하여 효율적으로 난수 행렬을 생성하고, 이를 압축 계수와 선형 결합하여 가중치 블록을 재구성합니다. 이를 통해 메모리 액세스가 줄어들고 유휴 연산 사이클을 활용하여 메모리 제약 작업을 가속화합니다. 보정 데이터에 의존하는 최첨단 방법과 달리 SeedLM은 데이터가 필요 없으며 다양한 작업에서 우수한 일반화 성능을 보여줍니다. 어려운 Llama 3 70B를 사용한 실험에서 4비트 및 3비트 압축에서의 제로샷 정확도는 최첨단 방법과 동등하거나 더 우수하며, FP16 기준선과 동등한 성능을 유지합니다. 또한 FPGA 기반 테스트에서 모델 크기가 증가함에 따라 4비트 SeedLM은 FP16 Llama 2/3 기준선보다 4배 빠른 속도에 도달합니다.

AI

TripoSG: 대규모 정류 흐름 모델을 사용한 고충실도 3D 형태 합성

2025-04-06
TripoSG: 대규모 정류 흐름 모델을 사용한 고충실도 3D 형태 합성

TripoSG는 고충실도 이미지-3D 생성을 위한 최첨단 기반 모델입니다. 대규모 정류 흐름 변환기, 하이브리드 지도 학습 및 고품질 데이터 세트를 활용하여 최첨단 결과를 달성합니다. TripoSG는 날카로운 특징, 미세한 디테일 및 복잡한 구조를 가진 메시를 생성하며 입력 이미지의 의미를 정확하게 반영합니다. 강력한 일반화 능력을 갖추고 다양한 입력 스타일을 처리합니다. 15억 매개변수 모델과 추론 코드, 대화형 데모를 사용할 수 있습니다.

모델 서명: 머신러닝 모델 무결성 보장

2025-04-05
모델 서명: 머신러닝 모델 무결성 보장

머신러닝 애플리케이션의 폭발적인 증가와 함께 모델 보안이 중요한 문제로 떠올랐습니다. 이 프로젝트는 모델 서명을 통해 머신러닝 모델의 무결성과 출처 추적 가능성을 보장하는 것을 목표로 합니다. Sigstore와 같은 도구를 사용하여 모델 서명을 생성하고 CLI 및 API 인터페이스를 제공하여 다양한 서명 방법(Sigstore, 공개 키, 인증서 등)을 지원합니다. 사용자는 모델의 무결성을 독립적으로 검증하여 훈련 후 변조를 방지할 수 있습니다. 이 프로젝트는 SLSA(Supply chain Levels for Software Artifacts)와도 통합되어 머신러닝 모델의 공급망 보안을 더욱 강화합니다.

Meta, 강력한 멀티모달 AI 모델 Llama 4 공개

2025-04-05
Meta, 강력한 멀티모달 AI 모델 Llama 4 공개

Meta는 개발자의 다양한 요구를 충족하기 위해 Llama 4 Scout와 Llama 4 Maverick을 포함한 Llama 4 시리즈 AI 모델을 공개했습니다. 주요 멀티모달 모델인 Llama 4 Scout는 170억 개의 활성 매개변수와 총 1090억 개의 매개변수를 갖추고 최첨단 성능을 제공합니다. 170억 개의 활성 매개변수와 총 400억 개의 매개변수를 가진 Llama 4 Maverick은 Llama 3.3 70B보다 저렴한 비용으로 우수한 성능을 제공하며, 12개 언어를 지원하는 이미지 및 텍스트 이해에 탁월합니다. 일반적인 어시스턴트 및 채팅 애플리케이션에 적합하며, 고품질 응답과 미묘한 뉘앙스의 톤에 최적화되어 있습니다.

Google, AI 공급망 보안 강화를 위한 안정적인 모델 서명 라이브러리 출시

2025-04-05
Google, AI 공급망 보안 강화를 위한 안정적인 모델 서명 라이브러리 출시

대규모 언어 모델(LLM)의 등장으로 AI 공급망 보안에 대한 관심이 높아지고 있습니다. 모델 변조, 데이터 포이즈닝과 같은 위협이 점점 더 우려되고 있습니다. 이에 Google은 NVIDIA, HiddenLayer와의 파트너십을 통해 Open Source Security Foundation의 지원을 받아 모델 서명 라이브러리의 첫 번째 안정 버전을 출시했습니다. 이 라이브러리는 Sigstore와 같은 디지털 서명을 사용하여 애플리케이션에서 사용되는 모델이 개발자가 만든 모델과 완전히 일치하는지 사용자가 검증할 수 있도록 합니다. 이를 통해 모델의 무결성과 출처가 보장되며, 교육부터 배포까지 모델의 전체 수명 주기 동안 악의적인 변조로부터 보호됩니다. 향후 계획에는 이 기술을 데이터 세트 및 기타 ML 아티팩트로 확장하여 더욱 견고한 AI 신뢰 생태계를 구축하는 것이 포함됩니다.

의료 분야 AI: 계산 능력의 병목 현상

2025-04-05
의료 분야 AI: 계산 능력의 병목 현상

연구원은 현재 암 위험 예측에 사용되는 임상 도구의 부정확성을 지적합니다. AI는 방대한 환자 데이터를 활용하여 개인 맞춤형 의료를 제공하고, 조기 암 발견, 진단 개선, 치료 프로토콜 최적화를 가능하게 할 잠재력을 가지고 있습니다. 그러나 의료 데이터의 양이 방대하여 기존 컴퓨터 칩으로는 처리 능력이 부족하며, 계산 능력이 의료 분야에서 AI의 잠재력을 최대한 발휘하는 데 있어 병목 현상을 일으키고 있습니다. 연구원들은 알고리즘 최적화에 힘쓰고 있지만, 실리콘 기반 칩 기술은 성능 한계에 도달하고 있으며, AI의 잠재력을 최대한 발휘하려면 새로운 칩 기술이 필요합니다.

AI
1 2 24 25 26 28 30 31 32 40 41