Category: AI

OpenAI, Reddit의 r/ChangeMyView를 사용하여 AI 설득력 벤치마킹

2025-02-02
OpenAI, Reddit의 r/ChangeMyView를 사용하여 AI 설득력 벤치마킹

OpenAI는 새로운 추론 모델 o3-mini의 설득력을 평가하기 위해 Reddit의 r/ChangeMyView 서브레딧을 활용했습니다. 사용자가 의견을 게시하고 토론하는 이 서브레딧은 AI가 생성한 응답이 의견을 바꿀 수 있는 능력을 평가하기 위한 독특한 데이터 세트를 제공했습니다. o3-mini는 o1이나 GPT-4o와 같은 이전 모델을 크게 능가하지는 않았지만, 모두 강력한 설득력을 보여주었고, 인간 성능의 상위 80~90%에 속했습니다. OpenAI는 목표가 매우 설득력 있는 AI를 만드는 것이 아니라 과도하게 설득력 있는 모델과 관련된 위험을 줄이는 것이라고 강조합니다. 이 벤치마킹은 AI 모델 개발을 위한 고품질 데이터 세트를 확보하는 지속적인 과제를 보여줍니다.

DeepSeek-R1: 중국의 AI 부상과 오픈소스의 승리

2025-02-02
DeepSeek-R1: 중국의 AI 부상과 오픈소스의 승리

중국 기업 DeepSeek이 OpenAI 모델에 필적하는 성능을 가진 대규모 언어 모델 DeepSeek-R1을 오픈웨이트 MIT 라이선스로 공개했습니다. 이로 인해 미국 기술 기업 주가가 급락하는 시장 매각이 발생했고, 몇 가지 중요한 트렌드가 드러났습니다. 중국이 생성 AI 분야에서 미국을 빠르게 따라잡고 있다는 점, 오픈웨이트 모델로 인해 기반 모델 계층이 상품화되어 애플리케이션 개발자에게 기회가 생긴다는 점, 그리고 스케일링이 AI 발전의 유일한 길이 아니며 알고리즘 혁신으로 인해 훈련 비용이 급격히 감소하고 있다는 점입니다. DeepSeek-R1은 AI 업계의 변화를 시사하며 AI 애플리케이션 개발에 새로운 기회를 제공합니다.

AI

LLM의 한계: 아인슈타인의 수수께끼가 드러낸 Transformer 기반 AI의 제약

2025-02-02
LLM의 한계: 아인슈타인의 수수께끼가 드러낸 Transformer 기반 AI의 제약

연구자들은 현재 Transformer 기반 대규모 언어 모델(LLM)이 복합적인 추론 작업을 해결하는 능력에 근본적인 한계가 있음을 발견했습니다. 아인슈타인의 논리 퍼즐과 여러 자릿수 곱셈에 대한 실험에서 광범위한 미세 조정 후에도 상당한 결함이 드러났습니다. 이러한 결과는 Transformer 아키텍처가 보편적인 학습에 적합한지 여부에 대한 의문을 제기하며, LLM의 추론 능력을 향상시키기 위한 대체 접근 방식(개선된 훈련 데이터 및 사고 연쇄 프롬프트 등)에 대한 연구를 촉구하고 있습니다.

OpenAI AMA: 뒤처짐을 인정하고 오픈소스를 받아들일까?

2025-02-01
OpenAI AMA: 뒤처짐을 인정하고 오픈소스를 받아들일까?

Reddit에서 진행된 대규모 AMA에서 OpenAI CEO 샘 알트먼은 DeepSeek과 같은 경쟁사들로 인해 OpenAI의 AI 우위가 줄어들고 있다는 점을 인정했습니다. 그는 오래된 모델을 출시하는 등 더욱 오픈소스 전략으로 전환할 것을 시사했습니다. OpenAI는 워싱턴의 압력, 대규모 자금 조달 라운드, 대규모 데이터센터 인프라 구축의 필요성에도 대처하고 있습니다. 경쟁력을 유지하기 위해 회사는 모델의 투명성을 높이고 출력 뒤에 숨겨진 추론 프로세스를 공개할 계획입니다. 알트먼은 AI의 급속한 발전 가능성에 대해 낙관적인 견해를 보였지만, 특히 무기 개발에서의 오용 위험도 인정했습니다.

AI

베어메탈 환경에서 Deepseek AI 추론 환경 구축 가이드

2025-02-01

이 가이드는 베어메탈 환경에서 Deepseek AI 추론 환경을 구축하는 방법을 자세히 설명합니다. AMD EPYC Rome 시스템과 512GB RAM을 사용하여 4.25~3.5 TPS의 추론 속도를 달성합니다. 하드웨어 선택, OS 설치(Ubuntu 24.04), Ollama 및 OpenWebUI 구성, BIOS 설정, 명령줄 지침 등을 포함합니다. 복잡한 과정이지만, 기술 애호가에게는 보람 있는 프로젝트입니다.

희소하고 해석 가능한 오디오 코덱: 보다 직관적인 오디오 표현을 향하여

2025-02-01

본 논문에서는 오디오를 희소한 이벤트 집합과 해당 발생 시간으로 인코딩하는 것을 목표로 하는 개념 증명 오디오 인코더를 소개합니다. 악기와 방의 공격과 물리적 공진을 모델링하기 위해 기본적인 물리 기반 가정을 활용하여 희소하고, 간결하며, 해석하기 쉬운 표현을 장려할 것으로 기대합니다. 이 모델은 입력 스펙트로그램에서 에너지를 반복적으로 제거하여 작동하며, 이벤트 벡터와 발생 시간을 나타내는 one-hot 벡터를 생성합니다. 디코더는 이러한 벡터를 사용하여 오디오를 재구성합니다. 실험 결과는 이 모델이 오디오를 분해할 수 있음을 보여주지만, 재구성 품질 향상이나 중복 이벤트 감소 등 개선의 여지가 있습니다.

DeepSeek R1이 Copilot+ PC에 에지 AI를 제공합니다

2025-02-01
DeepSeek R1이 Copilot+ PC에 에지 AI를 제공합니다

Microsoft는 Qualcomm Snapdragon 및 Intel Core Ultra 프로세서를 탑재한 Copilot+ PC용으로 최적화된 DeepSeek R1을 통해 에지 AI의 성능을 제공합니다. 뉴럴 프로세싱 유닛(NPU)을 활용하여 DeepSeek R1은 디바이스에서 효율적으로 실행되므로 응답 시간이 단축되고 전력 소비가 줄어듭니다. 개발자는 AI 툴킷을 사용하여 모델을 손쉽게 통합하고 네이티브 AI 애플리케이션을 구축할 수 있습니다. DeepSeek R1-Distill-Qwen-1.5B의 초기 릴리스와 곧 출시될 7B 및 14B 변형은 효율적인 추론과 지속적으로 실행되는 서비스에서 에지 AI의 잠재력을 보여줍니다.

AI의 200달러 작업 정복: 진행 보고

2025-02-01
AI의 200달러 작업 정복: 진행 보고

저자는 2013년에 200달러를 주고 마스코트 디자인을 의뢰한 것을 회상하며, 현재 AI로 가능한 작업의 종류를 보여줍니다. AI는 로고 디자인, 녹음 변환, 번역 등 명확하게 정의된 결과를 갖는 트랜잭션 작업에 뛰어납니다. 이러한 작업들은 이전에는 전문적인 기술이 필요했습니다. 하지만 조경 디자인처럼 미묘한 전문 지식과 판단력이 필요한 더 복잡한 작업은 현재 AI의 능력을 넘어섭니다. AI의 발전은 놀랍지만, 유료 작업 해결에 있어 경제적 영향은 아직 초기 단계에 있습니다.

OpenAI의 o3-mini: 경제적인 고성능 LLM

2025-02-01

OpenAI가 새로운 언어 모델 o3-mini를 출시했습니다. Codeforces 프로그래밍 경진대회 벤치마크에서 GPT-4o 및 o1을 훨씬 능가하는 성능을 보였습니다. 모든 지표에서 우수한 것은 아니지만, 저렴한 가격(입력 토큰 100만 개당 1.10달러, 출력 토큰 100만 개당 4.40달러)과 매우 높은 토큰 출력 제한(10만 토큰)이 큰 장점입니다. OpenAI는 이를 ChatGPT의 웹 검색 및 요약 기능에 통합할 계획이며, LLM 0.21에서 이미 지원되지만 현재는 Tier 3 이상 사용자(API에서 100달러 이상 사용)로 제한됩니다. o3-mini는 개발자에게 강력하고 비용 효율적인 LLM 옵션을 제공합니다.

AI

AI 음악 생성: 편리성 대 창의성

2025-01-31
AI 음악 생성: 편리성 대 창의성

AI 음악 회사 Suno의 성공은 AI가 예술 창작에서 하는 역할에 대한 재고를 촉구합니다. 스탠퍼드 대학교 교수인 저자는 Suno가 "AI는 음악 제작에서 지루한 부분을 쉽게 해결할 수 있다"는 주장에 의문을 제기하며, 창작 과정에서의 어려움과 난관이야말로 예술의 의미와 가치를 구성한다고 주장합니다. 자신의 경험과 교육 실천을 예로 들어 창작 과정의 중요성을 보여주고, AI 시대에도 인간의 능동적인 창의성을 유지하고 순수 소비주의적 문화에 빠지는 것을 피해야 한다고 역설합니다.

AI

텐서 다이어그램을 사용한 텐서 조작 간소화: Tensorgrad 라이브러리 소개

2025-01-31

고차원 텐서 조작은 복잡할 수 있습니다. 새로운 책인 "The Tensor Cookbook"은 텐서 다이어그램을 사용하여 이 프로세스를 간소화합니다. 텐서 다이어그램은 기존의 인덱스 표기법(einsum)보다 직관적이며, 패턴과 대칭을 쉽게 파악하고, 벡터화 및 크로네커 곱의 어려움을 피하며, 행렬 계산을 간소화하고, 함수와 브로드캐스팅을 손쉽게 표현할 수 있습니다. 함께 제공되는 Python 라이브러리인 Tensorgrad는 텐서 다이어그램을 사용하여 기호 텐서 조작과 미분을 수행하여 복잡한 계산을 이해하기 쉽게 만듭니다.

OpenAI, 더 저렴하고 빠른 추론 모델 o3-mini 출시

2025-01-31
OpenAI, 더 저렴하고 빠른 추론 모델 o3-mini 출시

OpenAI는 자사의 'o' 계열의 새로운 AI 추론 모델인 o3-mini를 공개했습니다. o1 계열과 기능이 비슷하지만 속도가 더 빠르고 비용이 더 저렴합니다. STEM 문제, 특히 프로그래밍, 수학, 과학에 최적화되어 있으며 ChatGPT에서 사용할 수 있습니다. '추론 노력' 설정을 조정하여 속도와 정확성의 균형을 맞출 수 있습니다. 유료 사용자는 무제한으로 액세스할 수 있지만 무료 사용자는 쿼리 수에 제한이 있습니다. 일부 개발자를 위해 OpenAI API를 통해서도 사용할 수 있습니다. 모든 벤치마크에서 DeepSeek의 R1 모델을 능가하는 것은 아니지만 경쟁력 있는 가격과 향상된 안전성을 제공합니다.

AI

DeepSeek: 중국 AI 다크호스의 부상

2025-01-31
DeepSeek: 중국 AI 다크호스의 부상

중국 헤지펀드 High-Flyer가 설립한 AI 기업 DeepSeek은 고효율 모델 DeepSeek V3와 R1로 세계를 놀라게 했습니다. DeepSeek V3는 낮은 학습 비용(공개된 600만 달러를 훨씬 상회)과 높은 성능, 그리고 혁신적인 Multi-head Latent Attention 기술을 통해 추론 비용에서 큰 이점을 얻고 있습니다. DeepSeek의 성공은 대규모 GPU 투자(약 5만 개의 Hopper GPU)와 인재 육성에 대한 집중적인 노력 덕분이지만, 저렴한 가격 전략은 비용 지속 가능성에 대한 의문을 제기합니다. Google Gemini Flash 2.0 Thinking 또한 DeepSeek의 선두 자리를 위협하고 있습니다. DeepSeek의 부상은 중국 AI 기술력의 향상을 보여주는 동시에, 국제 기술 경쟁과 수출 통제에 대한 고찰을 촉구하고 있습니다.

2시간 만에 나만의 AI 이미지 모델을 학습시키다

2025-01-31
2시간 만에 나만의 AI 이미지 모델을 학습시키다

작성자는 2시간도 채 걸리지 않아 자신만의 AI 이미지 모델을 학습시켜 슈퍼맨 버전과 같은 다양한 스타일의 자신의 이미지를 생성하는 데 성공했습니다. Flux 모델과 LoRA 학습 기법을 사용하고 Replicate의 사용하기 쉬운 GPU 클라우드 서비스와 미리 만들어진 도구를 활용하여 이를 달성했습니다. 몇 장의 개인 사진과 Hugging Face를 통한 모델 저장만으로 놀라울 정도로 간단한 과정이었습니다. 결과는 다양했지만 충분히 재미있었고 비용도 저렴했습니다(10달러 미만).

AI

RamaLama: Docker처럼 간편하게 AI 모델 실행

2025-01-31
RamaLama: Docker처럼 간편하게 AI 모델 실행

RamaLama는 AI 모델의 로컬 실행 및 관리를 간소화하도록 설계된 명령줄 도구입니다. OCI 컨테이너 기술을 활용하여 GPU 지원을 자동으로 감지하고 Hugging Face 및 Ollama와 같은 모델 레지스트리에서 모델을 가져옵니다. 복잡한 시스템 설정 없이 간단한 명령어로 챗봇이나 REST API 서비스를 실행할 수 있습니다. RamaLama는 Podman과 Docker를 지원하며 편리한 모델 별칭 기능을 제공하여 사용 편의성을 높였습니다.

DeepSeek R1: 복잡한 추론 작업에서 OpenAI에 도전하는 오픈소스 모델

2025-01-31
DeepSeek R1: 복잡한 추론 작업에서 OpenAI에 도전하는 오픈소스 모델

DeepSeek R1은 복잡한 추론 작업에서 OpenAI 모델에 도전하는 오픈소스 모델입니다. 그룹 상대 정책 최적화(GRPO)와 강화 학습에 중점을 둔 다단계 교육 방식을 사용하며, 모델뿐만 아니라 개발에 대한 자세한 내용을 설명하는 연구 논문도 공개되었습니다. 논문에서는 교육 중 모델이 인간의 피드백 없이 초기 접근 방식을 재평가하여 문제에 더 많은 사고 시간을 할당하는 것을 학습한 '번뜩이는 순간'에 대해 설명합니다. 이 블로그 게시물에서는 GRPO와 카운트다운 게임을 사용하여 이 '번뜩이는 순간'을 재현하고 자체 검증 및 검색 기능을 학습하는 오픈 모델을 교육합니다. GRPO 및 TRL 학습을 용이하게 하기 위해 대화형 Jupyter Notebook 코드, 멀티 GPU 노드 또는 SLURM 클러스터에서의 분산 교육을 위한 스크립트 및 지침을 제공합니다.

AI

미국 작가 조합, AI 생성 서적에 대항하는 '인간 저술' 인증 시작

2025-01-31
미국 작가 조합, AI 생성 서적에 대항하는 '인간 저술' 인증 시작

아마존과 같은 플랫폼에서 AI 생성 서적이 증가함에 따라 미국 작가 조합은 '인간 저술' 인증을 시작했습니다. 이는 독자에게 저자의 명확성을 제공하고, 인간이 쓴 서적과 AI 생성 콘텐츠를 구분하는 것을 목표로 합니다. 현재는 조합 회원과 단독 저자의 서적에 한정되지만, 향후 비회원 및 공동 저자의 서적에도 확대될 것입니다. 문법 검사와 같은 AI의 사소한 지원은 허용되지만, 인증은 핵심적인 문학적 표현이 인간의 기원임을 강조합니다. 조합은 이를 반기술적 태도가 아니라, 투명성과 스토리텔링에서 독특한 인간적 요소에 대한 인식을 높이는 것으로 보고 있습니다.

AI
1 2 33 34 35 36 37 38 39 41 Next →