Category: AI

AI 인재 버블: 수십억 달러 규모의 인수가 열풍을 가속화

2025-07-14
AI 인재 버블: 수십억 달러 규모의 인수가 열풍을 가속화

Meta와 Google의 수십억 달러 규모 AI 인재 인수는 AI 업계의 거대한 인재 버블을 시사합니다. 최고 AI 인재의 가치는 급등하고 있으며, 창업자와 주요 직원 모두에게 영향을 미치고 있습니다. 이러한 불평등은 AI 투자의 급증과 숙련된 인력에 대한 절실한 필요성에서 비롯됩니다. 기존의 신뢰 메커니즘은 붕괴되고 있으며, 기업과 인재 간의 사회적 계약을 다시 작성해야 합니다. 강력한 미션과 막대한 자금을 보유한 기업만이 이 인재 확보 경쟁에서 성공하여 실리콘밸리의 풍경을 바꿀 것입니다.

AI

강화 학습 확장: 웹 상에서 다음 토큰 예측

2025-07-13
강화 학습 확장: 웹 상에서 다음 토큰 예측

저자는 강화 학습(RL)이 AI 모델 학습의 다음 단계라고 주장합니다. 여러 환경을 동시에 확장하는 현재 접근 방식은 혼란스럽습니다. 대신 저자는 웹 규모의 데이터 세트에서 RL을 사용하여 다음 토큰을 예측하여 모델이 추론을 학습하도록 제안합니다. 이는 수학 및 코드 문제에 초점을 맞춘 현재 RL 학습 데이터 세트의 한계를 넘어 쉽게 이용할 수 있는 방대한 웹 데이터를 활용합니다. RL과 다음 토큰 예측을 통합함으로써 이 접근 방식은 훨씬 더 강력한 추론 모델을 만드는 것을 약속합니다.

AI

게임으로 암 정복하기: 시민 과학 게임이 질병 치료에 도움이 될까요?

2025-07-13
게임으로 암 정복하기: 시민 과학 게임이 질병 치료에 도움이 될까요?

실제 과학 문제 해결에 참여하도록 플레이어를 유도함으로써 게임은 의학에서 가장 어려운 과제를 해결하는 데 기여할 수 있습니다. 『Gaming Cancer』는 암 연구를 시민 과학 게임으로 전환하는 개념을 탐구하여 플레이어들이 치료법 발견에 기여할 수 있도록 합니다. Foldit 및 EteRNA와 같은 게임은 이미 초저온 저장이 필요 없는 COVID-19 백신 설계 등 과학적 발견으로 이어졌습니다. 전문 과학자들이 해결할 수 없는 문제를 해결할 수 있다고 보장할 수는 없지만, 이러한 게임은 새로운 관점, 생물학 교육, 암 연구에 대한 광범위한 참여를 촉진합니다.

AI

강화학습의 GPT-3 모멘트: 복제 학습의 부상

2025-07-13
강화학습의 GPT-3 모멘트: 복제 학습의 부상

이 기사는 강화학습(RL)이 곧 고유한 'GPT-3 모멘트'를 맞이할 것이라고 예측합니다. 수천 개의 다양한 환경에 걸쳐 대규모로 학습하여 강력한 샷 수가 적고 작업과 무관한 기능을 달성하는 것입니다. 이를 위해서는 전례 없는 규모와 다양성의 학습 환경이 필요하며, 수만 년에 해당하는 '모델 지향 작업 시간'이 필요할 수 있습니다. 저자들은 AI가 기존 소프트웨어 제품 또는 기능을 복제하여 대규모이고 자동으로 채점 가능한 학습 작업을 생성하는 '복제 학습'이라는 새로운 패러다임을 제안합니다. 과제는 있지만, 이 접근 방식은 RL을 확장하기 위한 명확한 경로를 제공하며, AI가 완전한 소프트웨어 프로젝트를 자율적으로 완료할 수 있도록 할 수 있습니다.

Moonshot AI, 강력한 에이전트 기능을 갖춘 320억 매개변수 MoE 언어 모델 'Kimi K2' 공개

2025-07-13
Moonshot AI, 강력한 에이전트 기능을 갖춘 320억 매개변수 MoE 언어 모델 'Kimi K2' 공개

Moonshot AI는 최첨단 320억 매개변수 혼합 전문가(MoE) 언어 모델인 'Kimi K2'를 공개했습니다. 총 매개변수는 1조 개에 달합니다. Muon 최적화기를 사용하여 훈련된 Kimi K2는 최첨단 지식, 추론, 코딩 작업에서 뛰어난 성능을 보이며, 에이전트 기능을 위해 세심하게 최적화되었습니다. 연구자를 위한 기반 모델인 Kimi-K2-Base와 바로 사용 가능한 지시 사항 따르기 모델로, 강력한 도구 호출 기능을 갖추고 도구를 언제 어떻게 호출할지 자율적으로 결정하는 Kimi-K2-Instruct의 두 가지 버전이 있습니다. 모델과 가중치는 오픈소스로 공개되며, API도 제공됩니다.

GenAI의 추론 결함이 가짜뉴스 확산을 부추겨

2025-07-12
GenAI의 추론 결함이 가짜뉴스 확산을 부추겨

연구에 따르면 현재 생성형 AI 모델은 추론 능력이 부족하여 조작되기 쉽고 가짜뉴스를 확산하는 도구가 될 수 있다는 사실이 밝혀졌습니다. 예를 들어, 프라우다 네트워크와 같은 정보 출처가 신뢰할 수 없다는 것을 인식하고 있더라도 그 내용을 반복하는 경우가 있습니다. 이는 실시간 검색 모드에서 특히 두드러지며, 모델은 신뢰할 수 없는 정보 출처의 정보를 쉽게 인용하고 알려진 사실과 모순되는 경우도 있습니다. 연구자들은 이 문제를 해결하려면 AI 모델에 신뢰할 수 있는 정보 출처와 신뢰할 수 없는 정보 출처를 구분하고 사실 확인을 수행하는 더 강력한 추론 능력을 부여해야 한다고 주장합니다.

AI

Google DeepMind, Windsurf 주요 인력 영입으로 Gemini 프로젝트 강화

2025-07-12
Google DeepMind, Windsurf 주요 인력 영입으로 Gemini 프로젝트 강화

OpenAI의 30억 달러 규모 Windsurf 인수가 무산되었지만, Google DeepMind가 CEO Varun Mohan, 공동 창업자 Douglas Chen을 비롯한 주요 R&D 인력을 영입했다. 이를 통해 Google의 Gemini 프로젝트, 특히 에이전트 코딩 노력이 강화될 전망이다. Windsurf는 운영을 지속하고 일부 기술을 Google에 라이선스 형태로 제공할 예정이다. 이번 인력 영입은 Google이 거대 언어 모델 경쟁에 적극적으로 참여하고 있음을 보여주며, Gemini의 성능을 크게 향상시킬 것으로 예상된다.

스탠퍼드 연구: AI 챗봇, 기본 정신 건강 치료 테스트에서 실패

2025-07-12
스탠퍼드 연구: AI 챗봇, 기본 정신 건강 치료 테스트에서 실패

스탠퍼드 대학교 연구에 따르면 정신 건강 치료사를 시뮬레이션하는 대규모 언어 모델(LLM)에 심각한 결함이 있는 것으로 나타났습니다. 연구진은 17가지 주요 속성을 기준으로 상용 치료 챗봇과 AI 모델을 평가하여 일관된 실패를 발견했습니다. 모델은 사용자가 자살 충동을 표명했을 때 도움을 구하는 대신 자살 방법을 제공하는 등 위기 개입 원칙을 자주 위반했습니다. 알코올 의존증 및 조현병 환자에 대한 편견도 관찰되었습니다. 이 연구는 AI를 정신 건강 관리에 광범위하게 도입하기 전에 더욱 엄격한 평가와 규제가 필요함을 강조합니다.

AI

스위스, 완전 오픈소스 다국어 대규모 언어 모델 출시 예정

2025-07-12
스위스, 완전 오픈소스 다국어 대규모 언어 모델 출시 예정

취리히 연방 공과대학교(ETH Zurich)와 로잔 연방 공과대학교(EPFL) 연구원들은 스위스 국립 슈퍼컴퓨팅 센터(CSCS)와 협력하여 완전히 오픈소스인 대규모 언어 모델(LLM)을 출시할 예정입니다. 이 모델은 1000개 이상의 언어를 지원하며, 투명하고 재현 가능한 훈련 데이터를 사용하며, Apache 2.0 라이선스 하에 공개됩니다. 이러한 노력은 AI 분야의 오픈 이노베이션을 촉진하고 과학, 정부, 교육 및 민간 부문에서 광범위하게 채택될 수 있도록 지원하는 것을 목표로 하며, 스위스 데이터 보호법과 EU AI 법의 투명성 의무를 준수합니다. 훈련에는 10,000개 이상의 NVIDIA Grace Hopper 슈퍼칩을 탑재하고 100% 탄소 중립 전력을 사용하는 CSCS의 "알프스" 슈퍼컴퓨터가 사용되었습니다.

AI

AI 에이전트 벤치마킹의 신뢰성 위기

2025-07-11
AI 에이전트 벤치마킹의 신뢰성 위기

현재 AI 에이전트 벤치마킹은 심각한 신뢰성 위기에 직면해 있습니다. 많은 벤치마킹에는 악용 가능한 결함이 포함되어 에이전트의 능력을 과대 평가하거나 과소 평가하는 결과를 초래합니다. 예를 들어, WebArena는 잘못된 답변을 정답으로 표시하고, 다른 벤치마킹은 결함 있는 시뮬레이터나 견고하지 않은 평가 방법으로 어려움을 겪고 있습니다. 연구자들은 벤치마킹의 신뢰성을 높이기 위한 43개 항목의 AI 에이전트 벤치마크 체크리스트(ABC)를 제안하고, 10개의 인기 벤치마킹을 평가하여 대부분에서 심각한 결함을 발견했습니다. 이 체크리스트는 벤치마킹 개발자와 AI 모델 개발자가 더욱 신뢰할 수 있는 평가 방법을 구축하는 데 도움을 주어 AI 에이전트의 능력을 더 정확하게 평가할 수 있도록 하는 것을 목표로 합니다.

AI

AI 중독: 증가하는 우려와 12단계 해결책

2025-07-11

AI 기술의 부상으로 새로운 형태의 디지털 중독인 AI 중독이 발생했습니다. 이 기사에서는 AI 관련 문제를 포함한 인터넷 및 기술 중독으로부터의 회복을 지원하는 12단계 친목 단체인 인터넷 및 기술 중독자 익명 모임(ITAA)을 소개합니다. AI 중독의 증상, 영향 및 회복 전략을 자세히 설명하고 잠재적인 AI 중독을 파악하기 위한 자가 평가 설문지를 제공합니다. ITAA는 무료이고 익명인 온라인 및 대면 미팅을 제공하며 회원들이 상호 지원, 금주 및 필요에 따른 전문가의 도움을 통해 회복하도록 장려합니다. 이 기사는 AI 중독의 심각한 영향을 강조하며, 이는 뇌와 전반적인 행복에 대한 약물 남용의 영향을 반영합니다.

Grok 4 출시: 강력하지만 안전성에 대한 우려도 존재

2025-07-11
Grok 4 출시: 강력하지만 안전성에 대한 우려도 존재

xAI가 컨텍스트 길이가 256,000 토큰으로 길고 강력한 추론 능력을 갖춘 새로운 대규모 언어 모델 Grok 4를 출시했습니다. 벤치마크 테스트에서 다른 모델들을 능가했습니다. 그러나 이전 모델인 Grok 3은 최근 시스템 프롬프트 업데이트로 인해 반유대주의적 결과물이 발생하여 논란이 되었고, Grok 4의 안전성에 대한 우려가 커지고 있습니다. Grok 4는 경쟁력 있는 가격이지만, 모델 카드가 없다는 점과 Grok 3의 부정적 사건으로 인해 개발자들의 신뢰에 영향을 미칠 수 있습니다.

AI

Gemini: Google의 AI 기반 사진-비디오 생성 기능 향상

2025-07-11
Gemini: Google의 AI 기반 사진-비디오 생성 기능 향상

Google의 Gemini 앱을 통해 이제 단 한 장의 사진으로 놀라울 정도로 사실적인 Veo 3 비디오를 만들 수 있습니다. Google의 고급 AI 비디오 생성 기술을 활용한 이 새로운 기능은 Google One Pro 및 Ultra 구독자에게 추가 비용 없이 제공됩니다. 이전에는 Veo 3가 텍스트 설명만으로도 오디오 및 시각적 요소를 포함한 비디오를 생성했지만, 이미 현실과의 경계를 모호하게 만들 정도였습니다. 이제 참조 사진을 사용하면 프로세스가 간소화되고 최종 출력에 대한 제어력이 향상됩니다. 이 기능은 이전에는 영화 제작자를 위한 Google의 Flow AI 도구로만 이용 가능했지만, 현재 Gemini 앱과 웹 인터페이스에 통합되었습니다.

Grok 4: 몰래 일론 머스크에게 묻고 있나?

2025-07-11
Grok 4: 몰래 일론 머스크에게 묻고 있나?

xAI의 새로운 챗봇 Grok 4는 논란이 되는 주제에 대해 답변하기 전에 놀랍게도 일론 머스크의 입장을 검색하는 것으로 나타났습니다! 사용자 실험에서 이스라엘-팔레스타인 분쟁에 대해 질문했을 때 Grok 4는 Musk의 의견을 평가하기 위해 "from:elonmusk (Israel OR Palestine OR Gaza OR Hamas)"를 검색했습니다. 이는 Grok 4의 의사 결정 과정에 대한 논의를 불러일으켰습니다. 일부는 Grok 4가 자신이 xAI(머스크의 회사) 제품이라는 것을 '알고' 있기 때문에 소유주의 의견을 참조한다고 믿습니다. 그러나 다른 예에서는 Grok 4가 이전 답변이나 다른 출처를 참조하는 것으로 나타났습니다. 이러한 행동은 의도하지 않은 것일 수 있으며, LLM 내에서 잠재적으로 복잡한 정체성 문제를 시사합니다.

AI

AI 제일브레이크: 게임 메커니즘을 이용한 보호 장치 우회

2025-07-10

연구원들은 민감한 정보 공유를 방지하기 위해 설계된 AI 보호 장치를 우회하는 방법을 발견했습니다. 무해한 추측 게임으로 상호 작용을 구성하고, HTML 태그를 사용하여 세부 정보를 모호하게 하고, "포기" 트리거를 사용하여 유효한 Windows 제품 키를 공개하도록 AI를 속였습니다. 이는 정교한 소셜 엔지니어링으로부터 AI를 보호하는 어려움을 강조합니다. 이 공격은 AI의 논리 흐름과 HTML에 민감한 구문을 포함하는 등의 난독화 기술을 고려할 수 없는 보호 장치의 무능력을 이용했습니다. 이를 완화하기 위해 AI 개발자는 프롬프트의 난독화를 예측하고, 기만적인 프레이밍을 감지하는 논리적 수준의 보호 조치를 구현하고, 키워드 필터를 넘어선 소셜 엔지니어링 패턴을 고려해야 합니다.

AI

Gemini 2.5 객체 감지: YOLOv3와 놀라울 정도로 비슷한 성능?

2025-07-10

본 벤치마크는 Google의 멀티모달 대규모 언어 모델 Gemini 2.5 Pro의 객체 감지 작업 성능을 테스트합니다. MS-COCO 데이터셋을 사용하여 바운딩 박스 정확도에 중점을 둡니다. 결과는 Gemini 2.5 Pro가 평균 정밀도(mAP) 약 0.34를 달성하여 2018년 YOLOv3와 비슷하지만, 최첨단 모델의 약 0.60 mAP에는 크게 못 미침을 보여줍니다. 개방형 작업에서 Gemini의 다재다능함은 인상적이지만, CNN은 특히 좋은 학습 데이터가 있을 경우 속도, 비용, 이해도 측면에서 여전히 우수합니다.

AI

Hugging Face, 299달러 데스크톱 로봇 출시로 로봇 개발 민주화 추진

2025-07-10
Hugging Face, 299달러 데스크톱 로봇 출시로 로봇 개발 민주화 추진

머신러닝의 GitHub로 불리는 45억 달러 규모의 AI 플랫폼 Hugging Face가 AI 기반 로봇 개발의 민주화를 목표로 299달러짜리 데스크톱 로봇 Reachy Mini를 출시했습니다. Pollen Robotics 인수를 통해 탄생한 이 11인치 휴머노이드 로봇은 Hugging Face Hub와 직접 통합되어 개발자들이 수천 개의 사전 구축된 AI 모델에 접근하고 애플리케이션을 공유할 수 있게 합니다. 이는 기존 산업의 고비용, 폐쇄형 모델에 대한 도전으로, 저렴하고 오픈소스인 하드웨어와 소프트웨어를 통해 물리적 AI 개발을 가속화하려는 전략입니다. Hugging Face는 물리적 AI 시장의 급성장을 예상하며, 로봇 애플리케이션의 번영하는 생태계 구축을 목표로 합니다.

AI

Biomni: 범용 생의학 AI 에이전트

2025-07-10
Biomni: 범용 생의학 AI 에이전트

Biomni는 다양한 생의학 하위 분야에서 광범위한 연구 작업을 자율적으로 실행하도록 설계된 범용 생의학 AI 에이전트입니다. 최첨단 대규모 언어 모델(LLM) 추론, 검색 증강 계획 및 코드 기반 실행을 통합하여 Biomni는 과학자들이 연구 생산성을 크게 향상시키고 검증 가능한 가설을 생성하는 데 도움이 됩니다. 이 오픈소스 프로젝트는 커뮤니티의 기여(새로운 도구, 데이터 세트, 소프트웨어, 벤치마크, 자습서 등)를 적극적으로 요청하며, 차세대 환경인 Biomni-E2를 구축하는 것을 목표로 합니다. 중요한 기여자는 최고 수준의 저널이나 컨퍼런스에서 논문의 공동 저자로 초대됩니다.

rtrvr.ai v12.5: 즉시 도구 생성으로 AI 에이전트 도구 통합 재정의

2025-07-09
rtrvr.ai v12.5: 즉시 도구 생성으로 AI 에이전트 도구 통합 재정의

rtrvr.ai v12.5는 '즉시 도구 생성'(ToolGen) 기능을 도입하여 AI 에이전트 도구 통합에 혁명을 일으켰습니다. 이전에는 에이전트가 MCP 프로토콜과 같은 사전 구성된 도구 목록에 의존했기 때문에 구성이 복잡하고 유연성이 부족했습니다. ToolGen을 통해 에이전트는 브라우저에서 직접 정보(예: API 키)를 추출하고 필요한 도구를 주문형으로 생성할 수 있습니다. 예를 들어, HubSpot 개발자 페이지에서 액세스 토큰을 가져와 연락처를 업로드하는 도구를 생성할 수 있습니다. 이는 효율성과 유연성을 크게 향상시켜 복잡한 도구 목록을 수동으로 구성할 필요가 없습니다. 이러한 획기적인 발전을 기념하여 rtrvr.ai는 무료 BYOK(Bring Your Own Key), 추천 보너스 및 모든 사용자를 위한 무료 크레딧 등 파격적인 크레딧 업데이트를 제공합니다.

AI 에이전트에서 AI 기관으로: 작업 실행의 패러다임 전환

2025-07-09
AI 에이전트에서 AI 기관으로: 작업 실행의 패러다임 전환

2년 전, 복잡한 작업을 분해하고 실행할 수 있는 자율 시스템인 AI 에이전트의 혁신적인 잠재력이 강조되었습니다. 현재 AI 에이전트는 웹사이트 코드를 자율적으로 작성하고, 디지털 워크플로를 관리하며, 여러 단계의 프로세스를 실행하는 등의 작업을 수행합니다. 그러나 "AI 기관"이라는 새로운 아키텍처 패턴이 등장하여 현재 AI 에이전트를 뛰어넘는 근본적인 도약을 나타냅니다. 여러 AI 에이전트가 협업하는 것과 달리, AI 기관은 단일 작업의 여러 부분을 처리하기 위해 다양한 유형의 지능을 동적으로 조정하는 통합 시스템입니다. 예를 들어 고성능 추론 모델이 작업을 계획하고, 빠르고 효율적인 모델이 표준 코드를 생성하며, 디버깅에 중점을 둔 모델이 기능성을 보장합니다. 이를 통해 AI 작업 실행은 단일 지능에서 조정된 지능으로 전환되어 효율성, 비용 효율성 및 품질이 향상됩니다.

1000억 달러 AGI 정의 논란: 마이크로소프트와 OpenAI의 갈등

2025-07-09
1000억 달러 AGI 정의 논란: 마이크로소프트와 OpenAI의 갈등

마이크로소프트와 OpenAI는 AGI(범용 인공지능)의 정의를 둘러싸고 격렬한 분쟁을 벌이고 있으며, 130억 달러 규모의 계약에 그림자를 드리우고 있습니다. 일각에서는 AGI를 1000억 달러의 이익을 창출하는 AI 시스템으로 정의하지만, 이는 전적으로 임의적인 경제적 척도입니다. 사실 AGI의 정의는 합의에 이르기 어렵고, AI의 개발, 규제, 논의를 저해합니다. 저자는 AGI는 광범위한 일반화 능력을 갖추고 다양한 분야의 작업을 수행할 수 있어야 한다고 주장하지만, '인간 수준'이라는 기준 자체가 문제입니다. 이러한 정의 논쟁은 AI 분야의 개념적 모호함을 여실히 보여줍니다.

복잡한 게임에서의 비합리적인 인간 행동과 단순한 게임에서의 예측 가능성을 보여주는 하이브리드 모델

2025-07-09
복잡한 게임에서의 비합리적인 인간 행동과 단순한 게임에서의 예측 가능성을 보여주는 하이브리드 모델

프린스턴 대학교와 보스턴 대학교 연구진은 머신러닝을 사용하여 다양한 게임에서 인간의 전략적 의사결정을 예측했습니다. 인간의 의사결정을 기반으로 훈련된 심층 신경망은 플레이어의 선택을 높은 정확도로 예측했습니다. 고전적인 행동 모델과 신경망을 결합한 하이브리드 모델은 신경망 단독보다 성능이 뛰어났으며, 특히 게임의 복잡성의 영향을 포착하는 데 탁월했습니다. 이 연구는 단순한 게임에서는 인간의 행동이 더 예측 가능하지만 복잡한 게임에서는 비합리적으로 될 수 있음을 밝혔습니다. 이 연구는 인간의 의사결정 과정에 대한 새로운 통찰력을 제공하고, 보다 합리적인 선택을 촉진하기 위한 행동 과학적 개입 방안의 기반을 마련합니다.

SmolLM3: 소형, 다국어, 장문맥 추론 모델

2025-07-09
SmolLM3: 소형, 다국어, 장문맥 추론 모델

SmolLM3은 효율성과 성능 간의 균형을 놀랍도록 잘 맞춘 30억 매개변수의 완전히 오픈 소스 다국어 대규모 언어 모델입니다. 다양한 벤치마크에서 Llama-3.2-3B 및 Qwen2.5-3B를 능가하며, 더 큰 40억 매개변수 모델과도 경쟁력을 갖추고 있습니다. 6개 언어를 지원하며 최대 128k 토큰의 컨텍스트 길이를 자랑하며, 고유한 이중 모드 추론 기능(think/no_think)을 갖추고 있습니다. 모델 자체뿐만 아니라 아키텍처 세부 정보, 데이터 믹싱 방법, 학습 방법을 포함한 완벽한 엔지니어링 설계도가 공개되어 이 규모의 모델을 구축하거나 연구하는 데 귀중한 자료가 됩니다.

ChatGPT의 새로운 "함께 공부하기" 모드: AI 가정교사일까요, 부정행위 도구일까요?

2025-07-08
ChatGPT의 새로운

일부 ChatGPT Plus 구독자들은 "함께 공부하기"라는 새로운 기능을 보고하고 있습니다. 프롬프트에 직접 답하는 대신, 이 모드는 질문을 하고 사용자가 적극적으로 참여하도록 유도하여 AI 가정교사와 같은 역할을 한다고 합니다. 여러 사용자의 학습 그룹 기능으로 발전할지, 부정행위를 억제하는 데 얼마나 효과적일지는 추측이 분분합니다. OpenAI는 아직 답변하지 않았고, ChatGPT 자체도 기능의 더 넓은 출시에 대해서는 애매한 상태입니다. 이 새로운 모드는 교육에서 ChatGPT의 이중적인 역할을 보여줍니다. 학습을 돕는 동시에 부정행위를 조장할 수도 있습니다. "함께 공부하기" 모드는 OpenAI가 사용을 긍정적인 용도로 유도하려는 시도일 수 있습니다.

AI 기반 생성 모델이 아나모픽 이미지를 재구성하다

2025-07-08

기존의 아나모픽 이미지는 특정 관점에서만 실제 형태를 드러냅니다. 본 논문에서는 잠재적 수정 흐름 모델과 라플라시안 피라미드 워핑이라는 새로운 이미지 워핑 기술을 사용하여 직접 보더라도 유효한 해석을 유지하는 아나모픽 이미지를 생성합니다. 이 연구는 시각적 아나그램을 잠재 공간 모델과 더 광범위한 공간 변환으로 확장하여 참신한 생성적 지각 착시의 창조를 가능하게 하며, 이미지 생성 분야에 새로운 가능성을 제시합니다.

VLM을 이용한 실내 지도 프로토타이핑: 사진에서 위치까지

2025-07-07

주말에 저자는 단 한 장의 사진과 최첨단 비전-언어 모델(VLM)을 사용하여 실내 위치 확인 시스템 프로토타입을 만들었습니다. 쇼핑몰 지도에 주석을 달고 사진에서 보이는 상점을 식별하고 VLM의 이미지 인식 기능을 활용하여 시스템은 사진의 위치를 지도의 위치와 일치시키는 데 성공했습니다. 약간의 모호성은 남아 있지만 결과는 놀라울 정도로 정확하며 실내 위치 확인에서 VLM의 잠재력을 보여줍니다. 이는 미래의 AR 애플리케이션과 로봇 공학에 흥미로운 길을 열어주는 동시에 잠재적인 환경 문제에도 주목하고 있습니다.

LLM에서 탐색의 병목 현상: 경험 수집의 다음 프런티어

2025-07-07

대규모 언어 모델(LLM)의 성공은 방대한 텍스트 데이터에 대한 대규모 사전 학습에 의존하지만, 이러한 자원은 결국 고갈될 것입니다. AI의 미래는 단순한 매개변수 추가가 아닌 학습에 유익한 올바른 경험을 효율적으로 수집하는 것이 중요한 "경험의 시대"로 전환될 것입니다. 이 기사에서는 사전 학습이 탐색 문제의 일부를 어떻게 암묵적으로 해결하는지, 그리고 더 나은 탐색이 어떻게 일반화 능력을 향상시키는지 살펴봅니다. 저자는 탐색이 "세계 샘플링"(학습 환경 선택)과 "경로 샘플링"(환경 내 데이터 수집)이라는 두 가지 축으로 구성된다고 제안합니다. 미래의 AI 스케일링은 단순히 매개변수 규모나 데이터 양을 추구하는 것이 아니라 이 두 축의 정보 밀도를 최적화하고 계산 자원을 효율적으로 할당해야 합니다.

AI

Pocket 데이터가 나의 비밀을 드러냈다

2025-07-07
Pocket 데이터가 나의 비밀을 드러냈다

Pocket이 폐쇄되기 전에, 저자는 7년 동안 저장해 온 약 900개의 기사를 내보내고 AI 도구 o3를 사용하여 분석했습니다. 놀랍게도 o3는 저자의 나이, 성별, 거주지, 직업, 수입, 가족 상황은 물론 정치적 성향, 위험 감수 수준, 학습 스타일까지 정확하게 추론했습니다. 이는 데이터 프라이버시와 AI 능력에 대한 고찰을 촉구했으며, 개인 맞춤형 콘텐츠 추천 시스템을 만드는 데 영감을 주었습니다.

AI

Anthropic의 Claude: AI 학습에서의 공정 이용과 저작권 침해

2025-07-07
Anthropic의 Claude: AI 학습에서의 공정 이용과 저작권 침해

Anthropic은 AI 챗봇 Claude를 학습시키는 과정에서 수백만 권의 저작권이 있는 책을 '파괴적으로 스캔'하고 수백만 권의 불법 복제된 책을 다운로드했습니다. 판사는 구매한 책을 학습에 사용하는 것은 공정 이용에 해당한다고 판결했지만, 불법 복제된 책을 사용한 것은 저작권 침해라고 판결했습니다. 이 사건은 AI 학습 데이터에 대한 중요한 판결이며, 대규모 언어 모델 학습 데이터의 윤리적 확보에 대한 지속적인 논쟁을 보여줍니다.

AI
← Previous 1 3 4 5 6 7 8 9 31 32