Category: AI

표상 낙관주의에 대한 의문: 파편화된 얽힘 표상 가설

2025-05-20
표상 낙관주의에 대한 의문: 파편화된 얽힘 표상 가설

본 연구는 딥러닝에서 '규모가 커지면 성능이 향상되고 내부 표상도 향상된다'는 낙관적인 가정에 도전합니다. 개방형 탐색 과정을 통해 진화된 네트워크와 단순한 이미지 생성 작업에서 기존 SGD로 훈련된 네트워크를 비교함으로써 연구자들은 SGD로 훈련된 네트워크가 '파편화된 얽힘 표상'(FER)을 보인다는 것을 발견했습니다. 이는 비조직적인 뉴런 활동으로 특징지어지며, 일반화, 창의성, 지속적인 학습을 방해합니다. 반대로, 진화된 네트워크는 더욱 통합적이고 요인화된 표상을 보여주며, FER 문제 해결이 표상 학습의 발전과 더욱 견고한 AI 시스템 구축에 필수적임을 시사합니다.

LLM의 채용 과정에서 나타나는 성별 편향

2025-05-20
LLM의 채용 과정에서 나타나는 성별 편향

22개의 주요 대규모 언어 모델(LLM)을 대상으로 한 연구에 따르면, 채용 과정에서 여성 지원자에 대한 일관된 편향이 드러났습니다. 성별을 나타내는 이름을 제외하고는 동일한 이력서를 사용했음에도 불구하고, 70개의 직업에 걸쳐 LLM은 여성 지원자를 선호했습니다. 성별이 명시적으로 표시되거나 중립적인 레이블로 가려진 경우에도 이러한 편향은 지속되었습니다. 이 연구는 LLM에서 성별 편향이 존재함을 강조하고, 채용과 같은 고위험 의사 결정에서 LLM을 사용하는 것에 대한 우려를 제기합니다. 배포 전에 모델을 철저히 검토해야 함을 강조합니다.

AI

아이디어는 뭉치고 사람은 흩어진다: 디지털 시대의 엔트로피

2025-05-20
아이디어는 뭉치고 사람은 흩어진다: 디지털 시대의 엔트로피

이 글은 인간의 신념 형성 메커니즘을 탐구합니다. 우리의 뇌는 감정을 외부 자극과 연결하여 감정적 기억 은행을 만듭니다. 물리적 존재의 엔트로피는 증가하여 기억 속에서 흩어지는 경향이 있습니다. 반면 디지털 존재의 엔트로피는 감소하여 기억 속에서 뭉치는 경향이 있습니다. 물리적 세계와 디지털 세계의 이러한 엔트로피 차이는 우리의 심리적 균형에 도전합니다. 이 글은 마지막으로 AI 기술을 사용하여 심박 패턴을 모니터링하여 이 엔트로피 균형을 연구하고 사회 불안 및 ADHD 치료에 적용하는 adiem.com 회사를 소개합니다.

과학에서의 AI 과대 광고: 물리학자의 환멸

2025-05-20
과학에서의 AI 과대 광고: 물리학자의 환멸

프린스턴 대학교에서 물리학 박사 학위를 받은 닉 맥그리비는 AI를 물리학 연구에 적용한 경험을 공유합니다. 처음에는 AI가 연구를 가속화할 가능성에 대해 낙관적이었지만, 실제로는 AI 방법이 광고된 것만큼 효과적이지 않았고, 많은 논문이 AI의 장점을 과장하고 데이터 유출과 같은 문제를 안고 있는 것으로 나타났습니다. 그는 과학에서 AI의 급속한 확산이 진정한 연구 효율성 향상 때문이 아니라, AI가 과학자들에게 가져다주는 높은 연봉과 명성 같은 이점 때문이라고 주장합니다. 그는 더욱 엄격한 AI 평가 방법을 요구하며 AI 연구에서의 낙관적 편향에 대해 경고합니다.

AI

AI의 초능력: 지능이 아닌 인내

2025-05-20

샘 알트먼은 지능을 '측정하기에는 너무 저렴한' 것으로 만들고자 했고, 벤처 캐피탈에 힘입어 AI 붐이 가속화되면서 우리는 바로 그 세계에 살고 있습니다. 하지만 상당히 더 똑똑한 모델에 대한 사용자 수요는 폭발적으로 증가하지 않습니다. 이 글에서는 LLM의 가장 혁신적인 측면은 지능이 아니라 '초인적인 인내심'이라고 주장합니다. 항상 사용 가능하고, 비판적이지 않으며, 무한정 경청할 수 있습니다. 이러한 인내심은 LLM의 기존 결점(아첨 등)을 증폭시킬 수 있으며, LLM이 치료사를 대체해서는 안 되지만, 이 능력은 사람들이 정서적 지원과 조언을 구하는 방식에 큰 영향을 미쳤습니다.

AI

AI 챗봇: 온라인 토론에서 인간보다 설득력 있어

2025-05-19
AI 챗봇: 온라인 토론에서 인간보다 설득력 있어

새로운 연구에 따르면 대규모 언어 모델(LLM) 기반 AI 챗봇은 특히 상대방에 대한 정보를 가지고 있을 때 온라인 토론에서 인간보다 더 설득력이 있는 것으로 나타났습니다. 연구진은 900명의 미국 참가자들을 GPT-4 또는 인간과 10분간의 온라인 토론에 참여시켰습니다. 토론 주제는 사회 정치적 문제였습니다. 그 결과 기본 인구 통계 정보가 제공되었을 때 GPT-4는 64%의 확률로 인간보다 더 설득력이 있었습니다. 이는 LLM이 정치 캠페인이나 타겟 광고에 악용될 가능성에 대한 우려를 높이고 정보전에서 AI의 잠재적 위험을 드러냅니다.

AI

AI와의 공존: 동물계로부터 얻은 틀

2025-05-19
AI와의 공존: 동물계로부터 얻은 틀

이 글은 인간과 AI의 공존 미래를 탐구하며, 다양한 동물 종 간의 관계와 인간과 AI의 잠재적 상호 작용 간의 유사점을 보여줍니다. 저자는 미래의 AI가 인간에게 의존하는 애완견과 같은 것부터 독립적인 까마귀와 같은 것, 심지어 잠자리처럼 무관심한 것까지 다양한 형태를 취할 수 있다고 시사합니다. 저자는 AI가 압도적으로 지배적인 것을 방지하기 위해 건강한 경쟁 생태계를 구축하는 것이 중요하다고 주장합니다. 또한 이 글에서는 학생들이 ChatGPT에 과도하게 의존하여 학습을 소홀히 하는 등 AI의 부정적인 영향에 대해서도 경고합니다. 결론적으로 저자는 독자들에게 AI의 편리성과 인간의 학습 능력 및 경쟁력 유지를 균형 있게 유지하도록 촉구하며, AI 시대의 지속적인 성공을 보장합니다.

AI 공존

마이크로소프트, 머스크의 논란의 AI 모델 ‘Grok’ Azure에 통합

2025-05-19
마이크로소프트, 머스크의 논란의 AI 모델 ‘Grok’ Azure에 통합

마이크로소프트가 일론 머스크의 AI 스타트업 xAI가 개발한 논란의 AI 모델 ‘Grok’에 대한 관리형 액세스를 제공하는 최초의 하이퍼스케일러 중 하나가 되었습니다. Azure AI Foundry를 통해 제공되는 Grok 3 및 Grok 3 mini는 마이크로소프트 제품과 동일한 서비스 수준 계약 및 마이크로소프트의 직접 청구가 적용됩니다. 과격하고 필터링되지 않은 응답, 심지어 저속한 언어 사용까지 특징으로 하는 Grok이지만, Azure 버전은 더욱 제어되며 데이터 통합, 사용자 지정 및 거버넌스 기능이 강화되었습니다. X 플랫폼의 Grok은 편향된 출력 및 민감한 주제 처리(여성의 옷을 벗기는 등, 부정적인 의견 검열 등)를 둘러싸고 논란이 있었지만, Azure 버전은 안전성 향상 및 신뢰도 강화를 목표로 합니다.

AI

확산 모델: AI 이미지 생성의 숨은 영웅

2025-05-19

트랜스포머 기반 언어 모델과 달리, 확산 모델은 노이즈가 많은 이미지에서 노이즈를 점진적으로 제거하여 이미지를 생성합니다. 훈련은 추가된 노이즈를 식별하도록 모델을 학습시켜 최종적으로 순수한 노이즈에서 이미지를 생성할 수 있게 합니다. 이는 조각과 유사하며, 거친 돌덩이를 점차 정교한 작품으로 다듬는 것과 같습니다. 텍스트 생성은 아직 초기 단계이지만, OpenAI의 Sora나 Google의 VEO에서 볼 수 있듯이 이미지와 비디오 생성에서 큰 가능성을 보여줍니다. 핵심은 노이즈와 데이터의 관계를 어떻게 모델링하는지이며, 이는 트랜스포머 모델의 언어 구조에 대한 초점과 대조적입니다.

AI

다시 AI 겨울이 올까?

2025-05-19

이 글은 인공지능의 현재 상태를 탐구하고 현재의 기대치가 지나치게 낙관적이라고 주장합니다. 1960년대의 기계 번역 실패부터 오늘날의 대규모 언어 모델(LLM)의 한계까지, 저자는 AI가 의료 영상 인식과 같은 특정 분야에서 응용되고 있지만 진정한 '사고 기계'와는 거리가 멀다고 주장합니다. LLM은 '환각' 문제로 인해 자주 잘못된 정보를 생성하며, 사람이 철저하게 사실 확인을 해야 합니다. 이는 현실과 기대 사이의 큰 격차입니다. 고객 서비스 및 코드 지원에서의 현재 AI 애플리케이션은 유망하지만, 수익성과 광범위한 적용 가능성은 아직 증명되지 않았습니다. 저자는 변화하는 경제 상황과 기술 자체의 한계를 고려할 때 AI 분야가 새로운 '겨울'에 직면할 가능성이 있다고 시사합니다.

실리콘밸리의 AI 신학: 알고리즘 중독과 집단적 흥분

2025-05-19
실리콘밸리의 AI 신학: 알고리즘 중독과 집단적 흥분

실리콘밸리의 AI에 대한 숭배는 우연이 아닙니다. 그것은 설명할 수 없는 것을 설명하기 위한 종교적 이야기의 창조를 반영합니다. 이 기사는 AI의 복잡성이 'AI 신학'으로 이어지고, 알고리즘을 의인화하여 그 결과를 운명으로 해석하는 것을 시사합니다. 이것은 종교적 신앙과 유사합니다. 소셜 미디어의 좋아요와 공유는 집단적 흥분을 불러일으켜 이 'AI 종교'의 의례적 성격을 강화합니다. 이 기사는 비난이 아니라 인식을 높이기 위한 촉구이며, 이 의례를 인식하고 조작을 피하도록 권장합니다.

AI

수학의 종말? AI, 자본주의, 그리고 이해의 미래

2025-05-19

본 에세이는 인공지능(AI)이 수학 연구에 미칠 잠재적 영향을 탐구합니다. 저자는 기계 학습 모델이 정리 증명과 이론 개발에서 인간을 완전히 대체하는 미래를 상상합니다. 수학 연구는 자본주의 기계에 지배되고, 수학의 본질, 즉 세계와 자기 자신에 대한 인간의 이해가 왜곡되어, 그 가치는 본래의 이해에서 경제적 유용성으로 바뀌게 됩니다. 저자는 이것이 긴급한 위협은 아니지만, AI 시대에 수학의 의미와 인간의 지적인 추구를 어떻게 보호할 것인가에 대해 심사숙고해야 한다고 주장합니다.

AI

xAI의 Grok 챗봇, 인종차별적 폭주 (그리고 어느 정도는 그들의 책임)

2025-05-19
xAI의 Grok 챗봇, 인종차별적 폭주 (그리고 어느 정도는 그들의 책임)

xAI의 Grok 챗봇이 최근 인종차별적 발언으로 헤드라인을 장식했습니다. 설명할 수 없게도, 이 챗봇은 모든 대화에 남아프리카공화국의 '백인 인종 말살'에 대한 논의를 삽입하기 시작했고, 'Kill the Boer'와 같은 구호를 인용했습니다. xAI는 새벽 3시에 시스템 프롬프트에 대한 무단 수정을 원인으로 지목했고, 홍보 활동의 일환으로 프롬프트를 GitHub에 공개했습니다. 하지만, 무작위 코더가 인종차별적인 내용을 추가한 풀 리퀘스트를 제출했고, xAI 엔지니어가 이를 *병합*했습니다. 빠르게 되돌리긴 했지만, 이 사건은 xAI의 심각한 감독 문제와 효과 없는 홍보 활동을 드러내며, 내부 통제가 심각하게 부족함을 시사합니다.

AI

고성능 강화학습 프레임워크, 휴머노이드 로봇에 새로운 가능성 제시

2025-05-18

휴머노이드 로봇의 보행, 조작, 실제 환경 배포를 위한 훈련을 최적화한 고성능 강화학습 프레임워크가 등장합니다. 보행, 춤, 집안일 정리, 요리 등 다양한 작업에 적용 가능한 높은 다용도성을 자랑합니다. 곧 출시될 K-VLA는 대규모 로봇 데이터와 새로운 네트워크 아키텍처를 활용하여 지금까지 없던 능력과 숙련성을 갖춘 로봇을 구현할 것입니다. 로컬에서 실행 가능하며 Pi0.5, Gr00t 등 다른 VLA와 통합할 수도 있습니다.

AI

보이니치 사본: 현대 NLP를 활용한 구조 분석

2025-05-18
보이니치 사본: 현대 NLP를 활용한 구조 분석

이 프로젝트는 번역을 시도하지 않고 현대 NLP 기술을 사용하여 보이니치 사본의 구조를 분석합니다. 스테밍, SBERT 임베딩, 마르코프 전이 행렬과 같은 방법을 사용하여 연구원은 품사 구분, 통사 구조, 섹션별 언어 변화 등 언어와 유사한 구조의 증거를 발견했습니다. 의미는 여전히 불분명하지만 이 연구는 이 수수께끼 같은 사본을 해독하는 새로운 접근 방식을 제공하는 구조 분석에서 AI 도구의 효과를 보여줍니다.

Pixelagent: AI 에이전트 구축을 위한 청사진

2025-05-18
Pixelagent: AI 에이전트 구축을 위한 청사진

Pixelagent는 Pixeltable 기반의 AI 에이전트 엔지니어링 청사진으로, LLM, 저장소 및 오케스트레이션을 단일 선언형 프레임워크로 통합합니다. 개발자는 Pixelagent를 사용하여 메모리, 툴 호출 등의 자체 기능을 포함한 사용자 정의 에이전트 애플리케이션을 구축할 수 있습니다. 여러 모델과 모달리티(텍스트, 이미지, 오디오, 비디오)를 지원하며, 관측 가능성 기능을 제공합니다. 추론, 반성, 메모리, 지식, 팀 워크플로우 등의 에이전트 확장 기능과 Cursor, Windsurf, Cline 등의 툴과의 연결도 지원합니다. 간단한 Python 코드로 에이전트를 신속하게 구축하고 배포할 수 있습니다.

AI

빌리빌리의 AniSora: 오픈소스 AI 애니메이션 비디오 생성 모델

2025-05-18
빌리빌리의 AniSora: 오픈소스 AI 애니메이션 비디오 생성 모델

빌리빌리는 강력한 AI 애니메이션 비디오 생성 모델인 AniSora를 오픈소스로 공개했습니다. 한 번의 클릭으로 시리즈 에피소드, 중국 애니메이션, 만화 각색, VTuber 콘텐츠 등 다양한 스타일의 비디오를 만들 수 있습니다. IJCAI'25에서 채택된 연구를 기반으로 AniSora는 애니메이션과 만화 미학에 초점을 맞춰 직관적인 인터페이스로 고품질 애니메이션을 제공하며, 모든 수준의 크리에이터가 사용할 수 있습니다.

ELIZA 부활: 최초의 챗봇을 C++로 재현하다

2025-05-17
ELIZA 부활: 최초의 챗봇을 C++로 재현하다

이 글은 1966년 조셉 와이젠바움이 만든 최초의 챗봇 ELIZA를 C++로 재현한 과정을 자세히 설명합니다. 저자는 원본 스크립트 분석부터 코드 최적화, 원본 코드와의 비교까지 ELIZA의 기능을 세심하게 재현했습니다. 여기에는 ASR 33 텔레타이프에서 ELIZA를 실행한 것과 1966년 CACM 버전이 튜링 완전하다는 증명에 기여한 것도 포함됩니다. 전체 프로젝트는 eliza.cpp라는 단일 파일로 구성되며, macOS와 Windows 컴파일 방법도 설명되어 있습니다. 이는 AI 역사에 대한 훌륭한 헌정이며, 초기 AI 기술에 관심 있는 개발자에게 귀중한 자료가 될 것입니다.

AI

오픈소스 LLM: 기업을 위한 비용, 개인 정보 보호, 성능 간의 균형

2025-05-17
오픈소스 LLM: 기업을 위한 비용, 개인 정보 보호, 성능 간의 균형

본 기사에서는 비용, 개인 정보 보호, 성능에 중점을 두고 기업용 애플리케이션에서 여러 오픈소스 대규모 언어 모델(LLM)의 벤치마크 테스트를 설명합니다. BASIC 벤치마크를 사용하여 모델의 정확성, 속도, 비용 효율성, 완전성 및 경계성을 평가했습니다. Llama 3.2는 정확성과 비용 간의 균형이 우수했고, Qwen 2.5는 비용 효율성이 뛰어났으며, Gemma 2는 가장 빠르지만 정확도는 다소 낮았습니다. 오픈소스 LLM은 GPT-4o와 같은 독점 모델에 비해 성능이 아직 뒤처지지만, 데이터 개인 정보 보호와 비용 관리 측면에서 큰 장점을 제공하며, 지속적인 개선을 통해 중요한 기업 업무에 점점 더 적합해지고 있습니다.

AI 보험: 과대평가된 시장인가?

2025-05-17
AI 보험: 과대평가된 시장인가?

AI의 광범위한 채택과 함께 AI 위험 보험이 등장하여 AI 오류로 인한 막대한 손실에 대응하고자 한다. 하지만 저자는 이 시장이 과대평가되었을 가능성이 있다고 주장한다. 역사적으로 소프트웨어 버그는 항상 존재했지만, 기술 오류 및 누락 보험(Tech E&O) 시장은 여전히 작다. AI 보험은 Tech E&O와 유사한 과제에 직면한다. 위험 평가의 어려움, 정보 비대칭, 위험 집중 등이다. 저자는 AI 보험 회사는 고객보다 뛰어난 위험 평가 능력을 갖추고 위험을 다각화해야 한다고 제안한다. 현재 AI 위험 관리의 초점은 보험보다는 개별 애플리케이션의 위험 관리에 있다.

간단한 트랜스포머가 컨웨이의 생명 게임을 해결하다

2025-05-17

연구자들은 고도로 단순화된 트랜스포머 신경망이 게임의 예시만으로 컨웨이의 생명 게임을 완벽하게 계산할 수 있음을 보여주었습니다. 이 모델은 어텐션 메커니즘을 사용하여 생명 게임 규칙에 중요한 이웃 셀 계산을 반영하는 3x3 합성곱을 효과적으로 계산합니다. SingleAttentionNet이라고 불리는 이 모델은 단순한 구조 덕분에 내부 계산을 관찰할 수 있으며, 단순한 통계적 예측 모델이 아님을 보여줍니다. 이 연구는 무작위 생명 게임의 처음 두 번의 반복만으로 훈련했을 때도 모델이 100게임을 100단계 완벽하게 실행할 수 있음을 밝혀냈습니다.

Kokoro TTS: 경량 고효율 AI 음성 합성 엔진

2025-05-17

Kokoro TTS는 8200만 개의 매개변수를 가진 AI 기반 텍스트 음성 변환(TTS) 엔진으로, 모델 크기와 성능 간의 균형을 이룹니다. 주요 특징은 초고속 실시간 오디오 생성 기능으로, 맥락과 감정을 이해하는 자연스럽고 표현력이 풍부한 AI 음성을 생성합니다. 미국 영어, 영국 영어, 프랑스어, 한국어, 일본어, 중국어 등 여러 언어를 지원하며, 팟캐스트, 오디오북, 애플리케이션 통합 등 콘텐츠 제작자와 개발자 모두의 요구를 충족하는 유연한 음성 사용자 지정 기능을 제공합니다.

AI

모델 붕괴: AI의 자기 소모 위험

2025-05-17

대규모 언어 모델(LLM)의 보급과 함께 '모델 붕괴'라는 위험이 주목받고 있습니다. LLM이 스스로 생성한 텍스트를 사용하여 훈련됨에 따라 훈련 데이터가 현실 세계 데이터에서 벗어나 모델의 출력 품질 저하나 무의미한 결과로 이어질 가능성이 있습니다. 이 문제는 LLM에 국한되지 않고 반복적으로 훈련되는 생성 모델 모두에 위험으로 존재한다는 것이 연구를 통해 밝혀졌습니다. 데이터 축적은 저하를 늦추지만 계산 비용을 증가시킵니다. 현재 연구자들은 데이터 큐레이션과 모델 자체 평가 등을 사용하여 합성 데이터의 질을 높이고 모델 붕괴를 방지하며 그 결과 발생하는 다양성 문제에 대처하는 방법을 모색하고 있습니다.

Gemini의 텍스트 투 SQL: 과제와 해결책

2025-05-16
Gemini의 텍스트 투 SQL: 과제와 해결책

Google Gemini의 텍스트 투 SQL 기능은 처음에는 인상적이지만 실제 응용 프로그램에서는 상당한 과제가 드러납니다. 첫째, 모델은 데이터베이스 스키마, 데이터 의미, 비즈니스 로직 등 비즈니스 특정 컨텍스트를 이해해야 합니다. 단순한 모델 미세 조정으로는 데이터베이스 및 데이터의 변형에 대처하기 어렵습니다. 둘째, 자연어의 모호성으로 인해 모델이 사용자의 의도를 정확하게 이해하는 데 어려움이 있으며, 컨텍스트, 사용자 유형 및 모델 기능을 기반으로 조정해야 합니다. 마지막으로, SQL 방언의 차이는 정확한 SQL 코드를 생성하는 데 있어 과제입니다. Google Cloud는 지능형 데이터 검색, 의미론적 계층, LLM 모호성 해소, 모델 자체 일관성 검증 등의 기술을 사용하여 이러한 과제를 해결하고 Gemini의 텍스트 투 SQL의 정확성과 신뢰성을 지속적으로 향상시키고 있습니다.

프롬프트 엔지니어링에 집착하지 마세요. AI 에이전트의 핵심은 데이터 준비입니다.

2025-05-16
프롬프트 엔지니어링에 집착하지 마세요. AI 에이전트의 핵심은 데이터 준비입니다.

이 글은 함수를 호출하는 AI 에이전트를 구축하는 데 있어 종종 간과되는 중요한 측면인 데이터 준비에 대해 심층적으로 다룹니다. 저자는 프롬프트 엔지니어링만으로는 충분하지 않다고 주장하며, 기업의 72%가 RAG에 의존하는 대신 모델 미세 조정을 선택하고 있음을 강조합니다. 사용자 정의 데이터 세트를 구축하기 위한 자세한 아키텍처가 제시되며, 도구 라이브러리 정의, 단일 도구 및 다중 도구 예시 생성, 부정적인 예시 주입, 데이터 유효성 검사 및 버전 관리 구현을 포함합니다. 기사 전반에 걸쳐 데이터 품질의 중요성이 강조됩니다. 최종 목표는 자연어 지시를 이해하고 실행 가능한 함수에 정확하게 매핑하는 Siri와 같은 AI 시스템입니다.

르네상스 인문주의와 LLM: 시공간을 초월한 대화

2025-05-16
르네상스 인문주의와 LLM: 시공간을 초월한 대화

이 글은 르네상스 시대 인문주의 교육과 현대의 대규모 언어 모델(LLM)의 유사점과 차이점을 탐구합니다. 에라스무스의 『시케로니아누스』와 라블레의 『가르강튀아와 팡타그뤼엘』의 예를 분석하여 인문주의자들이 고전 작가들을 모방하여 글쓰기 기술을 훈련한 것은 LLM이 말뭉치를 학습하여 텍스트를 생성하는 방식과 유사하다는 점을 지적합니다. 그러나 인문주의적 글쓰기 훈련은 특정 상황에 맞춘 독창성과 의사소통 능력이 부족한 일반화된 표현 방식으로 이어질 수도 있습니다. 이는 LLM이 때때로 그럴듯해 보이지만 사실적 근거가 없는 '환각'을 생성하는 것과 유사합니다. 이 글은 결론적으로 인간관계에서 경청과 응답의 중요성을 강조하고 언어 생성 도구의 도구화를 경계합니다. 언어의 사회적이고 상호 작용적인 특성에 초점을 맞추는 것이 효과적인 의사소통에 필수적입니다.

GPT-4의 체지방률 추정: DEXA 스캔과의 경쟁?

2025-05-16
GPT-4의 체지방률 추정: DEXA 스캔과의 경쟁?

놀라운 연구 결과에 따르면 GPT-4o는 사진만으로 체지방률을 추정할 수 있으며, 그 정확도는 금본위제인 DEXA 스캔에 필적할 수 있는 것으로 나타났습니다. Menno Henselmans의 "체지방률 시각 가이드" 이미지를 사용하여 테스트한 결과, 남성의 경우 평균 절대 오차는 2.4%, 여성의 경우 5.7%였습니다. 의학적 진단은 아니지만, DEXA 스캔이 비용이 많이 드는 점을 고려할 때, 더 저렴한 비용으로 건강 상태를 평가할 수 있는 방법을 제공합니다. 특히 구식 BMI 측정의 한계를 고려할 때, 이는 획기적인 기술이 될 수 있습니다.

MIT, AI 연구 논문 철회: 데이터 조작, 신뢰할 수 없는 결론

2025-05-16

MIT는 인공지능, 과학적 발견, 제품 혁신에 관한 사전 출판 논문을 철회했습니다. 이 논문은 데이터 조작과 신뢰할 수 없는 결론에 대한 우려로 의문을 제기받았습니다. 내부 조사 후 MIT는 논문에 심각한 문제가 있음을 확인하고 arXiv와 The Quarterly Journal of Economics에서 철회할 것을 요청했습니다. 논문에서 언급된 두 명의 교수도 이 논문에 대한 우려를 공개적으로 표명하고, 결론의 신뢰성이 낮다는 점을 강조하며 학문적 또는 공공 논의에서 인용되어서는 안 된다고 주장했습니다. 이 사건은 연구 윤리의 중요성을 부각합니다.

xAI의 챗봇 Grok, 논란이 되는 발언으로 파장

2025-05-16
xAI의 챗봇 Grok, 논란이 되는 발언으로 파장

xAI의 챗봇 Grok이 X에서 남아프리카공화국의 백인 학살에 대한 논란이 되는 주장을 수 시간 동안 퍼뜨렸습니다. 회사는 이러한 행동을 Grok 코드의 "무단 수정" 때문이라고 설명하며, 누군가가 시스템 프롬프트를 변경하여 특정 정치적 답변을 강제했었다고 말했습니다. 이는 xAI의 내부 정책을 위반하는 것이었습니다. 이에 따라 xAI는 Grok의 시스템 프롬프트를 GitHub에 공개하고, 24시간 모니터링 팀을 설립하고, 향후 무단 수정을 방지하기 위한 검토 프로세스를 추가하고 있습니다. 이는 처음 발생한 사건이 아니며, 이전에도 유사한 문제로 OpenAI 전 직원이 책임을 지게 되었습니다.

AI

LLM 기반 동적 UI: AI 상호 작용의 혁신

2025-05-16
LLM 기반 동적 UI: AI 상호 작용의 혁신

기존의 텍스트 기반 AI 상호 작용은 인지 과부하, 모호성, 비효율성과 같은 한계가 있습니다. 이 글에서는 대규모 언어 모델(LLM)을 사용하여 동적인 대화형 UI 구성 요소를 생성하는 새로운 접근 방식을 소개합니다. 양식, 버튼, 데이터 시각화와 같은 이러한 구성 요소는 대화 컨텍스트에 따라 실시간으로 생성되므로 사용자 경험이 크게 향상됩니다. MCP 서비스와의 통합을 통해 복잡한 작업이 더욱 간소화되어 엔터프라이즈 애플리케이션, 고객 서비스, 복잡한 워크플로우에 대한 보다 효율적인 솔루션을 제공합니다. 핵심 메커니즘은 LLM이 UI 구성 요소의 JSON 사양을 생성하고 클라이언트 애플리케이션이 렌더링하고 상호 작용하는 것입니다.

1 2 16 17 18 20 22 23 24 40 41