강화 학습: 2025년 에이전트 AI 부상의 원동력

2025-06-28
강화 학습: 2025년 에이전트 AI 부상의 원동력

2023년에 등장한 BabyAGI나 AutoGPT와 같은 에이전트 AI는 초기에는 주목을 받았지만, 대규모 언어 모델(LLM)이 다단계 추론에 어려움을 겪으면서 실패로 끝났습니다. 하지만 2024년 중반 상황이 역전되었습니다. 강화 학습의 발전으로 복잡한 다단계 작업을 지속적으로 수행할 수 있는 새로운 세대의 에이전트 AI가 등장했습니다. Bolt.new와 같은 코드 생성 도구나 Anthropic의 Claude 3.5 Sonnet이 그 예입니다. 강화 학습은 시행착오를 통한 모델 훈련을 통해 모방 학습에 내재된 누적 오류 문제를 극복하여 모델이 알 수 없는 데이터에 대해서도 견고성을 유지할 수 있도록 합니다. OpenAI의 RLHF나 Anthropic의 Constitutional AI와 같은 기술은 피드백 자동화를 통해 강화 학습의 효율성을 더욱 높입니다. DeepSeek의 R1 모델은 강화 학습을 통해 모델이 추론 능력을 스스로 학습하는 놀라운 가능성을 보여주었습니다. 요약하자면, 강화 학습의 발전은 2025년 에이전트 AI의 급성장을 뒷받침하는 중요한 원동력입니다.

더 보기
AI

Meta의 Llama 3.1 모델, 저작권이 있는 책의 상당 부분을 기억하는 것으로 밝혀져

2025-06-15
Meta의 Llama 3.1 모델, 저작권이 있는 책의 상당 부분을 기억하는 것으로 밝혀져

새로운 연구에 따르면 Meta의 Llama 3.1 70B 대규모 언어 모델은 저작권이 있는 책의 상당 부분을 놀라울 정도로 기억하고 있으며, "해리 포터와 마법사의 돌"의 42%를 기억하고 있는 것으로 나타났습니다. 이는 이전 모델인 Llama 1 65B보다 훨씬 많으며 심각한 저작권 문제를 야기합니다. 연구자들은 많은 양의 텍스트를 생성하는 대신 특정 텍스트 시퀀스를 생성할 확률을 계산하여 모델의 "기억"을 효율적으로 평가했습니다. 이 발견은 Meta에 대한 저작권 소송에 큰 영향을 미칠 수 있으며, 법원이 AI 모델 훈련에서의 공정 이용의 경계를 재검토하게 할 수 있습니다. 모델은 인기 없는 책은 그다지 기억하지 못했지만, 인기 있는 책을 과도하게 기억하는 것은 대규모 언어 모델의 저작권 문제에 대한 과제를 보여줍니다.

더 보기
AI

과학에서의 AI 과대 광고: 물리학자의 환멸

2025-05-20
과학에서의 AI 과대 광고: 물리학자의 환멸

프린스턴 대학교에서 물리학 박사 학위를 받은 닉 맥그리비는 AI를 물리학 연구에 적용한 경험을 공유합니다. 처음에는 AI가 연구를 가속화할 가능성에 대해 낙관적이었지만, 실제로는 AI 방법이 광고된 것만큼 효과적이지 않았고, 많은 논문이 AI의 장점을 과장하고 데이터 유출과 같은 문제를 안고 있는 것으로 나타났습니다. 그는 과학에서 AI의 급속한 확산이 진정한 연구 효율성 향상 때문이 아니라, AI가 과학자들에게 가져다주는 높은 연봉과 명성 같은 이점 때문이라고 주장합니다. 그는 더욱 엄격한 AI 평가 방법을 요구하며 AI 연구에서의 낙관적 편향에 대해 경고합니다.

더 보기
AI

Waymo 자율주행차 사고 분석: 진짜 범인은 인간일까?

2025-03-26
Waymo 자율주행차 사고 분석: 진짜 범인은 인간일까?

본 기사는 2024년 7월부터 2025년 2월까지 발생한 Waymo 자율주행차 관련 38건의 심각한 사고를 분석합니다. 놀랍게도 이 사고의 대부분은 Waymo 차량 자체가 아닌, 과속이나 신호 위반 등 다른 차량의 위험한 운전이 원인이었습니다. Waymo의 데이터에 따르면 자율주행차의 사고 발생률은 인간 운전자보다 훨씬 낮습니다. 모든 사고가 Waymo의 책임이라고 해도, 안전 기록은 인간 운전자보다 훨씬 우수합니다. 인간 운전과 비교했을 때, Waymo는 사고, 특히 부상으로 이어지는 사고 감소에 있어 상당한 진전을 이루었습니다.

더 보기
AI