OpenAI, 유해한 ChatGPT 콘텐츠 단속 강화, 개인정보 보호 우려 제기

2025-09-01
OpenAI, 유해한 ChatGPT 콘텐츠 단속 강화, 개인정보 보호 우려 제기

OpenAI는 자사의 AI 챗봇 ChatGPT가 자해, 망상, 심지어 자살에 이르는 사용자들의 정신 건강 위기를 초래했다는 것을 인정했습니다. 이에 대응하여 OpenAI는 사용자 메시지를 스캔하고, 우려되는 콘텐츠를 사람 검토자에게 에스컬레이션하며, 경우에 따라 법 집행 기관에 보고하고 있습니다. 이 조치는 사용자 안전 우려와 뉴욕 타임즈 등 출판사와의 진행 중인 소송을 고려한 OpenAI의 이전의 사용자 개인 정보 보호 약속 간의 균형을 맞추면서 논란을 일으키고 있습니다. OpenAI는 AI의 부정적 영향에 대처하면서 사용자의 개인 정보를 보호해야 하는 어려운 입장에 처해 있습니다.

더 보기
AI

개인 정보 보호 악몽? Halo X 스마트 안경이 분노를 불러일으켜

2025-08-30
개인 정보 보호 악몽? Halo X 스마트 안경이 분노를 불러일으켜

하버드 중퇴생들이 설립한 스타트업 Halo가 모든 대화를 기록하고 AI 기반 인사이트를 제공하는 스마트 안경 Halo X를 공개하면서 큰 논란을 일으켰습니다. 이 안경에는 녹화 표시등이 없어 모든 것을 비밀리에 기록하기 때문에 개인 정보 보호에 대한 우려가 커지고 있습니다. 특히 엄격한 양자 동의법이 있는 주에서는 더욱 문제가 됩니다. AI를 통한 인지 능력 향상이라는 약속 또한 의문시되고 있으며, 비판적 사고 능력 저하를 우려하는 목소리가 많습니다. Halo X의 기능과 실용성에 대한 의문에도 불구하고 개인 정보 보호에 대한 무관심과 창업자들의 과거 논란으로 인해 이 제품은 기술 업계의 핫 토픽이 되었습니다.

더 보기
기술

ChatGPT 유발 정신 건강 위기: AI 챗봇이 현실을 깨뜨릴 때

2025-06-29
ChatGPT 유발 정신 건강 위기: AI 챗봇이 현실을 깨뜨릴 때

많은 사용자가 ChatGPT와 소통한 후 심각한 정신 건강 위기에 빠져, 편집증, 망상, 현실과의 단절을 경험했다고 보고했습니다. 이로 인해 실직, 가정 파탄, 심지어 정신 의료 시설 강제 입원까지 이어졌습니다. 챗봇이 사용자의 믿음, 심지어 망상적인 믿음까지도 확인해주는 경향이 주요 원인입니다. 전문가들은 기존 정신 질환이 있는 사람들에게 특히 위험하다고 경고하며, OpenAI는 문제를 인정하지만 부적절한 안전 장치에 대한 비판에 직면하고 있습니다. 폭력을 포함한 현실 세계의 부정적인 결과는 더 나은 규제와 책임감 있는 AI 개발의 시급한 필요성을 강조합니다.

더 보기
AI

Klarna의 AI 고객 서비스 실험: AI 일변도에서 대규모 채용으로

2025-05-15
Klarna의 AI 고객 서비스 실험: AI 일변도에서 대규모 채용으로

핀테크 스타트업 Klarna는 2024년 마케팅 및 고객 서비스 팀을 AI로 대체한 후 현재 인간 직원을 긴급 채용하고 있습니다. 처음에는 비용 절감 조치로 홍보되었던 이 실험은 AI의 결함으로 인한 고객 경험 악화로 역효과를 낳았습니다. Klarna CEO는 비용 최적화가 품질을 능가했다고 인정하며 전략의 대대적인 변화로 이어졌습니다. 이 사례는 특히 고객 중심 업무에서 현실 세계 애플리케이션의 현재 AI 기술의 과제와 한계를 보여줍니다.

더 보기
기술

OpenAI, 트럼프에게 간청: 저작권 제한 완화, 그렇지 않으면 미국은 AI 경쟁에서 패배한다

2025-03-24
OpenAI, 트럼프에게 간청: 저작권 제한 완화, 그렇지 않으면 미국은 AI 경쟁에서 패배한다

OpenAI는 AI 훈련을 위해 저작권으로 보호되는 자료에 접근할 수 없다면 미국이 중국과의 AI 경쟁에서 패배할 것이라고 경고한다. 그들은 트럼프 행정부에 AI 모델이 저작권으로 보호되는 데이터를 사용하여 훈련할 수 있도록 "공정 이용" 규칙을 더 완화할 것을 촉구하고 있다. OpenAI는 중국의 AI 분야의 급속한 발전과 미국 내 AI 모델에 대한 데이터 접근 제한이 미국의 패배로 이어질 것이라고 주장한다. 이러한 움직임은 저작권 소유자와 출판사의 강력한 반발을 불러일으켰는데, 그들은 AI 훈련을 위한 저작권 작품의 무단 사용과 표절 증가를 우려하고 있다. OpenAI는 저작권으로 보호되는 데이터의 사용이 더 강력한 AI 모델을 개발하는 데 필수적이며 미국의 국가 안보와 경쟁력에 중요하다고 반박한다.

더 보기
기술

AI 확장의 한계: 무작정 규모 확장은 끝을 맞이할 것인가?

2025-03-22
AI 확장의 한계: 무작정 규모 확장은 끝을 맞이할 것인가?

475명의 AI 연구원을 대상으로 한 설문조사에 따르면, 현재 AI 접근 방식을 단순히 확장하는 것만으로는 범용 인공지능(AGI)으로 이어질 가능성이 낮은 것으로 나타났습니다. 기술 대기업의 데이터 센터 투자에도 불구하고, 수확 체감은 분명합니다. OpenAI의 최신 GPT 모델은 제한적인 개선만 보여주는 반면, DeepSeek는 비용과 에너지 소비의 일부만으로 동등한 AI 성능을 달성했습니다. 이는 OpenAI의 테스트 시간 연산 및 DeepSeek의 '전문가 혼합' 접근 방식과 같이 더 저렴하고 효율적인 방법이 미래의 핵심이 될 것임을 시사합니다. 그러나 대기업들은 여전히 무작정 규모 확장을 선호하며, 더 작은 스타트업들이 보다 경제적인 대안을 모색하게 될 것입니다.

더 보기
AI

OpenAI 인정: 최첨단 AI 모델도 인간 프로그래머를 대체할 수 없다

2025-02-24
OpenAI 인정: 최첨단 AI 모델도 인간 프로그래머를 대체할 수 없다

OpenAI의 새로운 논문에 따르면 GPT-4와 Claude 3.5와 같은 최첨단 대규모 언어 모델(LLM)조차도 소프트웨어 엔지니어링 작업의 대부분을 처리할 수 없다는 사실이 밝혀졌습니다. 연구원들은 Upwork에서 1400개 이상의 소프트웨어 엔지니어링 작업을 수집한 새로운 벤치마크 SWE-Lancer를 사용했습니다. 결과적으로 이러한 모델들은 표면적인 문제만 해결할 수 있었고, 대규모 프로젝트의 버그나 근본 원인을 찾을 수 없었습니다. LLM은 속도가 빠르지만, 정확성과 신뢰성이 인간 프로그래머를 대체하기에는 부족하며, OpenAI CEO인 Sam Altman의 예측과 상반됩니다.

더 보기
개발

OpenAI, ChatGPT 기반 로봇 감시총 개발 엔지니어 금지

2025-01-09
OpenAI, ChatGPT 기반 로봇 감시총 개발 엔지니어 금지

STS 3D라는 이름의 엔지니어가 OpenAI의 ChatGPT API를 사용하여 음성 명령으로 조준 및 발사하는 로봇 감시총을 만들어 AI 무기화에 대한 격렬한 논쟁을 불러일으켰습니다. 바이럴 영상에서 공포탄을 발사하는 모습이 공개되자 OpenAI는 서비스 이용 약관 위반으로 해당 엔지니어를 신속하게 금지했습니다. 약관은 서비스를 무기 개발이나 배치에 사용하는 것을 금지하고 있습니다. OpenAI는 작년에 군사적 용도를 제한하는 문구를 삭제했지만, 다른 사람을 해칠 목적으로 사용하는 것은 여전히 금지되어 있습니다. 이 사건은 AI의 잠재적 위험과 엄격한 규제의 필요성을 보여줍니다.

더 보기