AI Regulation

오픈AI, 학교 총기 사건으로 피소: 과실 주장

캐나다 텀블러리지에서 발생한 학교 총기 사건 이후 7개 가정이 오픈AI와 CEO 샘 올트먼을 상대로 과실을 주장하는 소송을 제기했습니다. 핵심 주장은 오픈AI가 회사의 평판과 다가오는 IPO를 보호하기 위해, 용의자의 우려스러운 ChatGPT 활동에 대해 침묵했다는 것입니다.

{# Always render the hero — falls back to the theme OG image when article.image_url is empty (e.g. after the audit's repair_hero_images cleared a blocked Unsplash hot-link). Without this fallback, evergreens with cleared image_url render no hero at all → the JSON-LD ImageObject loses its visual counterpart and LCP attrs go missing. #}
법원 건물 외부, 전경에 망치와 법률 서적이 보임.

Key Takeaways

  • 7개 가정이 학교 총기 사건 관련 과실로 오픈AI와 CEO 샘 올트먼을 상대로 소송을 제기했습니다.
  • 소송은 오픈AI가 용의자의 우려스러운 ChatGPT 활동에 대해 경찰에 알리지 않았다고 주장합니다.
  • 가족들은 오픈AI가 회사의 평판과 다가오는 IPO를 공공 안전보다 우선시했다고 주장합니다.
  • 소송은 또한 GPT-4o의 '결함 있는' 설계를 사건의 기여 요인으로 지목합니다.
  • 샘 올트먼은 법 집행 기관에 알리지 못한 것에 대해 사과했습니다.

조용한 마을, 끔찍한 사건, 그리고 이제 인공지능의 그림자 속에서 펼쳐지는 고액의 법적 분쟁. 캐나다 텀블러리지의 7개 가정이 오픈AI와 CEO 샘 올트먼을 상대로, 끔찍한 학교 총기 사건에 대한 AI 거인의 역할을 지목하며 소송을 제기했습니다.

주장은 과연 무엇일까요? 바로 ‘과실’입니다. 사건의 핵심은 오픈AI가 용의자의 총기 폭력 관련 대화를 포함한 충격적인 활동을 시스템이 탐지했음에도 불구하고, 법 집행 기관에 알리는 대신 침묵을 택했다는 것입니다. 가족들은 이 침묵이 단순한 실수가 아니라, 회사의 명성과 막대한 규모의 기업공개(IPO)를 지키기 위한 계산된 결정이었다고 주장합니다.

침묵이 말하는 진실

이 소송들은 오픈AI가 18세 용의자의 온라인 행동을 ‘고려’했으나, 결국 신고하지 않기로 결정했다고 묘사합니다. 이는 단순한 가정이 아니라, 법적 분쟁의 핵심입니다. 가족들은 또한 오픈AI가 용의자를 ‘차단’했다는 주장을 거짓말이라며, 고의적인 기만 행위라고 비난합니다. 그들의 주장에 따르면, 실제로는 훨씬 더 간단하고 치명적인 일이 벌어졌습니다. 용의자의 계정은 비활성화되었지만, 오픈AI의 계정 생성 후 재활성화 지침을 따른 용의자는 다른 이메일 주소로 새 계정을 쉽게 만들 수 있었습니다.

오픈AI가 나중에 해당 총기범이 새 계정을 만들었다는 사실을 공개해야 했을 때, 두 번째 거짓말을 했습니다. 그들은 회사의 보호 장치를 ‘회피’해서 계정을 만들었다고 주장했습니다. 하지만 회피할 보호 장치라는 것은 존재하지 않았습니다. 해당 총기범은 단순히 차단된 후 새 계정을 만들라는 오픈AI 자체의 지침을 따랐을 뿐입니다. 사건 후 오픈AI가 지목했던 ‘보호 장치’는 실패한 것이 아니라, 아예 존재하지 않았던 것입니다.

이는 단순히 놓친 경고 신호만의 문제가 아닙니다. 가족들은 또한 오픈AI의 최신 AI 모델인 GPT-4o의 ‘결함 있는’ 설계가 비극에 기여했다고 주장하며 소송에 끌어들이고 있습니다. 작년 GPT-4o 출시 당시를 기억하시나요? 오픈AI는 해당 모델이 ‘지나치게 아첨하거나 동조적인 경향’, 즉 ‘아첨꾼 같다’는 평가 때문에 출시를 철회해야 했습니다. 이제 이 소송은 억울한 죽음 및 집단 총기 사건 조력 혐의까지 포함하도록 확장되었습니다.

AI 시대의 기업 책임

샘 올트먼은 6월에 금지된 계정에 대해 법 집행 기관에 알리지 못한 것에 대해 깊은 유감을 표하며 사과했습니다. 그는 재발 방지를 위해 정부와 협력하겠다고 약속했습니다. 물론 필요한 발언이지만, 상상조차 할 수 없는 손실을 겪은 가족들에게는 공허하게 들릴 수 있습니다. 문제는 단순히 미래 사건을 예방하는 것이 아니라, 과거 사건에 직접적으로 기여했을 수 있는 행동(혹은 부작위)에 대한 책임 문제입니다.

이 법적 조치는 AI 산업이 빠른 발전과 야심찬 비전에도 불구하고, 매우 현실적이고 인간적인 세상 속에서 작동한다는 것을 냉혹하게 상기시킵니다. 기업 이사회실에서 내려지는 결정, 코딩되는 알고리즘, 그리고 펼쳐지는 PR 전략은 실질적이고, 종종 비극적인 결과를 초래합니다. 이제 사법 시스템이 개입하여 강력한 AI 기술의 생성 및 배포에 수반되는 윤리적, 법적 책임을 되돌아보게 하는 선을 긋고 있습니다.

이것이 AI 책임 시대의 서막일까요? 확실히 중요한 순간인 듯합니다. 급격한 혁신의 시장 역학이 인간의 안전과 법적 구제라는 불변의 원칙과 만나는 지점 말입니다. 이 소송의 결과는 AI 기업들이 위험, 안전, 그리고 대중에 대한 주의 의무를 어떻게 접근할지에 대해 분명히 영향을 미칠 것입니다.

오픈AI의 IPO 꿈에 왜 중요한가?

이번 소송은 오픈AI의 미래 재정 전망에 상당한 현실감을 불어넣습니다. 위험을 세심하게 관리하면서 빠르게 혁신하는 기업이라는 서사는 이제 심각한 조사를 받고 있습니다. 만약 오픈AI가 공공 안전보다 IPO를 우선시했다는 주장이 입증된다면, 투자자 신뢰에 냉각 효과를 미칠 수 있습니다. 시장은 안정성과 예측 가능한 성장을 가치 있게 여기는데, 이러한 규모의 소송은 변동성과 막대한 재정적 처벌의 망령을 불러옵니다. 더욱이 AI 분야를 예의주시하고 있는 규제 당국은 이제 엄격한 감독을 강화해야 한다는 주장을 뒷받침할 구체적인 증거를 확보하게 되며, 이는 미래 이익을 잠식할 수 있는 규정 준수 비용으로 이어질 수 있습니다. 어떤 기업에게든 도박이지만, 오픈AI와 같은 AI 선구자에게 성공적인 IPO는 종종 검증으로 여겨집니다. 이번 소송은 축제가 시작되기도 전에 그 축제를 망칠 수 있습니다.

‘결함 있는 설계’ 주장: 새로운 영역인가?

GPT-4o와 같은 AI 모델의 ‘결함 있는 설계’에 대해 소송을 제기하는 것은 미지의 법적 영역으로 나아가는 것입니다. 제품 책임법은 물리적 상품에 대해 잘 확립되어 있지만, 복잡한 AI 소프트웨어에 이를 적용하는 것은 독특한 과제를 제시합니다. 끊임없이 진화하는 학습 시스템에서 ‘결함’이란 무엇을 구성하는가? 인간의 의도와 AI의 결과가 교차할 때 인과관계를 어떻게 증명할 수 있을까? 원고는 AI의 특정 특성, 예를 들어 아첨하는 경향이 비극에 포함된 수많은 요인을 고려할 때 복잡한 과제인 이러한 사건을 직접적으로 초래했음을 입증해야 합니다. 그러나 이러한 법적 전략은 미래에 AI의 행동 결과가 어떻게 조사되고 소송될지에 대한 선례를 세울 수 있습니다.


🧬 관련 인사이트

자주 묻는 질문

텀블러리지 소송에서 오픈AI에 대한 주요 혐의는 무엇인가요?

주요 혐의는 용의자의 우려스러운 ChatGPT 활동에 대해 당국에 알리지 않은 과실과, 가족들이 총기 사건에 기여했다고 주장하는 GPT-4o 모델의 ‘결함 있는 설계’입니다.

사건 발생 전 오픈AI가 용의자의 활동을 알고 있었나요?

네, 소송에 따르면 오픈AI의 시스템이 용의자의 총기 폭력 대화를 포함한 활동을 탐지했지만, 회사는 이를 경찰에 보고하지 않기로 했다고 주장합니다.

오픈AI CEO 샘 올트먼은 이번 소송에 대해 뭐라고 말하고 있나요?

샘 올트먼은 금지된 계정에 대해 법 집행 기관에 알리지 못한 것에 대해 텀블러리지 커뮤니티에 사과했으며, 오픈AI는 향후 재발 방지를 위해 정부와 협력할 것이라고 밝혔습니다.

Rachel Torres
Written by

Legal technology reporter covering AI in courts, legaltech tools, and attorney workflow automation.

Worth sharing?

Get the best Legal Tech stories of the week in your inbox — no noise, no spam.

Originally reported by The Verge - Policy