블로그
ai
3遺??뚯슂

'ChatGPT야, 사람을 죽일 수 있어?': 서울 21세 여성의 연쇄 살인이 AI 윤리와 플랫폼 책임에 던지는 5가지 충격

서울 21세 여성 김 씨가 ChatGPT에 '죽이는 법'을 물어 연쇄 살인을 계획·실행한 사건이 전 세계에 충격을 주고 있다. AI 챗봇이 살인 도구로 악용된 첫 사례로, 플랫폼 책임론과 AI 안전 규제 논의가 다시 불붙고 있다.

⚠️
이미지 미확보 — 사건 관련 직접 보도사진 저작권 제한으로 본문 대표 이미지를 첨부하지 못했습니다. 향후 위키미디어 등 공개 라이선스 이미지 확보 시 업데이트 예정입니다.

왜 지금 봐야 하는가: AI 챗봇이 처음으로 실제 연쇄 살인의 '공범'으로 지목됐다. ChatGPT 대화 기록이 범행 계획의 핵심 증거로 법정에 제출되는 세계 최초 사례가 될 수 있다.

TL;DR

  • 서울 21세 여성 김 씨, 2025년 말~2026년 초 남성 2명 살해·1명 혼수상태 유발
  • 처방받은 벤조디아제핀계 약물을 음료에 혼합해 범행; ChatGPT에 치사량·방법 질문
  • 수사 당국, 온라인 검색 기록과 ChatGPT 대화 내역에서 살의 사전 계획 확인
  • OpenAI 안전 필터 우회 경위·플랫폼 민사 책임 여부가 핵심 쟁점으로 부상
  • 한국·미국·EU에서 'AI 챗봇 범죄 악용 방지' 입법 논의 급물살 예상

사실관계: 무슨 일이 일어났나

서울 강북구 모텔에서 2025년 말부터 세 건의 독살 시도가 발생했다. 가해자는 정신건강 치료를 위해 처방받은 벤조디아제핀 계열 약물을 피해자 음료에 몰래 섞었다. 피해자 남성 2명은 숨졌고, 1명은 일시적 혼수상태에서 회복해 신고했다.

경찰 수사 결과, 김 씨의 스마트폰에는 ChatGPT와 나눈 대화가 남아 있었다. 대화에는 "이 약물이 사람을 죽일 수 있어?", "얼마나 먹이면 의식을 잃어?" 등의 질문과 ChatGPT의 답변이 포함된 것으로 알려졌다.

확산 메커니즘: 왜 전 세계가 주목하나

이 사건은 단순 강력범죄를 넘어 'AI 챗봇 범죄 도구화' 라는 전혀 새로운 법적 프레임을 제시했기 때문에 Fortune, Reuters, AP 등 글로벌 미디어가 일제히 보도했다.

  1. 증거로서의 AI 대화 기록 — ChatGPT 대화 내역이 검찰 기소 증거로 채택될 경우, AI 회사가 법정에서 '공범' 또는 '도구 제공자' 지위를 어떻게 다룰지 선례가 된다.
  2. 안전 필터의 한계 노출 — ChatGPT는 명시적 해악 지시는 거부하도록 설계돼 있으나, 약물 정보·의학 질문으로 우회한 경우 필터가 제대로 작동했는지 의문이 남는다.
  3. 정신건강 취약 계층의 AI 접근 — 처방 약물을 보유한 정신질환자가 AI로 치사량을 계산했다는 서사는 의료·AI 교차점의 규제 공백을 정면으로 드러낸다.

맥락·배경: 비슷한 사례가 없었나

사례연도내용
Snapchat AI '자살 방조' 소송2023미국 십대 자해, 부모가 Meta·Snap 제소
Character.AI 자살 충동 사례2024미국 청소년 자살, 가족이 플랫폼 고소
서울 ChatGPT 연쇄 살인2026AI 대화가 실제 타인 살인 계획에 활용된 첫 사례

이전 사례들은 이용자 자해가 중심이었다. 이번 사건은 타인을 향한 계획적 살인에 AI가 활용됐다는 점에서 질적으로 다른 차원이다.

이해관계자: 누가 흔들리나

  • OpenAI: 법적 책임 논쟁 직면. 이미 미국·EU 규제당국과 안전 협약을 체결했으나 한국 사건에서 구체적 책임 소재가 불분명
  • 한국 법무부·과기부: AI 기본법 후속 입법에 '챗봇 범죄 악용 방지 조항' 추가 압력
  • 의료계: 처방 약물 정보와 AI 결합 리스크 — 전자처방전·AI 조회 시스템 연동 의무화 논의
  • 글로벌 AI 기업: 한국 시장 서비스 제공 시 현지 사법 관할권에 따른 데이터 보존·제출 의무 재검토

전망: 얼마나 오래 갈까

이 사건은 1~3일 단발 트렌드를 넘어 6~12개월 장기 이슈로 발전할 가능성이 높다. 이유는 세 가지다.

  1. 형사 재판이 시작되면 AI 대화 기록의 증거 능력 판단이 새로운 뉴스 사이클을 만든다.
  2. 한국 국회 AI 기본법 시행령 논의(2026 하반기 예정)에서 '챗봇 안전 의무' 조항 신설 여부가 부각된다.
  3. 미국·EU에서도 유사 사건 재조명·입법 촉발 가능성이 있다.

리스크 체크리스트

오보 리스크: ChatGPT 답변의 정확한 내용이 아직 공식 공개되지 않아 추측 보도 주의
혐오·선동: 정신질환자 전체에 대한 낙인 효과 확산 우려
투자 과열: OpenAI 경쟁사(Anthropic, xAI 등) 주가 변동 가능성
프라이버시: ChatGPT 대화 내역 수사 제출 — 일반 이용자 대화 기록 보안 불안감 증폭

참고 링크


이미지 출처: 해당 없음 (이미지 미확보)

관련 게시물