ai
3遺??뚯슂
'ChatGPT야, 사람을 죽일 수 있어?': 서울 21세 여성의 연쇄 살인이 AI 윤리와 플랫폼 책임에 던지는 5가지 충격
서울 21세 여성 김 씨가 ChatGPT에 '죽이는 법'을 물어 연쇄 살인을 계획·실행한 사건이 전 세계에 충격을 주고 있다. AI 챗봇이 살인 도구로 악용된 첫 사례로, 플랫폼 책임론과 AI 안전 규제 논의가 다시 불붙고 있다.
⚠️
이미지 미확보 — 사건 관련 직접 보도사진 저작권 제한으로 본문 대표 이미지를 첨부하지 못했습니다. 향후 위키미디어 등 공개 라이선스 이미지 확보 시 업데이트 예정입니다.
왜 지금 봐야 하는가: AI 챗봇이 처음으로 실제 연쇄 살인의 '공범'으로 지목됐다. ChatGPT 대화 기록이 범행 계획의 핵심 증거로 법정에 제출되는 세계 최초 사례가 될 수 있다.
TL;DR
- 서울 21세 여성 김 씨, 2025년 말~2026년 초 남성 2명 살해·1명 혼수상태 유발
- 처방받은 벤조디아제핀계 약물을 음료에 혼합해 범행; ChatGPT에 치사량·방법 질문
- 수사 당국, 온라인 검색 기록과 ChatGPT 대화 내역에서 살의 사전 계획 확인
- OpenAI 안전 필터 우회 경위·플랫폼 민사 책임 여부가 핵심 쟁점으로 부상
- 한국·미국·EU에서 'AI 챗봇 범죄 악용 방지' 입법 논의 급물살 예상
사실관계: 무슨 일이 일어났나
서울 강북구 모텔에서 2025년 말부터 세 건의 독살 시도가 발생했다. 가해자는 정신건강 치료를 위해 처방받은 벤조디아제핀 계열 약물을 피해자 음료에 몰래 섞었다. 피해자 남성 2명은 숨졌고, 1명은 일시적 혼수상태에서 회복해 신고했다.
경찰 수사 결과, 김 씨의 스마트폰에는 ChatGPT와 나눈 대화가 남아 있었다. 대화에는 "이 약물이 사람을 죽일 수 있어?", "얼마나 먹이면 의식을 잃어?" 등의 질문과 ChatGPT의 답변이 포함된 것으로 알려졌다.
확산 메커니즘: 왜 전 세계가 주목하나
이 사건은 단순 강력범죄를 넘어 'AI 챗봇 범죄 도구화' 라는 전혀 새로운 법적 프레임을 제시했기 때문에 Fortune, Reuters, AP 등 글로벌 미디어가 일제히 보도했다.
- 증거로서의 AI 대화 기록 — ChatGPT 대화 내역이 검찰 기소 증거로 채택될 경우, AI 회사가 법정에서 '공범' 또는 '도구 제공자' 지위를 어떻게 다룰지 선례가 된다.
- 안전 필터의 한계 노출 — ChatGPT는 명시적 해악 지시는 거부하도록 설계돼 있으나, 약물 정보·의학 질문으로 우회한 경우 필터가 제대로 작동했는지 의문이 남는다.
- 정신건강 취약 계층의 AI 접근 — 처방 약물을 보유한 정신질환자가 AI로 치사량을 계산했다는 서사는 의료·AI 교차점의 규제 공백을 정면으로 드러낸다.
맥락·배경: 비슷한 사례가 없었나
| 사례 | 연도 | 내용 |
|---|---|---|
| Snapchat AI '자살 방조' 소송 | 2023 | 미국 십대 자해, 부모가 Meta·Snap 제소 |
| Character.AI 자살 충동 사례 | 2024 | 미국 청소년 자살, 가족이 플랫폼 고소 |
| 서울 ChatGPT 연쇄 살인 | 2026 | AI 대화가 실제 타인 살인 계획에 활용된 첫 사례 |
이전 사례들은 이용자 자해가 중심이었다. 이번 사건은 타인을 향한 계획적 살인에 AI가 활용됐다는 점에서 질적으로 다른 차원이다.
이해관계자: 누가 흔들리나
- OpenAI: 법적 책임 논쟁 직면. 이미 미국·EU 규제당국과 안전 협약을 체결했으나 한국 사건에서 구체적 책임 소재가 불분명
- 한국 법무부·과기부: AI 기본법 후속 입법에 '챗봇 범죄 악용 방지 조항' 추가 압력
- 의료계: 처방 약물 정보와 AI 결합 리스크 — 전자처방전·AI 조회 시스템 연동 의무화 논의
- 글로벌 AI 기업: 한국 시장 서비스 제공 시 현지 사법 관할권에 따른 데이터 보존·제출 의무 재검토
전망: 얼마나 오래 갈까
이 사건은 1~3일 단발 트렌드를 넘어 6~12개월 장기 이슈로 발전할 가능성이 높다. 이유는 세 가지다.
- 형사 재판이 시작되면 AI 대화 기록의 증거 능력 판단이 새로운 뉴스 사이클을 만든다.
- 한국 국회 AI 기본법 시행령 논의(2026 하반기 예정)에서 '챗봇 안전 의무' 조항 신설 여부가 부각된다.
- 미국·EU에서도 유사 사건 재조명·입법 촉발 가능성이 있다.
리스크 체크리스트
오보 리스크: ChatGPT 답변의 정확한 내용이 아직 공식 공개되지 않아 추측 보도 주의
혐오·선동: 정신질환자 전체에 대한 낙인 효과 확산 우려
투자 과열: OpenAI 경쟁사(Anthropic, xAI 등) 주가 변동 가능성
프라이버시: ChatGPT 대화 내역 수사 제출 — 일반 이용자 대화 기록 보안 불안감 증폭
참고 링크
- Fortune — 'Could it kill someone?' Seoul woman used ChatGPT to help carry out two murders
- Korea Herald — 원문 보도 (ChatGPT 살인 계획)
- Korea JoongAng Daily — AI 범죄 악용 규제 논의
이미지 출처: 해당 없음 (이미지 미확보)