AI 위협 대응, 운영 프로토콜의 빈칸
폭력·위협 신고는 가능하지만, 임박 위협의 SLA·책임·증거 요건이 불명확해 운영 설계가 핵심이 된다.

현장에서는 “차단하면 끝”이라는 말이 위험하다. 한 계정이 막히는 순간, 같은 사람이 같은 의도로 다른 계정으로 다시 시도할 수 있다. 더 나쁜 경우는 내부에서 “이건 신고 라인 태워야 한다”는 말이 나오는데도, 최종 결정권자와 절차가 정리되지 않아 시간이 흐르는 상황이다. 현실 세계 폭력과 연결될 수 있는 계정이 등장하면, AI 서비스의 안전은 모델 성능만으로 정리되지 않는다. **운영 체계(신고·에스컬레이션·증거 보존·법집행 협조)**의 설계와 실행이 함께 따라붙는다.
핵심 뉴스는 단순하다. 공개된 문서 기준으로 OpenAI는 폭력/위협 등 정책·법 위반 콘텐츠를 웹폼 또는 제품 내 신고 기능으로 접수한다. 인간 검토에서 **“타인에 대한 중대한 신체적 위해의 임박한 위협(imminent threat of serious physical harm to others)”**으로 판단하면 법집행기관에 회부할 수 있다고 밝힌다. 다만 외부에서 확인 가능한 공개 문서만 놓고 보면, 위협/폭력 사건에 대해 **요건(필수 증거/필드), 타임라인(SLA), 책임 주체(RACI)**를 한 문서로 묶어 설명하는 “단일 프로토콜”은 뚜렷하지 않다(추가 확인 필요).
세 줄 요약
- 무슨 변화/핵심이슈인가? AI 서비스의 안전이 ‘유해 응답 차단’만의 문제가 아니라 신고·에스컬레이션·증거 보존·법집행기관 커뮤니케이션 같은 운영 프로토콜 설계 문제로 부각된다.
- 왜 중요한가? 공개 문서상 “임박한 위협”이면 법집행기관 회부가 가능하다. 그러나 “가능한 한 신속히” 같은 정성 표현만으로는 지연·누락이 생길 여지가 있고, 이는 신뢰·규제 리스크로 이어질 수 있다.
- 독자는 뭘 하면 되나? 내부에 If/Then 결정 규칙 + 역할/책임 + 로그 보존을 묶은 사고 대응 절차를 만든다. 우회 재가입까지 포함해 테이블탑 테스트로 ‘실제로 작동하는지’ 점검한다.
현황
OpenAI의 공개 문서에서 확인되는 큰 틀은 두 갈래다. 첫째, 이용자 또는 제3자는 정책·법 위반 가능 콘텐츠(폭력/위협 포함)를 콘텐츠 신고 웹폼 또는 제품 내 신고 기능으로 제출할 수 있다. 이 범주에는 대화, 공유 링크, 응답, GPT, Sora 콘텐츠, 포럼 게시물 등이 포함된다고 안내한다.
둘째, 인간 검토 프로세스에서 **“타인에 대한 중대한 신체적 위해의 임박한 위협”**으로 판단하면 법집행기관에 회부할 수 있다고 명시한다. 다른 도움말 문서에서는 “학대적이거나 위협적인 행위”에 대해 계정 조치가 가능하다고 적는다. 또한 **신빙성 있는 위해 위협(credible threats of harm)**은 당국에 보고할 수 있다는 취지의 문구가 있다(세부 기준은 추가 확인 필요).
운영 방식으로 들어가면 공개 정보만으로는 빈칸이 남는다. 투명성/콘텐츠 중재 관련 페이지는 외부 신고를 “가능한 한 신속히(as quickly as possible)” 검토하겠다고 적는다. 호주 온라인 안전 관련 정책 페이지에서는 신고 검토를 “10 영업일(10 business days) 내” 목표로 삼지만, 복잡한 신고는 더 오래 걸릴 수 있다고 한다. 공개 문서만으로는 폭력/위협 ‘긴급’ 케이스가 일반 신고와 어떤 SLA로 분리되는지, 또 그 SLA가 전 세계에 동일하게 적용되는지 분명하지 않다(추가 확인 필요).
분석
의사결정 메모 관점에서 핵심은 하나다. “임박(imminent)” 판정은 기술만의 문제가 아니라 조직 설계 문제다. 위험 신호가 들어왔을 때 (1) 누가 1차 분류를 하는지, (2) 어떤 증거를 최소로 확보하는지, (3) 어느 시점에서 법무/보안/신뢰안전(Trust & Safety) 라인을 태우는지, (4) 언제 외부 기관과 정보를 공유하는지를 미리 정하지 않으면, 의도는 있어도 조치가 늦어질 수 있다. OpenAI 문서가 법집행기관 회부 가능성을 명시한 점은 중요하다. 다만 외부 관찰자 입장에서는 그 다음 단계—요건, 타임라인, 책임 소재—가 공개 문서에서 한 번에 보이진 않는다.
여기서 NIST AI RMF Playbook은 실무에 참고할 만한 방향을 준다. NIST는 AI 시스템에 대해 기존 incident response(IR) 정책을 적용하거나 AI 전용 IR 정책을 만든다. 그리고 모니터링/대응 책임자 지정, 사건 보고·문서화, 필요 시 공개/정보 공유 정책을 세우라고 권고한다. 또한 “incident response”와 함께 ‘appeal and override’(실시간 플래깅과 인간 재판단)도 언급한다. 결국 실시간 플래그 → 인간 판정 → 기록(로그) → 에스컬레이션 → 외부 커뮤니케이션이 한 흐름으로 연결돼야 감사 가능성(auditability)을 확보하기 쉽다.
우려도 있다. 첫째, “법집행기관 공유”를 더 분명히 적으면 과잉 신고가 늘고 프라이버시 침해 위험이 커질 수 있다. 둘째, “임박한 위협”을 촘촘히 규정하면 오탐으로 인한 이용자 피해(계정 차단, 과도한 모니터링)가 늘 수 있다. 그래서 목표는 무조건 강화가 아니라 조건부 규칙(If/Then)과 로그 기반 사후 검증이다. 무엇을 언제 공유했는지(혹은 왜 공유하지 않았는지)를 남긴다. 그 결정이 일관됐는지 점검 가능해야 한다.
예를 들어 한 사용자가 폭력 실행 의도를 암시하는 문장을 남긴다. 운영팀은 계정을 막는다. 같은 사람이 다시 가입해 유사한 대화를 반복할 수도 있다. 이때 계정 차단만 반복하면 위험 신호는 누적될 수 있다. 반대로 신호를 분류하고, 기록을 보존하고, 정해진 조건에서 내부 에스컬레이션을 태우면 “막기”에서 “사건 대응”으로 넘어간다.
실전 적용
의사결정 규칙을 더 잘게 나누면 실행이 빨라진다.
- If 신고/모니터링에서 폭력·위협 신호가 들어온다 Then “일반 신고 큐”로 넣지 않고 별도 중대도 분류로 보낸다.
- If 인간 검토가 임박한 중대한 신체적 위해로 본다 Then 법집행기관 회부 옵션을 즉시 검토한다. 동시에 증거 보존(로그 고정/내보내기)을 실행한다.
- If 임박성 판단이 애매하다 Then 계정 조치(제한/차단)를 검토한다. ‘추가 확인 필요’ 상태로 에스컬레이션하고, 판단 근거를 기록한다(사후 점검이 가능하도록).
“오늘 바로 할 일” 체크리스트 3개다.
- 폭력/위협 신호의 분류 기준을 1페이지로 정리한다. ‘임박한 위협’에 해당할 때의 다음 동작(내부 라우팅·증거 보존·외부 커뮤니케이션)을 If/Then으로 적는다.
- 로그 관리 정책을 만든다. 생성·전송·저장·접근·폐기까지 한 흐름으로 정의한다. 사건 대응 시 ‘보존 홀드(hold)’를 걸 수 있게 설계한다(NIST 로그 관리 가이드 취지).
- 테이블탑 훈련을 돌린다. 신고 접수 → 인간 검토 → 에스컬레이션 → 조치 → 사후 기록까지 전 과정을 따라가며 막히는 지점을 찾는다.
FAQ
Q1. 공개 문서만 보면 OpenAI는 언제 법집행기관에 알릴 수 있나?
A. OpenAI의 공개 문서 기준으로, 인간 검토자가 **“타인에 대한 중대한 신체적 위해의 임박한 위협”**이라고 판단하면 법집행기관에 회부할 수 있다고 한다. 그 외 단계별 요건·타임라인은 단일 문서에서 상세히 확인되진 않는다(추가 확인 필요).
Q2. “가능한 한 신속히” 같은 표현이 왜 문제인가?
A. 정성적 목표만으로는 큐가 쌓일 때 우선순위를 운영적으로 고정하기 어렵다. 긴급 케이스를 일반 신고와 분리하는 기준, 책임자, 핸드오프 규칙이 없으면 지연이 반복될 수 있다.
Q3. 차단을 강화하면 해결되지 않나?
A. 차단은 필요할 수 있지만 충분조건은 아니다. 우회 재가입, 계정 간 연결성, 반복 신호 탐지 같은 운영 통제가 빠지면 “차단 → 재등장”이 반복될 수 있다. 임박한 위협이라면 ‘차단’만으로 끝내지 않고, 증거 보존과 에스컬레이션까지 함께 설계해야 한다.
결론
AI 안전의 현장 성능은 모델만으로 결정되지 않는다. 사고 대응 프로토콜이 마찰 없이 이어지는지가 결과를 바꾼다. 공개 문서에서 확인되는 “임박한 위협이면 법집행기관 회부 가능”이라는 원칙을, 역할·타임라인·로그·에스컬레이션까지 연결해야 ‘차단’이 ‘대응’으로 바뀐다. 앞으로의 관전 포인트는 각 AI 서비스가 이 연결부를 공개 문서에서 얼마나 명확히 설명하는지, 또 내부에서 얼마나 반복 훈련으로 정착시키는지다.
다음으로 읽기
- AI 자료 모음 (24h) - 2026-03-01
- AI 자료 모음 (24h) - 2026-02-28
- 군·정보용 LLM, 레드라인과 책임 설계
- AI 글쓰기, 탐지 대신 QA로
- AI 자료 모음 (24h) - 2026-02-27
참고 자료
- Helping people when they need it most | OpenAI - openai.com
- Reporting Content in ChatGPT and OpenAI Platforms | OpenAI Help Center - help.openai.com
- Transparency & content moderation | OpenAI - openai.com
- Communicating with OpenAI support | OpenAI Help Center - help.openai.com
- The Australian Online Safety Act | OpenAI - openai.com
- AI RMF Playbook (NIST AI Risk Management Framework Playbook) - airc.nist.gov
- NIST SP 800-92 Rev. 1 (Initial Public Draft): Cybersecurity Log Management Planning Guide - csrc.nist.gov
업데이트 받기
주간 요약과 중요한 업데이트만 모아서 보내드려요.
오류를 발견했나요? 정정/오류 제보로 알려주시면 검토 후 업데이트에 반영할게요.