퍼플렉시티의 치안 AI 진출과 인권 논란
퍼플렉시티의 공공 안전 솔루션 도입이 치안 현장에 미치는 영향과 인권 침해 우려를 살펴봅니다.

검색창에서 정보를 찾던 인공지능(AI)이 이제 경찰의 보디캠 영상과 수사 보고서를 읽기 시작했습니다. 퍼플렉시티가 '공공 안전 기구를 위한 퍼플렉시티(Perplexity for Public Safety Organizations)'를 앞세워 치안 현장에 진출하면서, 실리콘밸리의 기술이 공권력의 집행 방식을 근본적으로 바꾸려 하고 있습니다. 단순한 정보 검색을 넘어 생사와 직결된 공공 부문의 실무 결정을 지원하겠다는 이 시도는 기술의 효율성과 인권 침해라는 두 날 선 칼날 위에 서 있습니다.
검색 엔진에서 수사 보조 도구로: 퍼플렉시티의 치안 시장 공략
퍼플렉시티가 내놓은 이번 파트너십의 핵심은 현장 요원의 '행정 지능' 고도화입니다. 기존의 치안 솔루션들이 마이크로소프트처럼 클라우드 인프라를 제공하거나, 특정 기업들이 범죄를 예측하는 '예측 치안(Predictive Policing)'에 집중했던 것과는 궤를 달리합니다. 퍼플렉시티는 수사 보고서, 판례, 소셜 미디어 데이터는 물론 경찰의 보디캠 전사본까지 실시간 웹 정보와 결합해 답변을 내놓습니다.
가장 눈에 띄는 대목은 파격적인 도입 정책입니다. 퍼플렉시티는 공공 안전 전용 '엔터프라이즈 프로' 버전을 12개월간 무상으로 제공하며 초기 시장 점유율 확보에 나섰습니다. 현장 요원들이 이동 중에도 음성이나 이미지로 정보를 식별할 수 있도록 모바일에 최적화된 기능을 갖췄으며, 답변마다 명확한 인용(Citations)을 붙여 정보의 출처를 투명하게 공개합니다.
사용자는 자신의 선호에 따라 GPT-4o나 Claude 3와 같은 다양한 모델을 선택해 사용할 수 있습니다. 이는 특정 알고리즘이 가진 편향성이나 판단 오류의 위험을 분산하겠다는 전략입니다. 검색 증강 생성(RAG) 기술을 통해 외부 데이터와 기관 내부 데이터를 실시간으로 대조하며 답변의 정확도를 높이는 구조를 취하고 있습니다.
환각이 판결을 바꿀 때: 예견된 위험과 법적 사각지대
기술적 장치에도 불구하고 전문가들의 시선은 냉담합니다. AI가 존재하지 않는 사실을 진짜처럼 말하는 '할루시네이션(환각)' 현상이 치안 현장에서 발생할 경우, 이는 곧바로 인권 침해나 잘못된 법적 판단으로 이어질 수 있기 때문입니다. 수사관이 AI의 잘못된 요약 정보를 바탕으로 영장을 신청하거나 피의자를 심문할 경우, 그 책임은 고스란히 현장 공무원에게 돌아갑니다.
현재 EU AI Act 등 주요 규제안은 치안 업무를 '고위험 영역'으로 분류합니다. 기술이 아무리 정교해도 최종 판단은 반드시 인간이 내려야 한다는 '휴먼 인 더 루프(Human-in-the-loop)' 원칙을 의무화하고 있습니다. 법적으로 AI는 어디까지나 보조 도구일 뿐입니다. 만약 AI의 오류로 사고가 발생한다면 일차적인 책임은 운용 주체인 수사기관에 귀속됩니다. 제조물 책임법을 통해 개발사에 책임을 물을 수도 있지만, 예측 불가능한 AI의 특성상 설계 결함을 입증하기는 매우 어렵습니다.
더욱 우려되는 지점은 '신뢰할 수 있는 출처'에 대한 기준입니다. 퍼플렉시티는 투명한 인용을 강조하지만, 치안 업무 특화용 편향성 제거를 위한 별도의 외부 알고리즘 감사 체계가 있는지, 어떤 기준으로 공공 안전용 데이터를 선별하는지에 대해서는 아직 구체적인 리스트를 공개하지 않았습니다. 알고리즘의 검은 상자(Black box)가 공권력과 결합할 때 발생하는 투명성 결여 문제는 여전히 해결되지 않은 숙제입니다.
실전 적용: AI를 치안 현장에 들이는 올바른 자세
공공 안전 기관이 퍼플렉시티의 도구를 도입한다면, 이를 '결정권자'가 아닌 '도서관 사서'로 정의하는 것부터 시작해야 합니다. AI가 내놓은 수사 보고서 요약본이나 판례 분석은 반드시 원본 데이터와 대조하는 교차 검증 과정을 거쳐야 합니다. 특히 보디캠 전사본이나 소셜 미디어 데이터처럼 주관이 개입될 여지가 큰 정보일수록 AI의 해석을 맹신해서는 안 됩니다.
현장 요원들은 AI가 제시하는 인용구가 실제 존재하는 문서인지, 맥락에 맞게 인용되었는지 확인하는 훈련을 받아야 합니다. 단순히 12개월 무상 제공이라는 비용적 혜택에 매몰되기보다, 내부 데이터가 외부 모델로 유출되지 않는지 보안 체계를 점검하고, AI 답변으로 인해 발생할 수 있는 법적 분쟁에 대비한 가이드라인을 먼저 수립해야 합니다.
FAQ
Q1: 퍼플렉시티의 공공 안전 AI는 다른 일반 모델과 무엇이 다른가요? A1: 일반적인 검색과 달리 수사 보고서나 보디캠 전사본 등 기관 내부의 비공개 데이터와 실시간 웹 정보를 결합해 답변을 생성합니다. 특히 모든 답변에 출처를 명시하는 인용 기능을 통해 법적 증거 능력을 확보하려 노력하며, 현장 요원을 위한 음성·이미지 인식 기능이 강화된 모바일 전용 엔터프라이즈 환경을 제공합니다.
Q2: AI가 잘못된 정보를 제공해 인권 침해가 발생하면 누가 책임지나요? A2: 현재 법체계에서는 최종 판단을 내린 수사기관과 담당 공무원이 일차적인 책임을 집니다. AI는 결정을 돕는 보조 도구로 간주되기 때문입니다. 개발사인 퍼플렉시티에 책임을 묻기 위해서는 중대한 설계 결함을 입증해야 하는데, 이는 법적으로 매우 까다로운 절차를 요합니다. 따라서 현장의 인간 검토(Human-in-the-loop)가 필수적입니다.
Q3: 치안 기관이 이 서비스를 무료로 이용할 수 있나요? A3: 퍼플렉시티는 공공 안전 기구에 대해 '엔터프라이즈 프로' 기능을 12개월간 무상으로 제공하는 정책을 펴고 있습니다. 이는 초기 도입 장벽을 낮추어 시장 점유율을 높이려는 전략으로 풀이됩니다. 다만, 무상 기간 종료 이후의 비용 체계나 데이터 관리 방식에 대해서는 개별 기관과의 계약 내용을 확인해야 합니다.
결론: 기술의 속도와 공익의 무게
퍼플렉시티의 치안 시장 진출은 AI가 단순한 편의 도구를 넘어 사회의 가장 민감한 영역인 '안전'과 '정의'의 영역으로 들어왔음을 의미합니다. 정보 검색의 효율성은 비약적으로 높아지겠지만, 알고리즘의 편향성과 환각 현상이 가져올 위험은 여전히 현재진행형입니다.
앞으로 우리가 주목해야 할 지점은 기술의 화려한 기능이 아니라, 그 기술을 감시할 수 있는 투명한 체계입니다. 공공 안전이라는 이름 아래 AI가 내리는 판단이 시민의 기본권을 침해하지 않도록, 알고리즘에 대한 엄격한 감사와 법적 책임 소재의 명확한 정립이 동반되어야 합니다. 기술은 수사관의 손을 가볍게 할 수는 있어도, 그들이 짊어진 판단의 무게까지 대신할 수는 없습니다.
참고 자료
- 🛡️ Perplexity launches free AI tool for law enforcement agencies
- 🛡️ 'Human in the loop' in AI risk management — not a cure-all approach
- 🛡️ Perplexity Targets Public-Sector Growth With Launch of AI Platform for Law Enforcement
- 🏛️ Introducing Perplexity for Public Safety Organizations
- 🏛️ Perplexity Launches Enterprise AI Platform Tailored for Public Safety and Law Enforcement
업데이트 받기
주간 요약과 중요한 업데이트만 모아서 보내드려요.
오류를 발견했나요? 정정/오류 제보로 알려주시면 검토 후 업데이트에 반영할게요.