Aionda

2026-01-18

보안 특화 AI '컨퍼'의 등장: 프라이버시와 기술의 결합

모시 말린스파이크의 보안 AI 컨퍼는 하드웨어 암호화로 데이터 학습을 차단하며 프라이버시의 새로운 기준을 제시합니다.

보안 특화 AI '컨퍼'의 등장: 프라이버시와 기술의 결합

당신의 대화가 실시간으로 분석되어 거대 언어 모델의 식재료가 되거나 맞춤형 광고의 미끼로 쓰이는 시대는 이제 끝날지도 모른다. 시그널(Signal)의 창립자 모시 말린스파이크(Moxie Marlinspike)가 생성형 AI 시장에 던진 승부수는 단순한 기능 업데이트가 아닌, '알 권리'와 '잊힐 권리'의 완전한 복원이다. 보안 특화 AI 서비스 '컨퍼(Confer)'는 챗GPT의 편리함은 그대로 가져오되, 사용자의 데이터가 서버에 닿는 순간부터 처리되는 전 과정을 암호화의 성벽 안에 가두는 데 성공했다.

실리콘 밸리의 감시 자본주의를 향한 선전포고

컨퍼의 등장은 기존 상용 LLM(거대 언어 모델) 제작사들이 고수해 온 데이터 수집 정책에 정면으로 도전한다. 대다수 AI 서비스는 사용자의 대화 데이터를 모델 학습에 활용하거나 익명화라는 명목하에 마케팅 지표로 활용하지만, 컨퍼는 이를 원천 차단하는 '비학습형' 정책을 채택했다. 이는 단순히 약관에 "학습하지 않겠다"고 적어두는 수준을 넘어선다. 컨퍼는 데이터가 생성되고 소멸하기까지의 무결성을 기술적으로 증명하는 방식을 취한다.

가장 눈에 띄는 대목은 가격표다. 컨퍼는 월 34.99달러라는 꽤 묵직한 구독료를 책정했다. 무료로 서비스를 제공하며 배후에서 데이터를 수익화하는 대신, 투명한 구독 모델을 통해 인프라 비용을 충당하겠다는 계산이다. 이는 광고와 데이터 추적을 배제한 '청정 AI 환경'을 유지하기 위한 비용이며, 프라이버시가 곧 생존과 직결되는 전문직 종사자와 기업 시장을 정조준한다.

기술적 요새: 하드웨어가 보증하는 비밀번호

컨퍼가 데이터 비학습을 보장하는 방식은 마치 은행의 금고 시스템과 닮았다. 핵심은 종단간 암호화(E2EE)와 컨피덴셜 컴퓨팅(Confidential Computing)의 결합이다. 사용자가 질문을 입력하면 데이터는 기기에서 패스키(Passkey)를 통해 암호화되어 전송된다. 서버 운영자나 엔지니어라 할지라도 이 암호문을 해독할 방법은 없다.

데이터가 복호화되는 유일한 장소는 하드웨어 기반의 '신뢰 실행 환경(TEE, Trusted Execution Environments)', 즉 보안 엔클레이브(Secure Enclave) 내부다. 이 격리된 공간 안에서만 데이터가 잠시 풀려 AI 추론을 수행하고, 결과값이 생성되면 다시 암호화되어 사용자에게 전달된다. 작업이 끝나는 즉시 해당 데이터는 휘발된다. 컨퍼는 여기에 오픈소스 AI 모델을 얹고 원격 검증(Remote Attestation) 기술을 적용해, 시스템이 정말로 약속된 보안 규칙을 지키고 있는지 사용자가 직접 확인할 수 있는 장치까지 마련했다.

이는 "우리는 당신의 데이터를 보지 않습니다"라는 기업의 약속을 믿어야 했던 과거의 방식에서, "우리는 당신의 데이터를 볼 수 없는 구조입니다"라는 기술적 강제성으로의 패러다임 전환이다.

분석: 비싼 보안, 그만한 가치가 있는가?

업계는 컨퍼의 도전을 흥미롭게 지켜보고 있다. 기존 AI 기업들이 정책 중심의 익명화에 의존할 때, 컨퍼는 하드웨어라는 물리적 제약으로 보안을 완성했기 때문이다. 하지만 넘어야 할 산도 분명하다.

첫 번째는 비용의 장벽이다. 월 34.99달러는 일반 대중에게는 부담스러운 금액이다. 고비용의 기밀 컴퓨팅 인프라를 유지하기 위한 어쩔 수 없는 선택이지만, 이 가격이 개인 사용자 층까지 확산될 수 있을지는 미지수다. 다만 법률, 의료, 금융처럼 단 한 줄의 데이터 유출로도 치명적인 타격을 입는 분야에서는 이 정도 비용은 오히려 저렴한 '보험료'로 인식될 가능성이 크다.

두 번째는 성능의 불확실성이다. 컨퍼는 보안을 위해 오픈소스 모델을 기반으로 삼고 있는데, 구체적으로 어떤 모델의 어떤 버전을 사용하는지는 아직 명확히 밝히지 않았다. 챗GPT(GPT-4o)나 클로드(Claude 3.5 Sonnet)와 같은 폐쇄형 최상위 모델들과 비교했을 때, 컨퍼의 지능이 어느 정도 수준을 보여줄지가 관건이다. 보안은 완벽하지만 대답이 시원치 않다면 시장의 외면을 받을 수밖에 없다.

실전 적용: 누가, 어떻게 써야 하는가?

만약 당신이 민감한 고객 정보를 다루는 변호사거나 신약 개발 데이터를 취급하는 연구원이라면 컨퍼는 훌륭한 대안이 된다. 기존에는 보안 규정 때문에 챗봇 사용을 금기시했겠지만, 컨퍼의 엔클레이브 구조는 데이터 가독성을 원천 차단하므로 규제 준수(Compliance) 측면에서 자유롭다.

현재 사용자가 할 수 있는 가장 구체적인 조치는 본인의 업무 워크플로우에서 '절대 유출되어서는 안 될 데이터'가 무엇인지 분류하는 것이다. 모든 대화에 34.99달러를 지불할 필요는 없겠지만, 기밀 프로젝트의 초안을 작성하거나 복잡한 계약서를 분석할 때 컨퍼의 보안 인터페이스를 활용하는 시나리오는 충분히 매력적이다. 특히 패스키를 통한 기기 인증 방식은 기존의 취약한 비밀번호 체계보다 훨씬 견고한 보안 환경을 제공한다.

FAQ

Q: 기존 챗GPT의 '잠시 멈춤'이나 '시크릿 모드'와 무엇이 다른가? A: 기존 서비스의 프라이버시 모드는 소프트웨어 설정이자 정책적 약속이다. 즉, 운영사가 마음만 먹으면( 혹은 해킹을 당하면) 데이터를 볼 수 있는 구조다. 반면 컨퍼는 하드웨어 엔클레이브 안에서만 데이터를 처리하므로, 운영사 직원조차 물리적으로 데이터 내용을 확인할 수 없다.

Q: 월 34.99달러 외에 기업용 단체 할인이나 별도의 라이선스 정책이 있는가? A: 현재까지 공개된 수익 모델은 개인 및 기업 공통의 월 구독제 중심이다. 구체적인 기업용 볼륨 라이선싱 수치나 단체 할인 정책은 아직 확인되지 않았으나, 전문 분야 시장을 공략 중인 만큼 향후 추가될 가능성이 높다.

Q: 컨퍼가 내부적으로 사용하는 AI 모델은 무엇인가? A: 컨퍼는 오픈소스 AI 모델을 기반으로 한다고 밝혔으나, 구체적인 모델명(Llama 3, Mistral 등)이나 버전은 공개하지 않았다. 또한 사용자가 직접 원격 검증을 수행할 수 있는 기술적 도구의 구체적인 제공 방식도 추가 확인이 필요한 상태다.

보안이 기본이 되는 AI 시대로의 이행

컨퍼의 출시는 생성형 AI 산업이 '속도와 성능'의 단계를 지나 '신뢰와 안전'의 단계로 진입했음을 알리는 신호탄이다. 시그널이 메신저 시장에서 보안의 표준을 세웠듯, 모시 말린스파이크는 컨퍼를 통해 AI 시장에도 동일한 표준을 이식하려 한다.

비싼 구독료와 모델 정보의 부재라는 한계에도 불구하고, 컨퍼가 제시한 '기술로 보증하는 프라이버시'는 데이터 주권을 되찾고 싶어 하는 사용자들에게 가장 강력한 선택지가 될 것이다. 앞으로 우리가 주목해야 할 점은 이러한 하드웨어 기반 보안 모델이 대중화되어 구독료를 낮출 수 있을지, 그리고 폐쇄형 모델 수준의 지능을 확보할 수 있을지 여부다.

참고 자료

공유하기:

업데이트 받기

주간 요약과 중요한 업데이트만 모아서 보내드려요.

오류를 발견했나요? 정정/오류 제보로 알려주시면 검토 후 업데이트에 반영할게요.