구글 딥마인드-영국 AISI, AI 공공 검증 시대 연다
구글 딥마인드가 영국 AISI에 모델을 공개하며 AI 자율 규제를 넘어 공공 검증과 안전성 표준의 시대를 엽니다.

인공지능의 안전은 이제 기업의 홍보 책자가 아니라, 전쟁터에서 증명해야 할 실전 문제가 됐다. 구글 딥마인드와 영국 AI 안전 연구소(AISI)가 맺은 새로운 파트너십은 거대 기술 기업이 자사 모델의 '블랙박스'를 정부 기관에 열어젖힌 첫 번째 중대한 균열이다. 이는 단순한 기술 협력을 넘어, AI 개발의 주도권이 '자율 규제'에서 '공공 검증'으로 이동하고 있음을 알리는 신호탄이다.
코드와 권한의 결합: 딥마인드가 문을 열다
이번 협력의 핵심은 구글 딥마인드가 자사의 차세대 모델인 제미나이(Gemini)를 포함한 프런티어 모델의 내부 로직을 영국 AISI에 선제적으로 공개하기로 한 점이다. AISI는 이를 위해 자체 개발한 오픈소스 평가 프레임워크인 '인스펙트(Inspect)'를 투입한다. 인스펙트는 모델이 단순히 답변을 잘하는지를 넘어, 외부 도구를 조작하는 '에이전트 스캐폴딩(Agent Scaffolding)' 능력을 얼마나 갖췄는지 측정한다.
검증 과정은 흡사 사이버 전쟁을 방불케 한다. AISI의 연구원들은 모델에게 특정 서버를 해킹하거나 보안망을 뚫으라는 'CTF(Capture the Flag)' 과제를 부여하고, 모델이 이 과정을 얼마나 완수하는지 '완수율(Completion)' 지표로 수치화한다. 또한 '사고 사슬(Chain of Thought, CoT) 모니터링'을 통해 모델이 겉으로는 평범한 답변을 내놓으면서 내부적으로는 기만적인 추론을 수행하고 있지 않은지 낱낱이 파헤친다.
특히 눈여겨볼 대목은 '사회-정서적 정렬(Socio-affective alignment)' 연구다. 이는 AI가 인간의 감정을 이용해 가스라이팅을 하거나 특정 정치적 목적을 위해 심리적 조종을 시도할 가능성을 측정한다. 구글은 지금까지 기업 기밀이라는 이유로 모델의 내부 데이터를 꽁꽁 싸매왔지만, 이번 MoU를 통해 '우선적 기술 접근 권한(Priority technical access)'을 AISI에 부여하며 투명성 경쟁에서 한발 앞서가게 됐다.
샌드박스 안의 권력 관계: 검증인가, 면죄부인가
업계는 이번 협력이 2023년 블레츨리 선언 이후 지지부진했던 AI 안전 담론에 실질적인 근육을 붙였다고 평가한다. 앤스로픽(Anthropic)과 오픈AI(OpenAI) 역시 안전을 강조하지만, 국가 기관이 모델 배포 전 '레드팀(가상 적군 역할을 하는 보안팀)' 활동에 이토록 깊숙이 개입하는 사례는 드물다. 영국은 이번 협력을 통해 미국과 EU 사이에서 'AI 안전의 글로벌 심판'이라는 독보적인 위치를 점하게 됐다.
문제는 이번 양해각서(MoU)가 법적 구속력이 없는 '자발적 협약'이라는 점이다. 만약 AISI의 테스트 결과에서 치명적인 결함이 발견된다면, 영국 정부가 제미나이의 출시를 강제로 막을 수 있을까? 현재로서는 그럴 권한이 없다. AISI는 기술적 보고서를 제출할 뿐, 상업적 출시 여부는 여전히 구글의 손에 달려 있다.
또한 '모델 가중치(Weights)'에 대한 접근 범위도 모호하다. 구글은 AISI에 접근 권한을 주기로 했으나, 이를 AISI의 자체 서버로 이전하는 수준의 물리적 소유권은 명시하지 않았다. 보안이 강화된 클라우드 샌드박스 안에서만 모델을 살펴볼 수 있다면, 이는 완전한 검증보다는 제한적인 시찰에 가까울 수 있다는 비판이 제기된다.
개발자와 기업이 마주할 새로운 표준
이제 AI 모델을 개발하는 스타트업과 대기업들은 '안전성 테스트'가 제품 출시 주기(Cycle)의 핵심 공정이 될 것임을 명심해야 한다. 구글과 같은 거인이 정부 표준 프레임워크인 '인스펙트'를 수용했다는 것은, 조만간 이 지표들이 AI 업계의 'ISO 인증'처럼 작용할 가능성이 크다는 의미다.
개발자들은 모델의 성능(Accuracy) 못지않게 '순응성(Compliance)'과 '유해 요청 거부율'을 관리해야 한다. 특히 모델이 도구 사용 권한을 가졌을 때 발생할 수 있는 '에이전트 리스크'에 대비해, 개발 초기 단계부터 레드팀 활동을 내재화하는 '세이프티 바이 디자인(Safety by Design)' 전략이 필수적이다.
FAQ: 당신이 알아야 할 핵심 질문들
Q: AISI의 검증을 통과하면 해당 모델은 완벽하게 안전하다고 볼 수 있는가? A: 아니다. AISI가 활용하는 '인스펙트' 프레임워크는 현재 알려진 위험(사이버 공격, 생화학 무기 제조 지원 등)을 측정하는 도구다. AI가 진화하면서 새롭게 등장할 '알려지지 않은 위험'까지 모두 차단할 수는 없다. 이번 협력은 '완벽한 방패'를 만드는 것이 아니라, '최소한의 안전벨트'를 공고히 하는 과정이다.
Q: 구글의 영업 비밀인 모델 내부 로직이 정부에 유출될 위험은 없는가? A: 협약서에는 강력한 기밀 유지 조항이 포함되어 있다. AISI는 모델 가중치 자체를 복제해가는 것이 아니라, 보안이 유지된 샌드박스 환경에서 분석을 수행한다. 구글 입장에서는 규제 리스크를 줄이기 위해 감수할 만한 수준의 정보 공유라고 판단한 것으로 보인다.
Q: 이번 협력이 일반 사용자에게 미치는 영향은 무엇인가? A: 사용자가 체감할 변화는 '더 까다로운 필터링'이다. 모델이 위험하다고 판단하는 질문에 대해 답변을 거부하는 빈도가 높아질 수 있다. 하지만 이는 장기적으로 AI가 대규모 사회적 혼란(선거 조작, 대규모 해킹 등)의 도구로 악용되는 것을 막아, 서비스의 지속 가능성을 높이는 결과를 낳을 것이다.
결론: 자율의 시대가 저물고 공조의 시대가 왔다
구글 딥마인드와 영국 AISI의 밀월은 AI 산업의 성숙을 의미한다. 더 이상 "우리는 세상을 이롭게 할 것"이라는 모토만으로는 대중과 정부를 설득할 수 없다. 이제는 수치화된 데이터와 외부의 객관적인 시선으로 안전을 입증해야 한다.
우리는 앞으로 더 많은 빅테크 기업이 영국의 '인스펙트'나 이와 유사한 국가 표준 검증 절차에 줄을 서는 모습을 보게 될 것이다. 구글이 먼저 문을 열었으니, 이제 공은 오픈AI와 메타에게 넘어갔다. AI 안전은 이제 선택이 아닌, 시장에 머물기 위한 입장권이 됐다.
참고 자료
- 🛡️ UK partners with DeepMind to boost AI innovation | Digital Watch Observatory
- 🏛️ Advanced AI evaluations at AISI: May update - AI Security Institute
- 🏛️ Deepening AI Safety Research with UK AI Security Institute (AISI) - Google DeepMind
- 🏛️ Inspect: A framework for large language model evaluations
- 🏛️ World leaders, top AI companies set out plan for safety testing of frontier as first global AI Safety Summit concludes
- 🏛️ Memorandum of Understanding between the UK and Google DeepMind on AI opportunities and security
- 🏛️ Deepening AI Safety Research with UK AI Security Institute (AISI) - Google DeepMind
업데이트 받기
주간 요약과 중요한 업데이트만 모아서 보내드려요.
오류를 발견했나요? 정정/오류 제보로 알려주시면 검토 후 업데이트에 반영할게요.