2026년 2월 28일 미국과 이스라엘이 이란에 공습을 개시했다. 2주 만에 누적 타격 표적 5500개를 돌파한 이 전례 없는 속도는 인공지능(AI)이 이끌었다. 팔란티어의 메이븐 스마트 시스템 위에서 앤트로픽의 클로드가 표적 식별·우선순위 결정을 지원하며 킬체인(kill chain)을 극적으로 압축했다. 개전 첫날 미나브 지역 학교 공습으로 약 175명이 사망한 사건은 AI 기반 타격 체계의 신뢰성과 책임 문제를 부각시켰다. 미군은 최종 결정은 인간이 내린다고 강조하지만, AI의 표적 생성 속도가 인간의 검증 능력을 상회하면서 인간 개입이 형식화된다는 비판이 제기된다.
개전 이전에는 또 다른 전선이 있었다. 미 국방부가 클로드를 "모든 합법적 목적"에 무제한 사용하는 계약을 요구하자, 앤트로픽은 완전 자율 무기 시스템에 클로드를 연동하는 것과 미국 시민에 대한 대규모 국내 감시에 클로드를 활용하는 것을 반대했다. 다리오 아모데이CEO는 "현재 프론티어 AI 모델은 자율 무기를 안전하게 운용하기에 충분히 신뢰할 수 없다"고 밝혔다. 미 행정부는 2억 달러 계약을 취소하고 앤트로픽을 '공급망 위험'으로 지정했다.
이 갈등은 단순한 계약 분쟁이 아니다. AI 윤리·투명성·제한적 군사 협력을 중시하는 민간 기업의 입장과, 국가안보·작전 효율을 위해 가능한 한 많은 AI 활용을 추구하는 국가의 입장이 정면충돌한 사건이다. 이 대립은 AI 기술의 윤리적 한계를 민간 기업이 어디까지 설정할 수 있는지, 국가안보를 명분으로 정부가 AI를 어느 수준까지 지휘·통제할 수 있는가라는 질문을 던진다, 이 두 질문에 대한 사회적 합의 없이 AI 군사화는 현실이 됐다.
미국과 중국 모두 AI의 군사적 지배를 21세기 패권의 핵심으로 간주하고 있다. 양국이 자발적으로 AI 군사화를 제한할 가능성은 낮다. 이는 1986년 체르노빌 사건과 같은 거대한 사고가 발생하기 전까지 안전 규범이 형성되지 않을 우려가 있다. 비확산 체제가 가능했던 것은 미소 양국이 핵 확산이 오히려 자국 안보를 위협한다는 공통의 전략적 이해가 있었기 때문이다. AI 군비경쟁에서도 유사한 공통 이해가 형성될 수 있는지가 핵심 변수가 될 것이다.
한국은 세계 수준의 AI 역량 보유국인 동시에 남북 대치라는 지정학적 최전선에 위치한 나라다. 이란 전쟁은 한국이 AI 군사화 이슈의 직접 당사자임을 명확히 했다. 두 가지 과제가 시급하다. 먼저 인간 통제 원칙의 법제화이다. 한국의 AI 기본법은 국방·안보 영역을 적용 대상에서 제외하고 있다. 한국도 국방 AI에 대한 독립적 법제를 마련하되, 중대한 생명·신체 위험을 초래할 수 있는 AI 활용에서 인간 개입 원칙을 법적으로 선언하고, 표적 선정·교전 규칙에서 인간의 검토·거부권 요건을 명문화하는 것을 검토해야 한다.
또한 이번 사태는 외국 기업 AI에 의존할 경우 발생하는 안보 취약성을 실증했다. 한국군이 외국 AI 기업의 시스템에 의존한다면, 그 기업의 결정이나 해당 국가의 판단에 따라 작전 수행 능력이 제한받을 수 있다. 소버린 AI, 즉 독자적 파운데이션 모델의 확보는 이제 경제·산업 전략의 문제가 아니라 안보 전략의 핵심이다. 정부의 국가대표 AI 사업은 산업 경쟁력 확보 외에 안보적 역량 확보 관점을 포함해야 한다.
이란 전쟁은 AI가 보조적 수단을 넘어 전쟁의 속도와 양상을 결정짓는 주역이 된 최초의 사례로 기록될 것이다. 그리고 앤트로픽 사건은 민간 기업이 AI 윤리의 선을 어디에 그을 수 있는지, 국가가 그 선을 어떻게 지우려 하는지를 여실히 보여줬다.
향후 AI 군사화에 대한 국제적 논의를 통해 효율적인 AI 거버넌스와 법제가 마련되어야 할 것이다. 한국도 AI 군사화에 대한 법제화 논의와 함께 국방특화 AI, AI 무기 통제, AI 기반 공격 탐지 및 대응 등 안보 관점이 포함된 소버린 AI 전략을 구체화해야 할 것이다.
이성엽 고려대 기술경영전문대학원 교수/한국정보통신법학회장