미국 국방부. 연합뉴스미국 국방부는 인간이 조종하지 않아도 스스로 싸울 수 있는 자율무기를 개발할 때 인간의 의도와 다르게 행동할 가능성을 최소화해야 한다는 지침을 내놓았다.
급격한 기술 발전으로 인공지능(AI)이 인간의 통제를 벗어나는 영화 '터미네이터' 같은 상황이 언젠가 현실화할 수 있다는 우려를 의식한 조치로 해석된다.
미 국방부는 지난 25일(현지시간) '무기체계의 자율성 지침 3000.09'의 개정판을 공개했다.
이 지침은 원래 2012년 11월 처음 마련됐는데 이후 기술이 빠르게 발전해 업데이트가 필요하다는 지적이 제기돼왔다.
국방부는 자율 및 반자율 무기체계가 의도와 다르게 교전하는 오작동의 가능성과 그 영향을 최소화하기 위해 지침을 마련했다고 설명했다.
자율무기체계는 한번 작동하면 운영자의 추가 개입 없이 표적을 스스로 선정해 교전할 수 있는 무기체계이며, 반자율무기체계는 운영자가 지정한 표적하고만 교전하도록 설계된 무기체계라고 정의했다.
다만 자율·반자율 기능을 갖춘 사이버 역량, 무장을 갖추지 않은 체계, 운영자가 레이저 등을 통해 표적까지 유도하는 탄(彈), 지뢰, 불발탄 등은 포함되지 않는다.
지침은 인간 지휘관과 운영자가 무력 사용과 관련해 적절한 수준의 판단력을 행사할 수 있도록 자율 및 반자율 무기체계를 설계할 것을 요구했다. 인간의 결정권을 완전히 없애서는 안된다는 것이다.
자율 및 반자율 무기체계를 운용하거나 그 사용을 허가·지휘하는 사람이 전쟁법과 관련 조약, 무기체계 안전 규칙, 적용 가능한 교전 규칙을 준수하고 충분한 주의를 다할 것을 규정했다.
무기체계가 현실적인 환경에서 적절한 성능과 역량, 신뢰성, 효과성, 적합성을 입증하도록 해야 한다고도 주문했다.
AI 기능을 적용한 시스템을 설계, 개발, 배치, 사용할 때는 국방부의 AI 윤리원칙과 '책임 있는 AI 전략 및 이행 방향'을 준수하도록 했다.
2020년 2월 21일 채택된 국방부의 AI 윤리원칙은 개발 과정에 AI에 의도치 않은 편견을 내재하는 것을 최소화하고 관계자들이 무기에 적용되는 기술과 개발 절차, 운영 방법 등을 충분히 이해할 것을 요구했다.
AI가 인간이 의도하지 않은 행동을 하는 것을 감지, 방지하고 의도와 다르게 행동할 경우 교전을 중단하거나 작동을 정지할 수 있는 능력을 갖춰야 한다고 규정했다.
쉽게 말하자면 언제든지 끌 수 있는 '오프' 스위치가 있어야 한다는 의미다.
이번에 개정한 지침에도 인간 운영자가 적절한 판단을 할 수 있도록 무기체계를 통제하는 인터페이스를 이해하기 쉽게 만들고, 무기체계의 기능을 켜고 끄는 절차를 명확히 해야 한다는 내용이 들어갔다.
무기체계의 하드웨어와 소프트웨어를 엄격히 검증하고 자율무기에 적합한 훈련, 교리, 전술, 기술, 절차를 개발하도록 했다.
국방부 내 주요 당국자와 부서별로도 책임을 명시했다.
자율무기체계를 개발하기 전에 국방부의 정책차관과 연구개발차관, 합참차장 3명의 승인을 받고, 배치 전에도 국방부의 정책차관과 획득차관, 합참차장 3명의 승인을 다시 받도록 했다.
지침 이행을 돕기 위해 국방부에 자율무기체계 워킹그룹을 신설하도록 했다.
캐슬린 힉스 국방부 부장관은 "사방에서 기술이 극적으로 발전하는 상황에서 이번 자율무기체계 지침 개정은 미국이 새 무기체계의 개발과 도입뿐 아니라 안전에서도 세계 선도 지위를 유지하도록 한다"고 말했다.