탑배너 닫기

노컷뉴스

'카이스트 킬러 로봇 논란, 언론이 만든 해프닝'

IT/과학

    '카이스트 킬러 로봇 논란, 언론이 만든 해프닝'

    신성철 카이스트 총장 직접 해명, 해외 석학들 오해 풀었다

    - 무인잠수정, 항공기훈련시스템 등 AI기술 접목한 무기체계 개발일 뿐
    - 킬러로봇, 절대 개발해선 안돼.. 전 세계인의 약속
    - 드론 등 무인로봇은 이미 전쟁에 이용되고 있어
    - 살상 명령의 주체가 사람인가 로봇인가.. 이 부분이 중요해

    CBS 라디오 '시사자키 정관용입니다'

    ■ 방 송 : FM 98.1 (18:30~19:55)
    ■ 방송일 : 2018년 4월 05일 (목)
    ■ 진 행 : 정관용 (한림국제대학원대학교 교수)
    ■ 출 연 : 한재권 (한양대학교 로봇공학과 교수)

    ◇ 정관용> 해외의 저명한 로봇학자 50여 명이 한국 카이스트와의 연구 협력을 전면 보이콧하겠다. 이렇게 선언했죠. 카이스트가 민간 군수업체인 한화시스템과 연대해서 국방인공지능융합연구센터 이런 걸 만든 거에 반발하기 때문이라고 하는데. 이게 무슨 얘기인지 한양대학교 융합시스템학과 로봇공학자죠, 한재권 교수 연결합니다. 한 교수님 안녕하세요.

    ◆ 한재권> 안녕하세요. 한재권입니다.

    ◇ 정관용> 이게 갑자기 왜 이런 일이 생긴 거예요?

    ◆ 한재권> 결론부터 말씀드리자면 약간 해프닝이기는 한데요. 자초지종을 설명드리면 토비 월시라는 호주의 대학교 교수님이 계세요. 뉴사우스웨스트 대학교인데. 이분이 AI에 관한 오피니언 리더 격입니다. 어느날 선언문을 발표를 했는데요. 카이스트가 살상로봇을 만들고 있다라고 오해를 하셨어요. 그래서 이렇게 말씀하셨어요. 인간의 통제 없이 자율적으로 살상하는 무기를 개발하지 않겠다는 확약을 해 달라. 그렇지 않으면 앞으로 카이스트하고 같이 연구하지 않겠다. 이렇게 말씀을 하신 거예요. 그래서 좀 이상했죠, 저희가 듣기로도. 그래서 바로 카이스트의 신성철 총장님께서 오늘 성명을 통해 해명을 하셨어요. 그래서 오해는 풀린 것으로 보여져서 보이콧하는 사태까지는 벌어지지 않을 것 같아요. 그런데 이제 문제는 뭐냐 하면 이 오해가 왜 벌어졌느냐 하는 건데. 아까 말씀하셨지만 국방인공지능 융합연구센터 그거 만들 때 기사가 나가잖아요. 기사가 나갔는데 해외 쪽으로도 기사가 나갔는데 기사에 좀 오해를 불러일으킬 만한 소지의 말들이 써 있더라고요.

    ◇ 정관용> 어떤 말이요?

    ◆ 한재권> 예를 들자면 기사 제목이 이랬어요. ‘카이스트 인공지능 무기를 개발할 거다.’ ‘카이스트 디벨롭먼트 AI 웨폰스’ 이렇게 써놨어요. 그런데다가 기자분이 친절하게 설명한다고 쓴 것 같은데 AI무기, 인공지능무기가 뭐냐라고 보충설명을 해 놨어요. 그 보충 설명에 ‘인공지능 무기란 인간의 통제 없이 목표물을 제거하는 것을 목표로 하는 무기다’라고 설명을 해 놓으니까. 사실과는 관계없이 이게 오해를 불러일으킬 만한 소지가 있었던 거죠.

    ◇ 정관용> 인간의 통제 없이 목표를 제거하는?

    ◆ 한재권> 그것은 해서는 안 되는 일이라고 모든 인공지능 학자들과 로봇하시는 분들이 공감대를 형성하고 있는 부분인데.

    ◇ 정관용> 그런데 기자가 마음대로 이렇게 쓴 거예요?

    ◆ 한재권> 모르겠습니다. 설명하는 거였죠. AI무기가 뭐냐?라고 자기가 설명을 해 준다고 그러고 쓴 문구였는데 읽기에 따라서는 그게 카이스트가 인간의 통제 없이 작동하는 인공지능 로봇을 만드는구나라고 읽혔던 것 같아요.

    ◇ 정관용> 인공지능 로봇무기 그러니까.

    ◆ 한재권> 네.

    ◇ 정관용> 아니, 그런데 오늘 카이스트가 해명한 건 절대 그런 거 만드는 게 아니다 이겁니까?

    ◆ 한재권> 그렇죠. 사실도 아니고요. 그래서 총장님께서 우리는 그런 무기를 만들지도 않고 앞으로도 만들지 않을 거다라고 해명을 하셨어요. 그리고 센터는 그런 무기를 만드는 곳이 아니다.

    ◇ 정관용> 그러면 뭐하는 곳이에요. 국방인공지능융합연구센터는.

    ◆ 한재권> 이제 인공지능을 바탕으로 무기 체계를 업그레이드를 하는 것은 맞습니다. 그런데 여기에서 하겠다라고 하는 장기 목표 4가지가 하나하나 살펴보면. 해저선이라고 그래야 될까요. 무인 잠수정을 또 개발하는데 무인 잠수정의 내비게이션 시스템 자기가 알아서 주행하고 이런 거죠. 그다음에 항공기 훈련 시스템이라든가 또는 물체를 추적하는 인식기술이라든가 이렇게 사람이 예전부터 해 왔던 것을 인공지능으로 조금씩 대체해 가는 이런 인공지능 기술인 거죠. 그래서 제가 보기에는.

    ◇ 정관용> 무기는 아니고. 무기는 아니고.

    ◆ 한재권> 킬러 무기는 전혀 아니고요. 인공지능 시스템은 맞습니다. 무인화해 가는 과정이고요. 그런데 이런 기술들은 우리나라만 하는 것이 아니라 전 세계적으로 지금 다 이뤄지고 있는 것이고 우리가 오히려 좀 분발해야 되지 않을까라는 생각까지 드는 부분이죠.

    카이스트가 개발한 인공지능 로봇 휴보 (사진=자료사진)

     


    ◇ 정관용> 이런 총장의 해명을 그러면 토비 월시 교수나 이런 분들이 다 받아들일까요?

    ◆ 한재권> 받아들였다라고 전해 들었고요. 해명해 주셔서 고맙습니다라는 말씀도 하셨다라고 들었어요.

    ◇ 정관용> 알겠습니다. 그런데 아까 인공지능 연구자, 로봇 연구자들이 이거는 해서 안 된다라고 다 합의하고 있다고 하는데 진짜로 그래서 소위 말하는 킬러로봇 개발은 진짜 없습니까?

    ◆ 한재권> 어떻게 말씀드려야 될지 모르겠습니다. 그런데 킬러로봇이라고 하는 정의부터 좀 정해야 될 것 같은데. 무인화된 로봇들이 어떤 군사적인 행위, 특히 공격행위를 하는 것은 사실입니다. 지금도 있고요. 이미 걸프전과 아프가니스탄전쟁 그리고 또 요즘에 IS 테러전을 수행하면서 많이 우리는 기사로 접해 왔죠. 특히 드론류의 이런 폭격기들, 유인하는폭격기들이 공격하는 것은 많이 봐왔어요. 그럼 얘네들은 킬러로봇이냐, 아니냐라는 의문을 갖게 되는데. 그 갈림길에서 어떻게 정의를 하고 있냐면 그러면 맨 마지막 단계에 사격 명령은 누가 내리느냐.

    ◇ 정관용> 사람이 내리느냐, 스스로 하느냐.

    ◆ 한재권> 그 부분이 굉장히 민감합니다. 그래서 맨 마지막에 사격 명령을 인간의 판단에 의해서 할 수 있으면 그러면 아직까지는 윤리적으로 봐줄 수 있는 상황이다라고 어느 정도 공감대가 있는 거죠. 그런데 기사에서는 그 넘지 말아야 될 선을 넘어버렸어요.

    ◇ 정관용> 알겠습니다. 그러니까 스스로 판단해서 사격명령을 하는 그런 것은 아직은 개발된 거 없습니까, 확실히?

    ◆ 한재권> 한번 있을 뻔한 적이 있기는 했었는데 상용화되지는 않았는데요. 그게 또 공교롭게 우리나라인데. 우리나라 DMZ에 CCTV와 함께 격발장치가 달려 있는 소총이 들어 있는 그런 경계시스템이 하나 있는 게 있어요. 예전에 시험운행을 한번 한 적이 있는데 여기에 자동사격 기능이 달려 있었습니다. 그럼 그 자동사격 기능을 격발하는 주체가 누구냐. 사람이냐라고 했을 때 그렇지가 않았던 거예요. 그래서 이게 굉장히 문제가 됐었던 적이 있어요. UN에서까지 문제가 됐던 적이 있습니다. 그래서 지금 사용하고 있지는 않고요. 이게 잘 모르고 개발하게 되면 이런 해프닝을 겪게 되는 거죠.

    ◇ 정관용> 그런데 이게 비공개리에 그런 걸 개발하고 있는 곳이 없다고 말할 수 없는 거 아닙니까?

    ◆ 한재권> 우선 공개적으로는 뭔가가 있다 그러면 다들 벌떼처럼 들고 일어나는 게 사실입니다. 그래서 비공개적으로 뭔가 일어나고 있지 않을까라는 의구심을 가질 수는 있죠. 그래서 더 중요한 거는 이런 의구심을 우리가 눈 크게 뜨고 봐야 돼요. 어디서 과연 이런 기능을 개발하고 있는 거 아니야라고. 사실 기술적으로만 보면 그렇게 어렵지 않아요.

    ◇ 정관용> 할 수 있는 거겠죠.

    ◆ 한재권> 그런데 우리 윤리라는 것 그리고 인간들의 약속으로 인해서 법이나 제도 이런 것을 통해서 우리가 막고 있는 상황입니다. 결국에는 개발하지 않을 거라는 믿음과 그리고 약속을 지키는 것 이런 것이 인간사회를 지탱하는 힘 아닐까라는 생각은 해요.

    ◇ 정관용> 인공지능이나 로봇 연구도 개발 그다음에 사용에 대한 윤리적인 규범, 사회적 공감 이런 게 국제적으로 좀 논의가 돼서 기준점을 하나 만들어야 되겠네요.

    ◆ 한재권> 그런 공감대도 형성돼 있고요. 그래서 많은 활동들이 지금 있습니다. 특히 UN 중심으로 이뤄지고 있고요. UN에서는 킬러로봇 방지대책위원회가 매년 열리고요. 다음 주네요. 다음 주에 열릴 것 같고 그다음에 또 유럽연합에서는 로봇법 프로젝트가 돌아가고 있어요. 그래서 윤리적인 면을 포함해서 로봇에 관한 법을 제정하려는 시도들이 계속 이뤄지고 있고요.

    ◇ 정관용> 알겠습니다.

    ◆ 한재권> 심지어 우리나라도 있습니다.

    ◇ 정관용> 해야죠. 그렇게 해서 감시해야죠. 그 방법밖에 없죠, 뭐. 오늘 말씀 잘 들었습니다.

    ◆ 한재권> 감사합니다.

    ◇ 정관용> 한재권 교수 아까 제가 처음 소개할 때 학과를 조금 잘못 소개했네요. 한양대학교 로봇공학과 한재권 박사였습니다.

    이 시각 주요뉴스


    실시간 랭킹 뉴스

    노컷영상

    노컷포토

    오늘의 기자