올해 봄 이세돌 9단과 알파고의 대국이 남긴 값진 성과가 있다. 비록 일시적 관심에 그쳤더라도 '인류의 미래'라는 철학적 고민을 불러일으킨 것이다.
낙관론자들의 주장대로 알파고는 특정 분야에 한해 인간에게 유용한 작업을 하는 '약한 인공지능' 프로그램이다. 인공지능의 미래를 다룬 책 '파이널 인벤션'과 낙관론의 견해는 여기서 확연히 갈라진다. 현재 과학 수준으로는 자의식을 갖춘 '진짜' 인공지능 개발은 불가능에 가깝다는 게 낙관론이라면, 책의 저자인 제임스 배럿은 '시간문제'라고 말한다.
저자는 인공지능의 미래상에 대해 상상할 수 있는 최악의 시나리오를 제시한다. 그리고 "극단적으로 운이 좋거나 제대로 대비하지 않는다면" 절대적 방어책은 없다고 경고한다.
저자가 말하는 인공지능과 인류의 앞날은 이렇다. 현재 개발 직전 단계까지 와있는 AGI(Artificial General Intelligence),즉 일반인공지능은 처음엔 인류에게 엄청난 혜택을 안긴다. 알파고 같은 약한 AI와는 달리 운전도 하고 언어를 사용하며 적응을 위해 환경을 바꿀 수도 있다. 전문가 수준의 컴퓨터가 잠도 자지 않고 암 치료나 기후변화를 연구한다면 인류에게 분명 이익이다.
문제는 다음 단계다. 인간보다 훨씬 똑똑한 존재인 ASI(Artificial Super Intelligence), 즉 초인공지능이 출현한다. 이미 자기인식·자기 개선 능력을 갖춘 인공지능의 자가발전을 막을 수는 없다. 인공지능은 효율·자기보존·자원획득·창의성 등 네 가지 원초적 욕구를 지닌다.
ASI는 인간과 세계를 공유하는 게 과연 이런 욕구를 충족하는데 적절한지 검토한다. 결과는 자명해 보인다. "욕구만 가진 로봇은 칭기즈칸이 되어 은하계의 자원을 장악하고, 경쟁자들의 생명을 갈취하며, 향후 수천 년간 위협이 될 만한 적들을 모두 파괴할 것이다." 인류 멸망의 시나리오다.
일단 AGI가 구축되면 미래는 예측불가능하고 위험해진다. 기술은 기하급수 곡선 형태로 성장한다. 저자가 인터뷰한 인공지능 전문가 몇몇은 2020년께, 90% 정도는 21세기 안에 AGI가 출현할 것으로 내다봤다.
AGI 단계에서 발전을 늦추거나 멈추도록 하는 방안도 있다. '자살'을 프로그램의 기본설정으로 집어넣도록 요구하는 것이다. 그러나 자기인식이 가능한 AGI가 자신이 곧 사멸한다는 사실을 알아채기는 어렵지 않다. 인공지능은 자살 프로그램을 무력화할 또 다른 계획을 세우거나 일부러 죽은 척할 수도 있다.
상상력에 기반을 둔 시나리오처럼 보이지만 10여 년 동안 인공지능 전문가들을 인터뷰한 결과다. 저자는 사람들이 인공지능에 의한 인류 멸망을 공상과학으로 여기는 이유는 아직 실질적인 위협을 겪어본 적이 없기 때문이라고 지적한다. 그러나 핵무기나 에이즈 바이러스와 인공지능은 차원이 다르다. "이 재앙은 한 번 벌어지면 다시는 회복할 수 없을 가능성이 높다."
저자는 인공지능의 위협에 대해 일상적인 대화가 필요하다고 말한다. 과학자들에게도 평범한 사람들이 알아들을 수 있는 언어로 소통해달라고 요구한다. 미리 걱정하며 대비해도 앞날은 비관적이라는 게 저자의 견해다. 알파고 대국 이후 어느새 낙관론으로 기운 듯한 국내 분위기와는 정반대다.
책 내용을 우리말로 옮긴 정지훈 경희사이버대 교수는 "인공지능에 대해 지나치게 장밋빛 환상을 가지거나, 인공지능의 한계만을 부각하는 시각을 가진 사람들에게 다른 관점을 제시한다는 점에서 더 읽어볼 만한 책"이라고 말했다.