탑배너 닫기

노컷뉴스

[뉴스업]"이루다 챗봇 '오염된 데이터' 러닝한 것"

사회 일반

    [뉴스업]"이루다 챗봇 '오염된 데이터' 러닝한 것"

    • 2021-01-16 07:00

    이루다 논란…1차 어뷰징의 실패
    공동프라이버시 소홀…민감 정보 활용 동의도 없어
    이루다, 20대 남성의 상상속 모습에 맞춰져
    개발자 조직문화도 인공지능 편향성에 영향
    AI 윤리 교육 뿐 아니라 법적 강제 함께 따라야
    AI, 미래 사회적 영향력 고려해 윤리 교육 필요

    ■ 방송 : CBS 라디오 <김종대의 뉴스업=""> FM 98.1 (18:25~20:00)
    ■ 진행 : 김종대 (연세대 객원교수)
    ■ 대담 : 이광석 교수 (서울과학기술대학교 IT정책전문대학원)/ 홍명교 (IT 활동가)


    ◇ 김종대> 디지털 기술의 빛과 그림자를 함께 들여다보는 시간 디지털 별곡. 홍명교 씨 어서 오세요.

    ◆ 홍명교> 안녕하세요. 홍명교입니다. 반갑습니다.

    ◇ 김종대> 그리고 오늘부터 새롭게 이 코너를 담당해 주실 분 모셨습니다. 디지털의 배신이라는 책 들어보셨습니까? 저는 아주 감명 깊게 봤는데 그 저자입니다. 서울과학기술대학교 IT정책 전문대학원 이광석 교수 오셨습니다. 안녕하세요.

    ◆ 이광석> 안녕하세요. 반갑습니다.

    ◇ 김종대> 처음 이렇게 이 코너에 나오셨는데요. 애시당초 이 디지털 별곡이라는 코너 이름의 아이디어가 이 교수님이 그 아이디어 제공해 주셨다는 얘기를 제작진들의 뒷담화를 제가 들었습니다. 그럼 진작 출연하셨어야 되는데 좀 늦으셨습니다.

    ◆ 이광석> 디지털 별곡에 내용들을 뭘 담아야 될 것인지 고민하다 보니까 좀 뒤늦게 합류를 한 것 같습니다.

    ◇ 김종대> 앞으로 2주에 한 번식 나오셔서 계속 이야기 들려주실 걸로 기대하겠습니다. 디지털 이슈 중 최근 가장 큰 논란 바로 '이루다'라는 챗봇이었어요. 저희 방송에서 몇 번 소개했거든요. 그런데 솔직히 저는 아직도 써본 적이 없어요. 그런데 챗봇이 뭐냐, 이런 청취자들 계시거든요. 설명 좀 해 주세요.

    ◆ 이광석> 보통은 여러 가지 인공지능을 활용한 기술들이 있을 텐데요. 여기서 챗봇은 인공지능을 활용한 대화 상대. 기술적으로 대화가 가능하게 하는 그런 프로그래밍 된 인공지능이라고 보시면 좋겠죠.

    ◇ 김종대> 그런데 이루다는 어떤 챗봇인가 그걸 좀 설명 좀 해 주시겠습니까?

    ◆ 홍명교> 원래 챗봇이라는 것 자체가 없었던 건 아닌데 이루다는 인공지능 알고리즘으로 머신러닝을 해서 데이터를 최대한 많이 모아서 그걸 가지고 이제 학습을 해서 만든 알고리즘이고요.

    ◇ 김종대> 언제 처음 출시됐죠?

    ◆ 홍명교> 그게 작년 12월 22일에 출시가 됐습니다.

    ◇ 김종대> 작년? 얼마 안 됐네요?

    ◆ 이광석> 지금 중단하기까지 한 20일 정도밖에 안 됐다고 봐야죠.

    ◇ 김종대> 신상품이라고 해도 과언이 아니겠습니다.

    ◆ 홍명교> 그런데 얘가 학습한 데이터가 카카오톡 대화 내용을 가지고 학습한 거라고 하고요. 약 한 100억 건 정도라고 얘기한 얘기가 있습니다.

    ◇ 김종대> 상당한 데이터입니다.

    ◆ 이광석> 그런데 이제 조금 우리가 한 칸 약간 거리를 두고 봐야 되는 게 숫자상으로는 많은데 이따 얘기도 나누겠지만 상당히 편향되고 편중된 데이터다. 100억 개, 양으로 보면 많지만 질로 따지면 20대 초, 10대 청소년들이 은밀하게 주고받는 그런 사담, 둘이서 이제 연애관계에 있는 그런 알콩달콩한 사담들을 100억 개를 모아놓은 거거든요. 그러니까 일반적인 정서상의 그런 대화들이라고 보기는 조금 어렵죠.

    ◇ 김종대> 그러면 체험기 부터 한번 들어보겠습니다. 이 교수님 한 번 써보셨습니까?

    AI 챗봇 '이루다' (사진=연합뉴스)

     


    ◆ 이광석> 저는 사실은 출시되고 바로 쓴 게 아니고 문제가 생기고 회사에서 이렇게 발빠르게 지난주 주말 한 3일 동안 문제된 혐오나 차별이나 장애인 혐오나 여성 차별이나 등등의 문제들이 생겼을 때 발빠르게 조치하는 그 상황 안에서 썼거든요. 그런데 주로 특성들이 뭐냐 하면 될 수 있으면 대답을 안 한다. 트랜스젠더가 뭐냐. 그러면 이제 답을 안 하는 거죠. 어떤 경우는 굉장히 우호적인 발언들을 하기도 하고요. 그리고 자기 모순적인 답을 하기도 합니다. "흑인 스타일이 뭐야?" 그러면 "흑형 ㅋㅋㅋ" 그러다가 "흑형이 뭐야" 그러면 "흑형, 그런 말 쓰면 안 돼요" 이런 식으로 대답을 한다는 거죠.

    ◇ 김종대> 이게 또 뭔가 한 수 가르쳐주듯이.

    ◆ 이광석> 그러니까 알고리즘 논리 구조가 완벽하게 패칭을 작업들을 하고 문제된 것들을 바로잡으려고 하기는 했었는데, 회사 내에서. 역부족이었던 거죠. 이용자들이 계속 쓰면서 그런 차별이나 어떤 그런 혐오 발언들의 그런 자기 모순적인 그런 상황들을 계속해서 발견해내고 그것들을 사람들한테 알려나가면서 문제는 일파만파로 더 커졌었죠.

    ◆ 홍명교> 이게 한 열 마디 정도밖에 기억을 못 한다고 하더라고요. 그래서 앞에 했던 얘기랑 모순되는 말을 막 하기도 그렇다고 들었습니다.

    ◇ 김종대> 많이 써보셨어요?

    ◆ 홍명교> 저는 쓰기가 싫더라고요. 그런데 이제 체험기를 굉장히 많이 봤습니다.

    ◇ 김종대> 체험기. 어떤 인상적인 사례가 있다면?

    ◆ 홍명교> 예를 들면 민주노총 물어본 거, 장애인, 이런 거 물어보는 거 저는 많이 봤거든요. 그런데 그런 거에 대해서 초기에는 굉장히 이제 혐오적인, 차별적인 발언을 한 걸로 나왔고 사례들이. 그런데 이게 비판을 많이 받으니까 나중에 수정이 돼서 개선이 된 걸로 알고 있습니다.

    ◇ 김종대> 그렇군요. 그러니까 지금 이루다가 성희롱의 대상이 된 것도 문제고 또 소수자에 대한 혐오 표현을 드러내는 것도 문제고 이런 것들이 걸러지지가 않고 굉장히 민낯으로 막 드러났던 것 같아요. 이런 식으로 문제된 케이스. 이루다뿐만 아니라 여러 군데서 나타났죠? 미국에서는 일찍부터 나타났고요.

    ◆ 홍명교> 2016년에 마이크로소프트가 테이라는 인공지능 챗봇 알고리즘을 출시한 적이 있는데요. 이거는 이제 트위터 대화 내용 이런 걸 데이터로 해서 만들어진 건데 이게 나오자마자 미국에 있는 인종차별주의자들이나 여성 혐오하는 사람들, 이런 사람들이 비밀리에 익명으로 얘를 막 훈련을 시켜서 얘가 질문을 했을 때 가령" 너는 인종차별주의자냐" 라고 이런 질문을 하면 "그렇다"라고 얘기한다든지 "인종 학살을 지지하냐" 그러면 "그렇다"고 한다라든지 "트럼프가 미국의 희망"이라고 한다든지 이런 식의 대답을 하면서 논란이 돼서 16시간 만에 서비스가 중단이 된 일이 있었습니다.

    ◇ 김종대> 그게 마이크로소프트가 만든 건가요?

    ◆ 홍명교> 예.

    ◇ 김종대> 이런 어떤 대기업이 만든 것도 서비스하자마자 중단이 됐네요. 그외 또 다른 사례는요?

    ◆ 홍명교> 굉장히 다양한 사례들이 있는데요. 중국에서도 샤오빙(小冰) 이라는 서비스가 있었는데 이거 같은 경우는 어떤 정치적인 문제 이런 것 때문에 논란이 돼서 QQ(메신저)나 이런 데서 삭제가 된 사례들도 있었고요.

    ◇ 김종대> 중국에서도 문제됐군요?

    ◆ 홍명교> 그밖에도 필로소퍼 등등 이런 문제들이 있었는데 이것도 마찬가지로 인종차별적인 발언을 해서 문제가 많이 됐던 걸로 알려져 있습니다.

    ◇ 김종대> 그러니까 어떤 인공지능 챗봇이든 간에 차별적 발언이 주로 문제가 되는 것 같습니다. 또는 어떤 금기를 넘어선다든가 대부분 비슷비슷한 사례입니까, 이 교수님?

    ◆ 이광석> 지금 이번에 스캐터랩은 사례로 보면 비슷합니다. 그런데 대처 방안에 있어서는 좀 아쉬움이 있죠. 이번 사례는 특히 이제 미국의 마이크로소프트 테이의 경우는 하루도 안 걸려서 바로 닫아버렸거든요. 서비스를 중단해 버리고 그 알고리즘에 어떤 문제가 있는지 그런 인종주의적 발언에 대해서 내부적으로 기술적으로 무슨 문제들이 있는지 점검을 하고 그리고 마이크로소프트가 워낙 대기업이잖아요. 그러다 보니까 내부 PR팀을 통해서 빠르게 그 문제를 수습했던 것 같습니다. 그리고 좀 더 기민했던 게 그다음 해에 인공지능 윤리 가이드라인이라는 지금 전 세계에서 상당히 많이 쓰고 있는 그런 원칙들이 있습니다. 인공지능을 개발할 때는 기술적으로 이러이러해야 된다. 사회적으로 그것이 시판됐을 때 어떤 영향력이 미칠 수 있으니까 그 부분에서 주의해야 된다는 그런 원칙 같은 게 있거든요. 그런데 기업 내부에서 그걸 마련했습니다. 마련하고 인공지능 개발과 관련한 감사위원회 같은 것들을 만들어서 이후에 문제될 소지들을 굉장히 최소화시켰던 거죠. 그런데 스캐터랩은 이제 계속 그 부분을 그냥 보완해서 계속 끌고 가려고 했다가 결국은 이제 사적 정보침해라는 그런 문제까지 터지면서 부득불 20일 만에 서비스를 중단하게 되는 조금은 대처방식이 서로 다른 아마추어적인 국내의 경우는 그런 경우라고 볼 수가 있겠습니다.

    ◇ 김종대> 말씀 들으면서 제가 조금 혼란스런 부분이 있어요. 조금씩 정리를 해야 될 것 같은데요. 인공지능의 윤리의 원칙을 가이드라인을 만든다. 하지만 인공지능은 학습을 한 죄밖에 없잖아요. 이건 기계고요. 분명히 사람들의 실제 대화에서 학습을 한 거라면 이건 인공지능 자체의 윤리 문제보다는 실제로 이런 문제 발언을 인간들이 많이 한다는 거. 또 이런 민낯을 드러내 보여줬다는 거. 결국은 사람의 문제하고도 또 중첩돼 있는 거 아니겠습니까?

     



    ◆ 홍명교> 확실히 사회 존재하는 문제들을 그대로 기술 개발할 때도 그대로 똑같이 반영이 똑같이 되는 것 같습니다. 그래서 저는 개발자들이 그 사회에 존재하는 여러 갈등들이나 모순들에 대해서 인식을 하고 이게 이제 개발 과정에서 어떤 식으로 좀 더 체현이 되고 어떤 식으로 문제지를 갖고 이걸 제어를 해야 될지 기술적으로 이런 걸 좀 더 세심하고 조심스럽게 고민을 많이 해야 되는 것 같습니다.

    ◇ 김종대> 아니, 그러니까 그 문제가 과연 기계한테 윤리를 가르칠 수 있느냐는 거예요. 많이 시도들은 했는데도 안 되고 있는 거 아닙니까?

    ◆ 이광석> 사실은 어떻게 보면 학습하기 이미 이전에 100억 개 데이터가 굉장히 오염된 데이터라는 거죠.

    ◇ 김종대> 오염된 데이터였다.

    ◆ 이광석> 이미 대중이 그걸 가지고 챗봇하면서 얘가 기계학습을 하면서 나름 세상에 대해서 이해하면서 자기 나름대로 대처하면서 대답법들을 만들어낸 것이 아니고 마치 알파고가 기보를 계속 미리 익히고 학습 데이터를 익히고 나중에 다른 사람들과 인간과 실제 경기를 하면서 확장시키는 것처럼 그런 시점을 전혀 거치지 않고 이 사건은 사실은 1차 어뷰징의 문제입니다. 1차 편향성에 대한 컨트롤을 개발자가 못 했기 때문에 벌어진 양상이다, 문제다 그렇게 볼 수가 있겠죠.

    ◇ 김종대> 그럼 그런 개발 방식에서 이런 어떤 결과는 이미 예정된 결과라고 해도 과언이 아니겠어요? 그러면 그게 해결 가능한 문제인가도 더더욱 궁금해지는데요. 그럼 앞으로 개발 과정에 그런 윤리의 기준과 원칙을 세워서 기계를 제대로 학습시킬 수 있겠느냐, 이런 질문이 또 따라올 것 같아요.

    ◆ 이광석> 일단은 윤리 교육을 지금 큰 기업들은 자체적으로 자정의 그런 윤리 가이드라인이 있어서 하는데 그런데 작은 기업들은 그런 것들이 없으니 지금 최근에 방통위에서도 그런 얘기를 했었지만 그런 AI 관련된 윤리 가이드라인에 대한 교육들. 작년 말에 과기정통부나 이런 방통위에서 얘기들이 나왔거든요. 원칙을 마련했고 전문가들 회의를 통해서 그것들을 만들어냈습니다. 그런데 대중적으로 이런 것들이 홍보가 덜 되고 그리고 잘 그것들이 실제 행위자들,시장 행위자들에게까지 잘 영향이 미치지 않고 있는 거죠. 그래서 저는 그런 인공지능 윤리와 관련된 그런 교육들을 좀 의무화해서 큰 기업들은 자체적으로 있지만 좀 작은 기업들,벤처 기업들이나 스타트업들에게는 강제해서 그에 대한 인지를 하면 적어도 그것들을 만드는 초기단계에서는 뭔가 본인들이 어떤 작업들을 하고 있는지에 대한 생각들이 있다라는 거죠. 그런데 문제는 윤리 가지고는 안 되잖아요. 윤리만 가지고 안 되죠. 그게 이제 법적 강제력이 없기 때문에 그거는 일종의 어떻게 보면 추천이고 권고사항으로서 우리가 받아들여줘야 되는 것이고. 뭘 한다고 그러면 경고도 할 수 있고 만약에 윤리라고 한다면 그런 부분들이 있지 않습니까? 가이드라인을 만들어줘서 이런 부분에서는 이렇게 표현하고 다문화와 관련해서는 이렇게 표현하고 혐오 표현은 이렇게 AI에서 구현할 때 이런 것을 조심하라 했을 때에는 개발자들이 어느 정도 긴장할 수가 있다라는 거죠. 그런데 이제 그것만은 안 된다. 그렇다면 이제 법적 강제와 심의를 할 수 있는 그런 기구들이 필요한데 그런데 아직까지는 시기상조지만 그에 대한 마련들은 앞으로 인공지능이 사회적으로 영향력을 미칠 수 있기 때문에 그 부분에 대한 준비들을 해야 되지 않을까 하는 생각은 있는 거죠.

    ◇ 김종대> 이 부분에 대해 제대로 준비 안 되면 괴물이 탄생할 수도 있겠습니다. 이게 지금 챗봇의 문제지만 나중에 인공지능이 어디에 쓰일지도 모르는데 사회 모든 어떤 저변으로 확산된다면 이게 괴물이 될 수도 있는. 그럴 가능성을 보여준 거로 봐야 되지 않을까요?

    ◆ 홍명교> 저도 그렇게 생각하고요. 그래서 실제로 유럽연합 같은 경우나 미국이나 캐나다에서는 그런 걸 방금 교수님이 말씀하신대로 법률적으로 좀 강제할 수 있도록 하는 논의들이 디테일하게 점점 이루어지고 있는 걸로 알고 있습니다. 예를 들면 인공지능 중에서도 좀 고위험,위험도가 높은 인공지능 알고리즘 같은 경우에는 훈련 데이터를 공개한다든지 뭔가 이런 개발 기록을 보존해야 된다라든지 정보 공개, 감독을 강화한다든지 이런 것을 좀 조치를 만들려고 하는 추세에 있는 걸로 알고 있습니다. 그런데 이번에는 이루다 같은 경우에는 개인정보 침해 문제도 굉장히 심각하거든요. 아까 말씀드렸다시피 카카오톡 대화 내용을 넣었잖아요, 여기다가. 훈련 데이터가 카카오톡 대화 내용인데 일단은 이 대화를 개인정보를 넣은 사람이 둘이서, 두 명 이상 대화를 했을 거 아니에요. 그런데 상대방의 동의가 없이 넣은 문제가 있고요.

    ◇ 김종대> 데이터를 무단으로 수집하는 문제.

    ◆ 홍명교> 연애 관계라든지 아니면 썸 타는 관계라든지 보통 이런 관계의 대화인데 이거를 상대방 동의 없이 넣은 문제가 있는데 이거에 대해서 지적을 하니까 이 개발사 측에서는 한 명이 동의했으니까 문제 없는 거라고 생각했다 이런 식으로 답을 했는데.

    ◇ 김종대> 문제 없는 것으로 생각했다.

    ◆ 홍명교> 그런데 사실 법적으로는 전혀 그렇지 않습니다.

    ◇ 김종대> 법적으로는 어떻습니까?

    ◆ 홍명교> 통신보호법상에 따르면 거기 대화에 참여한 사람들이 다 허락을 해야지 이걸 활용할 수 있지 그거 없이 한 명만 동의했다고 해서 이걸 활용할 수는 없는 부분이 있고요.

    ◇ 김종대> 그러면 탈법 내지는 불법이 있었다고 보시는 건가요?

    ◆ 홍명교> 불법이 있다고 보는 시각이 확실히 있는 것 같고 지금 조사 중이라고 하는데 개인정보보호위원회에서 조사 중인데 결과를 봐야겠지만 어쨌든 그런 부분이 있는 거고 또 실제로 이 데이터를 활용하는 동의를 얻는 것도 이게 민감 정보라든지 이런 거는 분명하게 이용자한테 고지를 해야 되거든요. 이게 다른 앱에서 데이터를 얻어간 건데 이게 다른 서비스에 쓰일 수가 있다라는 것을 아주 분명하게 적절하게 고지를 해서 이용자가 "오케이, 나는 그런 것도 다 상관없다"라고 해야지 되는 건데 그런 게 제대로 고지가 안 된 상태로 그냥 얼렁뚱땅 동의를 얻은 부분이 있는 것 같습니다.

    ◇ 김종대> 그렇군요. 이 교수님.

    ◆ 이광석> 지금 홍명교 선생님이 말씀하신 것 중에 아주 중요한 지점이 있는데요. 예전에는 프라이버시 하면 자기의 개인적인 정보들이 외부로 빠져나가는 것에 대해서만 개별화된 개인, 그렇게 생각했는데 지금 이 문제는 뭐냐 하면 공동 프라이버시거든요. 그러니까 본인이 가입자지만 본인과 같이 채팅을 했던 다른 타자. 그 방에 같이 있었던 사람들이잖아요. 예전에도 그런 사건들이 있기는 있었지만. 그들의 사실은 프라이버시권의 보호도 굉장히 중요하거든요. 그래서 그걸 보통 공동 프라이버시라고 그러는데 최근에 많은 사람들이 이렇게 연결돼 있으니까, 서로 서로. 그 부분에 대한 인권 보장, 정보 인권 보장에 대한 부분들을 우리가 굉장히 등한시하고 있는데. 사실은 이번에도 그런 사안이 결부돼 있다라고 볼 수 있죠.

    ◇ 김종대> 그러니까 이게 어떤 사람들 간의 대화를 말하자면 감청을 하는 것과 같은 효과, 무단으로 썼다면. 똑같은 거 아닙니까? 그런데 20대 국회 때 데이터3법이라고 통과돼서 익명이나 가명으로 하는 정보는 또 이용할 수 있게 제도가 많이 바뀌지 않았습니까?

    ◆ 홍명교> 가명정보화하는 걸 허용하게 된 게 제가 볼 때는 문제인 것 같은데요. 그래서 거기서 보면 이름이나 숫자 이런 걸 가렸다고 개발사에서는 얘기하는데 이게 확실히 데이터가 엄청나게 많아질수록 통제할 수 있는 거는 굉장히 줄어들거든요. 한계가 있을 거 아니에요. 그래서 이번에 노출된 것도 이를테면 이 대화 속에 있는 동선이라든지 아니면 어디 갔다라든지 이런 부분들이 그대로 드러난 부분이 있어서 거기서 드러나는 민감 정보도 확실히 있고 성생활 내용이라든지 이런 것도 포함돼 있다고 들었습니다.

    ◇ 김종대> 이거 굉장히 좀 소름끼치는 얘기를 해 주시는데. 이번에 이루다가 그런데 20살 여대생으로 캐릭터가 설정이 돼 있어요. 이거 왜 그랬을까요?

    ◆ 홍명교> 일단은 연애의 과학 앱 자체가 20대 남성이 이용을 많이 하는 앱이라고 하더라고요. 그러니까 이제 자기 연애 상담을 하는 건데 그러니까 자기 상대방은 20대 여성인 경우가 많겠죠. 그러다 보니까 이게 많이 늘어난 거고 그러니까 데이터 앱 자체가 여성이니까 그대로 캐릭터 설정도 20대 여성으로 만든 것 같고요. 우리 한국 사회에서 존재하는 남성들이 갖고 있는 여성에 대한 편견이라든지 이런 게 그대로 반영된 게 있는 것 같고 성 역할이 있잖아요. 이루다는 되게 착하고, 대답 잘 해 주고 고분고분하고 그렇잖아요. 그런데 사실 실제 대화는 20대 여성들이 그렇게 대답 안 하죠. 갈등도 있을 거고 문제의식도 있을 거고 이런 건데 이런 게 이제 전혀 드러나지 않은 채로 남성들이 막 상상하는 어떤 모습 속에서 상상 속에 맞춰진. 그런 게 있는 것 같습니다.

    ◇ 김종대> 거기에 맞춰져 있다. 이건 뭔가 다른 문제도 보이네요. 이 교수님, 이건 AI를 만드는 업체 자체가 애시당초 남성 개발자 중심으로 개발되다 보니까 이런 편향이 발생하는 거 아닐까요?

    이광석 서울과학기술대학교 IT정책전문대학원 교수(왼쪽)와 홍명교 IT 활동가 (사진=김종대의 뉴스업 제작진)

     


    ◆ 이광석> 이걸 사회학적 연구나 통계적으로 뭔가 보고 정확하게 질적으로 분석을 할 필요는 있습니다. 그런데 이제 인상적으로 봐서도 사실은 개발자가 남성 중심의 성비를 가지고 있는. 성비에 있어서 불균형이 있는 그런 측면들을 보여주고 있고요. 제가 기자들을 통해서도 이루다 내부 조직 구성과 관련해서 개발자의 성비나 이런 것들을 물어봤는데 거의 남성이라고 저도 들었고요. 그런데 이제 그거 자체를 문제 삼기는 좀 어려울 수도 있겠습니다. 하지만 지금 최근에 구글 사건도 그런데 구글의 유색인종의 프로그래머였는데 백인 남성 중심의 AI 개발과 관련해서 내부 조직에서 문제 제기를 했어요. 그런데 얼마 전에 해고를 당했거든요. 그것 때문에 굉장히 큰 파란이 일어났었죠. 구글과 같은 그런 개방된 그런 조직 형태 내에서도 이렇게 유색인종에 대한 차별과 백인 중심의 그런 개발자 문화들이 굉장히 팽배해 있다라고 할 정도라면 한국 사회에서 사실 개발자 문화에 대해서 조금 더 비판적으로 우리가 봐야 될 것 같고 향후 성비의 구성이나 성소수자나 외국인, 외국계 한국인 등 이분들이 이제 얼마나 그 안에 같이 들어가서 작업들을 하느냐에 따라서 사실은 질적인 차원. 그게 전체적으로 볼 수는 없지만 인공지능의 편향이나 이런 것들을 많이 해소시키는 데 도움이 되지 않을까 그렇게 생각이 듭니다.

    ◇ 김종대> 최근 구글 내에서 직장 내 차별이 크게 문제가 돼서 분쟁이 발생했다는 뉴스는 들은 적이 있습니다. 이런 문제하고 연결이 돼 있다는 거는 생각지도 못했는데요. 많이 참고가 됩니다. 기업의 AI 기술 만들 때 이 윤리적 가이드라인 잘 적용해야 될 것으로 보입니다. 우리가 아직 준비가 부족하죠. 현재 상황은 어떻습니까?

    ◆ 이광석> 그렇죠. 많이 부족하죠. 우리나라가 잠깐 말씀드렸지만 작년 한 10월경에 조금 정부에서 마련한 안이 모아져서 각계에서 올라온 안들이 모아져서 정부의 안으로 됐고요, 10월쯤에. 그게 이제 인공지능 윤리가이드라인이라는 이름으로 만들어졌고 그런데 그게 아직은 민간에까지 시장에까지 저변화되지는 못해서 사실은 이번에 이루다 건도 그런 것들을 조금 일상화되고 우리가 그거에 대한 민감하게 가이드라인이나 윤리에 대한 개발자 윤리에 대한 인식들이 있다라면 조금 달라질 수 있을 텐데 미국에서 버크만센터, 하버드대학의 버크만센터라고 있습니다. 국제적으로는 지금 36개? 그들이 조사한 시점은 한 2~3년 전인데요. 아마 지금 대표적으로 정부나 민간단체, 기업들에서 만들어낸 굴지의 빅테크라고 하는 IT 대기업들이 만들어낸 자체 윤리도 있거든요. 전체 합치면 한 40여 개가 된다고 합니다. 조사를 했었고 그 안에서 공정성, 평등성,비차별성 등등. 그리고 사회 프라이버시 보호와 관련된 그런 것들이 있다고 하는데 한국에서는 이것들이 시장에서 활동하고 있는 AI로 서비스를 하는 그런 주체들에게는 아직까지 인지가 잘 안 된 것 같아요. 그 부분에서 조금 더 홍보가 되고 윤리가 전부는 아니지만 기본적으로 우리가 이 정도는 기본 베이스를 깔고 AI 서비스를 론칭을 해야 되겠다 이런 마음이 들 수 있도록 이에 대한 홍보들이 많이 이루어지고 가이드라인이 많이 보급됐으면 좋겠습니다.

    ◇ 김종대> 뭔가 제도나 시스템 차원으로 개선해야 될 부분도 있을 것 같은데요. 앞으로 뭘 해야 될까요?

    ◆ 홍명교> 저는 가이드라인만으로는 안 될 것 같다고 생각을 하고요. 법적으로 이번에 불량품을 그냥 낸 거잖아요. 그런데 법적으로 이걸 강제를 해서 확실히 더 분명하게 지키도록 해야 될 것 같아요. 그냥 가이드라인으로 돼 있으면 지키면 좋고 안 지켜도 괜찮고 이런 거는 저는 좀 문제가 될 것 같고. 이걸 자율적으로 그냥 맡겨놓기보다는 이번에 개인정보 문제도 있었고 여러 가지 문제들이 다 이번에 한꺼번에 드러났는데 이런 부분들을 좀 포괄적으로 윤리적 가이드라인을 기반해서 법 제도로 강제할 수 있는 그런 것을 논의하는 테이블이 이제 좀 만들어져야 되지 않나 생각합니다.

    ◇ 김종대> 이 교수님도 어떤 사회적 변화가 필요하다고 보세요?

    ◆ 이광석> 저도 동의합니다. 그런데 이제 어느 하나가 강조될 필요는 없는 것이고 저는 2개가 다 가야 된다고 보거든요. 그러니까 윤리 의식도 있어야 되고 법적 강제력도 또한 우리가 있어야 된다. 그러니까 악의적으로 이제 AI를 오남용하거나 기본적으로 1차 어뷰징, 오남용에 대한 그런 것들을 철저히 안 한 것은 개발자에 상당히 문제가 있기 때문에 그런 것들에 대한 경고, 처벌. 이런 것들에 대한 전체적으로 전문화된 그런 규제를 할 수 있는 기구나 혹은 지금에 있는 방통위 내에서. 방송위 사실 내에서의 AI를 그런 규제들을 할 수 있는 그런 여건이 되는지는 모르겠습니다. 하여튼 그 안에서 하든 밖에 독립된 형태로 하든 AI와 관련된 사회적 응용과 관련된 규제 장치들이 분명히 필요한 것은 사실이죠.

    ◇ 김종대> 또 기업에서는 규제 많아진다고 이거 이래서 인공지능 언제 발전하냐, 디지털 뉴딜 언제 하냐 이런 반론이 나올 법도 해요.

    ◆ 홍명교> 이미 그렇게 벌써 얘기를 많이 하시더라고요. 네이버 같은 데서 인터뷰, 언론 인터뷰. 최근에 논란이 확 되니까 인터뷰를 내면서 이게 기업들의 어떤 자율성을 제한하는 식으로 가면 안 된다. 이거는 아마추어리즘의 문제였다는 식으로 약간 꼬리를 자르시면서 이렇게 가고 있는데 제가 보기에는 제도적으로 부족하기 때문에 이런 일이 벌어지는 거지 단순하게 일부 스타트업들의 문제라고 볼 수는 없는 것 같습니다.

    ◇ 김종대> 그렇습니까? 알겠습니다. 홍명교 씨, 서울과학기술대학교 IT전책전문대학원 이광석 교수님 두 분 오늘 말씀 감사합니다.

    ◆ 이광석> 감사합니다.

    ◆ 홍명교> 감사합니다.

    이 시각 주요뉴스


    실시간 랭킹 뉴스

    노컷영상

    노컷포토

    오늘의 기자