탑배너 닫기

노컷뉴스

AI에 진심인 기업들, 새해들어 '윤리'에 꽂힌 까닭은?

IT/과학

    AI에 진심인 기업들, 새해들어 '윤리'에 꽂힌 까닭은?

    새 조직 만들고, AI 공동 윤리 규칙 만들자는 목소리도
    AI 안전성 화두로…AI 관련 법제화 가시화가 배경

    스마트이미지 제공스마트이미지 제공
    '퓨처 AI 센터'
    '인공지능(AI) 거버넌스 도입 추진'


    AI 기술 개발에 심혈을 기울였던 기업들이 새해들어 앞다퉈 AI 윤리 토대를 마련하기 위해 분주히 움직이고 있다. 새로운 조직을 만들거나 격상하고, 기업들이 협력해 공동 윤리 규칙을 만들어야 한다는 목소리도 나온다.  미국·유럽연합(EU) 등 해외의 AI 관련 법제화에 따른 대응이라는 해석이 나온다.

    새 조직 만들고 격상하고

    새해 새롭게 조직을 만든 곳은 네이버다. AI 안전성 연구를 전담하는 '퓨처 AI 센터'를 신설했다. 최수연 대표 직속으로 하정우 네이버클라우드 AI 이노베이션 센터장이 수장을 맡았다. 기존에도 AI 관련 조직이 있었지만 더 커졌고 격상됐다는 평가가 나온다. 한 센터장은 자신의 사회관계망서비스(SNS)에 "2024년은 AI 안전성을 중심으로 한 글로벌 AI 신질서가 만들어질 중요한 시간"이라며 "신설 센터는 선행연구개발이나 데이터 구축 등 기술적인 부분은 물론 안전한 AI를 위한 법, 제도, 정책적인 부분까지 고려한다"고 전했다. AI 기술 개발을 놓지 않고 가져가면서 AI 윤리와 이에 대한 정책 대응까지 유기적으로 살펴 보겠다는 목표다.

    글로벌 AI 컴퍼니를 목표로 한 SK텔레콤도 AI 신뢰성과 안전성 관련 업무를 전담할 조직을 만들기로 했다. 아직 네이버처럼 뚜렷한 조직이 나온 것은 아니다. 다만 AI 거버넌스의 기준을 세우기 위해 국내외 관련 법과 제도를 검토해 3월 안에 AI 추구 가치를 재정립하고 업무 지침을 수립한다는 계획을 내놨다. 이를 위해 태스크포스(TF)를 운영한다. 서울중앙지방법원 부장판사를 지낸 정재헌 대외협력 담당(사장)이 TF장을 맡았다.

    카카오는 2년 전 국내 기업 최초로 '카카오 공동체 기술윤리 위원회'를 구성한 데 이어 지속적으로 회의를 거치며 기술윤리 거버넌스 체계를 고도화하고 있다. 지난해 12월 '2023 카카오 공동체 기술윤리 보고서'를 내고 AI 개발 원칙 수립 등 활동 결과를 소개하기도 했다. 지난해 3월에는 자사 AI 윤리 준칙인 '카카오 공동체의 책임있는 AI를 위한 가이드라인'을 제정했다.

    IT 기업이 자체적으로 윤리 원칙을 제정하는 것에서 더 나아가 기업들이 'AI 공동 윤리 규칙'을 만들어 실천하자는 움직임도 감지된다. 한국지능정보사회진흥원(NIA) 관계자는 "AI 공동 윤리 규칙을 기업들이 공동으로 만들어서 함께 선포하자는 의견 등이 제시되어서 의견을 교환하고 있다"면서 "아직까지 확정된 것은 없다"고 말했다.

    한 IT 업계 관계자는 "2~3년 전만 해도 AI에 대한 선행 기술이 메인이었다면 몇 년 사이 폭발적으로 관심도가 늘면서 자연스럽게 윤리성, 공정성 이슈가 따라왔다"면서 "최근 급속도로 AI 안전성에 대한 중요도가 올라감에 따라 기업들이 이 부분에 대한 힘을 싣는 것으로 보인다"고 말했다.

    美·EU 규제 가시화

        AI 안전성 중요도가 올라감에 따라 미국과 EU에선 AI 윤리 법안이 제정되는 등 규제를 구체화하고 있다. 지난해 10월 내놓은 미국 바이든 정부의 AI 행정명령에는 'AI 안전성 평가 의무화' 등이 담겼다. 이때 AI 관련 개념을 광범위하게 해석할 여지가 있어 기술 기업이 받을 영향이 클 수 있다는 분석이 나온다. 박성필 한국과학기술원(KAIST) 미래전략대학원장은 지난해 12월 열린 'AI 시대, 글로벌 규범 논의 주도를 위한 간담회'에서 "(AI 문제가) 국민 안전, 국방, 기업 보안과 연결되기 때문에 정부로서는 단호히 조치한다는 일관된 기조를 보인다"며 "이번 행정명령이 본격화되면 포괄적이고 광범위한 규제가 될 것"이라고 전망했다.

    EU의 규제는 더욱 세다. EU는 지난해 12월 금지AI, 고위험AI 등 AI의 위험 등급을 부여하는 등의 내용을 담은 'EU 인공지능 법안'(EU AI Act)을 합의했다. 특정 분야의 AI 시스템에 국한되지 않는 기본법적 성격으로 위험 요소를 규제한 법안이다. 범용 AI(General Purpose AI, GPAI: 다양한 용도로 사용할 수 있는 강력한 AI모델)를 개발하는 기업은 AI 모델의 학습 과정을 보고해야 한다는 내용까지 포함했다.

        
    안전한 AI를 위한 국제 공조 움직임도 활발하게 이뤄지고 있다. AI 기술의 파급력이 한 국가 뿐 아니라 전 세계에 영향을 미쳐서다. 미국과 한국 등 28개국과 유럽연합(EU)은 지난해 11월 영국에서 '제1차 AI 안전 정상회의'를 열고 AI가 초래하는 위험을 막자는 '블레츨리 선언'을 채택했다. 강제성은 없지만 AI 안전성을 위한 협력이 필요하다는 내용을 담은 첫 합의문이다.

    정부는 오는 5월 영국 정부와 함께 'AI 안전성 정상회의'를 국내에서 개최하고 9월 UN이 여는 미래 정상회의에 참석하는 등 AI 주도국으로 부상하고 있다. 이를 뒷받침하기 위해 'AI 산업 육성 및 신뢰 기반 조성 등에 관한 법률안(AI 기본법)'이 발의돼 있다.  주무부처인 과학기술정보통신부는 여전히 연내 처리를 추진하고 있지만, 선거전이 본격화되면서 논의가 미뤄질 것이라는 전망이 나온다.

    ※CBS노컷뉴스는 여러분의 제보로 함께 세상을 바꿉니다. 각종 비리와 부당대우, 사건사고와 미담 등 모든 얘깃거리를 알려주세요.

    이 시각 주요뉴스


    실시간 랭킹 뉴스

    노컷영상

    노컷포토

    오늘의 기자