연합뉴스날이 갈수록 진화하는 피싱 범죄의 수법에 인공지능(AI) 기술까지 악용될 우려가 커지고 있다. 단 몇초의 목소리 샘플이나 사진 한장만으로 특정인의 음성과 얼굴을 복제하는 생성형 AI의 악용 사례가 해외에서 실제 나타나고 있다.
금융·수사기관을 사칭한 기존의 피싱 범죄와 달리 AI 피싱은 친한 친구 혹은 부모나 자녀의 음성과 얼굴을 이용한다. 평소 피싱 범죄에 경각심을 갖더라도 주변인을 복제한 AI 피싱에는 깜빡 속아 넘어가기 쉬워 주의가 요구된다.
21일 미국 컴퓨터 바이러스 백신 업체 '맥아피'에 따르면, 생성형 AI는 3초 분량의 목소리 샘플만 있어도 이를 완벽히 복제해 특정인의 말투와 문장을 구현할 수 있다. 특정인의 목소리를 AI가 합성·복제하는 '딥보이스' 기술이다. 맥아피가 전세계 성인 7천명을 대상으로 조사한 결과 응답자의 70%는 AI 목소리와 실제 목소리를 구별하지 못했다.
딥보이스는 음성 안내나 대독 등 순기능 목적으로 개발됐지만, 기술이 발전하면서 범죄에 악용될 여지가 점차 늘고 있다. 악시오스 등 현지 언론도 "AI 기술로 타인 목소리를 복제해 보이스피싱에 악용하는 게 점점 쉬워지고 있다"고 꼬집었다. 실제 맥아피 조사에서 응답자의 10%는 AI 음성을 사용한 보이스피싱 전화를 받은 적 있다고 답했다.
전문가가 아니어도 손쉽게 딥보이스 기술을 구사할 수 있다는 점도 우려를 키우는 요소다. 유튜브만 찾아봐도 외국 유명 가수의 목소리를 AI로 복제해 국내 가요에 합성한 영상들을 어렵지 않게 접할 수 있다. 딥보이스 기술을 다루는 방법을 소개하는 콘텐츠도 여럿이다. 스티브 그롭먼 맥아피 부사장은 "음성 복제는 사용하기 매우 쉬운 수단이다. 범죄자는 AI 전문 지식이 없어도 이를 활용할 수 있다"고 경고했다.
목소리뿐만 아니라 사진 몇장이나 짧은 영상만 있으면 AI 기술로 이제는 얼굴도 복제할 수 있다. 심지어 영상통화와 같은 실시간 촬영 중에도 사람의 얼굴을 바꾸는 게 가능하다. 지난 4월 중국에서 '돈을 송금해달라'는 친구와의 영상통화 이후 430만위안(약 7억7천만원)을 이체한 사건이 벌어졌는데, 얼굴과 목소리를 정교하게 복제한 AI 피싱 범죄로 드러났다. 사기 조직이 SNS를 해킹해 친구의 영상을 확보한 뒤 AI 기술로 얼굴과 목소리를 위조했다.
과거 금융·수사기관을 사칭한 보이스피싱과 달리 AI 피싱은 가족이나 연인, 가까운 친구 등 범죄 대상자의 지인을 끌어들인다는 점에서 일반인들을 더욱 범죄에 취약하게 만든다. 목소리뿐만 아니라 실시간 영상통화 속 얼굴마저 똑같이 복제하는 만큼 평소 경계심을 갖더라도 자칫 속기 쉽다.
대다수 국내 피싱 범죄의 본거지인 중국에서 최근 들어 AI 피싱이 기승한다는 점도 불안을 더하고 있다. 기존 보이스피싱 범죄와 마찬가지로 중국 현지와 연계된 국내 조직을 거쳐 AI 피싱 수법이 넘어올 수 있어서다.
맥아피는 보고서에서 "AI 피싱 피해를 방지하려면 가족 간 암호를 사용하고, SNS 등에 음성을 공개할 때 주의하라"고 당부했다. 최근 과학기술정보통신부와 국가정보원 등이 발간한 '2023 국가 정보보호 백서'도 AI의 범죄 악용 가능성을 제기하면서 "국가 차원의 법적 규제와 지침 등을 마련하고, 개인정보·사용자 보호 등 책임과 권리 강화뿐만 아니라 교육적 대책도 필요하다"고 강조했다.