탑배너 닫기

전체메뉴보기

'소송 압박' 인스타, AI로 노출사진 골라 청소년 보호한다



IT/과학

    '소송 압박' 인스타, AI로 노출사진 골라 청소년 보호한다

    메타, 청소년 보호 강화 장치 발표
    노출사진등 흐림처리 툴 테스트

    연합뉴스연합뉴스
    미성년자의 정신 건강에 악영향을 주고 있다는 이유로 미국에서 소송 압박을 받고 있는 사회관계망서비스(SNS) 인스타그램이 11일(현지시간) 청소년 보호 강화 장치를 발표했다.

    인스타그램 모기업인 메타플래폼(메타)은 인스타그램에서 과도한 노출 사진, 성 착취 범죄 등으로부터 청소년들을 보호하고 잠재적 범죄자와 청소년의 상호작용을 어렵게 만드는 새로운 기능을 개발 중이라고 밝혔다.

    메타는 인스타그램 다이렉트 메시지(DM) 시스템에서 미성년자에게 전송되는 누드 이미지를 자동으로 감지해 흐리게 처리할 수 있는 인공지능(AI) 기반의 도구(tool)를 시험 중이라고 설명했다.

    나체 사진이 포함된 이미지를 받으면 경고 화면에서 자동으로 흐리게 처리된다. 수신자는 이미지를 접하지 않은 상태에서 이를 볼지 말지 선택할 수 있게 된다.

    이 기능은 18세 미만의 사용자에게는 기본적으로 적용되며 성인에게는 이 기능을 활성화하도록 권장하는 알림을 보낼 예정이다. 메타는 또 이러한 이미지를 보낸 사람을 차단하고 채팅을 신고할 수 있는 옵션을 제공하고, 이런 식으로 접근하는 사람에겐 응하지 않아도 된다는 안내 메시지도 표시한다.

    메타는 지난 1월 미성년자가 유해 콘텐츠에 노출되지 않도록 해당 콘텐츠를 자동으로 차단하는 방안을 마련할 예정이라고 발표한 바 있다.

    이 같은 조치는 미국 당국의 압박이 가중되는 상황에서 나왔다. 지난해 10월 미국 내 41개 주 정부는 인스타그램 등이 과도한 중독성을 갖도록 설계돼 미성년자의 정신건강에 피해를 주고 있다며 메타를 상대로 소송을 제기했다.

    ※CBS노컷뉴스는 여러분의 제보로 함께 세상을 바꿉니다. 각종 비리와 부당대우, 사건사고와 미담 등 모든 얘깃거리를 알려주세요.

    이 시각 주요뉴스


    NOCUTBIZ

    오늘의 기자

    많이 본 뉴스

    실시간 댓글

    투데이 핫포토