Kalam News

[리포트] 메타, “미성년자 유해 콘텐츠 노출 제한하겠다”

[앵커멘트]

소셜미디어 페이스북과 인스타그램을 운영하는데 메타플랫폼이 어린이와 청소년들의 정신건강을 해치는 콘텐츠 노출을 제한할 것이라고 발표했습니다.

메타가 피드 필터링을 강화하는 것은 전국 41개 주 정부가 미성년자를 대상으로 과도한 중독성을 야기한다며 소송을 제기한데 따른 대처로 풀이됩니다.

김신우 기자가 보도합니다.

[리포트]

소셜미디어를 한 번 켜면 끄기 쉽지 않은 이유, 바로 알고리즘 때문입니다.

사용자가 관심을 가질 만한 영상을 반복적으로 추천해 노출시키는 구조로 더 오래 서비스망에 머물게 하기 위한 전략입니다.

그런데 노출시키는 콘텐츠 중에는 어린이와 청소년들의 정신건강을 해치는 자극적이고 해로운 영상들이 넘쳐나면서 중독 문제를 야기하기도 했습니다.

이에 따라 각 주정부는 메타의 SNS가 과도한 중독성으로 미성년자 정신 건강에 피해를 주고 있다고 주장하며 지난해 (2023년) 10월 단체 소송을 벌인 바 있습니다.

페이스북과 인스타그램을 운영하는 메타플랫폼은 19살 미만 미성년자가 유해 콘텐츠에 노출되지 않도록 필터링 기능을 강화시켜 보호하겠다고 어제 (9일) 밝혔습니다.

정책 변경 사유에 대해 밝히지 않았지만 41개 주 정부의 줄소송에 대한 대처로 추정됩니다.

구체적으로 미성년자 계정에서 폭력, 총기, 마약, 음란물, 섭식장애, 자해, 자살 등이 포함된 콘텐츠를 자동으로 차단해 노출되지 않도록 조치하겠다는 방침입니다.

18살 미만 사용자 계정에는 피드 필터링이 엄격하게 설정되고 16살 미만의 경우 성적으로 노골적인 내용을 아예 볼 수 없게 조치될 계획입니다.

아울러 팔로우한 계정이 직접 공유한 내용이라고 하더라도 유해 콘텐츠일 경우는 검색이나 열람이 불가능해진다고 설명했습니다.

만약 미성년자가 유해성 주제를 검색할 경우 요청한 콘텐츠를 제공하는 대신 도움을 받을 수 있는 전문 기관 등을 소개하는 기능이 추가될 전망입니다.

메타 측은 “청소년 심리학 그리고 정신건강 전문가와 협력해 청소년에게 안전한 플랫폼을 만들기 위해 노력하고 있다”고 전했습니다.

라디오코리아 뉴스 김신우입니다.