'팔로워 33만' 미녀 샴쌍둥이 인플루언서 알고보니…'반전'

인공지능(AI)으로 생성된 샴쌍둥이 모델이 소셜미디어에서 수십만 명의 팔로워를 모으며 신체 비하 및 성 상품화 논란을 불러일으켰다.

itsvaleriaandcamila 인스타그램 / itsvaleriaandcamila 인스타그램

10일(현지 시각) 영국 데일리메일에 따르면 인스타그램에서 33만 팔로워를 보유한 인플루언서 '발레리아'와 '카밀라'가 AI로 생성된 가짜 인물이라는 사실이 밝혀졌다.

이 계정에는 "두 개의 머리. 한 가지 분위기"라는 소개 글과 함께 결합 쌍둥이들의 사진과 영상이 올라와 있다. "25살, 플로리다에서 태어나고 자랐다"는 설명과 "두 개의 심장이 있고, 각각 한쪽 몸을 통제하고 있다"는 내용도 적혀 있다.

계정 개설 2개월여 만에 팔로워 수가 30만 명을 훌쩍 넘어섰다. "멋지다", "아름답다"며 호응하는 사람들이 늘어났다.

그러나 많은 이용자들은 "부자연스러운 모습이 AI 생성 이미지인 것 같다"며 문제를 제기했다. '발레리아'와 '카밀라' 측은 AI가 아니라며 반박 영상을 올렸지만 전문가들은 재반박에 나섰다.

AI 엔지니어 앤드루 헐버트는 "사진마다 신체 부위 크기가 다르고 두 얼굴의 피부색이 비현실적으로 똑같다. 신체 부위가 모든 사진에 동일한 위치인 게 말이 안 된다"며 "AI로 만들어낸 게 맞다"고 밝혔다.

게시자는 AI 모델이 비키니와 선정적 문구가 적힌 의상을 입은 이미지를 주로 게시했다. 대다수 이용자는 이들을 실제 인물로 오인했으나 최근 AI 캐릭터라는 사실이 드러났다.

노출이 심한 옷차림으로 등장하는 점, 결합 쌍둥이 생존자들이 겪는 처절한 사투를 왜곡하고 있다는 점이 문제로 지적됐다.

itsvaleriaandcamila 인스타그램 / itsvaleriaandcamila 인스타그램

심리치료사 샬럿 폭스 웨버는 "AI로 만들어낸 완벽한 모습의 인플루언서가 SNS에 반복적으로 노출되면서 아름다움의 기준을 만들고 있다"며 "사람들에게 자신의 몸이 별로인 것처럼 느끼게 한다"고 지적했다.

데일리메일은 "선천적인 신체 특징을 성적 대상화하고 있다"며 "결합 쌍둥이를 단순 호기심이나 볼거리로 생각하게 했다"고 비판했다.

태아건강재단 설립자 로니 소머스 의장은 "결합 쌍둥이를 성적 대상화하는 것처럼 보이며, 희귀 질환을 이런 식으로 묘사해 이익을 얻고 있는 게 역겹다"고 말했다. 이어 "이는 매우 심각한 의학적 상태를 화려하게 포장하고 성적으로 묘사하는 것은 역겨운 일"이라며 "누군가 타인의 고통스러운 신체적 결함을 이용해 수익을 올리고 있다는 점이 우려스럽다"고 덧붙였다.

샴쌍둥이는 4만 명 중 1명꼴로 태어나며 이 중 1%만이 생후 1년을 넘긴다. 전체 생존율은 5%에서 25% 수준이다. 출생 후 몇 시간 내 사망할 확률은 50%에 달한다.

생존하더라도 호흡 곤란, 심장 결함, 척추측만증 등 복합적인 질환을 동반한다. 분리 수술은 수십 명의 전문가가 투입되는 고난도 작업이고 장기를 공유할 경우 수술 자체가 불가능하다.

itsvaleriaandcamila 인스타그램 / itsvaleriaandcamila 인스타그램

전문가들은 AI 기술이 실제 환자들의 고충을 가리고 대중에게 왜곡된 인식을 심어줄 수 있다고 경고했다. AI 콘텐츠의 윤리적 가이드라인 마련이 시급하다는 목소리가 높다.

AI 인플루언서는 최근 전 세계적으로 빠르게 확산되고 있다. 가상 인플루언서 시장은 2032년까지 154.6억 달러 규모로 성장할 전망이다. 마케터의 52.8%는 가상 인플루언서가 미래를 바꿀 것이라고 믿고 있다.

가상 인플루언서는 인간 창작자보다 3배 더 높은 참여도를 달성한다. 소비자의 58%가 가상 인플루언서를 팔로우하고 65%가 그들로부터 구매한 경험이 있다. 54%의 소비자는 가상 인플루언서에게서 공감대를 찾는다.

Z세대의 46%는 이전 세대보다 AI 인플루언서를 팔로우할 가능성이 더 높다. 인스타그램 릴스와 유튜브 쇼츠가 가장 높은 참여율을 보인다.

그러나 마케터의 43.8%는 AI 인플루언서의 투명성에 대해 우려하고 있다. 인플루언서 캠페인의 50%에 이제 AI가 포함되고 있다.

전문가들은 AI 개발 과정에서 기업들이 혐오·차별이나 성 편향성을 걸러낼 수 있도록 강제하는 법적 규제가 마련돼야 한다고 강조한다. 이를 모니터링할 수 있는 전담 기구 설치도 필요하다는 지적이다.

경제협력개발기구(OECD)와 유럽연합(EU) 등 국제기구들은 각국이 AI 윤리에 대한 권고안을 마련해 AI 개발 과정에서 활용할 수 있도록 해야 한다고 지적하고 있다.

한국인공지능윤리협회는 "AI든 무엇이든 성적 도구화 및 학대는 그 자체로 잘못된 것이며, 그런 행위를 할수록 실제 인간에게도 비슷한 행위를 할 가능성이 커진다"고 밝혔다.

핫 뉴스

뉴스 view