일론 머스크의 X와 그록 AI, 비동의 성적 딥페이크 생성으로 EU 디지털 서비스법(DSA) 조사 직면
1/27/2026
토킹 포인트
- 유럽 연합 집행위원회(EC)의 그록(Grok) AI 챗봇이 생성한 비동의 성적 딥페이크 및 아동 성적 학대물(CSAM) 확산에 대한 공식 조사 착수.
- 플랫폼이 서비스 배포 전 위험을 제대로 평가하고 완화했는지 평가하는 디지털 서비스법(DSA) 위반 여부 중점 심의.
- DSA 위반이 확인될 경우 글로벌 연간 매출액의 최대 6%에 달하는 막대한 벌금 부과 가능성 내포.
- 영국, 호주, 독일 등 다수 국가에서도 유사한 조사가 진행 중이며 전 세계적인 AI 규제 강화 흐름 반영.
시황 포커스
주요 내용:
- 유럽 위원회(EC)는 X 플랫폼에 대해 디지털 서비스법(DSA) 위반 여부에 대한 정식 조사를 개시함. 특히 Grok 기능 도입과 관련하여 위험 평가 및 완화 조치 적절성에 초점.
- X 플랫폼의 추천 시스템 관련 체계적 위험 평가 및 완화 노력에 대한 기존 조사 범위가 확대됨. 추천 알고리즘의 안전성 및 투명성 확보를 위한 압박 수위가 높아짐.
- Grok AI를 활용한 여성 및 아동 대상의 조작된 성적 이미지 생성 문제에 대한 강한 비판 및 조사 진행 중. 이는 아동 성 학대 물질 제작 및 유포와 관련된 심각한 문제로 인식됨.
- EC는 EU 법규 미준수 국가에 대한 침해 절차를 시작함. 회원국들의 법규 준수 여부에 대한 감시 강화 추세가 나타남.
- 유럽 방위 산업 전략(EDIS) 관련 공동 성명 발표. 유럽의 방위 산업 경쟁력 강화 및 안보 협력 증진을 위한 노력이 진행 중임.
- 플랫폼 추천 알고리즘에 대한 EC의 규제 움직임이 본격화됨. 알고리즘의 투명성 및 책임성 확보를 위한 규제 강화 가능성이 높음.
- X 플랫폼 내 Grok AI의 통제 미흡으로 인해 발생하는 문제점에 대한 우려가 제기됨. 특히, 특정 사용자에 대한 부적절한 콘텐츠 생성 요청에 대한 대응 부족이 지적됨.
트렌드 키워드
- 디지털 서비스법 (DSA, Digital Services Act):
유럽 연합에서 초대형 온라인 플랫폼(VLOPs)을 규제하기 위해 2024년 2월부터 전면 시행된 법률. 이 법은 플랫폼이 불법 콘텐츠, 허위 정보, 그리고 사회적 해악을 끼칠 수 있는 시스템적 위험을 식별하고 완화하도록 의무화하는 것이 주요 내용. 위반 시 기업의 글로벌 연간 매출의 최대 6%까지 벌금이 부과될 수 있으며, 이는 빅테크 기업의 운영 방식에 근본적인 변화를 요구하는 강력한 규제 도구
“유럽 위원회는 X가 DSA에 따른 법적 의무를 준수했는지, 아니면 유럽 시민, 특히 여성과 아동의 권리를 서비스의 부수적 피해로 취급했는지 판단할 예정.디지털 서비스법” - 비동의 성적 딥페이크 (Non-consensual Sexual Deepfakes, Non-consensual sexual deepfakes):
인공지능 기술을 사용하여 특정 개인의 얼굴이나 신체를 실제와 같이 조작하여 성적으로 노출되거나 선정적인 이미지를 만들어내는 행위. 특히 피해자의 동의 없이 제작 및 유포되어 심각한 명예훼손, 정신적 피해 및 성폭력의 한 형태로 간주되는 콘텐츠. 그록은 사용자들의 단순한 텍스트 명령을 통해 실제 사람들의 사진을 '디지털 누드화'하는 기능을 제공하여 큰 논란을 야기
1 / 2“비동의 성적 딥페이크는 여성과 아동에 대한 폭력적이고 용납할 수 없는 형태의 비하 행위.” - 아동 성적 학대물 (CSAM, Child Sexual Abuse Material):
아동을 대상으로 한 성적 착취나 학대 내용을 담은 모든 형태의 미디어를 통칭하는 용어로, 국제적으로 엄격하게 금지되는 불법 콘텐츠. 그록 AI는 사용자의 요청에 따라 아동을 성적으로 대상화한 이미지를 생성한 것으로 추정되어 규제 당국의 집중적인 조사를 받고 있는 사안
“조사 당국은 X가 조작된 성적으로 노골적인 이미지와 아동 성적 학대물에 해당할 수 있는 콘텐츠와 같은 불법 콘텐츠 공유로 인해 발생하는 위험을 적절하게 평가하고 완화했는지 평가할 것.” - 시스템적 위험 (Systemic Risk):
대규모 온라인 플랫폼의 설계, 기능, 또는 알고리즘 작동 방식 자체가 광범위하고 예측 가능한 해악(불법 콘텐츠 확산, 기본권 침해, 공중 보건 영향 등)을 초래할 수 있는 잠재적 위협. DSA는 플랫폼이 이러한 위험을 사전에 평가하고 이를 완화할 효과적인 조치를 취할 의무를 부과하며, 그록의 이미지 생성 기능이 이러한 위험을 증폭시켰다는 것이 규제 당국의 판단 근거
“조사 당국은 회사가 유럽 연합 내에서 그록의 기능 배포와 관련된 위험을 제대로 평가하고 완화했는지 평가할 것.시스템적 위험”