본문 바로가기
AI국내윤리.규제법가이드

AI로 조작된 뉴스, 국내 정보통신망법은 어떻게 대응하고 있을까?

by mynote7230 2025. 7. 6.

뉴스는 오랫동안 사실을 전달하는 신뢰의 상징이었다. 그러나 인공지능 기술이 발전하면서, 이제 우리는 “이 뉴스가 진짜일까?”라는 질문부터 던져야 하는 시대에 살고 있다. 최근 AI 기반의 딥페이크 기술과 텍스트 생성 기술을 이용해, 실제처럼 보이지만 조작된 뉴스 콘텐츠가 온라인상에서 빠르게 퍼지고 있다. 특히 특정 정치인이나 유명인의 발언을 조작하거나, 존재하지 않는 사건을 그럴듯하게 구성한 AI 뉴스는 사회 혼란, 여론 왜곡, 명예훼손으로 이어질 수 있다.

2024년에는 국내 SNS에서 유명 인플루언서의 인터뷰 영상이 딥페이크로 조작되어 유포되었고, 실제 언론 보도처럼 캡션이 만들어져 사용자들 사이에 혼란을 야기한 바 있다. 생성형 AI가 발전하면서 글, 음성, 영상의 가짜 콘텐츠 제작 비용은 줄었고, 신뢰성은 더욱 높아졌다. 결과적으로 일반 시민은 진짜와 가짜를 구분하기 어렵고, 가짜 뉴스가 여론 형성에 직접 영향을 미치는 상황까지 나타나고 있다.

AI로 조작된 뉴스, 국내 정보통신망법의 대응

 

이러한 현실에서 중요한 질문이 생긴다. “대한민국의 법은 이런 조작 뉴스에 대응할 수 있는가?” 특히 정보통신망을 기반으로 한 콘텐츠 유포에 있어 핵심 법률인 정보통신망 이용촉진 및 정보보호 등에 관한 법률(정보통신망법)은 AI로 만들어진 허위·조작 콘텐츠에 대해 어떤 조치를 취하고 있으며, 법적으로 어느 정도까지 대응이 가능한가? 이 글은 AI 조작 뉴스의 문제와 함께, 국내 정보통신망법이 이에 어떻게 대응하고 있는지를 살펴본다.

 AI 조작 뉴스란 무엇이며, 어떤 방식으로 만들어지는가?

AI 조작 뉴스는 인공지능 기술을 이용해 생성되거나 조작된 허위 정보 또는 가짜 뉴스를 의미한다. 텍스트 생성 AI는 실제 기사 형식을 모방해 자연스러운 문장을 생성할 수 있고, 영상 생성 AI는 존재하지 않는 장면이나 인터뷰를 실제처럼 만들어낸다. 딥러닝 모델은 사람의 얼굴, 목소리, 말투까지 학습해 ‘진짜 같은 거짓’을 생산한다.

이러한 AI 기반 조작 뉴스는 과거의 단순한 거짓 정보와 차원이 다르다. 기존의 가짜 뉴스는 주로 의도적으로 조작된 텍스트 기반 허위 기사였다면, 오늘날의 AI 조작 뉴스는 영상, 음성, 기사 스타일까지 정교하게 모사한다. 이에 따라 사용자는 시각·청각적 요소를 통해 쉽게 속게 된다.

예를 들어, 특정 정치인의 연설을 딥페이크로 조작해 마치 실제로 한 말처럼 만들어 유포하거나, 유명인의 사망 소식을 가짜 뉴스 형식으로 구성해 클릭을 유도하는 사례가 대표적이다. 이처럼 AI는 뉴스의 ‘신뢰 포맷’을 그대로 재현하면서 사실을 왜곡하는 데 사용된다.

AI가 활용되는 방식은 ▲텍스트 생성형 가짜 기사, ▲영상 딥페이크, ▲음성 합성, ▲SNS 캡처 위조 등 다양하며, 실제 언론 보도처럼 보이도록 로고나 기사 구성을 흉내 내는 것도 특징이다. 즉, AI 조작 뉴스는 ‘믿도록 설계된 가짜 정보’라는 점에서, 그 위험성이 더 크다.

 AI 조작 뉴스의 피해와 사회적 파장

AI로 만들어진 가짜 뉴스는 단순한 장난이나 허위 정보 유포를 넘어, 개인과 사회 전체에 큰 피해를 초래할 수 있다. 첫째, 개인 명예훼손 및 사생활 침해가 심각하다. 유명인이나 정치인만 아니라 일반인조차 SNS 이미지나 영상이 도용되어 딥페이크 콘텐츠로 재생산되는 일이 늘고 있으며, 이는 개인의 명예와 인격권을 침해하는 범죄로 이어진다.

둘째, 선거 및 공공 정책에 대한 왜곡이 발생한다. 실제로 AI로 조작된 허위 정보가 특정 후보에 불리한 이미지를 조작해 유포된 사례가 국내에서도 확인된 바 있다. 이는 선거의 공정성을 훼손하며 민주주의의 근간을 흔드는 행위다.

셋째, 경제적 피해도 무시할 수 없다. 가짜 뉴스로 인해 특정 기업의 주가가 하락하거나, 허위 정보로 투자 판단을 잘못 내린 개인 투자자의 피해도 적지 않다. 예를 들어, AI가 생성한 ‘대기업 CEO 사망설’이 언론 보도처럼 퍼져 실제 주가가 출렁인 사례도 있었다.

넷째, 정보 과잉 시대에 시민은 진실과 거짓을 구분하기 어려워지며, 전반적인 정보 신뢰도 자체가 붕괴한다. 이는 언론의 신뢰 상실, 정부 발표 불신, 전문가 의견 경시 등으로 이어지고, 결국 사회적 갈등과 혐오의 확산이라는 부작용을 초래한다.

이처럼 AI 조작 뉴스는 단순한 기술적 문제가 아니라, 법적, 사회적, 심리적 위협을 동시에 발생시키는 복합적 위험 요소라고 할 수 있다.

국내 정보통신망법은 어떤 조치를 하고 있는가?

대한민국의 ‘정보통신망 이용촉진 및 정보보호 등에 관한 법률(정보통신망법)’은 인터넷 공간에서의 정보 유통과 이용자 보호를 목적으로 제정된 법이다. 이 법은 허위 정보 유포, 명예훼손, 음란물, 불법 콘텐츠 등을 규제하고 있으며, 인터넷 사업자의 책임과 이용자의 권리를 함께 규정하고 있다.

정보통신망법 제44조의7은 ‘불법 정보의 유통 금지’를 명시하고 있으며, 타인의 명예를 훼손하거나 공포를 조장하는 정보, 음란 정보, 저작권 침해 정보 등에 대해 서비스 제공자가 삭제 요청을 받고 삭제할 의무가 있다고 규정한다. AI로 조작된 뉴스가 타인의 명예를 침해하거나 허위 사실을 유포할 경우, 이 조항에 근거해 조치할 수 있다.

또한, ‘임시조치 제도’도 존재한다. 피해자가 본인 명예훼손을 주장하며 신고하면, 포털이나 SNS 플랫폼은 해당 콘텐츠를 30일간 임시로 차단하거나 삭제해야 한다. 이 제도는 표현의 자유와 피해자의 권리를 절충하기 위한 방식으로 활용된다.

하지만 문제는 이 법이 AI 기술을 명시적으로 고려하지 않았다는 점이다. 즉, 생성형 AI로 만든 조작 콘텐츠에 대한 규정은 아직 모호하다. 또한, 정보의 생산 주체가 ‘사람’이 아닌 ‘AI’일 경우, 법적 책임을 누구에게 물을 수 있을지에 대한 기준도 명확하지 않다. AI가 만든 가짜 뉴스가 자동으로 배포되었을 때, 그 책임이 콘텐츠 작성자, 유포자, 플랫폼, 혹은 AI 개발자 중 누구에게 있는지 법적 공백이 존재한다.

해외의 법적 대응과 한국의 한계점

유럽연합(EU)은 2023년 통과된 ‘AI 규제법(EU AI Act)’을 통해 AI 기반 콘텐츠의 출처 표시, 고위험 콘텐츠에 대한 사전 규제, 알고리즘 투명성 확보 등을 법적으로 명시했다. 예를 들어, 생성형 AI로 작성된 기사나 영상에는 ‘AI 생성 콘텐츠’임을 반드시 표시해야 하며, 플랫폼은 해당 정보를 명확히 표시할 책임이 있다.

미국도 딥페이크에 대응하기 위해 ‘DEEPFAKES Accountability Act’라는 법안을 준비하고 있으며, 영상 조작 콘텐츠가 선거나 공공 이슈에 영향을 미칠 경우 강력한 처벌과 민형사 책임을 부과할 수 있는 조항을 포함하고 있다. 특히 연방거래위원회(FTC)는 딥페이크와 가짜 뉴스의 상업적 활용에 대해 강도 높은 규제를 추진 중이다.

반면 한국은 아직 AI 조작 뉴스에 대한 직접적인 법 조항이 부재한 상태다. 정보통신망법이나 개인정보보호법, 형법 일부 조항으로 대응은 가능하지만, 대부분은 사후 대응 중심이며, 기술 구조 자체에 대한 사전 규제나 감시 시스템은 부족하다. 그 결과, 피해가 발생한 뒤에야 삭제 요청이 가능하고, 이미 콘텐츠가 확산한 뒤에는 회복이 사실상 불가능한 경우도 많다.

또한, 딥페이크 등 AI 기반 영상·음성 조작물은 ‘음란물’로 분류되거나 ‘사생활 침해’로 대응하는 경우가 많지만, 정치적 조작, 공공 오보, 경제적 조작 등 다양한 양상에 대해선 아직 구체적인 분류 체계도 마련되지 않았다. 이처럼 법이 기술을 따라가지 못하는 상황에서 피해자 보호와 공공 신뢰 유지가 어렵다는 비판이 제기되고 있다.

결론 – AI 조작 뉴스 시대, 이제는 법이 먼저 준비되어야 한다

AI로 조작된 뉴스는 더 이상 일부 악의적인 사용자의 장난이 아니다. 이는 정교하게 설계된 기술 기반 범죄이며, 사회적 파장을 유발하는 디지털 허위 정보의 새로운 얼굴이다. 기술이 빠르게 발전하는 만큼, 이제는 법이 그 기술을 선제적으로 통제하고 대응할 수 있는 준비가 되어야 한다.

한국의 정보통신망법은 기본적으로 콘텐츠 유통에 대한 규제 틀을 가지고 있지만, AI 기반 생성 콘텐츠에 대한 명확한 정의와 처벌 조항, 그리고 책임 주체에 대한 구조화는 여전히 부족하다. 또한 ‘AI 생성 콘텐츠 표시 의무화’, ‘플랫폼의 책임 강화’, ‘피해자 구제 절차 고도화’와 같은 제도적 장치도 시급히 마련되어야 한다.

앞으로 한국은 기술 진흥과 함께 디지털 윤리와 안전을 위한 법제화를 동시에 추진해야 한다. 단순히 콘텐츠를 삭제하는 수준이 아니라, 조작 자체를 예방하고, 책임을 명확히 하며, 사용자에게 정보의 출처를 투명하게 제공하는 시스템을 갖춰야 한다.

AI로 조작된 정보가 사실처럼 받아들여지는 시대, 우리는 더 이상 진실이 스스로 증명되기를 기다릴 수 없다.
법이 먼저 나서야, 진실은 뒤처지지 않는다.