AI 윤리위원회의 비공식 권고 사례 분석 (2024~2025년)
AI 기술이 우리의 일상 속으로 빠르게 스며들면서, 단순히 기술적 진보만으로는 설명할 수 없는 윤리적 딜레마가 계속해서 등장하고 있다. 대한민국 정부는 이에 대응하기 위해 다양한 윤리 가이드라인과 규제 정책을 수립해 왔다. 그러나 실제 현장에서는 ‘공식적인 규정’보다 ‘비공식 권고’가 더 강력하게 작동하는 경우가 적지 않다. 특히 2024년부터 2025년까지의 흐름을 살펴보면, AI 윤리위원회가 비공식적으로 발표하거나 내부 회의에서 제안한 권고안들이 실무자들 사이에서 큰 영향을 미친 사례가 존재한다.
이러한 비공식 권고는 정부 홈페이지나 언론에서 잘 다뤄지지 않기 때문에 대중에게는 그 존재 조차 생소한 경우가 많다. 하지만 AI 알고리즘의 설계, 데이터 수집 방식, 사용자 프라이버시 보호 방식 등에서 실제 기업의 방향을 결정하는 데 있어서 이 비공식 권고의 역할은 상당히 크다. 특히 민간 기업, 병원, 교육기관 등에서 AI 시스템을 설계하거나 운영할 때 이러한 권고를 ‘사실상 준수해야 하는 기준’으로 받아들이는 사례가 증가하고 있다.
이 글에서는 대한민국 AI 윤리위원회가 2024년부터 2025년 사이에 비공식적으로 제안한 대표적인 권고 사례를 분석하고, 해당 권고들이 왜 중요하며, 어떤 방식으로 현장에 영향을 미쳤는지를 구체적으로 살펴본다. 또한, 이러한 흐름이 향후 AI 관련 윤리 및 규제 방향에 어떤 시사점을 줄 수 있는지도 함께 고찰해 보고자 한다. 이 글은 AI 기술을 도입하거나 연구하고자 하는 기업 및 기관, 정책 담당자들에게 실질적인 통찰을 제시할 수 있는 내용을 담고 있다.
2024년 상반기: 비공식 권고로 시작된 ‘AI 대화형 모델의 감정표현 제한’
2024년 3월, 과학기술정보통신부 산하의 AI 윤리위원회 내 비공식 분과 모임에서 흥미로운 논의가 오갔다. 바로 대화형 AI 모델에서 감정표현을 과도하게 할 경우 사용자의 심리적 의존성을 유발할 수 있다는 우려였다. 이 논의는 공식 문서로 채택되지는 않았지만, 내부에서 일종의 ‘실무자 가이드라인’ 형태로 공유되었다.
실제 이 비공식 권고 이후, 일부 국내 스타트업과 AI 챗봇 서비스를 운영하는 기업들은 자발적으로 ‘공감 대사’ 또는 ‘감성 피드백’ 기능을 제한하거나, 특정 감정 표현을 필터링하는 방향으로 정책을 수정했다. 이와 같은 조치는 소비자의 반응이 아닌, 윤리위원회 내부의 의견을 반영한 사례였다. 심지어 한 글로벌 플랫폼 회사의 한국 지사는 해당 권고를 받아들이면서, 글로벌 본사에 보고서 형태로 정책 변경 배경을 제출하기도 했다.
이러한 현상은 비공식 권고가 어떻게 실무 정책을 바꾸는지 보여주는 대표적인 예다. AI가 단순한 텍스트 생성기를 넘어서 ‘감정’까지 흉내 내는 단계로 진화하고 있는 상황에서, 인간 사용자와의 경계는 더욱 모호해지고 있다. 그만큼 심리적 안정성을 고려한 비공식 권고는 법이나 공식 규정보다 빠르게 현실에 적용되는 경향을 보인다.
2024년 하반기: AI 이미지 생성기와 성별 고정관념에 대한 내부 지적
2024년 9월, AI 윤리위원회 내부 회의에서는 이미지 생성 AI가 여전히 성별 고정관념에 기반한 결과를 만들어낸다는 점이 지적되었다. 이는 특히 국내 교육 콘텐츠나 홍보 이미지 제작 분야에서 문제로 지적되었다. 공식 회의록이나 언론 발표는 없었지만, 이 논의는 여러 교육기관과 시각디자인 스타트업 내부로 전달되었고, 이후 상당수 기업이 자발적으로 가이드라인을 수립하는 계기가 되었다.
특히 한 대학에서는 이미지 생성기를 수업에 활용하면서 특정 직업에 여성 혹은 남성만 등장하는 결과가 반복되자, 직접적으로 알고리즘 출력을 조절하는 사전 필터링 기법을 개발하여 적용했다. 해당 대학은 윤리위원회의 의견을 인용하며, 교육 현장에 책임 있는 AI 사용이 필요하다는 내부 지침을 만들었다.
이처럼 공식 채널을 통해 내려온 것이 아닌 내부 회의나 의견 공유를 통해 파급된 권고안은, 공공 분야와 교육 현장에 실질적인 영향을 주는 사례로 볼 수 있다. 기업이나 기관이 규제를 피하기 위해 자발적으로 조심하는 것이 아니라, 윤리적 책임감을 기반으로 AI 시스템을 다시 설계하는 흐름이 시작된 것이다.
2025년 초: 의료 데이터 AI 활용의 비공식 가이드 제시
2025년 2월, 윤리위원회 내 의료 AI 분과에서는 대규모 병원 AI 연구 프로젝트에서 환자 데이터 활용 방식에 대한 문제점이 논의되었다. 특히 익명처리된 정보라도 알고리즘 조합에 따라 역추적 가능성이 존재한다는 내부 연구 결과가 공유되었고, 이에 대해 ‘상시 모니터링 체계 구축 권고’가 비공식적으로 제안되었다.
이 권고 이후, 국내 3개 상급종합병원에서는 환자 동의 여부와 상관없이 익명 데이터 사용 시에도 AI 모델의 출력값을 외부 검증기관을 통해 주기적으로 점검받는 구조를 도입했다. 이 조치는 법적으로 요구된 바는 없지만, 윤리위원회의 의견을 반영한 것이라 평가된다.
의료 분야는 특히 민감한 정보를 다루기 때문에, 단순한 비공식 권고라도 실질적인 리스크 회피 수단으로 활용될 가능성이 크다. 게다가 이 흐름은 해외 협력 연구기관에도 영향을 주어, 한국의 비공식 윤리 기준이 글로벌 AI 공동연구의 조건이 되기도 했다. 이처럼 비공식 권고가 글로벌 기술 협력에서도 기준점 역할을 하게 된다는 점에서 그 중요성은 더욱 크다.
비공식 권고는 한국형 AI 윤리 기준의 새로운 좌표
AI 기술은 계속 진화하고 있으며, 기존의 법률과 공식 규정만으로는 그 진화를 통제하기 어렵다. 그렇기에 실무자들과 연구자들 사이에서는 비공식 권고가 점점 더 중요하게 작용하고 있다. 특히 한국의 AI 윤리위원회가 발신하는 비공식 권고는 단순한 제안 수준이 아니라, 업계 전반에 걸쳐 실질적인 기준으로 받아들여지는 경우가 많다.
AI 서비스의 설계자는 법을 넘어서서 윤리적인 책임까지 감안해야 하는 상황에 직면해 있다. 이때 윤리위원회의 비공식 논의 내용은 하나의 방향타 역할을 한다. 이러한 흐름은 단순히 AI를 ‘기술’로 보는 관점을 넘어서, AI를 ‘사회적 존재’로 받아들이는 전환점이기도 하다.
향후 AI 윤리 정책은 비공식 권고와 공식 가이드라인 사이의 연결고리를 강화하고, 실무자들이 보다 쉽게 활용할 수 있는 형태로 재정비될 필요가 있다. 이 글이 그러한 흐름에 대한 이해를 돕고, AI 기술과 윤리의 균형 있는 발전을 위한 기반 자료가 되기를 바란다.