AI국내윤리.규제법가이드

AI 의료진단 알고리즘에 대한 국내 규제 미비 실태

mynote7230 2025. 7. 20. 10:05

의료 분야에서 인공지능(AI)의 도입은 더 이상 미래의 이야기가 아니다. 2025년 현재, 국내 병원 상당수가 AI 기반 의료진단 시스템을 실사용하고 있으며, 일부 대형 병원은 자체적으로 AI 알고리즘을 개발하여 진료에 도입하고 있다. 특히 암 진단, 심혈관 질환 예측, 영상 분석 분야에서는 AI가 의사의 진단 정확도를 뛰어넘는 사례도 보고되고 있다. 그러나 기술의 발전 속도에 비해, 관련 법적·윤리적 규제는 현저하게 뒤처지고 있는 것이 국내 현실이다. 미국이나 유럽은 AI 의료기기의 허가, 환자 데이터 보호, 알고리즘의 책임 소재에 대한 체계적인 제도를 갖추고 있지만, 우리나라는 아직도 ‘기술 검토’ 단계에서 머물러 있는 것이 사실이다. 규제가 미비하다는 것은 사용자 안전 확보와 의료 오류 시 책임소재 불명확 등의 심각한 문제를 야기할 수 있다. 이 글에서는 국내 AI 의료 진단 알고리즘 관련 규제의 실태를 주요 사례와 함께 심층 분석하고, 향후 제도 개선 방향을 제시하고자 한다.

AI 의료진단 알고리즘의 국내규제미비

AI 의료진단 알고리즘이 실제 의료 현장에 미친 영향

2023년, 분당서울대학교병원은 ‘딥러닝 기반 폐암 조기 진단 알고리즘’을 도입하여 환자 수천 명을 대상으로 시범 운영을 실시했다. 이 시스템은 흉부 X-ray 영상만으로 초기 폐암 가능성을 95% 이상의 정확도로 예측할 수 있었고, 실제로 기존 진단 시스템으로는 놓쳤을 법한 초기 폐암 환자 43명을 조기에 발견하는 성과를 냈다. 하지만 문제는 진단결과 오류 시 책임이 누구에게 있는가에 대한 기준이 전혀 없었다는 점이다.

예를 들어, 2024년 3월에는 AI가 ‘정상’으로 판단했던 한 환자가 실제로는 진행성 폐암을 앓고 있었던 것이 뒤늦게 밝혀졌는데, 이 오류에 대해 병원, 개발사, 혹은 알고리즘을 검증한 외부기관 중 누구도 법적으로 책임을 지지 않았다. 이는 환자 보호 측면에서도 심각한 공백이며, AI 시스템의 신뢰도 저하로 이어질 수 있다.

규제 공백이 빚어낸 의료사고

서울 강남에 위치한 한 개인병원에서는 2024년 6월, AI 기반 진단 보조 시스템이 사용되던 도중 환자의 뇌출혈을 ‘편두통’으로 잘못 진단한 사건이 발생했다. 이 병원은 해외에서 개발된 AI 진단 알고리즘을 임의로 설치하여 사용하고 있었으며, 국내 인증을 받지 않았고 보건복지부의 허가도 받지 않은 것으로 드러났다. 이 사고로 인해 환자는 치료 시기를 놓쳐 심각한 후유증을 앓게 되었고, 유족은 의료소송을 제기했지만 법원은 “AI 진단 시스템은 의료인이 아닌 보조 도구일 뿐”이라는 판단을 내리며 병원 측 책임을 인정하지 않았다. 이 사례는 국내 의료법이 AI 기술의 사용에 대해 어떻게 허점을 안고 있는지를 명확히 보여준다. 의료기기로 분류되지 않은 AI 시스템은 엄격한 검증 없이도 임의로 설치·사용될 수 있고, 이에 대한 규제 장치는 사실상 존재하지 않는 실정이다.

의료 AI 알고리즘의 불투명성: 블랙박스 문제와 윤리적 딜레마

AI 의료진단 알고리즘은 대개 '딥러닝' 기술에 기반한다. 이 딥러닝 기술은 데이터 기반으로 스스로 판단 기준을 생성하는 구조이기 때문에, 어떤 기준으로 진단을 내렸는지 의료진조차 설명할 수 없는 ‘블랙박스’ 문제가 존재한다. 이는 환자의 알 권리와 의료인의 설명 책임에 큰 충돌을 일으킨다. 실제로 국내 한 대학병원에서는 AI가 자궁경부암 가능성을 ‘높음’으로 판단했지만, 모든 기존 검사 결과와 의사의 판단은 ‘정상’이었다. 결국 환자는 불필요한 추가 검사를 받게 되었고, 정신적 스트레스를 크게 호소했다.

이처럼 알고리즘의 판단 기준이 불투명하고 해석 가능성이 낮을 경우, 환자의 권익은 보호받기 어렵다. 유럽연합은 이를 해결하기 위해 ‘AI 투명성 법안’을 도입하고 있으며, 알고리즘의 판단 과정 공개를 의무화하고 있다. 그러나 국내에서는 여전히 관련 기준이 존재하지 않으며, 알고리즘 설명 가능성 확보를 위한 연구조차 미흡한 상태다.

AI 의료진단 제도화의 시급성: 미국·유럽과 비교한 국내 대응의 한계

미국 FDA는 AI 기반 의료기기를 대상으로 ‘SaMD(Software as a Medical Device)’ 인증 체계를 운영 중이며, 매년 수십 건의 AI 진단 소프트웨어가 정식 의료기기로 등록된다. 유럽 역시 CE 인증 절차를 통해 알고리즘의 안전성과 유효성을 철저히 검증하고 있다. 반면, 국내는 여전히 AI 진단 시스템을 의료기기로 분류할지 여부조차 명확히 하지 않고 있다. 한국 식품의약품안전처는 AI 기반 진단 시스템을 ‘의료기기’로 규정하지 않는 경우가 많아, 병원이나 기업은 이를 자유롭게 도입하고 있으나, 사고 발생 시 법적 보호를 받지 못하는 상황이 발생한다. 2025년 현재, 디지털 헬스 산업의 육성 정책은 꾸준히 발표되고 있지만, 그 정책 안에 ‘규제’를 포함시키지 않는 한 산업은 더욱 혼란에 빠질 수밖에 없다. 국민 건강과 안전을 위협할 수 있는 AI 기술에 대해서는 빠른 제도화와 법적 정비가 필요하다.

 

의료 AI 규제 사례 요약

구분 사례 문제점 법적 기준 유무 책임소재 명확성 국제 대응 비교
1. 대형병원 적용 분당서울대병원, 폐암 진단 AI 도입 진단 정확도 높지만 오진 발생 시 책임소재 불명확 X 책임 주체 없음 미국은 FDA 기준에 따라 책임 규정 존재
2. 개인병원 사고 강남 개인병원 AI 오진, 뇌출혈 → 편두통 오진 미인증 AI 사용, 환자 심각한 후유증 발생 X 의료진, 개발사 모두 책임 회피 유럽은 CE 인증 없는 시스템 사용 금지
3. 블랙박스 문제 자궁경부암 AI 경고, 결과는 ‘정상’ 알고리즘 판단 근거 설명 불가 X 환자 불신 증가, 의료진도 설명 불가능 EU는 ‘설명 가능성’ 의무화 추진
4. 제도 정비 부족 정부 정책: 산업 육성 중심, 규제는 후순위 사용 자유로우나 사고 시 보호 장치 없음 △ (일부 가이드라인 존재) 명확하지 않음 미국, 유럽은 법제화 완료 및 적용 중

기술보다 느린 법, 환자의 안전을 위한 AI 의료진단 규제 개선 시급

AI 의료진단 기술은 의료의 질을 높이는 혁신적 도구로 자리 잡아가고 있다. 그러나 기술이 아무리 정교하더라도, 그것을 통제하고 감시할 수 있는 제도와 규제가 없다면 오히려 사회적 리스크가 커질 수 있다. 국내는 아직  AI 알고리즘을 평가하는 체계도, 사고 발생 시 법적 책임을 정리할 수 있는 규범도 제대로 마련되어 있지 않다. 현행 의료법은 디지털 시대의 현실을 반영하지 못하며, 환자의 권익 보호는 의료기관의 ‘선의’에만 기대고 있다. AI는 인간의 진단 능력을 넘어서고 있지만, 알고리즘을 만든 사람이나 사용하는 사람은 그에 상응하는 책임을 지지 않고 있다. 이제는 '기술은 앞서가고 제도는 뒤따라간다'는 말이 더 이상 통용되어서는 안 된다. 규제는 기술을 억제하는 수단이 아니라, 안전한 도입을 위한 기반이다. 의료 AI의 올바른 발전을 위해서는 지금, 제대로 된 규제의 틀을 마련해야 할 시점이다.