
		
			KHIDI 보고서…"기술 진화 반영한 유연한 평가체계 마련해야"
의료진 AI 리터러시·윤리 의식 강화 촉구
	
		
	
오유경 처장, 생성형 AI 디지털의료기기 개발 업체 방문
(서울=연합뉴스) 오유경 식품의약품안전처장이 16일 경기도 성남시에 위치한 생성형 인공지능(AI) 디지털의료기기 개발 업체 카카오브레인을 방문, 한국의료기기산업협회, 한국스마트헬스케어협회와 함께 규제혁신 정책에 대해 논의하고 있다. 2024.4.16 [식품의약품안전처 제공. 재판매 및 DB 금지] photo@yna.co.kr
(서울=연합뉴스) 최현석 기자 = 생성형 인공지능(AI)을 활용한 의료기기는 잠재적 적응증까지 고려한 새 평가 기준이 적용돼야 한다는 주장이 제기됐다.
2일 제약바이오업계 등에 따르면 한국보건산업진흥원(KHIDI)은 '생성형 인공지능 도입의 영향과 정책적 시사점' 보고서에서 생성형 인공지능(AI) 의료기기 기술 특성을 고려한 평가 방법과 사후 관리 체계 구축을 제안했다.
보고서는 "생성형 AI 의료기기는 특정 적응증뿐만 아니라 잠재된 적응증까지도 평가해야 하므로 기존과 다른 새로운 평가 방법과 기준이 필요하다"며 "미래 기술의 잠재적 위험까지 고려한 포괄적이고 유연한 평가 기준이 필요하며, 사회·윤리적 편향 및 오용 가능성을 포함하는 종합적인 위험 평가 모델을 개발해야 한다"고 주장했다.
보고서는 "초기 허가 단계뿐만 아니라 실제 임상 현장에서 발생하는 오류나 부작용을 실시간으로 모니터링하고 업데이트할 수 있는 지속적인 사후 관리 체계를 구축해야 한다"며 식품의약품안전처가 선도적 가이드라인을 수립했지만 생성형 AI 기술의 급속한 발전과 넓은 활용 범위를 고려할 때 이를 보완하고 뒷받침할 수 있는 추가적인 정책적 노력이 지속돼야 한다고 강조했다.
임상 현장에서 지속적으로 모델이 업데이트되거나 적응증이 확대되는 상황을 모니터링하고 리스크를 관리하는 체계에 대한 가이드라인 내 지침도 보완할 필요가 있다는 주장이다.
데이터 보호와 활용의 균형 있는 접근도 요구했다.
보고서는 바이오헬스 분야 생성형 AI의 핵심은 양질의 데이터에 있지만 보건의료 데이터는 민감한 개인정보를 포함하고 있어 데이터 보호와 활용 사이의 균형을 맞추는 것이 매우 중요하다며 개인정보 보호와 강력한 데이터 보안 체계가 확보된 환경에서 실질적인 데이터 활용이 활성화될 수 있도록 정책적 노력이 요구된다고 밝혔다.
이어 "데이터 활용이 확대되는 만큼 정보보호 기준, 위수탁 관리 체계, 중계기관의 자격 등에 대한 법적 장치 등을 체계적으로 마련해야 한다"고 덧붙였다.
보고서는 "기술의 잠재력을 최대한 활용하면서도 잠재적 위험을 최소화하기 위해서는 의료 종사자의 인공지능 리터러시(Al Literacy) 제고가 필수적"이라며 "AI 리터러시 교육은 단순히 AI 사용법을 넘어서 AI가 유발할 수 있는 편향이나 오류를 식별하는 비판적 사고 능력과 책임성, 개인정보 보호 등 윤리적 판단 능력을 기르는 데 중점을 둬야 한다"고 당부했다.
그러면서 "궁극적으로 의료 종사자의 AI 리터러시 제고는 생성형 AI의 안전하고 신뢰할 수 있는 활용을 위한 핵심 기반이 될 것"이라고 단언했다.
harrison@yna.co.kr
		
	
		의료진 AI 리터러시·윤리 의식 강화 촉구
(서울=연합뉴스) 오유경 식품의약품안전처장이 16일 경기도 성남시에 위치한 생성형 인공지능(AI) 디지털의료기기 개발 업체 카카오브레인을 방문, 한국의료기기산업협회, 한국스마트헬스케어협회와 함께 규제혁신 정책에 대해 논의하고 있다. 2024.4.16 [식품의약품안전처 제공. 재판매 및 DB 금지] photo@yna.co.kr
(서울=연합뉴스) 최현석 기자 = 생성형 인공지능(AI)을 활용한 의료기기는 잠재적 적응증까지 고려한 새 평가 기준이 적용돼야 한다는 주장이 제기됐다.
2일 제약바이오업계 등에 따르면 한국보건산업진흥원(KHIDI)은 '생성형 인공지능 도입의 영향과 정책적 시사점' 보고서에서 생성형 인공지능(AI) 의료기기 기술 특성을 고려한 평가 방법과 사후 관리 체계 구축을 제안했다.
보고서는 "생성형 AI 의료기기는 특정 적응증뿐만 아니라 잠재된 적응증까지도 평가해야 하므로 기존과 다른 새로운 평가 방법과 기준이 필요하다"며 "미래 기술의 잠재적 위험까지 고려한 포괄적이고 유연한 평가 기준이 필요하며, 사회·윤리적 편향 및 오용 가능성을 포함하는 종합적인 위험 평가 모델을 개발해야 한다"고 주장했다.
보고서는 "초기 허가 단계뿐만 아니라 실제 임상 현장에서 발생하는 오류나 부작용을 실시간으로 모니터링하고 업데이트할 수 있는 지속적인 사후 관리 체계를 구축해야 한다"며 식품의약품안전처가 선도적 가이드라인을 수립했지만 생성형 AI 기술의 급속한 발전과 넓은 활용 범위를 고려할 때 이를 보완하고 뒷받침할 수 있는 추가적인 정책적 노력이 지속돼야 한다고 강조했다.
임상 현장에서 지속적으로 모델이 업데이트되거나 적응증이 확대되는 상황을 모니터링하고 리스크를 관리하는 체계에 대한 가이드라인 내 지침도 보완할 필요가 있다는 주장이다.
데이터 보호와 활용의 균형 있는 접근도 요구했다.
보고서는 바이오헬스 분야 생성형 AI의 핵심은 양질의 데이터에 있지만 보건의료 데이터는 민감한 개인정보를 포함하고 있어 데이터 보호와 활용 사이의 균형을 맞추는 것이 매우 중요하다며 개인정보 보호와 강력한 데이터 보안 체계가 확보된 환경에서 실질적인 데이터 활용이 활성화될 수 있도록 정책적 노력이 요구된다고 밝혔다.
이어 "데이터 활용이 확대되는 만큼 정보보호 기준, 위수탁 관리 체계, 중계기관의 자격 등에 대한 법적 장치 등을 체계적으로 마련해야 한다"고 덧붙였다.
보고서는 "기술의 잠재력을 최대한 활용하면서도 잠재적 위험을 최소화하기 위해서는 의료 종사자의 인공지능 리터러시(Al Literacy) 제고가 필수적"이라며 "AI 리터러시 교육은 단순히 AI 사용법을 넘어서 AI가 유발할 수 있는 편향이나 오류를 식별하는 비판적 사고 능력과 책임성, 개인정보 보호 등 윤리적 판단 능력을 기르는 데 중점을 둬야 한다"고 당부했다.
그러면서 "궁극적으로 의료 종사자의 AI 리터러시 제고는 생성형 AI의 안전하고 신뢰할 수 있는 활용을 위한 핵심 기반이 될 것"이라고 단언했다.
harrison@yna.co.kr
댓글목록
등록된 댓글이 없습니다.