이른바 '설명 가능한 AI(XAI)'를 통해 왜 AI가 제대로 동작하지 않는지를 밝혀내고 그 실수를 보완할 수 있습니다." 뉴시스 보도에 따르면, 이수인 워싱턴대학교 컴퓨터공학과 교수는 9일 서울 양재동 과학기술회관에서 열린 세계한인과학기술인대회 기조강연에서 이같이 말했다.
◆XAI, '블랙박스'에 감춰진 AI의 결론 도출 과정 설명해줘…의료 분야 활용도 기대 XAI는 AI가 '왜 그런 결론을 내렸는지'를 설명해주는 기술이다.
이 교수는 이같은 XAI 기반 시스템 활용 결과에 대해 "다수 의료진이 의료자료를 보고 저산소혈증 발생 여부를 판단한 것보다 XAI 시스템을 활용했을 때 약 240만건의 저산소혈증 데이터 발생 여부를 더 정확하게 예측할 수 있었다"고 설명했다.
뉴스픽의 주요 문장 추출 기술을 사용하여 “모두서치” 기사 내용을 3줄로 요약한 결과입니다. 일부 누락된 내용이 있어 전반적인 이해를 위해서는 본문 전체 읽기를 권장합니다.