AI가 알려준 '건강 팁' 믿었다가…美 중독·응급실 잇따라

실시간 키워드

2022.08.01 00:00 기준

AI가 알려준 '건강 팁' 믿었다가…美 중독·응급실 잇따라

모두서치 2025-10-28 01:05:21 신고

3줄요약
사진 = 뉴시스

 

챗GPT에 의학적 조언을 구한 후 브롬화물 중독 등 건강 악화 사례가 잇따르자, 미국 의료 전문가들이 주의를 촉구하고 있다.

뉴시스 보도에 따르면, 24일(현지시간) 미국 뉴욕포스트에 따르면 최근 미국에서 의료 관련 질문을 던진 사용자에게 AI가 불완전하거나 부정확한 조언을 제공한 사례가 다수 확인됐다.

한 남성은 챗GPT에 염화나트륨 섭취를 줄이는 방법을 묻자, AI는 대체재로 브롬화나트륨을 추천했다.

남성은 브롬화나트륨의 독성을 알지 못한 채 3개월간 요리에 사용했고 결국 브롬화물 중독으로 사망했다.

또 다른 남성은 심장 수술을 받은 후 복시(사물이 두 개로 보임) 증상을 겪었지만 의료진의 진료 대신 챗GPT에 조언을 구했다.

AI는 남성에게 "카테터 절제술 후 시력 장애는 일시적이며 짧은 시간 내에 저절로 호전된다"고 답했고, 이에 남성은 별다른 조치를 하지 않고 방치하다가 응급실로 실려 가는 사고를 겪었다.

전문가들은 AI의 불완전한 진단과 정보 제공이 치료 지연으로 이어질 수 있다고 지적했다.

뉴욕 특수외과병원의 대런 레블 박사는 "많은 환자가 챗GPT와 나눈 대화를 보여주곤 하는데, AI를 통해 얻은 조언은 실제 논문을 바탕으로 한 과학적 권고가 아닐 수 있다"고 말했다. 그는 "AI가 사용자에게 제공한 의학적 조언의 약 4분의 1은 AI가 만들어낸 허위 정보였다"고 강조했다.

의학 분야 AI 전문가 데이비드 프루 역시 "AI는 의학 용어 이해나 진료 예약 준비에는 도움이 될 수 있다"면서도 "증상의 심각성이나 긴급 치료 여부를 판단할 때 사용해서는 안 된다"고 경고했다.

Copyright ⓒ 모두서치 무단 전재 및 재배포 금지

본 콘텐츠는 뉴스픽 파트너스에서 공유된 콘텐츠입니다.

다음 내용이 궁금하다면?
광고 보고 계속 읽기
원치 않을 경우 뒤로가기를 눌러주세요

실시간 키워드

  1. -
  2. -
  3. -
  4. -
  5. -
  6. -
  7. -
  8. -
  9. -
  10. -

0000.00.00 00:00 기준

이 시각 주요뉴스

알림 문구가 한줄로 들어가는 영역입니다

신고하기

작성 아이디가 들어갑니다

내용 내용이 최대 두 줄로 노출됩니다

신고 사유를 선택하세요

이 이야기를
공유하세요

이 콘텐츠를 공유하세요.

콘텐츠 공유하고 수익 받는 방법이 궁금하다면👋>
주소가 복사되었습니다.
유튜브로 이동하여 공유해 주세요.
유튜브 활용 방법 알아보기