Kalam News

AI알려준 '건강 팁' 믿었다가 병원행 속출

ChatGPT개발 이후 AI는 우리 생활에 깊이 자리잡았다. 

비서와 같은 역할을 넘어 일부 이용자들은 ChatGPT 의존도를 높이다보니 부작용도 잇따르고 있어 각별한 주의가 요구된다. 

뉴욕포스트에 따르면 최근 전국에서 의료 관련 질문을 던진 사용자에게 ChatGPT를 포함한 AI가 불완전하거나 부정확한 조언을 제공한 사례가 다수 확인됐다.

한 남성은 챗GPT에 염화나트륨 섭취를 줄이는 방법을 묻자 AI는 대체재로 브롬화나트륨을 추천했다.

남성은 브롬화나트륨의 독성을 알지 못한 채 3개월간 요리에 사용했고 결국 브롬화물 중독으로 사망했다.

또 다른 남성은 심장 수술을 받은 후 사물이 두 개로 보는 복시 증상을 겪었지만 의료진의 진료 대신 챗GPT에 조언을 구했다.

AI는 남성에게 카테터 절제술 후 시력 장애는 일시적이며 짧은 시간 내에 저절로 호전된다고 답했고 이에 남성은 별다른 조치를 하지 않고 방치하다가 응급실로 실려 가는 사고를 겪었다.

전문가들은 AI의 불완전한 진단과 정보 제공이 치료 지연으로 이어질 수 있다고 지적했다.

뉴욕 특수외과병원의 대런 레블 박사는 많은 환자가 챗GPT와 나눈 대화를 보여주곤 하는데 AI를 통해 얻은 조언은 실제 논문을 바탕으로 한 과학적 권고가 아닐 수 있다고 말했다.

이어 AI가 사용자에게 제공한 의학적 조언의 약 4분의 1은 AI가 만들어낸 허위 정보였다고 강조했다. 

의학 분야 AI 전문가 데이비드 프루 역시 AI는 의학 용어 이해나 진료 예약 준비에는 도움이 될 수 있다면서도 증상의 심각성이나 긴급 치료 여부를 판단할 때 사용해서는 안 된다고 경고했다.