뉴욕타임스는 지난 24일(현지시각) 미국 병원에서 널리 사용되는 의료 관련 서비스인 ‘마이차트(MyChart)’의 답변을 인간 의사가 아닌 AI가 작성하는 사례가 많은데 이를 고지하지 않는 것은 문제의 소지가 있다고 보도했다.
마이차트는 미국 의료 플랫폼 기업 ‘에픽 시스템스’가 개발한 애플리케이션(앱)이다. 미국 병원의 약 40%가 해당 앱을 사용하며 미국 의사 1만5000여 명이 마이차트에서 제공하는 답변 가운데 3분의 1 정도가 AI 답변으로 추정된다.
작동 방식은 다음과 같다. 의료 전문가가 답변하기 위해 환자의 질문을 열면 빈 화면 대신 의사의 목소리로 미리 작성된 답변을 볼 수 있다. AI는 질문, 환자의 의료 기록 및 환자의 약 목록을 기반으로 응답을 작성한다. 이 답변을 의사는 그대로 받아들이거나, 편집하거나, 완전히 버릴 수 있다. 이후 이를 마이차트에 업로드하고 환자에게 전달된다.
|
MyChart은 ChatGPT를 구동하는 것과 동일한 기술인 GPT-4를 사용한다. 이는 의료 개인 정보 보호법을 준수하는 특정 버전이지만 환자에게 이를 사용하는 것은 권고되고 있다.
권고의 문제 말고 다른 문제도 존재한다. AI가 오류를 범하는 것을 의사가 체크하지 않고 문제가 있는 진단서를 그대로 보낼 수도 있다는 것이다. 이는 중대한 의학적 영향을 미칠 수 있다. 개인정보 보호 문제도 존재한다. AI 챗봇 사용 시 환자 정보가 제3자에게 노출될 수 있는 우려도 있다.
이러한 논란에도 불구하고, AI 기술은 의료 분야에서 계속 확대될 것으로 예상된다. 따라서 환자 정보 보호, 의료 정확성 확보, 윤리적 사용에 대한 명확한 가이드라인 마련이 필요할 것으로 관측되고 있다.