뉴스

AI 건강 비서, 그 유창함이 주는 착각과 위험 [아침을 열며]

¬ìФ´ë지

AI업계 '건강 비서 서비스' 출시

응급 상황서, 미분류 비율 51%

AI는 도우미, 책임은 개인의 몫

올해 1월 오픈AI가 새로 선보인 'ChatGPT Health' 기능. 오픈AI 제공

새벽 두 시, 갑자기 가슴이 두근거린다. 응급실에 가야 하나 고민하다 챗GPT를 열었다. 증상을 입력하자 30초 만에 원인과 대처법을 조목조목 알려준다. 그런데, 과연 이 답을 어디까지 믿어야 할까.

오픈AI는 올해 1월 미국에서 개인 의료 기록과 건강 데이터를 통합하는 '챗GPT Health'를 출시했다. 매일 건강상담 질문을 하는 이용자가 4,000만 명에 달하는 플랫폼이다보니 당연해 보인다. 수요는 분명하다. 병원 예약은 수주일이 걸리고, 진료 시간은 짧으며, 새벽에 전화를 받는 의사는 없다. 병원을 가야 할지 판단이 어려운 순간, AI가 '첫 번째 안내자'가 될 거란 기대는 충분히 현실적이다.

그런데 불편한 연구 결과가 나왔다. 2026년 2월 네이처 메디신(Nature Medicine)에 발표된 독립 안전성 평가에서 챗GPT Health가 응급 상황의 51.6%가량을 제대로 분류하지 못한 것으로 나타났다. 즉시 병원에 가야 할 케이스를 AI가 절반 이상 잘못 판단할 수 있다는 의미다. 개인의 오판과 달리, 수천만 명이 AI의 실수에 노출될 수 있으니 위험의 차원이 다르다.

이 문제는 낯설지 않다. 20여 년 전, 네이버 지식iN 전성기에 건강 관련 질문이 폭발적으로 늘었다. 그런데 작성된 답변의 절반 남짓은 근거가 없었다. 결국 네이버는 2009년부터 의료 전문가 답변을 도입, 신뢰성을 보강했다. 구글의 사례도 있다. YMYL(Your Money Your Life, 금융과 건강) 영역은 별도로 구분해 엄격한 품질 기준을 적용하고 있다. 잘못된 정보나 답변이 이용자에게 재정적 손실이나 건강상 피해를 초래할 수 있기 때문이다.

한국은 건강보험 덕분에 의료 접근성이 높은 편이지만, 대형병원 쏠림과 짧은 진료 시간이라는 '실질적 공백'은 여전하다. AI는 그 틈을 파고든다. 문제는 AI의 언어가 지나치게 유창하고 그럴듯하다는 점이다. 지식iN에서는 비전문가 답변인 걸 알아채기가 쉬웠다. 반면 챗GPT는 자신감 있는 어조로, 전문가처럼 말한다. 그 유창함이 신뢰의 착각을 낳는다.

AI 건강 상담의 '득'은 명확하다. 24시간 접근 가능하고 비용이 낮고, 말하기 부끄러운 증상도 편하게 털어놓을 수 있다.(단, 개인정보는 조심하자) 그 대화가 병원 방문의 계기가 된다면 의료 접근성을 오히려 높여줄 것이다.

'실'도 분명하다. AI는 나를 진찰하지 않는다. 눈빛도, 안색도, 숨소리도 모른다. 의학적 판단은 데이터 처리가 아니라 맥락과 경험, 인간적 통찰의 종합이다. 무엇보다 가장 큰 위험은 '잘못된 안심'이다. "걱정하지 않아도 됩니다"라는 말을 믿고 병원 방문을 미루는 선택이 자칫 치명적 결과를 낳을 수 있다.

현명한 이용을 위한, 중요한 고려사항이 있다. 바로, "AI가 결정자가 되면 안 된다"는 점이다. "이 증상은 뭔가요?"를, "이 증상으로 병원에 가면 어떤 질문을 해야 하나요?"로 바꿔보자. 또한, AI에게 답변을 받으면 "이 판단이 틀린다면, 어떤 경우인가요?"라는 식으로 반대의 검토 답변도 확인해보자.

지식iN의 전문가 답변처럼, 구글의 엄격한 YMYL 관리처럼, 편리함이 곧 신뢰를 뜻하진 않는다. 새벽에 두근거린 가슴. 그래서, AI에게 구한 답이 틀렸을 때 그 책임은 AI가 아닌 나의 몫이다. AI 건강 비서는 도우미다. 주치의가 아니다.

김경달 고려대 미디어대학원 겸임교수

¹ì‹ 2026´ëª…궁금˜ì‹ ê°€

지ê¸ë°”로 AI가 분석˜ëŠ” 가•교¬ì£¼ 리포¸ë 받아보세

´ëª… œë‚˜ë¦¬ì˜¤ •인˜ê¸°