병원에서 환각을 일으키는 OpenAI 모델을 사용한 의료 기록 변환 도구 사용
많은 병원에서 사용하는 의료 기록 변환 도구인 OpenAI의 Whisper 모델이 때때로 환각을 일으켜 전혀 없는 텍스트를 만들어내는 것으로 밝혀졌습니다. 이 도구는 Nabla라는 회사에서 사용되며, 약 7백만 건의 의료 대화를 변환했습니다. 연구에 따르면, 이 변환 도구는 약 1%의 경우에 환각을 일으켜 때로는 폭력적이거나 말이 안 되는 내용을 포함합니다. OpenAI는 이 문제를 인정하고 개선을 위해 노력 중입니다.