AI transcription tool Whisper used in healthcare found to create false text, risking patient misdiagnosis. Herramienta de transcripción de IA Whisper utilizada en la atención médica encontró crear texto falso, arriesgando un diagnóstico erróneo del paciente.
A recent study found that Whisper, an AI transcription tool widely used in medical centers, can sometimes create false text, known as "hallucinations." Un estudio reciente encontró que Whisper, una herramienta de transcripción de IA ampliamente utilizada en los centros médicos, a veces puede crear texto falso, conocido como "alucinaciones". This could lead to inaccurate medical records and potential errors like misdiagnosis. Esto podría conducir a registros médicos inexactos y posibles errores como un diagnóstico erróneo. The tool is used to transcribe conversations between patients and doctors, raising concerns about its reliability in healthcare settings. La herramienta se utiliza para transcribir las conversaciones entre los pacientes y los médicos, planteando preocupaciones acerca de su fiabilidad en los entornos de salud.