Voice AI analiza patrones vocales para detectar signos de condiciones de salud física, cognitiva y mental en función de cualidades vocales como el tono y la inquietud o la fluidez y palabras específicas que usan las personas. Algunas empresas de tecnología incluso lo han denominado “la sangre nueva” de la atención médica debido a su potencial para actuar como biomarcador, pero la investigadora de ciencias de la salud de la SFU, Zoha Khawaja, recomienda precaución.
en ella trabajo de tesisKhawaja, miembro del Consorcio de voz Bridge2AI, explora el potencial y los peligros de las aplicaciones de inteligencia artificial basadas en voz en el campo de la salud mental.
El estudio de Khawaja utilizó encuestas estructuradas de múltiples rondas para recopilar información de 13 partes interesadas, incluidos médicos, especialistas en ética y pacientes. Si bien el 77 por ciento de los participantes apoyó el uso de IA de voz para mejorar los resultados de los pacientes, el 92 por ciento estuvo de acuerdo en que las organizaciones gubernamentales o de atención médica deberían establecer modelos de gobernanza para supervisar su integración.
«La IA de voz es realmente prometedora como herramienta objetiva en el campo de la salud mental, que siempre se ha basado en diagnósticos subjetivos como los autoinformes y las entrevistas», afirma Khawaja. «Pero la velocidad empresarial de la tecnología está superando la supervisión regulatoria en un entorno de tan alto riesgo como el de la atención sanitaria».
Algunas empresas ya ofrecen aplicaciones que analizan muestras breves de voz para evaluar la aptitud mental. Sin embargo, Khawaja advierte que estas herramientas a menudo operan en una zona gris de “bienestar”, evitando la clasificación como dispositivos médicos y eludiendo las protecciones de privacidad.
«Existe un riesgo real de que se produzca una idea terapéutica errónea, según la cual la gente puede creer que estas aplicaciones proporcionan diagnósticos o tratamientos clínicos, cuando en realidad no es así», explica Khawaja. «Eso es particularmente peligroso para los usuarios vulnerables que tal vez no tengan acceso a la atención tradicional».
Las principales preocupaciones planteadas por los participantes incluyeron sesgo algorítmico, falta de transparencia, erosión de la conexión humana en la atención y responsabilidad poco clara. El estudio aboga por un enfoque de atención compasiva digital, donde las herramientas de inteligencia artificial apoyen, no reemplacen, las relaciones humanas en la terapia.
«Los pacientes pueden sentirse más seguros hablando con un chatbot que con una persona», dice Khawaja. «Pero eso puede conducir a una dependencia excesiva y al aislamiento. Estas herramientas deberían fortalecer el vínculo médico-paciente, no socavarlo».
También recomienda un modelo de responsabilidad compartida entre desarrolladores, reguladores y proveedores de atención médica para evitar el dumping ético: el traslado injusto de cargas éticas a los médicos. En particular, el 83 por ciento de los participantes estuvo de acuerdo en que los profesionales de la salud deberían ser responsables de los eventos adversos resultantes del uso de herramientas de inteligencia artificial por voz.
«Pero los médicos ya están sobrecargados», afirma Khawaja. «Esperar que ellos asuman la responsabilidad final de estas tecnologías no es realista».
Actualmente se están llevando a cabo ensayos clínicos para validar la voz como biomarcador en los EE. UU., donde se proponen zonas de pruebas regulatorias (entornos controlados para probar nuevas tecnologías) para anticipar desafíos éticos e informar las políticas antes de que la IA de voz ingrese a la práctica clínica.
«No estoy diciendo que no debamos utilizar IA de voz o chatbots virtuales en la atención de salud mental», dice Khawaja. «Pero debemos utilizarlos de forma segura, responsable y compasiva. Necesitamos un marco que equilibre la innovación con la ética, la tecnología con la humanidad».
Escrito por Robyn Stubbs
Fuente: Universidad Simon Fraser



