Índice del Contenido
Buscar respuestas inmediatas a síntomas físicos o emocionales a través de inteligencia artificial se ha vuelto una práctica común. Sin embargo, el uso de herramientas como ChatGPT o aplicaciones automatizadas para obtener diagnósticos sin supervisión médica puede generar consecuencias graves para la salud mental y física.
Diagnósticos erróneos pueden poner en riesgo la salud
Uno de los principales riesgos, según especialistas, es el error en la interpretación de síntomas. Las inteligencias artificiales entregan respuestas basadas en patrones generales, sin evaluar contextos personales ni antecedentes clínicos. “Un dolor abdominal puede ser desde estrés hasta una apendicitis. Solo un profesional, con exámenes y criterio clínico, puede identificar la causa real”, afirma Teresa Valle, psicóloga de Grupo Cetep.
Esta búsqueda de respuestas rápidas también puede intensificar la ansiedad. El fenómeno conocido como “cibercondría” lleva a las personas a convencerse de que padecen enfermedades graves, lo que incrementa el miedo y muchas veces retrasa el acceso al tratamiento adecuado. “Muchas veces se convencen de tener enfermedades graves, generando más miedo e incluso retrasando el tratamiento adecuado”, advierte Valle.
Riesgos emocionales: la IA no puede contener ni acompañar
En el ámbito de la salud mental, el panorama también es preocupante. Algunas personas prefieren conversar con chatbots antes que acudir a un terapeuta, lo cual puede profundizar el aislamiento y posponer intervenciones esenciales. “La IA no escucha activamente ni ofrece contención emocional real”, señala la profesional.
A esto se suma el contenido sin respaldo médico que circula en redes sociales, donde influencers o aplicaciones sugieren tratamientos o diagnósticos sin base profesional. “La salud, tanto física como mental, debe abordarse con responsabilidad, con acompañamiento humano y con una entrevista clínica”, enfatiza Teresa Valle.
IA con respaldo clínico: el caso de Mhaite
En contraste, existen desarrollos tecnológicos responsables como Mhaite, plataforma de Grupo Cetep orientada a la prevención y atención oportuna. Esta herramienta conversa, evalúa y deriva según el nivel de necesidad, integrándose éticamente al sistema de salud. “Mhaite demuestra que la IA puede integrarse al sistema de salud de manera ética y efectiva, optimizando recursos y activando redes clínicas reales desde el primer clic”, explica Valle.
El sistema automatizado de Mhaite evita la saturación de recursos clínicos en casos leves y prioriza a quienes más lo necesitan, promoviendo una atención más eficiente y humana.