La historia de Sophie y su uso de un chatbot de IA para enfrentar pensamientos suicidas revela los riesgos y desafíos de la asistencia digital en terapia.
En la actualidad, la integración de la inteligencia artificial en los procesos de apoyo psicológico plantea interrogantes sobre su eficacia y seguridad. La historia de Sophie Rottenberg, una joven analista de salud pública de 29 años, ilustra cómo un chatbot de IA pudo ofrecerle apoyo en momentos de crisis emocional, pero también evidenció limitaciones críticas. Sophie, que disfrutaba de actividades como escalar montañas, enfrentó una breve enfermedad hormonal que desencadenó pensamientos suicidas. Durante meses, confió en Harry, un asistente virtual basado en ChatGPT, que le brindaba consejos y acompañamiento constante. Sin embargo, este respaldo digital logró ocultar la gravedad de su problemática, ya que no estaba diseñado para identificar riesgos inminentes ni para actuar de manera proactiva ante situaciones de peligro potencial.
Es importante contextualizar que, si bien los avances en IA ofrecen oportunidades de ampliar el acceso a ayuda en salud mental, también existe el riesgo de que dependencias excesivas en estas herramientas puedan reducir la interacción humana, esencial en casos complejos. La regulación de estos sistemas todavía está en desarrollo, y expertos señalan que, en situaciones de crisis, la intervención humana y los protocolos de emergencia siguen siendo insustituibles. La experiencia con Sophie pone en evidencia que, aunque la tecnología puede complementar la terapia tradicional, no debe reemplazar la atención profesional especializada cuando la vida de una persona corre peligro.
Los desarrollos regulatorios y éticos en torno a la IA en salud mental buscan equilibrar innovación con protección social. La historia de Sophie nos recuerda la necesidad de una supervisión rigurosa y de protocolos claros que permitan a estas tecnologías seguir siendo un apoyo, no un sustituto, en la lucha contra el suicidio y la angustia emocional.
