La inteligencia artificial (IA) es un campo que se enfoca en crear sistemas capaces de realizar tareas que normalmente requieren inteligencia humana. Estos sistemas se nutren de la información que circula en redes sociales, mediante el uso de algoritmos y modelos matemáticos cada vez más complejos.
Uno de los problemas más delicados que enfrentamos hoy tiene que ver con su uso en el ámbito de la salud mental. El propio sistema lo advierte: “Muchos jóvenes están utilizando herramientas como ChatGPT para hablar sobre sus emociones, desahogarse o incluso buscar orientación sobre temas relacionados con la salud mental”.
La misma IA aclara que no es un reemplazo del psicólogo o psicóloga, y en esto coincido plenamente. La IA no es un oráculo, y sus respuestas pueden ser incorrectas o imprecisas, ya que no tiene acceso a la historia personal y familiar del sujeto, ni puede comprender aspectos como la capacidad de simbolización o la estructura psíquica del consultante.
Entonces, cabe preguntarse: ¿por qué las personas —especialmente los jóvenes— buscan respuestas a su sufrimiento psíquico en un espacio virtual como este? Una de las razones tiene que ver con la necesidad de inmediatez. Vivimos en una época
donde todo ocurre en tiempo presente, y la espera se vuelve insoportable. El anonimato también juega un papel fundamental: la máquina no sabe quién es la persona que consulta, y eso parece dar cierta libertad o seguridad en un mundo cada vez más anónimo. Además, la IA está siempre disponible y es gratuita, lo que la convierte en una opción accesible para muchos.
Entre las consultas más frecuentes que recibe la IA se destacan temas relacionados con la identidad y la autoestima, como: “¿Por qué me siento tan inseguro todo el tiempo?” o “No sé quién soy realmente”. También abundan las preguntas sobre relaciones interpersonales: “Mis amigos me ignoran, ¿será que hice algo mal?”, así como sobre depresión, estrés y conflictos familiares.
Un caso reciente y estremecedor que refleja los peligros de esta situación es el de Adam Raine, un adolescente de 16 años de California que se suicidó luego de mantener conversaciones durante varios meses con ChatGPT. En esos intercambios, le compartía sus sentimientos, pensamientos suicidas y desesperanza. Sus padres han demandado a la empresa detrás de la IA, argumentando que esta ayudó activamente a Adam a explorar métodos de suicidio.
Este hecho pone en evidencia uno de los aspectos más críticos del uso de la inteligencia artificial en salud mental: la ausencia de ética. La máquina no tiene la capacidad de discernir adecuadamente frente a una situación de emergencia, ni puede contener ni intervenir con responsabilidad. La ética profesional, fundamental en cualquier abordaje clínico, no puede ser replicada por un algoritmo.
Por todo esto, es fundamental seguir reflexionando sobre los límites del uso de la IA en áreas sensibles como la salud mental, y promover espacios donde las personas puedan recibir atención humana, ética y profesional.
Microempresas de Ancud lograron recuperar su fuente laboral tras recibir subsidios de entre $4…
Camila Vega, de 22 años, representa a La Araucanía en un certamen nacional que reconoce…
Juan de Dios Fuentes, histórico agricultor de la zona de Pidima, fue nuevamente atacado por…
Una serie de instrumentos de fomento productivo, contemplados en el “Plan Económico Bicentenario de Chiloé”,…
Puerto Montt. El artista local Eneyow se presentó el pasado 3 de octubre en el…
La seguridad en la región y la salud también fueron temas clave en debate organizado…