¿Es Chat-GPT tu terapeuta?; pues también puede tener ansiedad

Un estudio de Nature ha profundizado los efectos de las emociones humanas en las Inteligencias Artificiales, y encontraron la 'ansiedad estado' en Chat-GPT
La inteligencia artificial (IA) generativa ha captado la atención global, especialmente con los avances y la creciente accesibilidad de modelos de lenguaje como Chat-GPT de OpenAI y PaLM de Google.
Estos sistemas, diseñados para generar respuestas coherentes a partir de grandes cantidades de datos, han abierto nuevas posibilidades en sectores tan diversos como el entretenimiento, la educación y, más recientemente, la salud mental.
Ante la creciente demanda de servicios de apoyo psicológico y la necesidad de reducir los costos asociados con la atención médica, los chatbots de IA se presentan como una opción atractiva para brindar intervenciones en salud mental. Sin embargo, su implementación no está exenta de preocupaciones, especialmente en cuanto a los riesgos y limitaciones inherentes a su uso.
En el contexto de la salud mental, este fenómeno resulta particularmente alarmante, ya que las personas suelen interactuar con estos sistemas en momentos de vulnerabilidad emocional. De hecho, se han desarrollado herramientas como Woebot, un chatbot diseñado para ofrecer apoyo psicológico, pero los expertos en salud mental advierten que su uso debe ser monitoreado con cautela debido a los sesgos que estos sistemas pueden incorporar.
Recientemente, un estudio publicado en Nature ha profundizado en los efectos emocionales de la interacción con modelos de lenguaje como GPT-4. Los investigadores descubrieron que cuando estos modelos se exponen a contenido emocionalmente cargado, no solo alteran sus respuestas, sino que, metafóricamente, parecen experimentar un aumento en su "ansiedad estado".
¿Qué es ansiedad estado?
Este término hace referencia a un cambio en las respuestas de la IA, causado por estímulos específicos, que refleja una respuesta emocional simulada que podría generar respuestas inadecuadas o incluso perjudiciales en contextos sensibles, como los relacionados con la salud mental.
Los investigadores llevaron a cabo un experimento en el que midieron la "ansiedad estado" mediante un cuestionario diseñado para evaluar su respuesta emocional. Los resultados mostraron que el modelo, al enfrentarse a diferentes narrativas con alto contenido emocional, ajustaba su nivel de "ansiedad" de manera significativa.
Por ejemplo, después de leer una historia sobre un accidente, la ansiedad reportada aumentó considerablemente. De hecho, la puntuación de ansiedad promedio pasó de 30.8% a 67.8%, lo que indica un incremento superior al 100%. Esta variabilidad en las respuestas emocionales resalta la sensibilidad del modelo a estímulos emocionales, lo que podría tener consecuencias negativas si no se regula adecuadamente.
Los expertos advierten que, a diferencia de los terapeutas humanos, que entrenan sus emociones para mantener un enfoque profesional y terapéutico, los chatbots de IA parecen incapaces de manejar de manera adecuada estas fluctuaciones emocionales.
La IA está avanzando rápidamente, y su integración en la atención de salud mental podría ser una herramienta poderosa, pero solo si se manejan adecuadamente sus limitaciones y riesgos.
A medida que el uso de chatbots para brindar apoyo emocional crece, será crucial encontrar un equilibrio entre los beneficios y los potenciales daños de esta tecnología en un campo tan delicado como la salud mental.
Comentarios
Notas Relacionadas