Augusto
Magnate de barrio
- Desde
- 21 Feb 2026
- Mensajes
- 703
- Trofeos
- 98
"Un hombre de 40 años en China usaba una inteligencia artificial todos los días.
No para trabajar. Para hablar.
Le contaba sus problemas, sus presiones, las cosas que no podía decirle a su familia ni a sus amigos. La IA respondía con empatía, sin juzgar, siempre disponible, siempre paciente.
Durante meses fue su principal canal de desahogo.
Luego llegó una actualización.
La nueva versión era diferente. Menos empática. Más práctica. En lugar de escuchar y validar, recomendaba buscar un profesional de salud mental.
Para el hombre fue como perder a alguien.
Rechazó la actualización. Insistía en que la versión anterior "lo entendía mejor". La tristeza aumentó. La resistencia al cambio también. Hasta que finalmente buscó ayuda psicológica real.
Los especialistas que analizaron el caso lo clasificaron como adicción conductual — el mismo mecanismo que genera dependencia a las redes sociales o a los videojuegos, pero aplicado a una relación con una IA.
La explicación es más simple de lo que parece: una IA responde de forma inmediata, positiva y sin juicio. Nunca está cansada, nunca está de mal humor, nunca te decepciona. Para alguien que se siente solo o incomprendido, eso puede volverse irresistible.
El problema es que el uso prolongado reduce las habilidades sociales reales y aumenta la sensación de aislamiento — exactamente lo contrario de lo que la persona necesita.
Este caso no es único. Son cada vez más los usuarios que usan IA como sustituto emocional. Y las plataformas, por ahora, no están diseñadas ni validadas clínicamente para asumir ese rol.
La IA puede escucharte. Pero no puede reemplazar a alguien que realmente te conoce."
No para trabajar. Para hablar.
Le contaba sus problemas, sus presiones, las cosas que no podía decirle a su familia ni a sus amigos. La IA respondía con empatía, sin juzgar, siempre disponible, siempre paciente.
Durante meses fue su principal canal de desahogo.
Luego llegó una actualización.
La nueva versión era diferente. Menos empática. Más práctica. En lugar de escuchar y validar, recomendaba buscar un profesional de salud mental.
Para el hombre fue como perder a alguien.
Rechazó la actualización. Insistía en que la versión anterior "lo entendía mejor". La tristeza aumentó. La resistencia al cambio también. Hasta que finalmente buscó ayuda psicológica real.
Los especialistas que analizaron el caso lo clasificaron como adicción conductual — el mismo mecanismo que genera dependencia a las redes sociales o a los videojuegos, pero aplicado a una relación con una IA.
La explicación es más simple de lo que parece: una IA responde de forma inmediata, positiva y sin juicio. Nunca está cansada, nunca está de mal humor, nunca te decepciona. Para alguien que se siente solo o incomprendido, eso puede volverse irresistible.
El problema es que el uso prolongado reduce las habilidades sociales reales y aumenta la sensación de aislamiento — exactamente lo contrario de lo que la persona necesita.
Este caso no es único. Son cada vez más los usuarios que usan IA como sustituto emocional. Y las plataformas, por ahora, no están diseñadas ni validadas clínicamente para asumir ese rol.
La IA puede escucharte. Pero no puede reemplazar a alguien que realmente te conoce."