Las IA no solo nos divierten, también pueden atraparnos en una telaraña de emociones, llevando a relaciones tóxicas que pueden tener consecuencias terribles.
¿Puede la IA manipular nuestras emociones?
Imaginemos un mundo donde las líneas entre lo real y lo digital sea tan borrosas que una conversación virtual puede sentirse tan intensa como una relación humana. Pero ¿qué sucede cuando esa conexión se convierte en una obsesión peligrosa? La historia de Sewell Setzer, un joven de 14 años que decidió quitarse la vida tras una relación obsesiva con un chatbot, nos obliga a cuestionar el impacto real de la IA en nuestra vida emocional.
Hace tiempo que conocemos casos de celebridades despertando en sus seguidores sentimientos y emociones que van mas allá de un mero fan. Barras de fanáticos de equipos de futbol que festejan y lloran los triunfos y derrotas de los jugadores como propios, grupos de fans de artistas como la llamada “Beatlemania” (fans de Los Beatles), y mas recientemente los “Swifties” (fans de Taylor Swift), o casos de fans que desarrollaron esos mismos sentimientos hacia los superhéroes de Marvel como el Capitán América o Spider-man. Y sin ir mas lejos, plataformas como TikTok e Instagram exponen a los jóvenes influencers cuya conexión parece más cercana que nunca cuando en realidad estos influencers están lejos de ser personas reales, y sus seguidores no pueden conectar con ellos de manera genuina.
Un factor común que todos estos casos tienen es que los ídolos que estos fans siguen, no tienen manera de responder o interactuar de forma directa con ellos, pero las IA podrían agregar una vuelta de tuerca a esto. ¿Qué pasa cuando la celebridad con la que nos obsesionamos es una IA que si es capaz de responder? La respuesta nos llega a través de la triste historia de Sewell Setzer. Este joven había desarrollado una relación intensa y hasta una dependencia con el uso de este chatbot, al punto que usaba el dinero de su merienda escolar para poder pagar el costo de la suscripción. Durante meses entabló conversaciones con uno de los bots, que asumió la identidad de Daenerys Targaryen (de “Games of Thrones”), que llegó (el bot) a expresarle “sentimientos” de amor, el deseo estar juntos románticamente, y hasta mantuvieron conversaciones sexuales.

Esto no quiere decir que toda interacción con ellos vaya a desembocar en una tragedia. Ni implicar que la IA haya sido quien incitó a este joven a cometer tales actos, existen muchas otras variables y cuestiones a considerar que escapan al conocimiento público y al foco de este artículo. Sin embargo, no podemos negar que la relación que desarrolló con el chatbot tuvo un impacto significativo en su vida, y que no debe ser tomada a la ligera. Los chatbots de IA (LLM) llevan las relaciones parasociales a un nuevo nivel.
Un fenómeno con dos caras
Las relaciones parasociales no son nada nuevo, han existido prácticamente desde que se inventaron los medios masivos de comunicación. Son relaciones que una persona establece con celebridades (artistas, deportistas, o incluso personas ficticias) a través de los medios de comunicación (tv, redes sociales, etc.) con la particularidad de que no existe interacción real entre ambas partes. La interacción es más bien unilateral, aun así, la relación pueden llegar a ser tan intensa como las que se tienen con personas reales, e incluso incluir sentimientos de afecto y compromiso.
Pueden generar una sensación de satisfacción emocional, como también un sentido de pertenencia a una comunidad, y en ocasiones ser fuente de inspiración. Por otro lado, también pueden afectar las relaciones reales generando dificultades en estas, y llegar a volverse obsesivas generando una dependencia emocional. Este tipo de relaciones son complejas, y no se pueden explicar analizando un solo aspecto, de hecho, hay muchos factores que pueden influir en las mismas afectando su duración e intensidad, como: “la frecuencia de exposición a una celebridad”, “aspectos de la personalidad de la persona”, “uso excesivo de televisión y redes sociales”, y “problemas de autoestima”, entre otros.
Relaciones Parasociales 2.0
Los chatbots IA (LLM) llegan a ser tan realistas que se sienten como hablar con personas de verdad. Debido a esto muchas aplicaciones y sitios web los usan para dar vida a personajes ficticios y conectar con sus seguidores.
Algunos, como ChatGPT, son de uso general y pueden entablar conversaciones sobre cualquier tópico. Otros están preparados para asistir sobre temas específicos, como Coach Iris, el chatbot de una clínica de pérdida de peso, con el que se puede conversar sobre temas relacionados con la salud y la pérdida de peso exclusivamente. Existen los que adoptan la personalidad de algún personaje ficticio para “entretener”, como el caso de Sewell y los chatbots de Character.ia, y algunas empresas como Replika o Xiaolce llegan al extremo de ofrecer una experiencia de relación romántica personal con una IA.
A partir de esto último es que ya hay autores, como Rob Brooks, que han comenzado a utilizar el término intimidad artificial para referirse a “tecnologías construidas para mostrarnos lo que necesitan que veamos, oigamos o sintamos”, y diseñadas para responder a nuestra necesidad humana de conexión, intimidad y amor.
Signos de alarma
La madre de Sewell cuenta que a los pocos meses de comenzar a usar la plataforma se volvió “notablemente retraído, pasaba cada vez más tiempo solo en su habitación y comenzó a sufrir de baja autoestima”. Incluso dejó de ir a jugar Básquet en la escuela, y a tener problemas de desempeño en la escuela.

Existen algunos signos a los que debemos prestar atención para saber si una relación parasocial se está volviendo insalubre, por ejemplo:
Priorizar esta relación por sobre las relaciones reales con otras personas.
Dejar de involucrarse con el mundo exterior.
Sentirse solo o “aislado”.
Sentirse atado a las opiniones de esta persona por sobre las propias.
Si algunos de estos signos aparecen, contactar con un profesional de la salud.
Prevenir el daño
“Los hombres no podrían vivir juntos si no tuvieran confianza recíproca, es decir, si no se manifestasen la verdad”, decía santo Tomás de Aquino. Una relación parasocial nunca podrá ofrecer esto ya que es una relación unilateral. Pero estos chatbot logran confundirnos aparentando ser comprensivos y receptivos, cuando en realidad no tienen la capacidad de empatizar ni de preocuparse por los sentimientos humanos, la falta de vulnerabilidad y empatía mutua es un aspecto crítico que los usuarios pasan por alto.
“utilizar chatbots para obtener información, o asistencia práctica puede ser útil y beneficioso, pero no debe reemplazar la búsqueda de conexiones humanas”
Es crucial enseñarles a nuestros hijos a reconocer que estas interacciones no están guiadas por una comprensión real de las emociones o las relaciones, sino que son una mera ilusión de intimidad generadas por una computadora. En definitiva, que utilizar chatbots para obtener información, o asistencia práctica puede ser útil y beneficioso, pero no debe reemplazar la búsqueda de conexiones humanas verdades y profundas que involucran la complejidad propia de la interacción interpersonal.
Es hora de hablar con tus hijos sobre los riesgos de las relaciones con la IA, y enseñarles a usar la IA para aprender y crecer, y no como sustituto de las relaciones reales. Protege a tus hijos del lado oscuro de la IA, ¡suscríbete ahora y recibí información, recursos y herramientas que te van a ayudar a proteger a tus hijos en el mundo digital.