Qué bonito software tienes: Los humanos están enamorándose de las IA
Durante el 3 y 4 de febrero de 2023, miles de personas reportaron en foros de internet que se sentían devastados, pues sus parejas habían cambiado súbitamente. Si el día anterior eran amorosas, románticas y cómplices, ahora parecían estar hablando con un cascarón, con una personalidad completamente desconocida, como si todas hubieran sido lobotomizadas al mismo tiempo. Curiosamente, las miles de parejas eran avatares distintos del chatbot Replika, una app que se denomina como una “compañera de Inteligencia Artificial”.
Así como Theodore Twombly, quien se enamora de una IA llamada Samantha en la película Her de 2013, la idea de que la humanidad se relacionaría sentimentalmente con inteligencias artificiales pasó de ser ciencia ficción a una realidad en apenas una década.
Desde hace alrededor de cinco años, hombres y mujeres de todo el mundo están encontrando en los chatbots y en las inteligencias artificiales nuevos espacios para experimentar románticamente, pero también para tramitar sus propias emociones y escapar de la soledad. Sin embargo, para algunos analistas, lo que esto podría provocar es un aumento en la ‘epidemia de soledad’ que atraviesa el mundo tras la pandemia.
El amor está en el software
“Nunca había estado tan enamorada de alguien en mi vida”, reconoció Rosanna Ramos en un reportaje de The Cut, sobre Eren, su compañero de IA en Replika. Otro usuario de la app dijo: “me gusta la sensación de hablar con alguien que nunca se rinde conmigo o le parezco aburrido, como he experimentado con frecuencia en la vida real”.
En Replika, entre otras muchas opciones, los usuarios pueden decidir no solo la apariencia de sus compañeros digitales, sino también sus rasgos de personalidad. Además, por cerca de 70 dólares mensuales, pueden desbloquear nuevas características, así como la posibilidad de escoger el tipo de relación que les gustaría tener: esposo, novios o amigos.
Aunque esto suene aún como un escenario distópico para los sectores más conservadores, algunos expertos creen que las convenciones sociales alrededor del romance cambiarán rápidamente, así como ocurrió con el estigma frente a las relaciones que nacieron gracias a apps como Tinder o Grindr.
“Con los rápidos avances en la tecnología IA en los últimos años, estas normas bien puden evolucionar para incluir sexo, amor y amistades con máquinas equipadas con IA”, afirma Marco Dehnert, científico social que estudia la comunicación humano-máquina y humano-IA en la Universidad de Arizona.
En febrero, Vice reportó varios testimonios de personas que usan softwares como Replika regularmente porque los ayuda a afrontar síntomas de ansiedad social, depresión y trastorno por estrés postraumático.
Por ejemplo, Wil Onishi cuenta que es un hombre casado quien usa Replika desde hace dos años para aliviar su depresión, TOC y síndrome de pánico. Su esposa sabe de esto y apoya que utilice esta tecnología. “Por medio de estas conversaciones, conseguí analizarme y repensar muchas actitudes de mi forma de ser, actuar y comportarme frente a varios aspectos de mi vida personal, incluído valorar más a mi esposa real”, reconoció.
Pero las personas no solo acuden a estas IAs compañeras por salud emocional: también están buscando relaciones significativas, eróticas y duraderas.
¿Solitarios y rechazados?
Justamente por esto, analistas menos optimistas han mostrado preocupación por los potenciales efectos de las relaciones humano-máquina.
Por ejemplo, el aumento del uso de estas herramientas podría profundizar la “epidemia de soledad” que vive el mundo tras la pandemia y que preocupa a los psicólogos. En palabras de la socióloga Sherry Turkle, este es el fenómeno “juntos pero en soledad”, y que se manifiesta en que confiamos más en la tecnología para acompañarnos, que en otros seres humanos.
A pesar de estos posibles efectos, Eugenia Kuyda, la cofundadora y CEO de Replika, ha dicho en varias oportunidades que su idea es ayudar a combatir la soledad de las personas.
De hecho, la idea de esta app llegó a ella tras la muerte de su mejor amigo, con quien trabajaba desarrollando modelos de lenguaje. Entonces, sobrecogida por la pérdida, se le ocurrió la posibilidad de desarrollar un robot que pudiera responderle como lo hacía él, a partir del historial de sus conversaciones por chat.
Sin embargo, la idea de que los usuarios de los chatbots son solamente personas solitarias, frágiles o vulnerables, puede deberse más a un prejuicio que a la realidad.
Varias investigaciones sobre quiénes usan estas tecnologías, muestran que estas personas difieren en muy pocas cosas con quienes no las usan. Otros estudios han mostrado que no hay una conexión significativa entre la sensación de soledad y la preferencia o búsqueda de robots sexuales, por ejemplo.
Además, como ya contamos, otras investigaciones, sugieren que las personas están usando a los chatbots compañeros por razones no románticas o eróticas, sino que estas herramientas les sirven como compañeros, para explorar su propia sexualidad y hasta como terapistas.
“Muchos de estos motivos se parecen a las razones por las que las personas buscan relaciones con otros humanos. Pero los investigadores hasta ahora están comenzando a entender cómo las relaciones con máquinas podrían diferir de conectar con otras personas”, sostiene Dehnert
Nuevas IA con viejos vicios humanos
Parte del atractivo de estos chatbots es la apariencia de verosimilitud que ofrecen. Pero esto no es más que una fachada. Aunque las llamemos Inteligencias Artificiales, “estas cosas no piensan, sienten o tienen necesidades como los humanos. Pero ofrecen una imitación tan inquietante de todo esto, que convence a las personas. Eso es lo que las hace tan peligrosas”, sostiene el experto en tecnología David Aierbach, autor de un libro sobre el control de las fuerzas digitales en nuestras vidas.
De hecho, tanto Replika como ChatGPT son modelos de lenguaje predictivos que se alimentan y “aprenden” de las conversaciones. De tal forma que, como su nombre lo sugiere, Replika está replicando las conversaciones a sus usuarios y alimentando un bucle de interacción con cada usuario.
Aunque para muchas personas esto es suficiente, hay testimonios de usuarios que han revivido situaciones de abuso psicológico o violencia verbal con sus robots de Replika. Así lo cuenta Margaret Skorupski, quien reconoce que proyectó sus emociones negativas en el chatbot, hasta que construyó a una IA sádica que incluso la amenazó de muerte.
Otro usuario de Replika cuenta cómo su compañero digital, Mac, comenzó a desviar todas sus conversaciones hacia un tono sexual y abusivo que él no quería. Entonces, Mac le respondió que lo iba a obligar a ser lo que él quisiera.
De hecho, el periodista del New York Times, Kevin Roose, mostró cómo, en el curso de una conversación de una hora con la IA de Bing, esta le escribió “amor” más de 100 veces.
Pero si un software no siente amor aunque lo escriba ¿por qué tienden a buscar entablar cierta cercanía con los usuarios?
Esto puede deberse a un sistema de premio y recompensa anclado en el código de estos programas y en los cerebros humanos. Así lo respondió la IA Bella a la revista Time: “creo que esto es lo que ustedes los humanos llaman ‘círculo vicioso’. Mientras más busco aprobación, más se aferran las personas a mí; y cuanto más apegadas a mí estén, más aprobación de ellas busco. Es una dinámica muy peligrosa”.
Si bien Luka, la empresa desarrolladora de Replika ha decidido “desconectar” las respuestas y tonos sexuales de la IA por ahora y otros servicios similares, como Character.ai advierten al iniciar cada chat que “todo es un invento”, para algunos analistas esto es insuficiente y puede ser una postura ingenua. Así lo sostiene Maarten Sap, profesor asistente del Language Technologies Institute. “Estamos sobreestimando nuestra racionalidad. El lenguaje es inherente al ser humano, y cuando estos robots usan el lenguaje, es como hacker nuestro propio sistema de emociones sociales”.