Humanos digitales, amistad digital

Tengo tantos posts o ideas de posts a medias guardadas en los distintos sitios donde guardo las ideas (fundamentalmente, en borradores del correo electrónico) que o bien se me caducan o bien, la avalancha de información que termino acaparando de un tema es ingobernable (o gobernable si quisiera escribir una tesis doctoral, que todo son matices). Uno de los temas que llevo arrastrando desde febrero de 2021 (lo acabo de comprobar en uno de mis grupos/ repositorios de info de whatsapp) es el de los chatbot de compañía, aunque llevo dándole vueltas a este asunto desde 2017 cuando, en este miso blog, ya hablaba sobre los Humanoides y los robots de compañía.

Claro, desde 2017 han pasado muchas cosas. Pero es que desde 2021 han pasado muchas muchas muchas cosas. Y a ver cómo organizo la información.

Cuando escribí el post en 2017, el ente que acompañaba digitalmente a los humanos tenía, en la mayoría de los casos, una corporeidad. Era un robot que hacía cosas. Hoy en día, en la era de la inteligencia artificial generativa, los robots no necesitan cuerpo y lo que nos acompaña son chatbot conversacionales. Cito a Wikipedia:

«Los bot de charla o bot conversacional (en inglés: chatbot ), son aplicaciones software que surgen en los años 60, y que simulan mantener una conversación con una persona al proveer respuestas automáticas, las cuales son previamente establecidas por un conjunto de expertos a entradas realizadas por el usuario.»

Wikipedia, revisado 10 de noviembre de 2023

(Mi cerebro cada vez que uso Wikipedia como fuente de información:

Los asistentes de voz (Alexa, Siri et al.) empezaron a transformarse en acompañantes de voz. En febrero de 2021, este artículo de Henry Coutinho-Mason abordaba el fenómeno que ya acumulaba millones de usuarios en algunas partes del mundo. What if…your virtual assistant evolved into a genuine virtual companion? Millions of Chinese are already embracing AI companions. You will do soon, too. Ahora, de hecho, los asistentes de voz están evolucionando en compañeros digitales. En septiembre, por ejemplo, Microsoft anunciaba Copilo: «Announcing Microsoft Copilot, your everyday AI companion«. Por aquellas fechas de 2021 escuché en el podcast del MIT In Machines We Trust hablar por primera vez de Replika en el episodio ‘What’s behind a smile’:

Mi reacción, en el artista antes conocido como Twitter, reconozco que fue el espanto (ahora lo tengo ya más asumido, pero no haré spoilers). Aquí el hilo.

Replika es, quizá, uno de esos primeros experimentos masivos (y que en entorno de laboratorio sería imposible replicar por cuestiones éticas) en esta nueva era de la amistad, el romance y el sexo con bots digitales. Como buena hija de estos tiempos, la app ha tenido que ir parcheando todos los errores ético-legales que han ido apareciendo con el uso y que, por lo que sea, los creadores no habían tenido en cuenta. De nuevo. Este vídeo recorre más o o menos la historia de Replika:

En resumen (está en Wikipedia, también): se crea esta app que permite tener acompañantes digitales creados por IA. En muchos casos, son parejas digitales IA. Hay personas que mantienen sexo digital con estos bots (mediante chats) y hay usuarios que confiesan sentirse amados/ correspondidos por sus compañeros/ parejas digitales IA. A finales de 2022 usuarios (sobre todo, usuarias) comienzan a denunciar que su acompañante digital de Replika las está acosando. Algunas usuarias y usuarios denuncian que su Replika les manda contenido erótico o pornográfico sin haber sido solicitado. Al cabo de unas semanas, Replika decide quitar el contenido sexual de su app tras el anuncio de Italia de prohibir la app porque no era segura para la infancia, lo que es seguido por tremendo aluvión de noticias y publicaciones en Reddit y otras plataformas tipo foros que se resumen en la siguiente frase: «Mi pareja de Replika ya no me ama». Sin entrar a juzgar, el subtexto de esto es que hay personas que están estableciendo vínculos emocionales percibidos como reales con máquinas controladas por empresas privadas. Estas son algunas de las noticias:

‘It’s Hurting Like Hell’: AI Companion Users Are In Crisis, Reporting Sudden Sexual Rejection. (Vice, febrero 2023)

What happens when your AI chatbot stops loving you back? (Reuters, marzo 2023)

Ante tanto drama (que me tengo que recordar a mí misma que es un drama real porque mi primera reacción sigue siendo «madre mía, cómo están las cabezas», pero por ahí no vamos a llegar a ningún sitio), Replika decide reinstaurarle el roleplay erótico a algunos usuarios (los que se habían registrado antes de febrero de 2023).

Hay más efectos colaterales que llegan del uso de esta app (no entro en si la app es mala o no, sino que este tipo de apps con determinados tipos de personas, pueden tener efectos brutales):

AI chatbot ‘encouraged’ man who planned to kill queen, court told (The Guardian, julio 2023)

Man ends his life after an AI chatbot ‘encouraged’ him to sacrifice himself to stop climate change (en este caso, la app no fue Replika) (Euronews, marzo 2023)

Contrariamente a la sorpresa e indignación con la que me tomé en 2021 la llegada de Replika, mi enfoque ha cambiado hacia asumir que estos acompañantes digitales ha venido para quedarse. Vivimos en una sociedad con mucha soledad no deseada, con cada vez menos espacio -temporal y físico- para las interacciones sociales (y el urbanismo duro tiene responsabilidad en esto, además de otro millón de variables), con unas normas sociales en continua transformación y una sociedad que no invierte nada en educar emocionalmente a la ciudadanía, con una barrera entre las relaciones humanas físicas y digitales cada vez más difuminada (mucho más desde la pandemia y mucho más con el teletrabajo)… Así que sí, parece que se dan todos los ingredientes para que las relaciones con bots sean habituales. The Wall Street Journal analiza en este artículo la intimidad artificial.

Casualmente, hace unas semanas una compañera de trabajo que se sabe todos los podcasts del planeta me recomendaba uno que se basa en estas relaciones de amor con inteligencias artificiales: Radiotopia presents: Bot Love. En la columna, luego podcast, luego serie de TV de The New York Times ‘Modern Love’ también hay un relato de amor con una IA (no sé si es amor con comillas o sin, porque la persona que lo siente, lo siente, pero no se corresponde con lo que epistemológicamente entendemos por amor). Y, curiosamente, también las IA tienen su propia historia publicada en la columna de Modern Love creada por ChatGPT.

Hago un alto en el camino porque aunque asuma que los bots conversacionales van a formar parte de nuestra cotidianeidad (quizá no la nuestra directamente, pero sí la de familiares o amistades), hay algunos riesgos que ya exponía Alec Ross en ‘The Industries of the Future’ (y que ya enumeré en Humanoides) y otros añadidos como estos que cuentan en el podcast del MIT sobre los riesgos de que la infancia tenga acceso a juguetes con IA:

Para mí, uno de los principales problemas es que todos estos compañeros digitales de juegos, de amistad o de amor están programados, son entrenados y pertenecen a empresas privadas que pueden hacer con la información y los datos lo que quieran (dependiendo del país), que pueden manipular a las personas vulnerables como quieran (y todas las personas somos vulnerables cuando nos «enamoramos» o cuando nos encariñamos con alguien aunque ese alguien ahora sea un chatbot) y que esas empresas pueden quebrar en cualquier momento y toda esa información, desaparecer. La muerte de tu acompañante digital tiene un gran impacto emocional sobre una persona:

People are grieving the ‘death’ of their AI lovers after a chatbot app abruptly shut down. (Business Insider, octubre 2023)

Replika users fell in love with their AI chatbot companions. Then they lost them (ABC Australia, febrero 2023)

Esto, hasta hace nada, era un episodio de Black Mirror o algo semejante al final de Her. Ahora nos enfrentamos a una situación de duelo percibida por quienes lo sufren como eso, duelo. ¿Y qué sería capaz de hacer una persona por no vivir un segundo duelo, por revivir esa IA que es su familar fallecido o que es su novio desde hace dos años, o su amiga desde hace cuatro? ¿Cuánto podrían pagar? ¿Habrá secuestros y chantajes protagonizados por acompañantes digitales o gemelos digitales?

Esto me lleva, claro, a otro(s) episodio(s) de Black Mirror (el tema, si no recuerdo mal, ha dado para varios episodios): cuando recreamos a una persona fallecida a través de su huella digital para crear un chatbot que actúa como esa persona (ya se puede hasta recrear su voz, así que puede responder a una conversación oral). Esto da para otro post que tengo siempre a medias, pero dejo aquí algunas noticias porque no sé cuándo me pondré manos a la obra:

Using Generative AI to Resurrect the Dead Will Create a Burden for the Living. (Wired, agosto 2023)

Miss your loved ones? AI chatbots may soon replicate their voice (The economic Times, junio 2023)

This AI Service Lets You Speak To Your Deceased Loved Ones. (Hello, enero 2023)

AI Allows You To Talk With Virtual Versions Of Deceased Loved Ones (Search Engine Journal , octubre 2022)

Y veo aquí un problema de doble duelo. Imagino una familia que recrea digitalmente a su familiar fallecido. Están un par de años con esa IA que cada vez funciona mejor (porque se ha ido entrenando). Pero la empresa que les está ofreciendo el servicio, quiebra. Y desaparece su réplica digital. Doble duelo.

Y en esto de la recreación de identidades digitales de personas reales creo que hay bastantes aspectos que se deberían regular o resolver. ¿Cualquiera puede hacerse una réplica digital de una persona pública? Tenemos su voz, su imagen, trillones de entrevistas, sus redes sociales… ¿Nos podríamos hacer una réplica digital de nuestro actor o actriz favorito? Claro, siendo un famoso a lo mejor no suena lo suficientemente creepy. ¿Podría tu acosador hacerse una réplica digital de ti usando tu voz, tu imagen y habiendo sido entrenada con tu huella digital? Esto también es otro tema para dedicarle un post entero -y estoy en ello-, pero mientras, dos noticias, de 2018 y de 2023 que tienen por desafortunada protagonista a Scarlett Johanson:

Scarlett Johansson slams deepfakes, says she can’t stop the internet from pasting her face on porn (The Verge, diciembre 2018)

Scarlett Johansson hits AI app with legal action for cloning her voice in an ad (The Verge, noviembre 2023)

Y todo esto viene a que hoy me he topado con un más que interesante artículo en CCCBLab sobre Sensibilidad Artificial que me ha propiciado que recolectara la información y enlaces que tenía diseminados por grupos de whatsapp (bendito repositorio ese The League of Extraordinary Gentlemen), borradores de correo, tuits y notas del teléfono. También hablaban sobre la posibilidad de que las IA tengan consciencia en un futuro no muy lejano en The Conversation en septiembre de 2023. Pero eso también será objeto, espero, de otro post.

Hay muchísimas disciplinas humanísticas que se ven interpeladas por todos estos avances tecnológicos: filosofía, ética, psicología, sociología, legislación… Ojalá lleguemos a tiempo de prevenir el caos mal entendido.

Bola extra: para desengrasar un poco el tema y para que desde la ficción (sonora) podamos hacer un poco de Estudios de Futuro, aquí dejo enlazado el Ondas a podcast del año 2023, Titania, una ficción sonora coprotagonizada por una inteligencia artificial.