En los últimos años, proyectos de inteligencia artificial (IA) en todo el mundo han creado “resurrecciones” digitales de personas fallecidas, permitiendo que amigos y familiares conversen con ellas.
Por lo general, los usuarios proporcionan a la herramienta de IA información sobre el fallecido, que puede incluir mensajes de texto y correos electrónicos o simplemente respuestas a preguntas basadas en la personalidad.
La herramienta de IA procesa entonces esos datos para hablar con el usuario como si fuera el difunto. Uno de los proyectos más populares en este ámbito es Replika, un chatbot que puede imitar los estilos de mensajes de texto de las personas.
Sin embargo, otras compañías ahora también te permiten ver un vídeo de la persona muerta mientras hablas con ella.
Por ejemplo, StoryFile, con sede en Los Ángeles, utiliza inteligencia artificial para permitir que las personas hablen en sus propios funerales. Antes de morir, una persona puede grabar un video en el que comparte su historia de vida y sus pensamientos. Durante el funeral, los asistentes pueden hacer preguntas y la tecnología de inteligencia artificial seleccionará las respuestas pertinentes del video pregrabado.
En junio, la empresa estadounidense Eternos también fue noticia por crear una versión digital de sí mismo impulsada por inteligencia artificial. Este proyecto, iniciado a principios de este año, permitió a Michael Bommer, de 83 años, dejar atrás una versión digital de sí mismo con la que su familia podía seguir interactuando.
¿Estos proyectos ayudan a la gente?
Cuando una madre surcoreana se reunió con una recreación de inteligencia artificial de su hija muerta en realidad virtual, un video del emotivo encuentro en 2020 desató un intenso debate en línea sobre si dicha tecnología ayuda o perjudica a sus usuarios.
Los desarrolladores de este tipo de proyectos apuntan a la capacidad de acción de los usuarios y dicen que esto aborda un sufrimiento más profundo.
Jason Rohrer, fundador de Project December, que también utiliza IA para estimular conversaciones con los muertos, dijo que la mayoría de los usuarios suelen estar atravesando un “nivel inusual de trauma y dolor” y ven la herramienta como una forma de ayudar a sobrellevar la situación.
“Muchas de estas personas que quieren utilizar el Proyecto Diciembre de esta manera están dispuestas a intentar cualquier cosa porque su dolor es insuperable y les resulta muy doloroso”.
El proyecto permite a los usuarios chatear con recreaciones de IA de figuras públicas conocidas y también con personas que los usuarios puedan conocer personalmente.
Las personas que optan por utilizar el servicio para estimular la conversación con los muertos a menudo descubren que les ayuda a cerrar un capítulo, afirmó Rohrer. Los bots les permiten expresar palabras que no dijeron a sus seres queridos que murieron inesperadamente, añadió.
El fundador de Eternos, Robert LoCasio, dijo que desarrolló la compañía para capturar las historias de vida de las personas y permitir que sus seres queridos sigan adelante.
Bommer, su ex colega que falleció en junio, quería dejar un legado digital exclusivamente para su familia, dijo LoCasio.
“Hablé con [Bommer] unos días antes de que falleciera y me dijo: ‘Recuerden que esto es para mí. No sé si lo usarán en el futuro, pero esto fue importante para mí’”, dijo LoCasio.
¿Cuáles son los inconvenientes de esta tecnología?
Algunos expertos y observadores son más cautelosos respecto de las resurrecciones mediante IA, cuestionando si las personas profundamente afligidas pueden realmente tomar la decisión informada de usarla y advirtiendo sobre sus efectos psicológicos adversos.
“La mayor preocupación que tengo como médica es que el duelo es en realidad muy importante. Es una parte importante del desarrollo que podamos reconocer la ausencia de otra persona”, dijo Alessandra Lemma, consultora del Centro Nacional Anna Freud para Niños y Familias.
El uso prolongado podría impedir que las personas acepten la ausencia de la otra persona, dejándolas en un estado de “limbo”, advirtió Lemma.
De hecho, un servicio de inteligencia artificial ha promocionado una conexión perpetua con la persona fallecida como una característica clave.
“Bienvenido a YOV (You, Only Virtual), la startup de inteligencia artificial pionera en comunicaciones digitales avanzadas para que nunca tengamos que decir adiós a quienes amamos”, se lee en el sitio web de la empresa, antes de que se actualizara recientemente.
Rohrer dijo que su bot de duelo tiene un factor limitante “incorporado”: los usuarios pagan $10 por una conversación limitada.
La tarifa permite comprar tiempo en una supercomputadora, y cada respuesta tiene un costo computacional variable. Esto significa que 10 dólares no garantizan una cantidad fija de respuestas, pero pueden permitir una o dos horas de conversación. Cuando el tiempo está a punto de expirar, los usuarios reciben una notificación y pueden despedirse definitivamente.
Varios otros servicios conversacionales generados por IA también cobran una tarifa por su uso.
Lemma, quien ha investigado el impacto psicológico de los robots de duelo, dice que si bien le preocupa la posibilidad de que se utilicen fuera de un contexto terapéutico, podrían usarse de manera segura como complemento de la terapia con un profesional capacitado.
Estudios en todo el mundo también están observando el potencial de la IA para brindar asesoramiento sobre salud mental, particularmente a través de herramientas de conversación individualizadas.
¿Son estas herramientas antinaturales?
Estos servicios pueden parecer sacados de un episodio de Black Mirror.
Pero los partidarios de esta tecnología argumentan que la era digital simplemente está marcando el comienzo de nuevas formas de preservar historias de vida y potencialmente llenando un vacío dejado por la erosión de las prácticas tradicionales de narración familiar.
“En la antigüedad, si un padre sabía que se estaba muriendo, dejaba cajas llenas de cosas que tal vez quisiera transmitir a un hijo o un libro”, dijo Lemma. “Así que esta podría ser la versión del siglo XXI de eso, que luego se transmite y es creada por los padres en previsión de su muerte”.
LoCasio en Eternos está de acuerdo.
“La capacidad de un ser humano de contar las historias de su vida y transmitirlas a sus amigos y familiares es en realidad lo más natural”, dijo.
¿Son seguros y privados los servicios de resurrección mediante IA?
Tanto expertos como estudios han expresado su preocupación por la posibilidad de que dichos servicios no logren mantener la privacidad de los datos.
La información personal o los datos, como los mensajes de texto compartidos con estos servicios, podrían ser accedidos por terceros.
Incluso si una empresa dice que mantendrá la privacidad de los datos cuando alguien se registra por primera vez, las revisiones habituales de los términos y condiciones, así como los posibles cambios en la propiedad de la empresa, significan que no se puede garantizar la privacidad, advirtió Renee Richardson Gosline, profesora titular de la Escuela de Administración Sloan del MIT.
Tanto Rohrer como LoCasio insistieron en que la privacidad era la prioridad de sus proyectos. Rohrer solo puede ver las conversaciones cuando los usuarios envían una solicitud de asistencia al cliente, mientras que Eternos, de LoCasio, limita el acceso al legado digital a los familiares autorizados.
Sin embargo, ambos coincidieron en que tales preocupaciones podrían manifestarse potencialmente en el caso de gigantes tecnológicos o empresas con fines de lucro.
Una gran preocupación es que las empresas puedan usar resurrecciones de IA para personalizar la forma en que se promocionan ante los usuarios.
Un anuncio en la voz de un ser querido, un empujón hacia un producto en su texto.
“Cuando se hace eso con personas vulnerables, lo que se crea es una pseudoautorización basada en alguien que nunca aceptó hacer tal cosa. Por lo tanto, realmente es un problema en lo que respecta a la capacidad de acción y la asimetría del poder”, dijo Gosline.
¿Existen otras preocupaciones sobre los chatbots de IA?
El hecho de que estas herramientas estén dirigidas fundamentalmente a un mercado de personas que se enfrentan al duelo las hace en sí mismas riesgosas, sugirió Gosline, especialmente cuando las grandes empresas tecnológicas entran en el juego.
“En una cultura de empresas tecnológicas que a menudo se describe como ‘que se mueven rápido y rompen cosas’, deberíamos estar preocupados porque lo que generalmente se rompe primero son las cosas de las personas vulnerables”, dijo Gosline. “Y me cuesta pensar en personas que sean más vulnerables que las que están de duelo”.
Los expertos han expresado su preocupación por la ética de crear una resurrección digital de los muertos, en particular en los casos en que no han dado su consentimiento y los usuarios alimentan los datos a la IA.
El impacto ambiental de las herramientas impulsadas por IA y los chatbots también es una preocupación creciente, en particular cuando involucran modelos de lenguaje grandes (LLM), sistemas entrenados para comprender y generar texto similar al humano, que impulsan aplicaciones como los chatbots.
Estos sistemas necesitan centros de datos gigantescos que emiten altos niveles de carbono y utilizan grandes volúmenes de agua para refrigeración, además de generar desechos electrónicos debido a las frecuentes actualizaciones de hardware.
Un informe de principios de julio de Google mostró que la empresa estaba muy por detrás de sus ambiciosos objetivos de cero emisiones netas, debido a la demanda que la IA estaba imponiendo a sus centros de datos.
Gosline dijo que entiende que no existe un programa perfecto y que muchos usuarios de estos chatbots de IA harían cualquier cosa para volver a conectarse con un ser querido fallecido. Pero los líderes y los científicos deben ser más reflexivos sobre el tipo de mundo que quieren crear, afirmó.
Fundamentalmente, dijo, necesitan hacerse una pregunta: “¿Necesitamos esto?”.