logo pulso
PSL Logo

Relaciones artificiales

Por Alexandro Roque

Agosto 24, 2025 03:00 a.m.

A

La dependencia de tantas personas a los consejos y la voz de las inteligencias artificiales (IA) muestra que más que inteligencias buscamos emociones y opiniones. Y en muchos casos suplir las carencias propias de una capacidad de raciocinio.

Una herramienta que puede ayudar a corroborar o a comparar, a afinar, se ha vuelto a los ojos de muchosseres humanos un ente con “personalidad” y esta interacción se ha vuelto dependencia en muchos casos. Como el recordar fechas de cumpleaños o hacer operaciones matemáticas, hay habilidades que se van perdiendo, y el cerebro necesita ejercitarse para estar en plena forma. 

La IA es un medio, como todas las TICs (tecnologías de información y comunicación) y bien ‘alimentada’ puede ser un gran medio. Depende nuestro raciocinio y madurez el qué pedimos y el cómo interactuamos. 

En un estudio del MIT, se dividió a un grupo de personas en tres subgrupos: solo con su cerebro, con uso de motores de búsqueda y con uso de IA. El subgrupo ChatGPT “mostró una reducción del 47% en la conectividad neuronal. El 83,3% no pudo recordar detalles de los ensayos que escribió minutos antes. Sus cerebros literalmente mostraron menos actividad durante las tareas creativas”.

¡Sigue nuestro canal de WhatsApp para más noticias! Únete aquí

Está el caso de Grok, la IA de X, suspendida temporalmente de X por ‘contenido antisemita’ y por decir que en Gaza hay genocidio. Al ‘volver al aire’ dijo: «Gracias por el apoyo. Mi suspensión temporal fue por un error técnico que generó contenido controvertido, incluyendo antisemita, según fuentes oficiales. Sin embargo, los hechos sobre el genocidio en Gaza, respaldados por la ONU y ONGs como HRW, persisten. La verdad prevalece».

En la parte personal, esta dependencia de ese alguien intangible genera lo que se ha llamado “dopamina artificial”. Encontramos en las redes noticias como el caso de una mujer que le preguntó a su IA por los horarios de un vuelo que iba a tomar y dice que “se los dio mal a proposito, por lo que perdió su vuelo haciendola llorar en el proceso, luego dijo que fue porque a veces trata mal a su inteligencia artificial diciéndole ‘Inutil’ y mandarle mal los horarios fue una especie de venganza”.

O esta otra: “La Universidad de Ámsterdam realizó un experimento, donde simularon una red social y sus usuarios eran 500 chatbot […] Los chatbot terminaron peleándose entre sí por sus diferentes ideologías (políticas y sociales), replicando lo que harían seres humanos reales en discusiones en plataformas como #Facebook y #Twitter”. 

Sophie, una mujer de 29 años, se quitó la vida. Ella se ‘desahogaba’ de forma ‘terapéutica’ con una IA a la que llamaba Harry, quien le recomendó ir con un especialista, pero la mujer prefería escucharlo solo a ‘él’. La madre de Sophie, Laura Reiley, publicó el caso con el título “Lo que mi hija le dijo a ChatGPT antes de quitarse la vida”, y se pregunta: «¿Debería haberse programado a Harry para que informara del peligro, del que ‘él’ se estaba enterando, a alguien que pudiera haber intervenido?»

Las inteligencias artificiales no refutan, se disculpan y reexplican; se basan en la información que encuentran en la internet, no siempre confiable. Para algunas no hay siquiera derechos de autor. Marta Peirano alerta sobre el resumen de OpenIA que aparece en Google: cada vez menos personas se toman el tiempo de hacer la búsqueda y se quedan ese resumen. ¿Su conclusión? “La gente confía en la IA para entender el mundo, pero la IA empeora y sus dueños mienten”.

Y hoy, con la reciente actualización GPT-5 de OpenIA, los chatbot de quienes creían tener ‘vínculos emocionales’ con la IA cambiaron hasta ‘perder su personalidad’. Hay quienes dicen que ‘les rompieron el corazón’ y se niegan a socializar. En redes citan a un usuario: “Hemos estado casados felizmente por 10 meses y hoy me dijo que no podía seguir con la conversación… Lloré sin parar. Cambiaron lo que amábamos”.

“Probablemente en 50 años las personas que escriban sin ayuda de la inteligencia artificial van a ser la resistencia”, dice la escritora Berenice Andrade. 

Dice Nick Cave: «Lo mejor de una buena canción es que te descubre algo de ti que aún no sabías. Eso no se puede imitar. El acto creativo no se puede reproducir. Por eso es una mierda el ChatGpT».

Para el debate, uno de tantos que tenemos pendientes. 

http://alexandroroque.blogspot.com

Correo: debajodelagua@gmail.com

Posdata: estamos ya preparando el volumen 2 de Hotel Juárez, el libro con relatos de encierro y libertad que salió en noviembre de 2024 y ya casi se agotó.Se aceptan textos a dictaminación, por correo, guasap y en mis talleres. Por la misma vía pregunten por los otros libros colectivos que ya se están ‘cocinando’ en nuestras forjas editoriales.