El gobierno del presidente Joe Biden instó a la industria tecnológica y a las instituciones financieras a acabar con el creciente mercado de imágenes sexualmente abusivas, creadas con tecnología de inteligencia artificial (IA).
Las nuevas herramientas de IA generativa han hecho que sea más fácil transformar la imagen de una persona en imágenes falsas (deepfakes) sexualmente explícitas, creadas mediante IA, y compartir esas imágenes realistas en salas de chat o en redes sociales. Las víctimas, ya sean personas famosas o niños, tienen pocos recursos para impedirlo.
La Casa Blanca hizo un llamado el jueves para buscar la cooperación voluntaria de las empresas, en ausencia de una legislación federal. Las autoridades esperan que, al comprometerse con un conjunto de medidas específicas, el sector privado pueda frenar la creación, propagación y monetización de esas imágenes no consensuadas, que incluyen imágenes explícitas de menores.
"Cuando la IA generativa entró en escena, todo el mundo especulaba dónde se producirían los primeros daños reales. Y pienso que ya tenemos la respuesta", dijo Arati Prabhakar, asesora científica de Biden y directora de la Oficina de Política de Ciencia y Tecnología de la Casa Blanca.
Dijo a The Associated Press que existe "una aceleración fenomenal" de imágenes no consensuadas impulsadas por herramientas de IA, con el objetivo de atacar principalmente a mujeres y niñas en formas que pueden afectar gravemente sus vidas.
"Si eres una adolescente, si eres un chico gay, son problemas que las personas experimentan ahora mismo", dijo. "Vemos una aceleración debido a una IA generativa que avanza realmente rápido. Y lo más rápido que puede ocurrir es que las empresas intervengan y asuman la responsabilidad".
En un documento compartido con la AP antes de ser publicado el jueves, se hace un llamado a la acción, no solo por parte de los desarrolladores de IA, sino también de los procesadores de pagos, instituciones financieras, proveedores de servicios en la nube, motores de búsqueda y guardianes— concretamente, Apple y Google — que controlan lo que llega a las tiendas de aplicaciones móviles.
El sector privado debe intervenir para "interrumpir la monetización" del abuso sexual con base en imágenes y restringir el pago de acceso, particularmente a sitios que anuncian imágenes explícitas de menores, señaló el gobierno.