logo pulso
PSL Logo

Google pedirá que IA usada en publicidad política incluya una aclaración

Por AP

Septiembre 07, 2023 03:42 p.m.

A

Google pronto pedirá que la publicidad política que utiliza inteligencia artificial vaya acompañada de una aclaración importante en caso de que las imágenes o los sonidos hayan sido alterados sintéticamente.

La publicidad electoral generada con la ayuda de la inteligencia artificial que aparece en YouTube y en otras plataformas de Google que cambia la apariencia de la gente o modifica eventos debe incluir una aclaración ubicada en algún lugar donde los usuarios puedan notarla, señaló la compañía en una actualización de su política de contenido político esta semana.

La nueva regla entrará en vigor a mediados de noviembre, poco menos de un año antes de las elecciones presidenciales en Estados Unidos. También afectará los anuncios de campaña previo a las elecciones del próximo año previstas en la India, Sudáfrica, la Unión Europea y otras regiones donde Google ya tiene un proceso de verificación para la publicidad política.

Aunque las imágenes, videos o clips de audio falsos no son nuevos en la publicidad política, las herramientas de inteligencia artificial generativa lo están haciendo más fácil y más realista. Algunas campañas presidenciales en la contienda de 2024, incluida la del gobernador republicano de Florida, Ron DeSantis, ya utilizan la tecnología.

El Comité Nacional Republicano publicó en abril un anuncio generado completamente con inteligencia artificial que pretendía mostrar el futuro de Estados Unidos si el presidente Joe Biden es reelegido. Empleó fotografías falsas, pero realistas, que mostraban frentes de negocios tapiados, patrullas militares blindadas en las calles y oleadas de inmigrantes creando pánico.

En junio, la campaña de DeSantis compartió publicidad contra su oponente en las primarias republicanas, Donald Trump, que utilizaba imágenes generadas por inteligencia artificial del expresidente abrazando al experto en enfermedades infecciosas, el doctor Anthony Fauci.

El mes pasado, la Comisión Federal Electoral inició un proceso para regular potencialmente los "deepfakes" (ultra falsos) generados por inteligencia artificial en publicidad política antes de las elecciones de 2024. Este tipo de contenido falso puede incluir la voz sintética de políticos diciendo algo que nunca dijeron.

La senadora estadounidense Amy Klobuchar, copatrocinadora del proyecto de ley pendiente que pediría aclaraciones en la publicidad engañosa generada con inteligencia artificial, dijo en un comunicado que el anuncio de Google representaba un paso en la dirección correcta, pero que "no podemos depender únicamente de compromisos voluntarios".

Varios estados también han discutido o aprobado leyes relacionadas con la tecnología deepfake.

Google no prohibirá por completo la inteligencia artificial en la publicidad política. Las excepciones incluyen contenido sintético alterado o generado de una manera que no tenga consecuencias para las afirmaciones hechas en el anuncio. La inteligencia artificial también se puede utilizar en técnicas de edición como reajuste de tamaño de imágenes, recorte, color, corrección de defectos o edición de fondo.

La prohibición abarcará la publicidad electoral en las plataformas que sean propiedad de Google, sobre todo en YouTube, así como en sitios web externos que forman parte de la red de contenido de Google.

La acción de Google podría presionar a otras plataformas para que sigan su ejemplo. La empresa matriz de Facebook e Instagram, Meta, no tiene una norma que esté dirigida específicamente a la publicidad política generada por inteligencia artificial, pero ya restringe audios e imágenes "falsas, manipuladas o transformadas" que sean utilizados para propagar información falsa. TikTok no permite ningún anuncio político. Por su parte, X —antes Twitter— no respondió de momento a una solicitud de comentarios enviada por correo electrónico.