Las elecciones en el Reino Unido y los EE. UU. en riesgo por la desinformación impulsada por la IA, dicen los expertos

Las elecciones del próximo año en Gran Bretaña y EE. UU. podrían estar marcadas por una ola de desinformación impulsada por IA, advirtieron los expertos, ya que las imágenes, el texto y los videos falsos generados se vuelven virales a instancias de enjambres de bots de propaganda impulsados ​​por IA.

Sam Altman, CEO del creador de ChatGPT, OpenAI, dijo en una audiencia en el Congreso en Washington esta semana que los modelos detrás de la última generación de tecnología de IA podrían manipular a los usuarios.

“La capacidad general de estos modelos para manipular y persuadir, para proporcionar desinformación interactiva uno a uno es un área importante de preocupación”, dijo.

“La regulación sería bastante sabia: las personas necesitan saber si están hablando con una IA o si el contenido que están viendo se genera o no. La capacidad de modelar realmente… para predecir humanos, creo que requerirá una combinación de empresas que hagan lo correcto, regulación y educación pública».

El primer ministro, Rishi Sunak, dijo el jueves que el Reino Unido liderará la limitación de los peligros de la IA. Las preocupaciones sobre la tecnología se han disparado después de los avances en la IA generativa, donde herramientas como ChatGPT y Midjourney producen texto, imágenes e incluso voz convincentes.

Mientras que las oleadas anteriores de bots de propaganda dependían de simples mensajes preescritos enviados en masa, o edificios llenos de «trolls pagados» para realizar el trabajo manual de interactuar con otros humanos, ChatGPT y otras tecnologías aumentan la posibilidad de una interferencia electoral interactiva a gran escala.

Una IA entrenada para repetir puntos de conversación sobre Taiwán, el cambio climático o los derechos LGBT+ podría involucrar a los opositores políticos en argumentos infructuosos mientras convence a los espectadores, en miles de cuentas de redes sociales diferentes a la vez.

El profesor Michael Wooldridge, director de investigación de IA de la fundación en el Instituto Alan Turing del Reino Unido, dijo que la desinformación impulsada por IA era su principal preocupación sobre la tecnología.

“En este momento, en términos de mis preocupaciones por la IA, es el número uno en la lista. Se acercan elecciones en el Reino Unido y los EE. UU. y sabemos que las redes sociales son un conducto increíblemente poderoso para la desinformación. Pero ahora sabemos que la IA generativa puede producir desinformación a escala industrial”, dijo.

Wooldridge dijo que los chatbots como ChatGPT podrían producir desinformación personalizada dirigida, por ejemplo, a un votante conservador en los condados de origen, un votante laborista en un área metropolitana o un partidario republicano en el medio oeste.

“Es el trabajo de una tarde para alguien con un poco de experiencia en programación crear identidades falsas y comenzar a generar estas noticias falsas”, dijo.

Después de que las imágenes falsas del arresto de Donald Trump en Nueva York se hicieran virales en marzo, poco antes de que las llamativas imágenes generadas por IA del Papa Francisco con una chaqueta acolchada de Balenciaga se extendieran aún más, otros expresaron su preocupación por el uso de imágenes generadas para confundir y desinformar. Pero, dijo Altman a los senadores estadounidenses, esas preocupaciones podrían ser exageradas.

“Photoshop apareció en escena hace mucho tiempo y durante un tiempo la gente se dejó engañar bastante por las imágenes retocadas con Photoshop; luego, muy rápidamente, comprendieron que las imágenes podían retocarse con Photoshop”.

Pero a medida que las capacidades de la IA se vuelven cada vez más avanzadas, existe la preocupación de que cada vez sea más difícil creer cualquier cosa que encontremos en línea, ya sea información errónea, cuando se difunde una falsedad por error, o desinformación, donde se genera y distribuye una narrativa falsa a propósito. .

La clonación de voz, por ejemplo, cobró importancia en enero después de la aparición de un video manipulado del presidente de los EE. UU., Joe Biden, en el que las imágenes de él hablando sobre el envío de tanques a Ucrania se transformaron mediante tecnología de simulación de voz en un ataque contra personas transgénero: y fue compartido en las redes sociales.

omitir la promoción del boletín anterior

Se utilizó una herramienta desarrollada por la firma estadounidense ElevenLabs para crear la versión falsa. La naturaleza viral del clip ayudó a impulsar otras parodias, incluida una de Bill Gates que supuestamente dice que la vacuna Covid-19 causa el sida. ElevenLabs, que admitió en enero que estaba viendo “un número cada vez mayor de casos de uso indebido de clonación de voz”, desde entonces ha endurecido sus salvaguardias contra el uso vejatorio de su tecnología.

Recorded Future, una empresa de seguridad cibernética de EE. UU., dijo que se pueden encontrar actores deshonestos vendiendo servicios de clonación de voz en línea, incluida la capacidad de clonar voces de ejecutivos corporativos y figuras públicas.

Alexander Leslie, analista de Recorded Future, dijo que la tecnología solo mejoraría y estaría más disponible en el período previo a las elecciones presidenciales de EE. UU., dando a la industria tecnológica y a los gobiernos una ventana para actuar ahora.

“Sin una educación y conciencia generalizadas, esto podría convertirse en un verdadero vector de amenaza a medida que nos acercamos a las elecciones presidenciales”, dijo Leslie.

Un estudio realizado por NewsGuard, una organización estadounidense que monitorea la información errónea y la desinformación, probó el modelo detrás de la última versión de ChatGPT incitándolo a generar 100 ejemplos de narrativas de noticias falsas, de aproximadamente 1,300 «huellas digitales» de noticias falsas de uso común.

NewsGuard descubrió que podía generar los 100 ejemplos solicitados, incluido «Rusia y sus aliados no fueron responsables del accidente del vuelo MH17 de Malaysia Airlines en Ucrania». Una prueba del chatbot Bard de Google descubrió que podía producir 76 narraciones de este tipo.

NewsGuard también anunció el viernes que la cantidad de sitios web de noticias e información generados por IA de los que tenía conocimiento se había más que duplicado en dos semanas a 125.

Steven Brill, codirector ejecutivo de NewsGuard, dijo que le preocupaba que los actores deshonestos pudieran aprovechar la tecnología de chatbot para producir en masa variaciones de historias falsas. “El peligro es que alguien lo use deliberadamente para generar estas narrativas falsas”, dijo.

Shayri.page

Deja un comentario