diciembre 14, 2024

Regionalpuebla.mx

Encuentra toda la información nacional e internacional sobre españa. Selecciona los temas sobre los que quieres saber más

OpenAI dice que grupos rusos e israelíes utilizaron sus herramientas para difundir desinformación | AbiertoAI

OpenAI dice que grupos rusos e israelíes utilizaron sus herramientas para difundir desinformación |  AbiertoAI

El jueves, OpenAI publicó su primer informe sobre cómo se utilizan sus herramientas de inteligencia artificial en operaciones de influencia encubiertas, revelando que la compañía había interrumpido campañas de desinformación originadas en Rusia, China, Israel e Irán.

Los actores maliciosos utilizaron los modelos de inteligencia artificial generativa de la empresa para crear y difundir contenido publicitario en plataformas de redes sociales y traducir su contenido a diferentes idiomas. Ninguna de las campañas ganó fuerza ni llegó a grandes audiencias, Según el informe.

A medida que la IA generativa se ha convertido en una industria en auge, ha habido una preocupación generalizada entre investigadores y legisladores sobre su potencial para aumentar la cantidad y calidad de la información errónea en línea. Empresas de inteligencia artificial como OpenAI, que fabrica ChatGPT, han tratado de disipar estas preocupaciones y poner barreras a su tecnología, con resultados mixtos.

El informe OpenAI de 39 páginas es uno de los informes más detallados de una empresa de inteligencia artificial sobre el uso de su software para publicidad. OpenAI afirmó que sus investigadores encontraron y bloquearon cuentas vinculadas a cinco operaciones de influencia encubiertas durante los últimos tres meses, que provenían de una combinación de actores gubernamentales y privados.

En Rusia, dos operaciones crearon y difundieron contenidos críticos hacia Estados Unidos, Ucrania y varios Estados bálticos. Una operación utilizó un modelo OpenAI para depurar código y crear un bot que se implementó en Telegram. La operación de influencia china produjo textos en inglés, chino, japonés y coreano, que luego los activistas publicaron en Twitter y Medium.

Los representantes iraníes redactaron artículos completos atacando a Estados Unidos e Israel y los tradujeron al inglés y al francés. Una empresa política israelí llamada Stoic gestionaba una red de cuentas falsas en las redes sociales que creaban una variedad de contenidos, incluidas publicaciones que acusaban de antisemitas a las protestas estudiantiles estadounidenses contra la guerra israelí en Gaza.

READ  Un agricultor estadounidense advierte que "China se está haciendo cargo silenciosamente" de la seguridad alimentaria

Muchos de los propagadores de desinformación que OpenAI prohibió en su plataforma ya eran conocidos por los investigadores y las autoridades. El Tesoro de los Estados Unidos Sanciones impuestas a dos hombres rusos En marzo, supuestamente estaban detrás de una de las campañas descubiertas por OpenAI, mientras que Meta también prohibió a Stoic su plataforma este año por violar sus políticas.

El informe también destaca cómo se puede incorporar IA productiva en campañas de desinformación como una forma de mejorar ciertos aspectos de la creación de contenido, como publicar publicaciones más persuasivas en idiomas extranjeros, pero no es la única herramienta de propaganda.

“Todas estas operaciones utilizaron inteligencia artificial hasta cierto punto, pero ninguna la utilizó exclusivamente”, afirma el informe. «En cambio, el material generado por IA fue sólo uno de los muchos tipos de contenido que publicaron, junto con los formatos tradicionales, como textos escritos a mano o memes copiados en línea».

Si bien ninguna de las campañas produjo ningún impacto notable, el uso que hicieron de la tecnología muestra cómo los actores malintencionados han descubierto que la IA generativa les permite escalar la producción de propaganda. Ahora es posible escribir, traducir y publicar contenidos de manera más eficiente mediante el uso de herramientas de inteligencia artificial, reduciendo el nivel de creación de campañas de desinformación.

Durante el año pasado, actores maliciosos utilizaron IA generativa en países de todo el mundo para intentar influir en la política y la opinión pública. Se han utilizado audio deepfake, imágenes generadas por IA y campañas de texto para perturbar las campañas electorales, lo que aumenta la presión sobre empresas como OpenAI para que restrinjan el uso de sus herramientas.

READ  Una interrupción global de la TI muestra los peligros de una sociedad sin efectivo, dicen los activistas Corte de TI en Microsoft

OpenAI afirmó que planea emitir periódicamente informes similares sobre operaciones encubiertas de influencia, además de eliminar cuentas que violen sus políticas.