Tech

OpenAI cierra operación de influencia electoral que utilizaba ChatGPT

\n

OpenAI ha prohibido un grupo de cuentas de ChatGPT vinculadas a una operación de influencia iraní que estaba generando contenido sobre las elecciones presidenciales de Estados Unidos, según una publicación en el blog el viernes. La compañía dice que la operación creó artículos y publicaciones en redes sociales generadas por inteligencia artificial, aunque parece que no alcanzó a una gran audiencia.

\n\n

No es la primera vez que OpenAI prohíbe cuentas vinculadas a actores afiliados a Estados que utilizan ChatGPT maliciosamente. En mayo, la compañía interrumpió cinco campañas que utilizaban ChatGPT para manipular la opinión pública.

\n\n

Estos episodios recuerdan a actores estatales que utilizan plataformas de redes sociales como Facebook y Twitter para intentar influir en ciclos electorales anteriores. Ahora grupos similares (o quizás los mismos) están utilizando inteligencia artificial generativa para inundar los canales sociales con desinformación. Al igual que las compañías de redes sociales, OpenAI parece estar adoptando un enfoque de juego de la gallina ciega, prohibiendo cuentas asociadas con estos esfuerzos a medida que surgen.

\n\n

OpenAI dice que su investigación de este grupo de cuentas se benefició de un informe de inteligencia de amenazas de Microsoft publicado la semana pasada, que identificó al grupo (al que llama Storm-2035) como parte de una campaña más amplia para influir en las elecciones de Estados Unidos desde 2020.

\n\n

Microsoft dijo que Storm-2035 es una red iraní con múltiples sitios que imitan a medios de comunicación y "se involucran activamente con grupos de votantes de EE. UU. en extremos opuestos del espectro político con mensajes polarizadores sobre temas como los candidatos presidenciales de EE. UU., los derechos LGBTQ y el conflicto Israel-Hamas". El modus operandi, como ha demostrado ser en otras operaciones, no es necesariamente promover una política u otra, sino sembrar disensión y conflicto.

\n\n

OpenAI identificó cinco sitios web frontales para Storm-2035, presentándose como medios de comunicación progresistas y conservadores con nombres de dominio convincentes como "evenpolitics.com". El grupo utilizó ChatGPT para redactar varios artículos de formato largo, incluido uno que alegaba que "X censura los tweets de Trump", algo que ciertamente la plataforma de Elon Musk no ha hecho (si acaso, Musk está alentando al expresidente Donald Trump a participar más en X).

\n\n
Un ejemplo de un medio de comunicación falso que ejecuta contenido generado por ChatGPT.
Créditos de la imagen: OpenAI

En las redes sociales, OpenAI identificó una docena de cuentas de X y una cuenta de Instagram controladas por esta operación. La compañía dice que se utilizó ChatGPT para reescribir varios comentarios políticos, que luego fueron publicados en estas plataformas. Uno de estos tweets afirmaba falsamente, y confusamente, que Kamala Harris atribuye "costos de inmigración aumentados" al cambio climático, seguido de "#DumpKamala".

\n
\n
\n\n

OpenAI dice que no vio evidencia de que los artículos de Storm-2035 fueran compartidos ampliamente y señaló que la mayoría de sus publicaciones en redes sociales recibieron pocos o ningún me gusta, compartido o comentario. Esto suele ser el caso con estas operaciones, que son rápidas y baratas de poner en marcha utilizando herramientas de inteligencia artificial como ChatGPT. Espere ver muchos más avisos como este a medida que se acerquen las elecciones y se intensifiquen las rencillas partidistas en línea.

Related Articles

Back to top button