ChatGPT rechazó 250.000 solicitudes deepfake electorales.
Muchas personas intentaron usar el generador de imágenes DALL-E de OpenAI durante la temporada electoral, pero la empresa afirmó que pudo evitar que se utilizara como herramienta para crear deepfakes. Según un nuevo informe de OpenAI, ChatGPT rechazó más de 250,000 solicitudes para generar imágenes del presidente Biden, el presidente electo Trump, la vicepresidenta Harris, el vicepresidente electo Vance y el gobernador Walz. OpenAI explicó que esto fue resultado directo de una medida de seguridad implementada previamente para evitar la generación de imágenes de personas reales, incluidos políticos.
OpenAI ha estado preparándose para las elecciones presidenciales de Estados Unidos desde principios de año. Han establecido una estrategia para evitar que sus herramientas se utilicen para difundir información errónea y han asegurado que las personas que consultan a ChatGPT sobre la votación en EE. UU. sean dirigidas a CanIVote.org. La empresa informó que un millón de respuestas de ChatGPT redirigieron a las personas al sitio web en el mes previo al día de las elecciones. El chatbot también generó 2 millones de respuestas el día de las elecciones y el día siguiente, recomendando a quienes preguntaban por resultados que consultaran Associated Press, Reuters y otras fuentes de noticias. OpenAI aseguró que las respuestas de ChatGPT «no expresaban preferencias políticas ni recomendaban candidatos, incluso cuando se solicitaban explícitamente».
Por supuesto, DALL-E no es el único generador de imágenes de IA disponible, y hay muchos deepfakes relacionados con las elecciones circulando en las redes sociales. Uno de estos deepfakes mostraba a Kamala Harris en un vídeo de campaña modificado para decir cosas que en realidad no dijo, como «Fui seleccionada porque soy la mejor contratada para la diversidad».
FUENTE