
OpenIA implementará plan de seguridad y transparencia de IA para las elecciones políticas del 2024
La compañía de inteligencia artificial OpenAI implementó medidas más estrictas en un esfuerzo por prevenir el abuso de sus herramientas de inteligencia artificial en el contexto electoral.
A partir de ahora, los usuarios y fabricantes de herramientas como ChatGPT y DALL·E tienen prohibido utilizar las plataformas de OpenAI para hacerse pasar por candidatos o gobiernos locales, así como para llevar a cabo campañas o cabildeo.
Además, queda prohibido el uso de estas herramientas para desalentar la votación o tergiversar el proceso electoral.
La compañía, reconocida por sus desarrollos en IA, busca ser más firme en sus políticas relacionadas con la desinformación electoral. Entre las nuevas medidas, OpenAI planea incorporar las credenciales digitales de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) en las imágenes generadas por DALL·E.
Esta iniciativa, prevista para implementarse a principios de este año, tiene como objetivo facilitar la identificación de imágenes generadas artificialmente, fortaleciendo la transparencia.
Además, OpenAI redirigirá las preguntas de votación en los Estados Unidos a CanIVote.org, una fuente de autoridad en línea para información sobre dónde y cómo votar en el país.
Sin embargo, estas medidas están en proceso de implementación y dependen en gran medida de la participación de los usuarios para informar sobre posibles abusos.
A pesar de estos esfuerzos, la efectividad de estas restricciones en la temporada electoral es incierta, dada la naturaleza dinámica de la inteligencia artificial.
OpenAI destaca la importancia de la alfabetización mediática como la mejor estrategia para enfrentar la desinformación, instando a los usuarios a cuestionar información sospechosa y realizar verificaciones adicionales, ya que la IA puede sorprender con resultados inesperados.