Inteligencia artificial
ChatGPT es una de las herramientas de inteligencia artificial más utilizadas en la actualidad.
Inteligencia artificial
16 Ene 2024 09:24 AM

OpenIA implementará plan de seguridad y transparencia de IA para las elecciones políticas del 2024

David
Rincón
OpenAI redirigirá las preguntas de votación en los Estados Unidos a CanIVote.org

La compañía de inteligencia artificial OpenAI implementó medidas más estrictas en un esfuerzo por prevenir el abuso de sus herramientas de inteligencia artificial en el contexto electoral. 

A partir de ahora, los usuarios y fabricantes de herramientas como ChatGPT y DALL·E tienen prohibido utilizar las plataformas de OpenAI para hacerse pasar por candidatos o gobiernos locales, así como para llevar a cabo campañas o cabildeo. 

Además, queda prohibido el uso de estas herramientas para desalentar la votación o tergiversar el proceso electoral.

La compañía, reconocida por sus desarrollos en IA, busca ser más firme en sus políticas relacionadas con la desinformación electoral. Entre las nuevas medidas, OpenAI planea incorporar las credenciales digitales de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) en las imágenes generadas por DALL·E. 

 

Esta iniciativa, prevista para implementarse a principios de este año, tiene como objetivo facilitar la identificación de imágenes generadas artificialmente, fortaleciendo la transparencia.

Además, OpenAI redirigirá las preguntas de votación en los Estados Unidos a CanIVote.org, una fuente de autoridad en línea para información sobre dónde y cómo votar en el país. 

Sin embargo, estas medidas están en proceso de implementación y dependen en gran medida de la participación de los usuarios para informar sobre posibles abusos.

A pesar de estos esfuerzos, la efectividad de estas restricciones en la temporada electoral es incierta, dada la naturaleza dinámica de la inteligencia artificial. 

OpenAI destaca la importancia de la alfabetización mediática como la mejor estrategia para enfrentar la desinformación, instando a los usuarios a cuestionar información sospechosa y realizar verificaciones adicionales, ya que la IA puede sorprender con resultados inesperados.

Fuente
Sistema Integrado de Información