Elecciones 2025: proponen regular videos hechos con inteligencia artificial en elecciones

La viralización de un video falso que simulaba el anuncio de Mauricio Macri y Silvia Lospennato bajándose de las elecciones en la Ciudad de Buenos Aires un día antes de los comicios marcó los últimos comicios porteños. Por eso, un grupo de diputados nacionales presentó un proyecto de ley que busca prevenir la manipulación electoral mediante el uso de contenidos generados o alterados con inteligencia artificial (IA). La iniciativa la encabeza el radical Julio Cobos y la acompañan legisladores de distintos bloques, y propone modificar el Código Nacional Electoral para establecer límites, procedimientos y rotulaciones obligatorias para las redes sociales y los medios de comunicación.

El caso que motivó el debate ocurrió durante el fin de semana pasado, cuando el aparato digital de La Libertad Avanza difundió el contenido fake que mostraba a Macri y Lospennato pidiendo votar a Adorni. El contenido engañoso, que fue rápidamente desmentido, superó las 14 millones de visualizaciones y generó preocupación por el impacto de las herramientas de inteligencia artificial en los procesos democráticos.

El proyecto cuenta con las firmas de Margarita Stolbizer, Marcela Coli, Melina Giorgi, Atilio Benedetti, Mario Barletta, Danya Tavela, Adolfo Bermejo, Liliana Paponet, Martin Aveiro, Marcela Pagano, Lourdes Arrieta, Marcela Antola​, Carla Carrizo y Marcela Campagnoli.

Regular a la IA

Cobos advirtió sobre la gravedad del fenómeno: “Al día de hoy, y más allá de los estudios científicos realizados sobre el tema, resulta difícil comprender lo que representa y el alcance de la inteligencia artificial, estamos ante un fenómeno que todavía es inconmensurable e imprevisible. Como toda acción que impacta en la vida de las personas, tiene su uso y difusión una dimensión ética y moral y los límites son aún difusos”.

El diputado recordó que “lamentablemente, recientemente hemos vivido un episodio en las elecciones de Ciudad de Buenos Aires, con un video falso creado con esta tecnología que llegó a tener más de 14 millones de vistas y circuló por los teléfonos de todos los ciudadanos. Su efecto concreto es difícil de medir, pero claramente generó una situación falsa que perjudicó a uno de los sectores que competía en los comicios. Más allá de que después se desmintió la veracidad del mismo, el daño estaba hecho. Esto es peligroso e inaceptable”.

En la presentación del proyecto en la cámara baja, los firmantes advirtieron que “en los próximos meses Argentina enfrentará su primer proceso electoral nacional en un contexto de inteligencia artificial generativa, donde la desinformación impulsada por esta tecnología puede contaminar de forma inédita los ecosistemas informativos. Con herramientas digitales de fácil acceso, actores maliciosos pueden –por ejemplo– crear imágenes falsas de candidatos en situaciones desfavorables, videos manipulados de autoridades electorales cuestionando la integridad del proceso electoral, o audios falsos de funcionarios indicando cambios falsos en los lugares o formas de votación”.

Las redes sociales deberán colaborar para evitar fakes de IA

El proyecto propone modificar el Código Electoral para establecer límites temporales y procedimientos específicos contra la circulación de este tipo de contenidos durante las campañas. Además, incorpora la obligación de rotular las imágenes, videos o audios que hayan sido manipulados, con el fin de advertir al público sobre su falsedad.

«Las plataformas digitales de gran alcance deberán desarrollar e implementar procedimientos técnicos para detectar y eliminar contenidos materialmente engañosos si se cumplen las siguientes condiciones:

  1. El contenido ha sido reportado conforme al procedimiento del presente capítulo.
  2. El contenido:
    • a) Muestra a una persona candidata realizando o diciendo algo que no hizo ni dijo, y que razonablemente pueda afectar su imagen o intención de voto.
    • b) Muestra a una autoridad electoral diciendo o haciendo algo falso que pueda socavar la confianza en el proceso electoral.
    • c) Muestra a una autoridad electa diciendo o haciendo algo falso que afecte la percepción sobre la legitimidad del proceso electoral.
  3. El contenido ha sido difundido dentro del período de restricción.
  4. La plataforma conoce o actúa con negligencia respecto a la naturaleza engañosa del contenido.

Además, destacaron que «el contenido que cumpla con las condiciones anteriores deberá ser eliminado en un plazo no mayor a cuarenta y ocho (48) horas desde su reporte».

Hasta la eliminación del contenido se lo deberá rotular con la leyenda: “Este [imagen/audio/video] ha sido manipulado y no es auténtico”. El etiquetado debe ser visible y permitir al usuario acceder a más información explicativa con un clic o toque.

0Shares

Entradas relacionadas

Deja tu comentario