Enlaces de accesibilidad

Riesgos de la inteligencia artificial en la política: ¿Qué debes saber?


Letras de IA (Inteligencia Artificial) y mano robótica en miniatura en esta ilustración. REUTERS/Dado Ruvic/Foto de archivo
Letras de IA (Inteligencia Artificial) y mano robótica en miniatura en esta ilustración. REUTERS/Dado Ruvic/Foto de archivo

“Los ‘deepfakes’ y la desinformación están entre los mayores riesgos para la democracia”, afirma Gabriela Sued, investigadora postdoctoral en el Instituto de Investigaciones de Matemáticas Aplicadas y Sistemas de la Universidad Nacional Autónoma de México.

Getting your Trinity Audio player ready...

La política, un terreno ya cargado de tensión y controversia, enfrenta un nuevo desafío en la era digital. “Los ‘deepfakes’ y la desinformación están entre los mayores riesgos para la democracia”, afirma Gabriela Sued, investigadora postdoctoral en el Instituto de Investigaciones de Matemáticas Aplicadas y Sistemas de la Universidad Nacional Autónoma de México, en declaraciones a la Voz de América.

Sued, que estudia los riesgos de la inteligencia artificial, explica que existe una tensión entre la regulación y la innovación tecnológica, ya que algunos “temen que las regulaciones puedan restringir la innovación y la libertad de expresión”. “Sin embargo, es esencial equilibrar estos factores para proteger los derechos de la ciudadanía”, aclara.

En sus declaraciones a la VOA, la académica hizo referencia al Informe sobre Riesgos Globales 2024 del Foro Económico Mundial, que señala la difusión de información errónea y la desinformación como “graves amenazas” en los próximos años, destacando el posible aumento de la propaganda y la censura nacionales.

Ese reporte apunta que el uso político malintencionado de la IA plantea graves riesgos, pues la rápida propagación de deepfakes y contenidos generados por IA “dificulta cada vez más a los votantes discernir la información”.

Eso, argumenta el Foro Económico Mundial, puede influir en el comportamiento de los votantes y socavar el proceso democrático, influenciando elecciones, erosionando la confianza pública en las instituciones, generando malestar social e incluso incentivando la violencia.

Elon Musk, protagonista

El reciente incidente en Estados Unidosn en el que Elon Musk, propietario de Tesla y de la plataforma X, entre otras compañías, compartió un video falso atribuyendo a la vicepresidenta Kamala Harris una afirmación sobre el presidente Joe Biden ha encendido las alarmas.

El video en cuestión, creado con tecnología de “deepfake”, mostraba a Harris diciendo: “Yo, Kamala Harris, soy su candidata demócrata a la presidencia porque Joe Biden finalmente expuso su senilidad en el debate”.

Este episodio, según Sued, ha puesto de manifiesto las vulnerabilidades del proceso electoral frente a las nuevas tecnologías, impulsando a California a proponer una regulación más estricta sobre el uso de la inteligencia artificial (IA) en campañas políticas.

El gobernador de California, Gavin Newsom, no tardó en reaccionar. En una publicación en la plataforma X, Newsom expresó su preocupación por el uso de la IA para manipular la información política. “Manipular una voz en un ‘anuncio’ como este debería ser ilegal”, aseguró. “Firmaré un proyecto de ley en cuestión de semanas para asegurarme de que así lo sea”, dijo.

Tiffany Li, profesora asociada de Derecho en la Facultad de Derecho de la Universidad de San Francisco, donde imparte cursos sobre propiedad intelectual y derecho tecnológico, considera que la amenaza que representa la manipulación mediante IA para la democracia es “considerable”.

“Imagina que la gente ve un video de un candidato presidencial diciendo algo que nunca dijo, algo que resulta ofensivo o dañino. Eso puede influir en cómo votan las personas”, advierte Li en una entrevista con la VOA.

La académica señala no solo un peligro inminente para la democracia, sino también un riesgo tangible para figuras públicas y celebridades, quienes pueden ser víctimas de manipulaciones que distorsionen su imagen y afecten su reputación. “Las autoridades deben desarrollar regulaciones que frenen la propagación de videos falsos en internet, aunque esto no es tan sencillo como decir sí o no”, reconoce.

El enfoque de la Unión Europea

En este sentido, Sued, de la UNAM, también menciona el enfoque de la Unión Europea, donde los productos creados con IA deben ser claramente etiquetados. “Este enfoque regula la materialidad del contenido sin interferir en su interpretación, a diferencia de Estados Unidos, donde la regulación tiende a centrarse más en el contenido del producto”, explica.

Este método, sugiere, podría ofrecer una solución más equilibrada frente al desafío de la desinformación tecnológica.

El Parlamento Europeo aprobó en marzo la Ley de Inteligencia Artificial, que tiene como objetivo garantizar la seguridad y el respeto de los derechos fundamentales, al tiempo que pretende impulsar la innovación.

Las nuevas normas, de acuerdo con el texto legislativo, prohíben ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como los sistemas de categorización biométrica basados en características sensibles y la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial, entre otros.

Cómo reconocer un "deepfake" en la era de la inteligencia artificial
please wait

No media source currently available

0:00 0:02:49 0:00

El paso de California

Por su parte, California, bajo la dirección de Newsom, está decidida a marcar un precedente en territorio estadounidense. La propuesta de regulación, según medios de comunicación locales, no solo busca prohibir la manipulación de voces en anuncios políticos, sino que también establecerá sanciones para quienes utilicen la IA con fines de desinformación.

Esta legislación podría convertirse en un modelo a seguir para otros estados, enfatizando la necesidad de un enfoque proactivo en la protección de la democracia frente a las amenazas emergentes de la era digital.

Por otro lado, las plataformas de redes sociales ya tienen sus regulaciones implementadas. Meta, la empresa propietaria de Facebook e Instagram, exige que los “medios manipulados” se etiqueten como tales y que se adjunte un contexto a la publicación.

En marzo, Google, propietaria de YouTube, anunció una política que exige a los usuarios que publiquen vídeos que revelen cuándo “el contenido que un espectador podría confundir fácilmente con una persona, un lugar, una escena o un acontecimiento real” está “realizado con medios alterados o sintéticos, incluida la IA generativa”.

La política actual de X se instituyó en abril de 2023, después de que Musk asumiera el cargo. Define los medios engañosos como contenidos que están “alterados, manipulados o fabricados de forma significativa y engañosa” y que “es probable que generen una confusión generalizada sobre cuestiones públicas”. Dicho contenido, establece la política, debe etiquetarse o eliminarse.

El uso indebido de la inteligencia artificial en la política no es una amenaza menor, según las expertas consultadas por la VOA, sino que es un desafío real que pone en riesgo la integridad de los procesos democráticos.

Foro

XS
SM
MD
LG