Por Allie Funk, Kian Vesteinsson y Beca Baker – Freedom House
Acerca de este informe
Esta es la 14.ª edición de Freedom on the Net , un estudio anual sobre los derechos humanos en Internet. El proyecto evalúa la libertad en Internet en 72 países, que representan el 87 por ciento de los usuarios de Internet del mundo. FOTN 2024 evaluó a Chile y los Países Bajos por primera vez. Ambos sirven como modelos globales de libertad en Internet, con Chile en tercer lugar, empatado con Canadá, y los Países Bajos en sexto lugar. Este informe cubre los acontecimientos entre junio de 2023 y mayo de 2024. Más de 95 analistas y asesores contribuyeron a la edición de este año, utilizando una metodología estándar para determinar la puntuación de libertad en Internet de cada país en una escala de 100 puntos, con 21 indicadores separados relacionados con obstáculos al acceso, límites al contenido y violaciones de los derechos de los usuarios. El sitio web de FOTN presenta informes detallados y datos sobre las condiciones de cada país.
Principales hallazgos
La libertad en Internet a nivel mundial disminuyó por decimocuarto año consecutivo. Las protecciones a los derechos humanos en línea disminuyeron en 27 de los 72 países cubiertos por Freedom on the Net (FOTN), y 18 obtuvieron mejoras. Kirguistán recibió la degradación más pronunciada de este año, ya que el presidente Sadyr Japarov intensificó sus esfuerzos para silenciar los medios digitales y reprimir la organización en línea. China compartió su designación como el peor entorno del mundo para la libertad en Internet con Myanmar , donde el régimen militar impuso un nuevo sistema de censura que aumentó las restricciones a las redes privadas virtuales (VPN). En el otro extremo del espectro, Islandia mantuvo su condición de entorno en línea más libre y Zambia obtuvo la mayor mejora de puntuación. Por primera vez en 2024, FOTN evaluó las condiciones en Chile y los Países Bajos , que mostraron fuertes salvaguardas para los derechos humanos en línea.
La libertad de expresión en Internet se vio amenazada por las severas penas de prisión y la creciente violencia. En tres cuartas partes de los países cubiertos por FOTN, los usuarios de Internet se enfrentaron a arrestos por expresarse de manera no violenta, lo que a veces condujo a sentencias de prisión draconianas que superaban los diez años. Las personas fueron atacadas físicamente o asesinadas en represalia por sus actividades en línea en un número récord de al menos 43 países. Los bloqueos de Internet y las represalias por la libertad de expresión en línea crearon entornos aún más peligrosos para las personas afectadas por varios conflictos armados importantes en todo el mundo.
La censura y la manipulación de contenidos se combinaron para influir en las elecciones, socavando la capacidad de los votantes de tomar decisiones informadas, participar plenamente en el proceso electoral y hacer oír su voz. Los votantes de al menos 25 de los 41 países de la FOTN que celebraron o se prepararon para elecciones nacionales durante el período de cobertura se enfrentaron a un espacio informativo censurado. En muchos países, se utilizó la censura técnica para limitar la capacidad de la oposición de llegar a los votantes, reducir el acceso a información fiable o apaciguar las preocupaciones sobre irregularidades en la votación. En al menos 21 de los 41 países, los comentaristas progubernamentales manipularon la información en línea, a menudo alimentando dudas sobre la integridad de los próximos resultados y sembrando una desconfianza a largo plazo en las instituciones democráticas. Además, la interferencia de los gobiernos y una reducción de los mecanismos de transparencia en las principales plataformas de redes sociales frenaron los esfuerzos de los investigadores independientes y los grupos de medios de comunicación por arrojar luz sobre las operaciones de influencia relacionadas con las elecciones.
En más de la mitad de los países de la FOTN que celebraron elecciones o se prepararon para ellas, los gobiernos adoptaron medidas destinadas a abordar la integridad de la información, con resultados dispares en lo que respecta a los derechos humanos en línea. Las intervenciones incluyeron la aplicación de normas relacionadas con el contenido en línea, el apoyo a iniciativas de verificación de datos y alfabetización digital, y la aprobación de nuevas directrices para limitar el uso de la inteligencia artificial (IA) generativa en las campañas. El impacto en la libertad en Internet dependió del grado en que cada iniciativa priorizara la transparencia, la experiencia de la sociedad civil, la supervisión democrática y las normas internacionales de derechos humanos. Los ejemplos de Sudáfrica , Taiwán y la Unión Europea fueron los modelos más prometedores.
Para crear un entorno en línea confiable se requiere un compromiso renovado y sostenido con la libertad en Internet. Este año, los indicadores de FOTN que evalúan los límites a los contenidos cayeron a su puntuación media más baja en más de una década, excluyendo por primera vez a los dos países incluidos en esta edición, lo que indica que la censura y la manipulación en línea son cada vez más extremas. La falta de acceso a un espacio de información de alta calidad, confiable y diverso ha impedido que las personas formen y expresen sus opiniones, participen productivamente en sus comunidades y promuevan la rendición de cuentas de los gobiernos y las empresas. Las intervenciones políticas diseñadas para proteger la integridad de la información pueden ayudar a generar confianza en el entorno en línea, siempre que estén basadas en la libertad de expresión y otros derechos fundamentales. Las respuestas que no incorporen esos principios solo acelerarán el declive global de la libertad en Internet y de la democracia en general.
La lucha por la confianza en Internet
Una serie de elecciones trascendentales han transformado el entorno informativo mundial durante el año pasado. La censura técnica limitó la capacidad de muchos partidos de la oposición para llegar a sus partidarios y suprimió el acceso a informes independientes sobre el proceso electoral. Las falsas denuncias de fraude electoral y el aumento del acoso a los administradores electorales amenazaron la confianza pública en la integridad de los procedimientos de votación. Los esfuerzos partidistas por deslegitimar a los verificadores de datos e investigadores independientes frenaron su labor esencial. Como resultado, más de mil millones de votantes tuvieron que tomar decisiones importantes sobre su futuro mientras navegaban en un espacio informativo censurado, distorsionado y poco fiable.
Estas tendencias contribuyeron al decimocuarto año consecutivo de caída de la libertad mundial en Internet. De los 72 países cubiertos por Freedom on the Net 2024 , las condiciones de los derechos humanos en línea se deterioraron en 27, y 18 países registraron ganancias generales. La mayor caída del año se produjo en Kirguistán , seguido de Azerbaiyán , Bielorrusia , Irak y Zimbabue . Por el contrario, Zambia obtuvo la mayor mejora, ya que se abrió espacio para el activismo en línea. En más de las tres cuartas partes de los países cubiertos por el proyecto, las personas se enfrentaron a arrestos por expresar sus opiniones políticas, sociales y religiosas en línea, mientras que las personas se enfrentaron a violencia física relacionada con sus actividades en línea en un récord de al menos 43 países.
Explorando el informe
Eliminar la disidencia en línea
Por primera vez en 10 años, China compartió su designación como el peor entorno del mundo para la libertad en Internet con un segundo país: Myanmar . Las condiciones allí se deterioraron hasta su punto más bajo en la historia de la FOTN. Desde que tomó el poder en un golpe de Estado en 2021, el ejército de Myanmar ha llevado a cabo una represión brutalmente violenta contra la disidencia y ha encarcelado a miles de personas en represalia por su expresión en línea, todo ello mientras construía un régimen de censura y vigilancia masiva para reprimir las actividades de los activistas civiles pro democracia y los grupos de resistencia armada. En mayo de 2024, el ejército introdujo una nueva tecnología de censura para bloquear la mayoría de las VPN, cortando a los residentes de las herramientas en las que confiaban para eludir de forma segura los controles de Internet. Al mismo tiempo, Pekín ha persistido en su esfuerzo por aislar la Internet doméstica de China del resto del mundo, bloqueando el tráfico internacional a algunos sitios web gubernamentales e imponiendo enormes multas a las personas que utilizan VPN. El gobierno chino también siguió reprimiendo sistemáticamente el disenso, por ejemplo censurando el debate en línea sobre el activista y periodista Sun Lin, que murió en noviembre de 2023 después de que la policía lo golpeara en aparente represalia por sus publicaciones en las redes sociales sobre las protestas contra el líder del Partido Comunista Chino (PCCh), Xi Jinping.
(N del E: para explorar los gráficos dinámicos vea el documento original)
Más allá de los peores entornos del mundo, muchas personas enfrentaron duras repercusiones por expresarse en línea. En al menos 56 de los 72 países cubiertos por FOTN, los usuarios de Internet fueron arrestados debido a su expresión política, social o religiosa. Un activista prodemocracia tailandés fue sentenciado a 25 años de prisión en marzo de 2024, tras ser condenado en virtud de la represiva ley de lesa majestad del país por 18 publicaciones sobre la monarquía en la plataforma de redes sociales X. Las autoridades cubanas sentenciaron a una mujer a 15 años de prisión por sedición y “propaganda enemiga” después de que compartiera imágenes de protestas en las redes sociales, incluida una grabación de video de la policía atacando a los manifestantes. En Pakistán , un tribunal condenó a muerte a un estudiante de 22 años por cargos de blasfemia por preparar imágenes y videos que denigraban al profeta Mahoma, y condenó a cadena perpetua a un joven de 17 años por compartirlos en WhatsApp.
Las autoridades de todo el mundo limitaron el acceso a los espacios en línea que las personas usaban para consumir noticias, conectarse con sus seres queridos y movilizarse por el cambio político y social. Los gobiernos de al menos 41 países bloquearon sitios web que albergaban discursos políticos, sociales y religiosos durante el período de cobertura del informe de junio de 2023 a mayo de 2024. En Kirguistán , el gobierno bloqueó el sitio web del medio de comunicación independiente Kloop después de que informara sobre las denuncias de tortura bajo custodia de una figura de la oposición encarcelada. Posteriormente, las autoridades ordenaron la liquidación total de la organización paraguas que administra el medio, lo que redujo aún más el acceso de las personas a informes de investigación sobre corrupción gubernamental y abusos de derechos. En al menos 25 países, los gobiernos restringieron el acceso a redes sociales y plataformas de comunicación completas. Las autoridades francesas ordenaron el bloqueo de TikTok en el territorio francés del Pacífico de Nueva Caledonia para frenar las protestas de miembros de la comunidad kanak, el pueblo indígena de la isla, que se volvieron violentas en mayo de 2024 en medio del descontento con las reformas electorales propuestas.
La libertad en Internet bajo fuego
La violencia en represalia por la expresión en línea por parte de actores estatales y no estatales, así como el deterioro de las condiciones durante los conflictos armados, provocaron varias caídas de puntaje durante el período de cobertura. En un récord de 43 países, las personas fueron atacadas físicamente o asesinadas en represalia por sus actividades en línea. En Irak , donde periodistas, activistas y blogueros enfrentan violencia sistemática, secuestros e incluso asesinatos en represalia por la expresión en línea, un destacado activista de la sociedad civil fue asesinado en octubre de 2023 por un agresor desconocido después de que sus publicaciones en Facebook alentaran a los iraquíes a participar en protestas. Un periodista en línea bielorruso denunció haber sido torturado por las autoridades en diciembre debido a su conexión con uno de los cientos de medios de comunicación independientes que el gobierno considera “extremistas”.
Los conflictos armados se volvieron aún más peligrosos por la falta de acceso a la información y a los servicios esenciales. Los cortes de Internet durante los combates en Sudán , Etiopía , Myanmar , la Franja de Gaza y Nagorno-Karabaj sumieron a la población en un vacío de información, impidieron que los periodistas compartieran informes sobre abusos de los derechos humanos y obstaculizaron la prestación de ayuda humanitaria desesperadamente necesaria. En medio de la guerra civil en Sudán entre las Fuerzas de Apoyo Rápido (RSF) paramilitares y las Fuerzas Armadas Sudanesas (SAF) regulares, las RSF capturaron los centros de datos de los proveedores de servicios de Internet en Jartum y cortaron el acceso a Internet en todo el país en febrero. El apagón interrumpió la capacidad de los grupos humanitarios para entregar alimentos, medicamentos y equipo médico.
Las fuerzas que compiten por el control durante la guerra también tomaron represalias directas contra las personas que informaron o discutieron los conflictos en línea. Tanto las RSF como las SAF en Sudán torturaron a periodistas y otros civiles en respuesta a críticas percibidas en plataformas digitales. Durante la ofensiva militar azerbaiyana en Nagorno-Karabaj en septiembre de 2023, las autoridades de Bakú detuvieron a varias personas durante un mes, incluido el ex diplomático Eman Ibrahimov, debido a publicaciones en las redes sociales que criticaban la operación o pedían una resolución pacífica del conflicto.
El impacto de la devastadora guerra entre Israel y el grupo militante Hamás resonó en todo el mundo. (Israel y los territorios palestinos ocupados por Israel no se encuentran entre los 72 países cubiertos por FOTN). Personas en varios países, incluidos Bahréin , Arabia Saudita y Singapur , enfrentaron repercusiones por expresar sus opiniones sobre el conflicto en línea. En Jordania , decenas de usuarios fueron arrestados entre octubre y noviembre de 2023 en virtud de la nueva y represiva ley de delitos cibernéticos del país por sus publicaciones en las que criticaban la relación del gobierno jordano con Israel o llamaban a protestas en apoyo de la causa palestina. En términos más generales, investigadores independientes documentaron un aumento de los discursos de odio antisemitas y antimusulmanes en línea, una proliferación de contenido falso y engañoso sobre el conflicto y un aumento de las restricciones desproporcionadas sobre el contenido pro palestino y otros relacionados con Palestina por parte de los sistemas de moderación de Facebook e Instagram.
Las elecciones centran la atención en un déficit de confianza en el espacio informativo
En 2024, los indicadores de FOTN que evalúan los límites a los contenidos (incluidos el bloqueo de sitios web, la eliminación desproporcionada de contenidos, las leyes de censura, las prácticas de autocensura, la manipulación de contenidos y las restricciones a la diversidad informativa) cayeron a su puntuación media más baja en más de 10 años, excluyendo a los dos países que se cubrieron por primera vez en esta edición. El espacio informativo actual contribuye a muchos de los mismos desafíos que afectan a la sociedad humana en general y se ve degradado por ellos: la creciente polarización política, el enfriamiento de la participación cívica, los esfuerzos partidistas por socavar la confianza en las elecciones y una erosión a largo plazo de la confianza en las instituciones democráticas. Estos problemas han interferido con los derechos fundamentales de las personas a buscar, recibir y difundir información diversa, a formar opiniones y a expresarse en línea.
El espacio de información actual contribuye y se ve degradado por muchos de los mismos desafíos que afectan a la sociedad humana en general.
A medida que los votantes de todo el mundo se dirigían a las urnas en 2024, las amenazas preexistentes al espacio informativo no hicieron más que agudizarse. Freedom House y otros comentaristas habían advertido de que una tormenta perfecta de desafíos podría resultar desastrosa para la integridad de la información durante el año. La IA generativa se ha vuelto más accesible, lo que reduce la barrera de entrada para quienes buscan crear información falsa y engañosa. Muchas empresas de redes sociales han despedido a los mismos equipos que se dedicaban a promover la confianza, la seguridad y los derechos humanos en línea. Estas señales de advertencia sirvieron como catalizador para los esfuerzos destinados a reconstruir la confianza en la información en línea durante el período de cobertura. Los responsables de las políticas, las empresas tecnológicas y los grupos de la sociedad civil experimentaron con formas de fortalecer la gobernanza de las plataformas, impulsar la alfabetización digital e incentivar un comportamiento en línea más responsable. Algunas iniciativas resultaron prometedoras, aunque todavía es demasiado pronto para evaluar su eficacia. Otras no lograron proteger adecuadamente la libertad en Internet al intentar abordar el contenido falso, engañoso e incendiario. Para fomentar un entorno en línea que ofrezca información de alta calidad, diversa y confiable, las políticas exitosas deben incluir protecciones sólidas para la libertad de expresión y otros derechos fundamentales.
Controlar la información para inclinar una elección
Muchos gobiernos intentaron controlar los resultados electorales y al mismo tiempo reivindicar la legitimidad política que sólo una elección libre y justa puede otorgar. Su control del espacio informativo en línea mediante la censura y la manipulación de contenidos a menudo reforzó los esfuerzos fuera de línea para sembrar dudas o manipular la votación misma. Por ejemplo, varios gobernantes restringieron el acceso a contenidos sobre la oposición, lo que redujo la capacidad de sus oponentes para persuadir y movilizar a los votantes, o simplemente impulsaron sus propias narrativas preferidas sobre los resultados electorales. La censura y la manipulación de contenidos a menudo comenzaron mucho antes de un período electoral, lo que perturbó el debate y la discusión cruciales necesarios para que los votantes formen y expresen sus opiniones.
Obstrucción del acceso a información diversa
En 25 de los 41 países de la FOTN que celebraron o se prepararon para elecciones nacionales durante el período de cobertura, los gobiernos bloquearon sitios web que albergaban discursos políticos, sociales y religiosos; restringieron el acceso a plataformas de redes sociales; o cortaron la conexión a Internet por completo. El bloqueo de sitios web, la forma más común de censura relacionada con las elecciones, permitió a las autoridades restringir selectivamente el contenido que consideraban objetable, como informes sobre corrupción o evidencia de irregularidades en la votación, al tiempo que mantenían el acceso a la información que funcionaba a su favor. Los bloqueos de Internet fueron la táctica de censura relacionada con las elecciones menos común, lo que sugiere que las autoridades son más reacias a imponer restricciones tan extremas e impopulares durante las votaciones. Cuando ocurrieron, los bloqueos estuvieron en la mayoría de los casos destinados a reducir la capacidad de los partidos de oposición para comunicarse con los votantes antes de una elección o para sofocar las protestas posteriores a las elecciones por presunto fraude.
La censura técnica limita la información independiente y reduce la competencia electoral
La censura técnica se ha utilizado a menudo para suprimir el acceso a la información independiente, a las críticas al gobierno y a los sitios web de la sociedad civil, en un reflejo de las restricciones más amplias que un determinado estado aplica a los medios de comunicación fuera de línea. Las autoridades de Camboya ordenaron a los proveedores de servicios de Internet que bloquearan el acceso a los sitios web de noticias independientes una semana antes de las elecciones de julio de 2023, lo que reforzó aún más los controles sobre los medios durante un proceso de votación que fue cuidadosamente diseñado para suprimir los desafíos al gobernante Partido Popular de Camboya.
Los gobiernos también implementaron censura técnica para obstaculizar la capacidad de la oposición de interactuar con los votantes. Antes de las elecciones de Bangladesh de enero de 2024, las autoridades restringieron temporalmente la conectividad a Internet cuando el principal partido de la oposición, el Partido Nacionalista de Bangladesh (BNP), celebró un gran mitin en octubre de 2023, lo que limitó el debate en línea sobre el evento e impidió que el partido llegara digitalmente a sus partidarios. En el período previo a las elecciones parlamentarias abiertamente amañadas de Bielorrusia en febrero de 2024, los funcionarios restringieron parcialmente el acceso a YouTube para evitar que los bielorrusos vieran el discurso de Año Nuevo de la líder opositora exiliada Sviatlana Tsikhanouskaya. Sin embargo, para burlarse de los propios controles de información del gobierno, la oposición bielorrusa creó a Yas Gaspadar, un candidato inventado generado por inteligencia artificial, afirmando que podía hablar libremente con los votantes en línea sin correr el riesgo de ser arrestado.
Los regímenes represivos que se enfrentaron a fuertes rivales de la oposición recurrieron a las formas más descaradas de censura en sus intentos de mantenerse en el poder. Durante las elecciones generales de Pakistán de febrero de 2024, los militares utilizaron duros métodos offline para suprimir el apoyo al ex primer ministro Imran Khan y a su partido Pakistan Tehreek-e-Insaf (PTI), encarcelando a Khan y a otros líderes del partido, impidiéndole presentarse como candidato y obligando al PTI a presentar a sus candidatos como independientes. Para eludir la represión, el PTI organizó mítines virtuales y desplegó un avatar de inteligencia artificial generativa de Khan para pronunciar discursos que él mismo escribió tras las rejas. En respuesta, los militares intensificaron su censura y los usuarios informaron de dificultades para acceder a Internet y a las plataformas de redes sociales durante los mítines virtuales. El día de las elecciones, las autoridades restringieron la conectividad móvil y algunos votantes afirmaron que las restricciones limitaban su capacidad para localizar los centros de votación. Después de la votación, cuando los resultados mostraron un fuerte desempeño de los candidatos vinculados al PTI y los partidarios del partido se reunieron en X para denunciar irregularidades en la votación, las autoridades bloquearon la plataforma, así como los sitios web creados por el partido para documentar presuntos fraudes electorales.
En Venezuela , antes de una primaria de la oposición organizada de forma independiente en octubre de 2023, el régimen autoritario de Nicolás Maduro ordenó el bloqueo de los sitios que permitían a los votantes localizar los centros de votación. La medida se alineó con la interferencia offline de Maduro, incluida una decisión del politizado Tribunal Supremo de Justicia que prohibió a la ganadora de la primaria, María Corina Machado, postularse en las elecciones presidenciales de julio, celebradas después del período de cobertura de FOTN. En julio, cuando los recuentos de votos recopilados por la oposición mostraron que Maduro había sido derrotado rotundamente por un aliado de Machado, el ex diplomático Edmundo González Urrutia, el régimen intensificó su aparato de censura para apoyar las afirmaciones de victoria de Maduro. Las autoridades bloquearon Signal, X y una serie de sitios web de medios y de la sociedad civil como parte de su campaña para sofocar las protestas masivas, aislar a los líderes de la oposición de sus partidarios y reducir el acceso a noticias independientes sobre los resultados de las elecciones y la represión offline del estado.
Las leyes de censura amenazan el discurso electoral
En muchos países, las autoridades promulgaron leyes y regulaciones más estrictas para regular los contenidos en línea, lo que disuadió a la gente de informar sobre las elecciones y expresar sus opiniones sobre los candidatos y las políticas. Antes de una elección presidencial anticipada en junio y julio, las autoridades de Irán —el tercer entorno más represivo del mundo en materia de libertad en Internet— criminalizaron cualquier contenido que alentara el boicot o las protestas electorales, o que criticara a los candidatos. Las normas tenían como objetivo, al menos en parte, lograr una mayor participación electoral para que las elecciones parecieran legítimas, a pesar de la descalificación arbitraria de la mayoría de los candidatos. El poder judicial iraní también advirtió que la ley electoral prohibía a los candidatos y a sus partidarios utilizar plataformas de redes sociales extranjeras, casi todas las cuales están bloqueadas en el país.
En vísperas de las elecciones presidenciales de marzo de 2024, el Kremlin promulgó una serie de leyes que sofocaron aún más un entorno informativo que ya estaba muy restringido. Una ley criminalizó la publicidad de VPN, lo que impulsó los esfuerzos existentes del gobierno para limitar el uso de esas herramientas para acceder a información sin censura. Una ley de febrero de 2024 prohibió a los rusos anunciarse en sitios web y canales de redes sociales etiquetados como “agentes extranjeros”, lo que obligó a los pocos canales de medios independientes que quedaban en el país, en gran parte activos en Telegram y YouTube, a reducir sus operaciones y despedir personal.
Distorsión del espacio informativo
Los comentaristas pro gubernamentales que utilizaron tácticas engañosas o encubiertas para manipular la información en línea estuvieron activos en al menos 21 de los 41 países de FOTN que celebraron o se prepararon para elecciones nacionales durante el período de cobertura. Las campañas de manipulación de contenido distorsionaron el debate en línea al perpetuar falsedades sobre el proceso democrático, fabricar apoyos falsos para las narrativas oficiales o desacreditar a quienes presentaban una amenaza para el dominio político del liderazgo. Estas redes a menudo trabajaron en tándem con medios de comunicación controlados por el estado o alineados con él, desplegaron cuentas de bots en las redes sociales, generaron sitios web falsos para suplantar a los medios de comunicación reales y aprovecharon el entusiasmo genuino de los leales políticos. Esa manipulación de contenido es una forma de control menos visible que la censura directa y puede provocar menos repercusiones políticas, lo que la convierte en una táctica de menor riesgo que puede rendir la gran recompensa de remodelar un entorno en línea e incluso ganar una elección.
Una evolución de jugadores y tácticas
Los actores que participan en las campañas de desinformación, así como sus incentivos y la tecnología que emplean, han evolucionado en los últimos años. Para obtener una negación plausible de su participación, los líderes políticos han subcontratado cada vez más la manipulación de contenidos a influencers de las redes sociales y empresas de relaciones públicas sospechosas que se benefician de contratos lucrativos o conexiones políticas. Los influencers que participan en la manipulación de contenidos aprovechan la confianza y la lealtad que han construido con sus seguidores para promover mensajes falsos, engañosos o divisivos. En Taiwán , por ejemplo, los influencers de moda y maquillaje publicaron afirmaciones falsas sobre fraude electoral antes de las elecciones del país de enero de 2024. Las afirmaciones reflejaban una campaña de influencia originada en China que tenía como objetivo desalentar la votación en Taiwán.
Los proveedores de información falsa y engañosa se han adaptado a la proliferación de plataformas y a sus diferentes políticas y prácticas en materia de moderación de contenidos. A medida que una determinada narrativa se propaga por distintas aplicaciones basadas en vídeo, imágenes y texto, las medidas de mitigación llevadas a cabo por una única empresa tienen menos efecto. Las empresas que han aumentado significativamente su base de usuarios en los últimos años, como Twitch, están tratando de ponerse al día en lo que respecta a contrarrestar la información falsa y engañosa a gran escala. Otras, como Telegram, se han convertido en caldo de cultivo para este tipo de campañas debido a su enfoque explícitamente de no intervención en la moderación de contenidos. Las investigaciones también han señalado un aumento de contenidos falsos, engañosos y de odio en X después de que la empresa relajara drásticamente su enfoque de moderación de contenidos, redujera el personal de varios equipos e introdujera otras políticas preocupantes.
Freedom on the Net 2023 documentó la adopción temprana de la IA generativa como un medio para distorsionar las narrativas sobre temas políticos y sociales. Durante este período de cobertura, la IA generativa se utilizó con frecuencia para crear contenido falso y engañoso. Antes de las elecciones de julio de 2024 en Ruanda, una red de cuentas difundió mensajes e imágenes generados por IA en apoyo del presidente en ejercicio Paul Kagame. Los modelos de chatbots ofrecidos por las principales empresas tecnológicas también arrojaron información inexacta o parcialmente precisa sobre el registro para votar, el voto por correo u otros procedimientos en varias elecciones, lo que demuestra lo mal equipadas que están para proporcionar información electoral de alta calidad.
Sin embargo, la IA generativa aún no parece haber mejorado drásticamente el impacto de las operaciones de influencia. La evidencia disponible de las investigaciones de la sociedad civil, la academia y los medios de comunicación sugiere que las campañas de desinformación asistidas por IA generativa han tenido un impacto mínimo en los resultados electorales. OpenAI informó en mayo que la empresa había desbaratado los intentos de actores vinculados a China , Irán , Israel y Rusia de utilizar ChatGPT como un componente en campañas de influencia más convencionales, que no lograron generar mucho alcance o participación. Los gobiernos y sus empleados necesitan tiempo para incorporar de manera efectiva nuevas técnicas en las operaciones de influencia, y la IA generativa es solo una de las muchas herramientas a su disposición. También existe una importante brecha de investigación en términos de detectar estas campañas en general e identificar su uso de IA generativa específicamente, lo que limita el conocimiento público sobre el impacto de la tecnología.
N del E: siga el link del documento original para ver los gráficos dinámicos que muestran a los actores implicados en operaciones de influencia, así como sus incentivos y la tecnología que emplean y su evolución en los últimos años. Los investigadores de DoubleThink Lab identificaron una operación de influencia de cara a las elecciones de Taiwán de enero de 2024 que ilustra esta dinámica.
Sembrando dudas sobre la integridad de las elecciones
Las campañas de desinformación durante el período de cobertura suelen difundir relatos falsos y engañosos que presentan a las instituciones y procesos electorales como manipulados, presunta interferencia extranjera o, en los estados más autoritarios, afirman que una elección fraudulenta es legítima. Si bien estas campañas son partidistas por definición, su efecto se extiende más allá de un candidato o partido en particular, y hace que los votantes desconfíen del resultado de la votación en sí. Si no se controlan, siembran un escepticismo duradero o incluso cinismo sobre las elecciones y pueden socavar la confianza pública en las instituciones democráticas con el tiempo.
Varias campañas durante el año pasado intentaron deslegitimar las instituciones electorales, intimidar a los funcionarios electorales o afirmar falsamente que los procesos electorales estaban manipulados a favor de la oposición. En Zimbabue , los partidarios del partido gobernante acosaron a los observadores electorales independientes durante las elecciones de agosto de 2023, calificándolos de parciales contra el gobierno. Antes de las elecciones de Serbia de diciembre de 2023, los tabloides progubernamentales publicaron información falsa y engañosa sobre la oposición y los medios independientes, incluido un video falso que supuestamente mostraba a la oposición política comprando votos. Estas campañas se dirigen desproporcionadamente a las mujeres que desempeñan un papel destacado en los procesos políticos. En Sudáfrica , una andanada de ataques en línea se dirigió a la miembro de la comisión electoral Janet Love, y muchos la acusaron de manipular la votación; los ataques vinieron en gran parte de partidarios de Jacob Zuma, un expresidente que trató de deslegitimar la comisión como parte de su esfuerzo por organizar un regreso político en las elecciones de mayo de 2024.
También fueron comunes los relatos que afirmaban que los políticos estaban influidos por intereses extranjeros. Impulsados en parte por los comentarios de funcionarios de la entonces gobernante Liga Awami sobre la presión extranjera en las elecciones, los blogueros bangladesíes pro gubernamentales pintaron al opositor BNP como una herramienta de los intereses estadounidenses. En el período previo a las elecciones al Parlamento Europeo de junio de 2024, los influyentes que apoyan al partido gobernante Fidesz de Hungría publicaron videos en los que caracterizaban a la oposición política húngara como la “izquierda del dólar” y a los medios de comunicación independientes como los “medios del dólar”, lo que implicaba que hacían lo que les pedían los donantes extranjeros.
En los países autoritarios, los comentaristas pro gubernamentales se movilizaron para presentar elecciones fraudulentas como libres y justas. El régimen de Azerbaiyán reclutó a creadores de contenido de todo el mundo (a quienes se les ofreció viaje y alojamiento gratis en Bakú) para que aclamaran la integridad de las elecciones de febrero de 2024, que fueron manipuladas en gran medida para favorecer al presidente en ejercicio Ilham Aliyev. Los esfuerzos se basaron en los intentos de larga data de los funcionarios azerbaiyanos de legitimar sus elecciones amañadas, incluida la financiación de misiones de observación electoral sucedáneas.
Intentos de deslegitimar a los verificadores de hechos
En varios países, los actores gubernamentales lanzaron ataques directos (en forma de campañas de desinformación, acoso en línea u otras formas de interferencia política) contra el trabajo de investigadores y verificadores de datos independientes que se dedican a desenmascarar operaciones de influencia y promover información confiable. Como resultado, algunas iniciativas se vieron obligadas a cerrar o reducir sus operaciones, dejando a los votantes a oscuras sobre los intentos de difundir información falsa y socavando la resiliencia social frente a la manipulación electoral. Los gobiernos también establecieron alternativas más amigables a los verificadores de datos independientes, buscando aprovechar la práctica confiable de la verificación de datos para su propio beneficio político.
En algunos de los entornos más represivos, los gobiernos llevan mucho tiempo trabajando para deslegitimar o cooptar la verificación de datos. El día de las elecciones presidenciales de Egipto de diciembre de 2023, la autoridad de medios del país inició una investigación sobre la plataforma de verificación de datos Saheeh Masr. El sitio había informado de que el conglomerado estatal United Media Services había ordenado a los medios afiliados que suprimieran la información sobre las elecciones, incluidas las historias que mostraban una baja participación o votantes sometidos a presiones para elegir a un candidato en particular.
Las democracias no fueron inmunes a esta tendencia durante el período de cobertura. Semanas antes de que comenzaran las elecciones generales de la India , el gobierno central intentó crear una unidad de verificación de datos que “corrigiría” las informaciones supuestamente falsas sobre asuntos oficiales. Los periodistas indios y los grupos de la sociedad civil criticaron el proyecto por considerarlo propicio para el abuso, y el tribunal más alto del país suspendió temporalmente la creación de la unidad. De manera similar, el Washington Post informó que un centro de investigación de desinformación indio estaba de hecho vinculado a los servicios de inteligencia nacionales, y descubrió que blanqueaba puntos de conversación en apoyo del gobernante Partido Bharatiya Janata (BJP) junto con investigaciones basadas en hechos.
El presidente surcoreano Yoon Suk-yeol y su Partido del Poder Popular emplearon la retórica de las “noticias falsas” para justificar una campaña contra los medios independientes antes de las elecciones legislativas de abril de 2024. Las autoridades allanaron y pusieron en la lista negra a los medios independientes que habían informado críticamente sobre el gobierno, y los legisladores del Partido del Poder Popular lanzaron una campaña para tachar de parcial a la principal plataforma de verificación de datos de Corea del Sur, la organización sin fines de lucro SNUFactCheck. Según se informa, las acusaciones hicieron que un importante patrocinador retirara la financiación de SNUFactCheck, que había operado a través de una asociación entre la Universidad Nacional de Seúl y docenas de medios de comunicación destacados. La crisis de financiación llevó al centro a suspender sus actividades indefinidamente a partir de agosto de 2024, privando a los residentes de un servicio crucial que les ayudaba a distinguir los hechos de la ficción en línea.
La presión sobre los expertos independientes en Estados Unidos ha dejado a la gente menos informada sobre las operaciones de influencia antes de las elecciones de noviembre.
Una presión similar sobre los expertos independientes en Estados Unidos ha dejado a la gente menos informada sobre las operaciones de influencia antes de las elecciones de noviembre. Una coalición de investigadores conocida como Election Integrity Partnership (EIP), que había realizado análisis de información electoral falsa (y en ocasiones notificado a las empresas de redes sociales) durante el período de campaña de 2020, se enfrentó a una intensa presión y escrutinio. Las acusaciones falsas sobre el trabajo de la EIP, incluida la de que alimentaba la censura gubernamental, provocaron una ola de litigios, citaciones de los principales republicanos del Comité Judicial de la Cámara de Representantes de Estados Unidos y acoso en línea dirigido a los participantes de la EIP. Esta preocupante campaña ha aumentado el costo de trabajar en la integridad de la información y ha producido un efecto amedrentador en la comunidad más amplia de expertos estadounidenses en el tema. Expertos individuales e instituciones han informado que han reducido sus actividades y limitado el debate público sobre su trabajo para evitar una hostilidad similar o elevados honorarios legales.
Las empresas también redujeron el acceso a los datos sobre las actividades en sus plataformas, lo que dificultó la capacidad de los verificadores de datos y los investigadores independientes para estudiar el espacio informativo. En agosto de 2024, Meta cerró CrowdTangle, una herramienta fundamental que permitía el análisis en tiempo real del contenido de Facebook e Instagram, y la reemplazó por una alternativa mucho más limitada. En septiembre de 2023, X prohibió casi todo el scraping en su sitio, cortando una fuente primaria de datos para los investigadores. La medida se basó en un cambio anterior que bloqueaba el acceso a la interfaz de X para los investigadores detrás de un muro de pago exorbitantemente caro. El acceso de los investigadores a los datos de la plataforma les permite descubrir campañas de acoso y desinformación, desenmascarar a los actores detrás de ellas y señalar tendencias clave en las redes sociales. Limitar el acceso a esta información dificulta el diseño de políticas efectivas e intervenciones técnicas para fortalecer la libertad en Internet.
Desarrollar soluciones que protejan la libertad en Internet
En más de la mitad de los 41 países de la FOTN que celebraron o se prepararon para elecciones nacionales durante el período de cobertura, los gobiernos tomaron medidas destinadas a hacer más confiable el espacio informativo. Las intervenciones más comunes incluyeron la colaboración con empresas de tecnología para aumentar la información fidedigna de las comisiones electorales o para abordar la información falsa y engañosa; el apoyo a iniciativas de verificación de datos lideradas por los medios locales y la sociedad civil; y el establecimiento de reglas sobre cómo las campañas políticas pueden usar la IA generativa. Las medidas a menudo variaron dentro de un país determinado, y los organismos reguladores adoptaron enfoques diferentes (y a veces contradictorios) en función de su mandato, autoridad legal, independencia estructural e incentivos políticos.
Para determinar si estas iniciativas fortalecieron o socavaron la libertad en Internet, Freedom House las evaluó en función de cuatro criterios: transparencia en la toma de decisiones y procesos relacionados, compromiso significativo con la sociedad civil local, implementación independiente y supervisión democrática, y adhesión a las normas internacionales de derechos humanos. Estas características, cuando estaban presentes, ayudaron a proteger contra los excesos del gobierno y la mala conducta de las empresas, fomentaron la confianza y la legitimidad ante el público, permitieron un debate abierto sobre cómo abordar el contenido falso y engañoso, y facilitaron la incorporación de conocimientos diversos que conducen a acciones más informadas y efectivas. Los enfoques más prometedores se encontraron en Sudáfrica , la Unión Europea (UE) y Taiwán , cuyas intervenciones cumplieron en gran medida con los cuatro criterios.
Un conjunto de factores limitó la evaluación de la eficacia de las medidas analizadas en este informe para fomentar un entorno informativo de alta calidad, diverso y fiable. Por un lado, la utilidad de cada solución dependía del contexto particular de cada lugar, como la dinámica política o el marco jurídico de un país. La misma iniciativa de verificación de datos que resulta eficaz en una democracia establecida puede fracasar en un entorno en el que el Estado ejerce control sobre los medios de comunicación en línea. Varias políticas eran simplemente demasiado nuevas para evaluarlas, ya que contrarrestar la información falsa y engañosa suele ser una tarea a largo plazo. La naturaleza voluntaria o no transparente de muchas intervenciones también dificultaba el seguimiento de su aplicación. Por último, las lagunas en la investigación, creadas en parte por la presión gubernamental que ha paralizado el trabajo de los verificadores de datos y por las decisiones de las empresas de reducir el acceso a los datos de las plataformas, dificultan la comprensión de cómo se difunde el contenido falso, engañoso e incendiario y en qué medida las intervenciones están abordando el problema.
Cuando los reguladores estatales se extralimitan
En los períodos en que se celebraron elecciones importantes, muchos gobiernos intentaron abordar el tema de los contenidos falsos, engañosos o incendiarios imponiendo normas de eliminación de contenidos a las empresas tecnológicas. Las medidas más problemáticas carecieron de transparencia y supervisión sólida, no involucraron a la sociedad civil y restringieron indebidamente la libertad de expresión y el acceso a la información. Los riesgos de extralimitación fueron más profundos en entornos en los que algunas formas de expresión protegida en línea ya estaban penalizadas, el Estado de derecho era débil y los organismos reguladores carecían de independencia.
Antes de las elecciones de febrero de 2024 en Indonesia , las autoridades lanzaron iniciativas para abordar el contenido supuestamente ilegal en línea, pero la iniciativa se vio empañada por una opacidad que generó preocupaciones sobre abusos. La agencia de supervisión electoral Bawaslu, el regulador de comunicaciones Kominfo y la policía nacional establecieron una mesa electoral conjunta para identificar y solicitar la eliminación de contenido “ilegal” por parte de las plataformas, en parte debido, según se informa, a la frustración de que las empresas de tecnología no habían actuado adecuadamente ante las quejas durante las elecciones de 2019. La probabilidad de extralimitación aumentó por el hecho de que la toma de decisiones quedó en manos de los organismos reguladores y de aplicación de la ley, en lugar de un poder judicial independiente con un mejor historial de protección de la libertad de expresión. Kominfo ha utilizado anteriormente las amplias definiciones del país de discurso “ilegal” para censurar contenido LGBT+, críticas al Islam y expresiones de apoyo a la autodeterminación en la región de Papúa.
En la India , los funcionarios partidistas obligaron a las empresas tecnológicas a adoptar una postura favorable antes de las elecciones de 2024, desplazando a la más independiente Comisión Electoral de la India (ECI) de su función de supervisar la información en línea relacionada con las elecciones. La ECI se negó a reforzar su Código de Ética Voluntario, un acuerdo de 2019 con las plataformas que establece algunos compromisos breves pero inadecuados con respecto al contenido en línea para el período de campaña, y luego lo aplicó de manera moderada e inconsistente. La mano blanda de la ECI creó espacio para la intervención del Ministerio de Información y Radiodifusión, mucho más politizado, que censuró a los críticos del BJP, a los medios independientes y a los activistas de la oposición durante la campaña. Por ejemplo, de conformidad con las órdenes del ministerio a principios de 2024, X e Instagram restringieron a los usuarios con sede en la India la visualización de cuentas que se habían movilizado como parte de un movimiento de protesta de agricultores para abogar por una red de seguridad social más fuerte.
Mientras Brasil se prepara para las elecciones municipales nacionales de octubre de 2024, los esfuerzos del Tribunal Superior Electoral (TSE) para salvaguardar la integridad electoral demostraron la complejidad de defender la libertad en Internet y al mismo tiempo contrarrestar las campañas de desinformación. En febrero, el TSE emitió nuevas reglas que exigen a las plataformas de redes sociales eliminar de inmediato las publicaciones que puedan socavar la integridad electoral si son “notoriamente falsas”, “gravemente fuera de contexto” o presentan “amenazas inmediatas de violencia o incitación” contra los funcionarios electorales. Las plataformas que no cumplan se enfrentan a sanciones civiles cada vez mayores. Este tipo de contenido problemático puede reducir el acceso de las personas a información electoral confiable, paralizar el trabajo de los administradores electorales y contribuir a la violencia fuera de línea. Sin embargo, la categorización vaga de las directrices y los plazos ajustados para la eliminación corren el riesgo de incentivar la eliminación excesiva de contenido, lo que podría afectar la libertad de expresión que debería estar protegida por las normas internacionales de derechos humanos. Una mayor transparencia por parte del TSE sobre su justificación legal para las restricciones de contenido y las órdenes asociadas a las empresas proporcionaría una visión muy necesaria del impacto de estas reglas en la libertad de expresión y permitiría a la sociedad civil exigir cuentas al TSE cuando se extralimita.
Además, la Corte Suprema de Brasil ha aplicado restricciones claramente desproporcionadas a la libertad de expresión en un esfuerzo paralelo por abordar el contenido falso, engañoso e incendiario que ha contribuido a la violencia offline en el país. El magistrado de la Corte Suprema Alexandre de Moraes, que dirigió el TSE entre agosto de 2022 y junio de 2024, ordenó el bloqueo de X en agosto de 2024, después del período de cobertura, como parte de una disputa que duró meses por la negativa de la plataforma a cumplir con las órdenes judiciales que restringían las cuentas de extrema derecha acusadas de difundir información falsa y engañosa. La orden de bloqueo, que separó a millones de brasileños de la plataforma y fue confirmada por un panel de jueces de la Corte Suprema a principios de septiembre, también amenazó de manera preocupante con multas para las personas que usen herramientas anticensura como VPN para acceder a X. La disputa entre Moraes y X escaló hasta llegar a demostraciones de política arriesgada en las que el propietario de X, Elon Musk, lanzó invectivas e insultos contra la justicia y desobedeció las reglas que requieren que las empresas extranjeras tengan presencia local, mientras que Moraes extendió sus esfuerzos de cumplimiento a Starlink y su empresa matriz SpaceX, de la que Musk es el director ejecutivo y mayor accionista.
Formas más respetuosas de abordar el contenido problemático
Algunos países han desarrollado iniciativas más prometedoras para abordar el contenido falso, engañoso o incendiario, haciendo hincapié en la transparencia, la participación de la sociedad civil local, la supervisión democrática y la adhesión a las normas internacionales de derechos humanos.
El enfoque de Sudáfrica en torno a las elecciones de mayo de 2024 es un ejemplo positivo. El portal Real411, dirigido por la Comisión Electoral de Sudáfrica (CEI) y el grupo de la sociedad civil Media Monitoring Africa (MMA), permitió al público denunciar casos de información falsa, acoso, discurso de odio e incitación a la violencia, que luego fueron evaluados por expertos en medios, derecho y tecnología para determinar si cumplían con un conjunto de definiciones estrictas para cada categoría de contenido. Si así fuera, la CEI podía remitir el contenido al Tribunal Electoral para determinar si violaba las leyes electorales, a las plataformas para determinar si violaba sus términos de servicio o a los medios para generar conciencia sobre las narrativas falsas o desacreditarlas. La CEI y la MMA también crearon PADRE, un repositorio en línea diseñado para catalogar y aumentar la transparencia con respecto al gasto de los partidos políticos en publicidad política y su colocación. La participación de expertos independientes en las iniciativas de la CEI ayudó a garantizar que las decisiones sobre el contenido en línea fueran proporcionadas, específicas y protectoras de la libertad de expresión.
La sociedad civil sudafricana sirvió como baluarte contra los esfuerzos más desproporcionados de otro organismo regulador para mitigar la desinformación electoral. Las normas propuestas por la Junta de Cine y Publicaciones, que fueron retiradas después de que la sociedad civil cuestionara su constitucionalidad, habrían obligado a las empresas a restringir el acceso a “información errónea, desinformación y noticias falsas” vagamente definidas, y habrían impuesto sanciones penales (incluidas penas de prisión de hasta dos años) para quienes difundieran contenido supuestamente prohibido.
En vísperas de las elecciones al Parlamento Europeo de junio, la UE utilizó su singular tamaño de mercado y sus herramientas regulatorias para obligar a las plataformas de redes sociales y a los motores de búsqueda a aumentar la transparencia y mitigar los riesgos electorales. La Ley de Servicios Digitales (DSA, por sus siglas en inglés), que entró en pleno vigor en febrero de 2024, exige que las grandes plataformas y los motores de búsqueda proporcionen informes detallados de transparencia, evaluaciones de riesgos y acceso de los investigadores a los datos de la plataforma, entre otras estipulaciones. En abril de 2024, la Comisión Europea elaboró directrices electorales que establecían las medidas que estas empresas debían adoptar en virtud de la DSA, como etiquetar los anuncios políticos y el contenido generado por IA y garantizar que los equipos internos relacionados con las elecciones contaran con los recursos adecuados. Invocando la DSA, la comisión inició procedimientos formales contra Meta y X por una serie de posibles infracciones, incluido el presunto incumplimiento por parte de Meta de la limitación de la publicidad electoral engañosa y las deficiencias de X a la hora de mitigar los riesgos relacionados con las elecciones.
El Código de Prácticas sobre Desinformación de la UE, que no es obligatorio, sirvió como mecanismo independiente para fortalecer la integridad de la información. El código alista a los signatarios, incluidas las principales plataformas y empresas de publicidad, para desacreditar de manera preventiva y etiquetar claramente el contenido “alterado digitalmente”, establecer centros de transparencia y desmonetizar la información falsa y engañosa. Estas medidas pueden ayudar a proporcionar a los votantes la información confiable que necesitan para tomar decisiones electorales informadas y participar plenamente en las urnas. Sin embargo, la naturaleza voluntaria del código hace que su efectividad sea poco clara y difícil de rastrear.
Con una supervisión sólida y salvaguardas para la libertad de expresión, el intercambio de información entre gobiernos democráticos y empresas tecnológicas puede mejorar la capacidad de los usuarios para acceder a información fidedigna y fiable. Las agencias gubernamentales pueden tener acceso a información sobre actores extranjeros, por ejemplo, que podría proporcionar contexto a las empresas en su intento de combatir ciberataques o comportamientos inauténticos coordinados. Las agencias federales de los Estados Unidos redujeron la cooperación con las plataformas en un período crítico previo a las elecciones de noviembre de 2024, mientras sorteaban impugnaciones legales de funcionarios estatales en Luisiana y Misuri. Los dos estados, a los que se unieron demandantes privados, habían demandado al gobierno federal en 2022, alegando que sus interacciones con empresas tecnológicas durante el período electoral de 2020 y la pandemia de COVID-19 equivalían a “censura”. La Corte Suprema desestimó el caso en junio de 2024, dictaminando que los demandantes no probaron el daño y señalando que la sentencia de un tribunal inferior a su favor se había basado en hechos “claramente erróneos”. El tribunal superior no emitió una guía más detallada sobre cómo las agencias deberían comunicarse con las plataformas en consonancia con las protecciones constitucionales de la libertad de expresión. Como resultado de los procedimientos, la Oficina Federal de Investigaciones reveló planes para aumentar la transparencia y establecer límites más claros en torno a su interacción con las plataformas.
Apoyo a la verificación de datos y la alfabetización digital
Durante el período de cobertura se presentaron varias iniciativas positivas destinadas a facilitar el acceso de los votantes a información fidedigna, por ejemplo a través de programas de verificación de datos, centros centralizados de recursos o capacitación en alfabetización digital.
La sociedad civil de Taiwán ha establecido un enfoque transparente, descentralizado y colaborativo para la verificación de datos y la investigación de la desinformación que se erige como un modelo global. Antes y durante las elecciones del país de enero de 2024, estos programas de verificación de datos ayudaron a generar confianza en la información en línea en todo el espectro político y entre diversos grupos de población. La plataforma Cofacts permitió a las personas enviar afirmaciones que encontraron en las redes sociales o plataformas de mensajería para que los colaboradores de Cofacts, que incluyen tanto verificadores de datos profesionales como miembros de la comunidad no profesionales, las verificaran. Durante el período electoral, Cofacts descubrió que las narrativas falsas sobre las relaciones exteriores de Taiwán, en particular con los Estados Unidos, eran dominantes en la plataforma de mensajería Line. Otras organizaciones de la sociedad civil locales, como IORG y Fake News Cleaner, también cultivaron la resistencia a las campañas de desinformación mediante la realización de actividades de divulgación y programación directas en sus comunidades.
Antes de las elecciones de la India , más de 50 grupos de verificación de datos y editores de noticias lanzaron el Shakti Collective, la mayor coalición de su tipo en la historia del país. El consorcio trabajó para identificar información falsa y deepfakes, traducir las verificaciones de datos a los numerosos idiomas de la India y desarrollar una capacidad más amplia para la verificación de datos y la detección de contenido generado por inteligencia artificial. La diversidad de los miembros del Shakti Collective le permitió llegar a diversas comunidades de votantes e identificar tendencias emergentes, como un aumento de las afirmaciones falsas en los idiomas regionales de que las máquinas de votación electrónica estaban manipuladas.
Los gobiernos de algunos países apoyaron la implementación de este tipo de programas. El Observatorio Europeo de Medios Digitales (EDMO), creado en 2018 por la UE y gestionado de forma independiente, llevó a cabo investigaciones y colaboró con organizaciones de verificación de datos y alfabetización mediática durante el período electoral del Parlamento Europeo. El EDMO descubrió una red de influencia vinculada a Rusia que gestionaba sitios web falsos en varios idiomas de la UE, y también descubrió que la IA generativa se utilizaba solo en alrededor del 4 por ciento de las narrativas falsas y engañosas que detectaron en junio. El Instituto Nacional Electoral (INE) de México lanzó Certeza INE 2024, un proyecto multidisciplinario para contrarrestar la desinformación electoral, antes de las elecciones de junio del país. Como parte del programa, los votantes podían hacer preguntas sobre cómo votar y denunciar artículos, imágenes y clips de audio a “Inés”, una asistente virtual en WhatsApp. El contenido marcado por los votantes sería luego verificado a través de una asociación que incluía a Meedan, Agence France-Press, Animal Político y Telemundo.
Los verificadores de datos suelen ser de los primeros en identificar tendencias en las narrativas falsas, los actores responsables y la tecnología que utilizan. Sus conocimientos pueden orientar intervenciones políticas, programáticas y tecnológicas eficaces que promuevan la libertad en Internet. Sin embargo, si bien la investigación académica ha demostrado que la verificación de datos es eficaz en ciertos contextos, es posible que no siempre conduzca a cambios de comportamiento más amplios en los usuarios. También sigue existiendo un desequilibrio estructural fundamental entre los verificadores de datos y los promotores de campañas de desinformación: se necesita mucho más tiempo y esfuerzo para demostrar que una afirmación es falsa que para crearla y difundirla. Estas iniciativas pueden enfrentar dificultades particulares en entornos altamente polarizados, ya que es poco probable que los votantes que ya no confían en los grupos de medios independientes crean en su trabajo de verificación de datos.
Normativa sobre la IA generativa en las campañas políticas
Ante la preocupación de que la IA generativa difuminaría la línea entre los hechos y la ficción durante las votaciones, los reguladores de al menos 11 de los 41 países de la FOTN que celebraron o se prepararon para elecciones nacionales durante el período de cobertura emitieron nuevas reglas o directrices oficiales para limitar el uso de la tecnología en contextos electorales. Prohibir usos problemáticos de la IA generativa, como la suplantación de identidad, puede obligar a las campañas políticas y a los candidatos a adoptar un comportamiento más responsable. Las reglas que exigen el etiquetado brindan a los votantes la transparencia que necesitan para distinguir entre contenido genuino y fabricado.
Antes de las elecciones de Corea del Sur , los legisladores prohibieron el uso de deepfakes en los materiales de campaña a partir de los 90 días previos a la votación, y los infractores podrían ser sancionados con hasta siete años de prisión o multas de 50 millones de wones (39.000 dólares). La ley también exigió que se etiquetaran los materiales generados por IA que se publicaran antes del período de 90 días y facultó a los reguladores electorales para ordenar la eliminación de contenido ofensivo. Los responsables políticos taiwaneses adoptaron un enfoque más proporcionado y aprobaron una ley en junio de 2023 que permite a los candidatos denunciar deepfakes engañosos de sí mismos a las empresas de redes sociales para que los eliminen, si los expertos técnicos de las agencias de aplicación de la ley confirman que el contenido fue generado por IA.
En Estados Unidos , si bien no se adoptaron normas federales, al menos 19 legislaturas estatales aprobaron leyes para abordar la IA generativa en contextos electorales a partir de julio de 2024, según el Brennan Center for Justice. Una ley de Michigan promulgada en noviembre de 2023 exige el etiquetado de los anuncios políticos generados por IA e introduce sanciones penales por usar la tecnología, sin las etiquetas adecuadas, para “engañar” a los votantes en los 90 días previos a una elección. Una ley de Florida aprobada en marzo de 2024 modifica el marco de financiación de campañas del estado para exigir el etiquetado del contenido generado por IA en los anuncios políticos.
Durante el período de cobertura, las campañas electorales de varios países implementaron inteligencia artificial generativa, lo que subraya la necesidad de reglas claras a medida que esta tecnología se enreda en la práctica ordinaria de la política moderna. El exitoso candidato presidencial indonesio Prabowo Subianto utilizó un avatar generado por inteligencia artificial para reinventarse como una figura adorable y obsesionada con los gatos, lo que atrajo a los votantes más jóvenes y ocultó de manera efectiva las acusaciones creíbles de que había cometido abusos contra los derechos humanos como comandante militar antes de la transición del país a la democracia. Durante la segunda vuelta presidencial de Argentina de noviembre de 2023, los candidatos Javier Milei y Sergio Massa integraron memes generados por inteligencia artificial en su campaña, sobre todo cuando el grupo de Massa publicó un video manipulado por inteligencia artificial que mostraba a Milei hablando sobre un mercado privado para la venta de órganos, burlándose de una declaración anterior que había hecho.
Una democracia saludable del siglo XXI no puede funcionar sin un entorno en línea confiable, en el que prevalezcan la libre expresión y el acceso a información diversa.
La libertad en Internet como pilar de la democracia moderna
No es casualidad que los medios más eficaces y frecuentemente recomendados para revertir el declive global de la libertad en Internet sean también salvaguardas potentes para restablecer la confianza en el espacio de información electoral. Por ejemplo, las regulaciones de Internet que exigen transparencia en los sistemas de moderación de contenido y proporcionan datos de la plataforma a investigadores autorizados pueden ayudar a equipar a los votantes con una comprensión más informada de las operaciones de influencia durante las elecciones. El apoyo a largo plazo a los grupos de la sociedad civil puede empoderarlos con los recursos necesarios para colaborar con las comisiones electorales a fin de impulsar la información electoral fidedigna y proteger la libertad de expresión. Las mejores soluciones también van más allá de la tecnología y exigen la reinversión en educación cívica, modernización de las reglas electorales y rendición de cuentas a las figuras poderosas que participan en conductas antidemocráticas.
En definitiva, una democracia sana del siglo XXI no puede funcionar sin un entorno en línea fiable, en el que prevalezcan la libertad de expresión y el acceso a información diversa. La defensa de estos derechos fundamentales permite a las personas utilizar Internet de forma segura y libre para participar en debates, formar movimientos cívicos, examinar el desempeño de los gobiernos y las empresas, y debatir y crear consenso en torno a los principales desafíos sociales. Por tanto, la protección de la democracia en general requiere un compromiso renovado y sostenido con la defensa de la libertad en Internet en todo el mundo.