La Unión Europea publicó el martes un borrador de directrices de seguridad electoral dirigidas a alrededor de dos docenas de plataformas (más grandes) con más de 45 millones de usuarios activos mensuales regionales que están reguladas por la Ley de Servicios Digitales (DSA) y, en consecuencia, tienen el deber legal de mitigar los riesgos sistémicos. como los deepfakes políticos y al mismo tiempo salvaguardar derechos fundamentales como la libertad de expresión y la privacidad.
Las plataformas incluidas incluyen Facebook, Búsqueda de Google, Instagram, LinkedIn, TikTok, YouTube y X.
La Comisión ha nombrado las elecciones como una de las pocas áreas prioritarias para la aplicación de la DSA en las denominadas plataformas en línea de gran tamaño (VLOP) y motores de búsqueda en línea de gran tamaño (VLOSE). Este subconjunto de empresas reguladas por la DSA debe identificar y mitigar riesgos sistémicos, como la manipulación de información dirigida a los procesos democráticos en la región, además de cumplir con el régimen completo de gobernanza en línea.
Según la guía de seguridad electoral de la UE, el bloque espera que los gigantes tecnológicos regulados mejoren su juego en la protección de los votos democráticos y desplieguen recursos capaces de moderación de contenido en los múltiples idiomas oficiales que se hablan en todo el bloque, asegurando que tengan suficiente personal disponible para responder de manera efectiva a los riesgos que surjan. del flujo de información en sus plataformas y actuar según los informes de verificadores de datos externos, con el riesgo de recibir grandes multas por dejar pasar la pelota.
Esto requerirá que las plataformas realicen un acto de equilibrio preciso en la moderación del contenido político, sin quedarse atrás en su capacidad para distinguir entre, por ejemplo, la sátira política, que debería permanecer en línea como libertad de expresión protegida, y la desinformación política maliciosa, cuyos creadores podrían estar esperando. para influir en los votantes y sesgar las elecciones.
En el último caso, el contenido cae bajo la categorización DSA de riesgo sistémico que se espera que las plataformas detecten y mitiguen rápidamente. El estándar de la UE aquí requiere que implementen medidas de mitigación “razonables, proporcionadas y efectivas” para los riesgos relacionados con los procesos electorales, así como que respeten otras disposiciones relevantes de la amplia regulación de gobernanza y moderación de contenidos.
La Comisión ha estado trabajando a buen ritmo en las directrices electorales y el mes pasado lanzó una consulta sobre un borrador. El sentido de urgencia en Bruselas surge de las próximas elecciones al Parlamento Europeo en junio. Los funcionarios han dicho que harán pruebas de preparación de las plataformas el próximo mes. Por lo tanto, la UE no parece dispuesta a dejar al azar el cumplimiento de las plataformas, incluso con una ley estricta que significa que los gigantes tecnológicos corren el riesgo de recibir grandes multas si esta vez no cumplen con las expectativas de la Comisión.
Controles de usuario para feeds algorítmicos
Entre las orientaciones electorales de la UE dirigidas a las principales empresas de redes sociales y otras plataformas importantes, una de las claves es que deben ofrecer a sus usuarios una opción significativa sobre los sistemas de recomendación algorítmicos y basados en inteligencia artificial, para que puedan ejercer cierto control sobre el tipo de contenido que ven. .
“Los sistemas de recomendación pueden desempeñar un papel importante en la configuración del panorama de la información y la opinión pública”, señala la guía. “Para mitigar el riesgo que tales sistemas pueden representar en relación con los procesos electorales, los proveedores (de plataformas)… deberían considerar: (i.) Asegurar que los sistemas de recomendación estén diseñados y ajustados de una manera que brinde a los usuarios opciones y controles significativos sobre sus feeds, teniendo debidamente en cuenta la diversidad y el pluralismo de los medios”.
Los sistemas de recomendación de plataformas también deberían tener medidas para restar importancia a la desinformación dirigida a las elecciones, basándose en lo que la guía presenta como “métodos claros y transparentes”, como contenido engañoso que ha sido verificado como falso; y/o publicaciones provenientes de cuentas que repetidamente difunden desinformación.
Las plataformas también deben implementar mitigaciones para evitar el riesgo de que sus sistemas de recomendación difundan desinformación generativa basada en IA (también conocida como deepfakes políticos). También deberían evaluar de manera proactiva sus motores de recomendación para detectar riesgos relacionados con los procesos electorales e implementar actualizaciones para reducir los riesgos. La UE también recomienda transparencia en torno al diseño y funcionamiento de los feeds impulsados por IA; e insta a las plataformas a participar en pruebas adversas, formación de equipos rojos, etc. para aumentar su capacidad de detectar y anular riesgos.
En cuanto a GenAI, el consejo de la UE también insta a que se coloquen marcas de agua en los medios sintéticos, aunque señala los límites de la viabilidad técnica en este caso.
Medidas de mitigación recomendadas y mejores prácticas para plataformas más grandes en el 25 páginas de borrador de guía publicado hoy también establece la expectativa de que las plataformas aumenten sus recursos internos para centrarse en amenazas electorales específicas, como en torno a los próximos eventos electorales, y establezcan procesos para compartir información relevante y análisis de riesgos.
La obtención de recursos debe tener experiencia local.
La guía enfatiza la necesidad de realizar análisis sobre “riesgos específicos del contexto local”, además de la recopilación de información específica/nacional y regional de los Estados miembros para alimentar el trabajo de las entidades responsables del diseño y calibración de las medidas de mitigación de riesgos. Y para “recursos adecuados de moderación de contenido”, con capacidad en el idioma local y conocimiento de los contextos y especificidades nacionales y/o regionales, una queja de larga data de la UE cuando se trata de los esfuerzos de las plataformas para reducir los riesgos de desinformación.
Otra recomendación es que refuercen los procesos y recursos internos en torno a cada evento electoral mediante la creación de “un equipo interno dedicado y claramente identificable” antes del período electoral, con recursos proporcionales a los riesgos identificados para la elección en cuestión.
La guía de la UE también recomienda explícitamente contratar personal con experiencia local, incluido conocimiento del idioma. Mientras que las plataformas a menudo han buscado reutilizar un recurso centralizado, sin siempre buscar experiencia local dedicada.
“El equipo debe cubrir toda la experiencia relevante, incluso en áreas como moderación de contenido, verificación de hechos, interrupción de amenazas, amenazas híbridas, ciberseguridad, desinformación y FIMI (manipulación e interferencia de información extranjera), derechos fundamentales y participación pública y cooperar con expertos externos relevantes. , por ejemplo con los centros del Observatorio Europeo de Medios Digitales (EDMO) y organizaciones independientes de verificación de datos”, escribe también la UE.
La guía permite que las plataformas aumenten potencialmente los recursos en torno a eventos electorales particulares y desmovilicen a los equipos una vez finalizada la votación.
Señala que los períodos en los que pueden ser necesarias medidas adicionales de mitigación de riesgos probablemente varíen, dependiendo del nivel de riesgos y de las normas específicas de los Estados miembros de la UE en torno a las elecciones (que pueden variar). Pero la Comisión recomienda que las plataformas tengan mitigaciones implementadas y en funcionamiento al menos entre uno y seis meses antes de un período electoral, y continúen al menos un mes después de las elecciones.
Como era de esperar, se espera que las mitigaciones sean más intensas en el período previo a la fecha de las elecciones, para abordar riesgos como la desinformación dirigida a los procedimientos de votación.
Discurso de odio en el marco.
En general, la UE aconseja a las plataformas que se basen en otras directrices existentes, incluido el Código de prácticas sobre desinformación y el Código de conducta para combatir el discurso de odio, para identificar las mejores prácticas para las medidas de mitigación. Pero estipula que deben garantizar que los usuarios tengan acceso a información oficial sobre los procesos electorales, como pancartas, enlaces y ventanas emergentes diseñadas para dirigir a los usuarios a fuentes autorizadas de información para las elecciones.
“Al mitigar los riesgos sistémicos para la integridad electoral, la Comisión recomienda que también se tenga debidamente en cuenta el impacto de las medidas para abordar el contenido ilegal, como la incitación pública a la violencia y al odio, en la medida en que dicho contenido ilegal pueda inhibir o silenciar las voces en el sistema democrático. debate, en particular aquellos que representan a grupos o minorías vulnerables”, escribe la Comisión.
“Por ejemplo, las formas de racismo, o desinformación de género y violencia de género en línea, incluso en el contexto de ideología extremista violenta o terrorista o FIMI dirigida a la comunidad LGBTIQ+, pueden socavar el diálogo y el debate abiertos y democráticos, y aumentar aún más la división y la polarización social. En este sentido, el Código de conducta para combatir el discurso de odio ilegal en línea puede servir de inspiración a la hora de considerar las medidas adecuadas”.
También recomienda que realicen campañas de alfabetización mediática e implementen medidas destinadas a brindar a los usuarios más información contextual, como etiquetas de verificación de datos; indicaciones y empujones; indicaciones claras de cuentas oficiales; etiquetado claro y no engañoso de las cuentas gestionadas por los Estados miembros, terceros países y entidades controladas o financiadas por terceros países; herramientas e información para ayudar a los usuarios a evaluar la confiabilidad de las fuentes de información; herramientas para evaluar la procedencia; y establecer procesos para contrarrestar el uso indebido de cualquiera de estos procedimientos y herramientas, lo que parece una lista de cosas que Elon Musk ha desmantelado desde que se hizo cargo de Twitter (ahora X).
En particular, Musk también ha sido acusado de permitir que florezca el discurso de odio en la plataforma durante su mandato. Y en el momento de escribir este artículo, X sigue siendo investigado por la UE por una serie de presuntas infracciones de DSA, incluso en relación con los requisitos de moderación de contenido.
Transparencia para aumentar la rendición de cuentas
En cuanto a la publicidad política, la guía señala a las plataformas las normas de transparencia entrantes en esta área, aconsejándoles que se preparen para la regulación legalmente vinculante tomando medidas para alinearse con los requisitos ahora. (Por ejemplo, etiquetando claramente los anuncios políticos, proporcionando información sobre el patrocinador detrás de estos mensajes políticos pagados, manteniendo un depósito público de anuncios políticos y implementando sistemas para verificar la identidad de los anunciantes políticos).
En otros lugares, la guía también establece cómo abordar los riesgos electorales relacionados con personas influyentes.
Las plataformas también deben contar con sistemas que les permitan desmonetizar la desinformación, según la guía, y se les insta a brindar acceso a datos “estable y confiable” a terceros que realicen escrutinio e investigación de riesgos electorales. El consejo estipula que el acceso a los datos para estudiar los riesgos electorales también debería ser gratuito.
De manera más general, la guía alienta a las plataformas a cooperar con los órganos de supervisión, los expertos de la sociedad civil y entre sí cuando se trata de compartir información sobre los riesgos de seguridad electoral, instándolos a establecer canales de comunicación para recibir sugerencias e informes de riesgos durante las elecciones.
Para manejar incidentes de alto riesgo, el consejo recomienda que las plataformas establezcan un mecanismo interno de respuesta a incidentes que involucre a la alta dirección y mapee a otras partes interesadas relevantes dentro de la organización para impulsar la rendición de cuentas en torno a sus respuestas a eventos electorales y evitar el riesgo de pasar la responsabilidad.
Después de las elecciones, la UE sugiere que las plataformas realicen y publiquen una revisión de cómo les fue, teniendo en cuenta evaluaciones de terceros (es decir, en lugar de simplemente tratar de marcar sus propios deberes, como históricamente han preferido, tratando de poner un brillo de relaciones públicas encima de la plataforma en curso). riesgos manipulados).
Las directrices de seguridad electoral no son obligatorias como tales, pero si las plataformas optan por un enfoque diferente al recomendado para abordar las amenazas en esta área, deben poder demostrar que su enfoque alternativo cumple con los estándares del bloque, según la Comisión.
Si no lo hacen, corren el riesgo de que se les encuentre infringiendo la DSA, que permite sanciones de hasta el 6% de la facturación anual global por infracciones confirmadas. Por lo tanto, existe un incentivo para que las plataformas sigan el programa del bloque de aumentar los recursos para abordar la desinformación política y otros riesgos informativos para las elecciones como una forma de reducir su riesgo regulatorio. Pero aun así tendrán que seguir el consejo.
En las orientaciones de la UE también se establecen recomendaciones específicas adicionales para las próximas elecciones al Parlamento Europeo, que se celebrarán del 6 al 9 de junio.
Desde un punto de vista técnico, las directrices de seguridad electoral aún están en borrador en esta etapa. Pero la Comisión dijo que se espera la adopción formal en abril una vez que las versiones de la guía en todos los idiomas estén disponibles.