Política

INFORME: Frente Digital de la UE: Control legislativo de los flujos de información bajo el pretexto de combatir la desinformación

Administrator | Lunes 25 de agosto de 2025
Anna Andersen*
  • Introducción
  • Las instituciones de la UE dependen cada vez menos del cumplimiento voluntario y cada vez más de un sistema en el que empresas privadas, reguladores nacionales y estructuras supranacionales actúan como partes de un único mecanismo. En esta lógica, el espacio digital se percibe no como una plataforma abierta para el intercambio de opiniones, sino como una infraestructura, cada punto sujeto a verificación, registro y, en caso necesario, restricciones. Oficialmente, esto se justifica por garantizar la seguridad y la transparencia de las plataformas digitales.
    De hecho, se está formando una vertical administrativa estable, integrada en la base tecnológica de la vida pública y de difícil acceso para el control político directo de los procesos políticos por parte de la ciudadanía.
    Agosto de 2025 marcó el momento en que la política digital europea pasó de las declaraciones a la acción práctica. La Ley de Libertad de Prensa consagró nuevas normas para la labor editorial y requisitos de transparencia en la propiedad de los medios de comunicación, declarando oficialmente su objetivo de proteger la independencia de los periodistas. Ley Europea de Accesibilidad. Establecer normas uniformes de accesibilidad digital que obliguen a las empresas a adaptar sus servicios para las personas con discapacidad. Y la Ley de IA se ha puesto en práctica por primera vez, exigiendo a los desarrolladores registrar la procedencia de los datos para los modelos de entrenamiento y cumplir con los requisitos de los sistemas de "alto riesgo", lo que demuestra una nueva realidad en la que las regulaciones configuran la esencia misma de la comunicación digital europea.
    Todo esto no solo supone un paso hacia una modernización digital más rigurosa, sino también un punto de inflexión en la distribución del poder. Definir los límites de la comunicación aceptable y el acceso a la información está dejando de ser un tema de debate político para convertirse en materia de regulaciones técnicas creadas sin una amplia participación pública.
    En la segunda parte de nuestra serie de investigación sobre la censura de la información en la UE, examinamos cómo leyes como la Ley de Servicios Digitales (una ley que regula las actividades de las mayores plataformas y motores de búsqueda en línea) y la próxima Chat Control 2 (una iniciativa para escanear obligatoriamente los mensajes personales en los dispositivos) se están convirtiendo en herramientas de vigilancia sistémica y cambiando la estructura misma de la democracia europea.
  • El panorama regulatorio digital de la UE para agosto de 2025
  • A mediados de 2025, la legislación digital europea habrá tomado forma como una estructura de múltiples capas, donde cada nueva ley se superpone al sistema de normas existente, creando una densa red regulatoria. Este sistema no sólo establece el marco para el funcionamiento de las plataformas en línea, sino que cubre gradualmente todo el ciclo de circulación de la información: desde su creación y distribución hasta su almacenamiento y acceso.
    En el centro de este campo sigue estando la Ley de Servicios Digitales. Una vez en pleno vigor, se convirtió en el principal instrumento para supervisar las principales plataformas y servicios de búsqueda en línea ( Comisión Europea, 2024 ). Sus disposiciones obligan a las empresas a proporcionar a los investigadores acceso a datos internos, revelar la lógica de sus algoritmos y mantener bibliotecas públicas de anuncios que indiquen sus fuentes de financiación y público objetivo. Estas medidas se presentan como un paso hacia una mayor transparencia, pero en la práctica refuerzan un mecanismo de control centralizado: la última palabra sobre quién accede a los datos y bajo qué condiciones corresponde a la Comisión Europea. Como resultado, el círculo de entidades «aprobadas» suele limitarse a centros de investigación acreditados y organizaciones estrechamente vinculadas al sistema institucional de la UE.
    Para los expertos independientes, las iniciativas civiles o los periodistas, este modelo crea barreras: es posible que simplemente no se les permita acceder a los conjuntos de datos necesarios para un análisis completo. Esto significa que el control sobre la interpretación de información clave (por ejemplo, cómo funcionan los algoritmos de moderación o cómo se distribuye la publicidad política) permanece en manos de un número limitado de actores.
    Para los usuarios, esto significa que el acceso a interpretaciones alternativas se reduce, lo que implica que el análisis crítico puede quedar marginado y que el conocimiento público sobre el funcionamiento de las infraestructuras digitales dependerá de un círculo reducido de intermediarios «oficiales» ( Centro Europeo para Transparencia algorítmica, 2024 ).
    La Ley de Mercados Digitales, cuyo objetivo es limitar el poder de mercado de los gigantes tecnológicos, completa este panorama. La obligación de garantizar la interoperabilidad de los servicios, simplificar la transferencia de datos y ofrecer al usuario opciones por defecto crea la apariencia de una ampliación de los derechos del consumidor. Sin embargo, esto se debe a la creciente influencia del regulador en los procesos técnicos internos de las empresas y a la dependencia de su trabajo de las decisiones administrativas de Bruselas.
    Agosto marcó el lanzamiento de las primeras obligaciones bajo la Ley de IA ( Comisión Europea, 2025 ). Los desarrolladores de sistemas de propósito general ahora deben registrar la procedencia de los datos de entrenamiento, evaluar los riesgos potenciales y notificar la implementación de tecnologías clasificadas como de alto riesgo ( Veale&ZuiderveenBorgesius , 2021) . Estas categorías incluyen, por ejemplo, sistemas de reconocimiento facial e identificación biométrica, algoritmos para evaluar la solvencia crediticia o seleccionar empleados, así como tecnologías utilizadas en educación y atención médica. Estas áreas se reconocen como de alto riesgo, ya que los derechos humanos básicos, el acceso a los servicios sociales y la protección contra la discriminación dependen directamente de las decisiones de los algoritmos.
    Los nuevos requisitos conforman una norma europea única, pero al mismo tiempo crean una brecha significativa entre las grandes corporaciones que pueden asumir los costes del cumplimiento y los pequeños desarrolladores. Para estos últimos, el cumplimiento de las normas se vuelve económicamente oneroso: es necesario no solo realizar auditorías periódicas y contratar especialistas en cumplimiento y ética de la IA, sino también implementar sistemas de monitorización, mantener la documentación de cada etapa del desarrollo y financiar los procedimientos de certificación. En algunos casos, también se necesitan recursos técnicos adicionales, desde infraestructura para almacenar y etiquetar datos hasta herramientas de ciberseguridad. Como resultado, el coste del cumplimiento normativo puede alcanzar cientos de miles de euros al año, lo que, en la práctica, expulsa a las startups del mercado y aumenta la concentración en manos de unas pocas empresas transnacionales.
    La MediaFreedomAct , que entró en vigor, consagró nuevas condiciones para el trabajo editorial y requisitos para la divulgación de las estructuras de propiedad de los medios de comunicación ( Parlamento Europeo, 2025 ) . Oficialmente, la ley tiene como objetivo proteger la independencia de los periodistas, pero introduce procedimientos que dan al regulador más oportunidades para evaluar el contenido de la política editorial.
    La Ley Europea de Accesibilidad se ha convertido en un paso importante en el desarrollo de la inclusión digital, pero sus estándares uniformes en realidad “adaptan” a empresas con diferentes recursos y objetivos al mismo estándar. Sin embargo, el problema del incumplimiento de las normas sigue siendo grave: según el Índice de Confianza Digital 2025 , En un estudio que abarcó alrededor de 266.000 páginas web europeas, el 93% de los sitios examinados no cumplen los requisitos de accesibilidad, Con unas 266.000 páginas web europeas, el 93 % de los sitios analizados no cumplen los requisitos de accesibilidad. En otras palabras, la mayoría de los recursos en línea de la UE aún no ofrecen igualdad de acceso a las personas con discapacidad, lo que puede reflejarse, por ejemplo, en la falta de adaptación para lectores de pantalla o en la facilidad de navegación sin ratón. Esto significa que en los próximos años se pueden esperar inspecciones a gran escala y multas, especialmente cuando entren en vigor las disposiciones de la ley.
    La Ley de Equidad Digital que se debate está preparando una prohibición de las interfaces de usuario manipuladoras, los llamados "patrones oscuros". Estos son elementos de diseño que engañan intencionadamente al usuario o lo incitan a realizar acciones que benefician a la empresa: por ejemplo, un botón oculto para cancelar la suscripción, la adición automática de opciones de pago al carrito de compra o un procedimiento de cancelación excesivamente complicado ( Comisión Europea, Digital Fairness Fitness Check, 2025) . El proyecto de ley también obliga a las empresas a revelar sus métodos de fijación de precios en el comercio electrónico. Y aunque el documento todavía está en fase de consulta, ya está claro que se convertirá en un eslabón más en la cadena de leyes que construyen un control integral sobre el entorno digital. Pero hablaremos más sobre esto más adelante.
    En conjunto, estas regulaciones crean una estructura donde la regulación deja de ser una reacción a abusos individuales y se convierte en una herramienta permanente para gestionar los flujos de información. Si bien su objetivo formal es proteger los derechos e intereses de la ciudadanía, protegiéndola contra la desinformación, en realidad fortalece los mecanismos que permiten influir en el contenido y la forma de la comunicación digital a nivel de infraestructura.
    III. Instrumentos de transparencia y rendición de cuentas
    La Unión Europea está construyendo un sistema en el que las grandes plataformas digitales están perdiendo gradualmente su autonomía corporativa tradicional y se ven obligadas a abrir sus mecanismos internos al control externo. La Ley de Servicios Digitales introduce la institución de los «investigadores examinados», a quienes, en virtud del artículo 40, se les concede acceso a los datos de VeryLargeOnlinePlatforms (VLOPs) y VeryLargeOnlineSearchEngines (VLOSEs) 1 . Se trata de universidades, centros de investigación independientes y expertos acreditados por la Comisión Europea o los organismos reguladores nacionales. Tienen acceso a información sobre el funcionamiento de algoritmos, bases de datos publicitarias, distribución de contenido y riesgos para la democracia, pero las empresas tienen derecho a limitar la divulgación, citando secretos comerciales o la protección de la privacidad. Además, el acceso está centralizado a través de un portal único de la Comisión, lo que genera un riesgo de admisión selectiva y puede afectar la calidad de la investigación y la verificación de datos independiente ( Centro Europeo para la Transparencia Algorítmica, 2025 ). El propio proceso de autorización y el alcance del acceso efectivo siguen siendo motivo de debate entre los reguladores y la industria. Por ejemplo, investigadores de la red del Observatorio Europeo de Medios Digitales señalaron en 2025 la falta de transparencia en los criterios de acreditación y la naturaleza restrictiva del acceso, lo que, en su opinión, dificulta el análisis independiente y reduce la confianza en los resultados científicos ( Europeo (Parlamento, 2025) La gama de participantes acreditados se limita generalmente a las estructuras ya integradas en el sistema institucional de la UE ( DSAObservatory 2025 ).
    La transparencia publicitaria se basa en la obligación de etiquetar los anuncios política y socialmente significativos con el cliente, la fuente de financiación y el público objetivo. Para ello, las plataformas deben mantener bibliotecas de anuncios abiertas, disponibles para búsqueda y análisis. Sin embargo, en algunos casos, estas bases de datos contienen información incompleta, lo que dificulta la verificación independiente. Un ejemplo es el caso de TikTok: la Comisión Europea determinó preliminarmente una infracción de la Ley de Servicios de Anuncios (DSA) debido a la falta de una base de datos publicitaria completamente funcional que impida la detección de publicidad fraudulenta y política en vísperas de las elecciones ( APNews 2025).
    Se presta especial atención a los algoritmos de personalización. Los usuarios tienen derecho a saber qué datos se utilizan para generar sus feeds y resultados de búsqueda, así como a elegir los modos de visualización del contenido sin ajustes algorítmicos.
    Las plataformas deben publicar descripciones de cómo funcionan sus sistemas de recomendación y proporcionar estadísticas sobre su impacto en la distribución de contenido. Sin embargo, las metodologías para evaluar los algoritmos a menudo permanecen cerradas, lo que hace que la transparencia sea solo parcial. Como se señala en el sitio web oficial de la Comisión Europea, la DSA obliga a la plataforma a garantizar la transparencia de los feeds personalizados y a brindar a los usuarios la opción de desactivar la personalización. (Estrategia Digital UE 2025 de la Comisión Europea).
    A primera vista, el requisito de la DSA de transparencia en los feeds personalizados y la posibilidad de desactivar los ajustes algorítmicos parece una medida en beneficio de los usuarios. Sin embargo, en la práctica, surgen varios problemas. En primer lugar, se trata principalmente de una transparencia formal: las plataformas publican descripciones generales del funcionamiento de sus algoritmos, pero no revelan metodologías, ponderaciones ni lógica de clasificación específicas. Esto significa que la verificación externa y la auditoría independiente siguen siendo limitadas.
    En segundo lugar, incluso con la personalización desactivada, los usuarios solo obtienen un modo de visualización alternativo —por ejemplo, un feed basado en la hora de publicación—, lo que no elimina la dependencia estructural de la plataforma como intermediario de información.
    En tercer lugar, persiste el riesgo de una interpretación selectiva de los requisitos: las empresas pueden divulgar solo la parte de los datos que les conviene para cumplir con la letra de la ley, pero no proporciona una comprensión real de las prioridades algorítmicas. En consecuencia, dicha «transparencia» puede funcionar más como una herramienta para fortalecer la legitimidad de las plataformas y los reguladores europeos que como un medio de auténtica supervisión pública.
    Un buen ejemplo lo proporciona Meta (reconocida como una organización extremista en Rusia). Tras la entrada en vigor de los primeros requisitos de la DSA, la empresa abrió el llamado Centro de Transparencia a los investigadores y anunció un "nivel de acceso sin precedentes" a sus algoritmos. En la práctica, sin embargo, se trataba de una interfaz limitada, donde solo había datos agregados disponibles, lo que no permitía verificar los mecanismos reales de clasificación de publicaciones ni la segmentación publicitaria. Además, en el contexto de las elecciones al Parlamento Europeo de 2024, Meta (reconocida como una organización extremista en Rusia) controló eficazmente qué conjuntos de datos se divulgarían y cuáles permanecerían cerrados bajo el pretexto de "secretos comerciales". Esto condujo a una situación en la que los grupos de investigación involucrados en la verificación de hechos y el análisis de la publicidad política solo recibieron acceso parcial y no pudieron evaluar por completo hasta qué punto los algoritmos reforzaban ciertas narrativas ( Rauetal ., 2025).
    El nuevo Acto Delegado de la DSA establece un portal único para que los investigadores presenten solicitudes y establece una lista de datos que deben divulgarse. Esta medida puede considerarse como la institucionalización del acceso, pero también como su centralización bajo el control de la Comisión Europea. En un entorno políticamente competitivo, esto crea el riesgo de un acceso selectivo a conjuntos de datos críticos (Comisión Europea, 2025).
    Esto se aplica, por ejemplo, a los conjuntos de datos sobre la distribución de publicidad política, las recomendaciones algorítmicas y la moderación de contenido durante las elecciones. Si estos datos se proporcionan únicamente a ciertos centros de investigación de confianza, existe el riesgo de monopolización del conocimiento: el acceso
    a materiales que permitan el análisis de manipulaciones o campañas de influencia oculta será
    limitado. Esta circunstancia es especialmente sensible para la verificación de datos, ya que sin un acceso equitativo a los conjuntos de datos completos, los investigadores independientes y las ONG no podrán verificar la magnitud y las fuentes de la desinformación en las mismas condiciones que las estructuras cercanas a la Comisión Europea. Como resultado, la experiencia crítica corre el riesgo de verse desplazada por la versión institucionalmente sancionada y "correcta", lo que reduce la confianza en el propio sistema de verificación de datos.
    En el ámbito de la protección del consumidor, la UE propone prohibir los llamados "patrones oscuros": elementos de diseño especiales en sitios web y aplicaciones que incitan a los usuarios a gastar más dinero o a aceptar condiciones indeseables. Estas medidas se están debatiendo en el marco de los Mercados Digitales. Ley , que también incluye normas sobre una mayor transparencia de precios en el comercio electrónico.
    A primera vista, esta iniciativa parece totalmente positiva: los usuarios estarán protegidos de la manipulación y las plataformas en línea estarán obligadas a revelar el coste real de los bienes y servicios. Sin embargo, existe un riesgo. Cuanto más estricta sea la regulación de la interfaz de usuario por parte de la Comisión Europea, menos margen habrá para la libertad de los modelos empresariales. Por ejemplo, si cualquier intento de incentivar al comprador (descuentos con un período de validez limitado, precios dinámicos según la demanda) se clasifica como "práctica desleal", se paralizarán los mecanismos creativos del comercio electrónico.
    Resulta que, bajo el lema de la protección del consumidor, se está formando otra capa de control burocrático: el regulador se convierte en el árbitro de lo que se considera una forma aceptable de hacer negocios y lo que constituye un "patrón oscuro". Esto aumenta la dependencia de las empresas europeas de Bruselas y, al mismo tiempo, incrementa las ventajas competitivas de las corporaciones globales que cuentan con los recursos para adaptarse a cualquier nueva normativa.
    Así, con el pretexto de la transparencia, se está creando un nuevo régimen de rendición de cuentas digital, en el que la plataforma rinde cuentas no solo al usuario, sino también al sistema de vigilancia externo. La pregunta es si se mantendrá este equilibrio cuando la UE pase de los requisitos de acceso abierto al control preventivo de todo el tráfico digital.
  • Medidas coercitivas e injerencia en las comunicaciones privadas
  • La política digital de la UE está entrando en una fase en la que la regulación trasciende el ámbito público y se adentra en el ámbito de la comunicación individual. El ejemplo más ilustrativo de esta tendencia es el proyecto Chat Control 2, que se encuentra en la fase final de debate en agosto de 2025 y se prevé su adopción en otoño ( Euronews Green 2025 , TechRadar 2025 ). Este proyecto de ley exigiría que todos los servicios de mensajería instantánea, correo electrónico y almacenamiento en la nube implementen una tecnología de escaneo del lado del cliente que revisa los mensajes, fotos y archivos personales antes de enviarlos o subirlos al servidor ( The Guardian 2025 ). La motivación oficial es combatir la propagación de materiales de abuso sexual infantil y prevenir amenazas terroristas ( Security Boulevard 2025 . Sin embargo, la estructura del documento y la implementación tecnológica demuestran que tales medidas crean un precedente legal para el monitoreo permanente, automatizado y preventivo de toda la correspondencia privada, independientemente de si existe una sospecha de irregularidad ( Cointelegraph 2025 )
    En un contexto en el que la UE ya tiene un amplio arsenal de herramientas de vigilancia a través de Europol, incluidos los sistemas de intercambio de datos y el acceso transfronterizo a proyectos de datos electrónicos, la introducción del escaneo del lado del usuario esencialmente convierte los dispositivos personales en nodos en un sistema de vigilancia estatal ( proyecto SIRIUS - Acceso transfronterizo a pruebas electrónicas ) . Este proyecto tiene como objetivo apoyar a las agencias de aplicación de la ley en la obtención de evidencia digital de proveedores de servicios de todo el mundo, facilitando el acceso transfronterizo a los datos en las investigaciones criminales. Junto con Chat Control 2, esto representa un cambio cualitativo: mientras que antes el acceso a la información privada requería fundamentos legales y solicitudes interestatales, ahora la arquitectura de comunicaciones en sí misma está integrada en un sistema de control preventivo, donde cada usuario es considerado un objetivo potencial de vigilancia.
    La experiencia con tecnologías similares en otras jurisdicciones muestra su tendencia a interpretar las tareas de forma variable. En Australia y el Reino Unido, los intentos de implementar el escaneo del lado del cliente se vieron acompañados de un aumento en el número de falsos positivos y vulnerabilidades técnicas, lo que condujo al acceso ilegal a información personal y a filtraciones de datos ( The Guardian, 2025 ). Los críticos de la comunidad académica y las organizaciones de derechos humanos señalan que Chat Control 2, en su forma actual, viola las disposiciones fundamentales de la Carta de los Derechos Fundamentales de la UE, en particular los artículos sobre el derecho a la privacidad y la protección de datos personales ( Euronews Green, 2025 ).
    Resulta especialmente preocupante que la infraestructura para escanear mensajes esté concentrada en un número limitado de contratistas de la Comisión Europea.
    Como resultado, la verificación de la correspondencia privada se externaliza a empresas que a menudo se encuentran bajo jurisdicción fuera de la UE. Esto significa que la privacidad deja de ser un asunto interno de Europa y se convierte en un área de dependencia externa. Cuanto más se extiende el control más allá de los límites de la soberanía política, menos garantías reales tienen los ciudadanos de que sus vidas digitales estén protegidas, no de palabra, sino con hechos ( Tech Radar 2025 ). En resumen, esta arquitectura aumenta la vulnerabilidad del entorno de comunicaciones europeo a la influencia externa, incluido el posible acceso a conjuntos de datos por parte de los Estados en alianzas de intercambio de inteligencia como la alianza FiveEyes ( Wired 2025 ).
    Si se considera en el contexto de una estrategia regulatoria más amplia, Chat Control 2 es parte de un cambio hacia la censura y el control preventivos, modificando el equilibrio entre los derechos de los ciudadanos y los intereses de seguridad a favor de estos últimos ( Security Boulevard 2025 ).
    Esta transformación del espacio digital requiere una atención especial no solo de los especialistas en ciberseguridad, sino también de los investigadores de políticas, ya que inevitablemente cambia la estructura misma de la comunicación pública y privada en Europa.
  • Intersecciones del derecho y los derechos humanos
  • Toda legislación digital de la Unión Europea está formalmente obligada a cumplir con las normas fundamentales consagradas en el Convenio Europeo de Derechos Humanos ( Security Boulevard, 2025 ). Sin embargo, la práctica de los últimos años demuestra que, en el contexto de la creciente presión política y la carrera tecnológica, este vínculo se está convirtiendo cada vez más en una formalidad ritual en lugar de una restricción verdaderamente efectiva para el legislador.
    En el caso de Chat Control 2, el principal nodo legal se centra en (Security Boulevard 2025), que garantiza el derecho al respeto de la vida privada y familiar, incluida la privacidad de la correspondencia. El escaneo obligatorio de los mensajes personales en el dispositivo antes de su cifrado crea un régimen de vigilancia preventiva continua que abarca a cada usuario, independientemente de la existencia de sospechas o motivos de intervención. ( Comisión Europea, COM (2022) 209 final ).
    En términos legales, esto podría compararse con instalar intervenciones telefónicas en todas las líneas telefónicas del país: sólo que ahora todo el tráfico digital está bajo control.
    El argumento tradicional del Tribunal Europeo de Derechos Humanos sobre la proporcionalidad se convierte aquí en una contradicción sistémica. El objetivo de proteger a los niños de la violencia sexual es una de las tareas absolutamente legítimas del Estado, pero una medida que abarque a toda la población corre el riesgo de ser considerada excesiva y desproporcionada, especialmente si no se han agotado los métodos alternativos, desde investigaciones específicas hasta el trabajo de unidades especializadas.
    Conflictos jurídicos similares ya son visibles en otras iniciativas. Ley de Servicios Digitales , Al ampliar las posibilidades de monitorización de contenido, introduce simultáneamente mecanismos para apelar y restaurar la información eliminada, diseñados para mantener formalmente un equilibrio. Sin embargo, en la práctica, este equilibrio se reduce a largos procedimientos disponibles solo para un número limitado de usuarios con el tiempo, los conocimientos y los recursos necesarios. Esto se debe a que el proceso de apelación requiere un conocimiento profundo de las normas legales, la recopilación de pruebas, la interacción con los sistemas internos de moderación de las plataformas y, a menudo, la contratación de asistencia jurídica. Al mismo tiempo, los plazos para la tramitación de quejas se amplían y las interfaces para la presentación de solicitudes suelen ser complejas y estar fragmentadas entre diferentes canales. Como resultado, la mayoría de los usuarios, especialmente los pertenecientes a grupos vulnerables, prefieren abandonar los intentos de restaurar contenido, mientras que las grandes organizaciones o actores políticos con abogados internos utilizan estos mecanismos sistemáticamente y en su propio interés.
    Resulta especialmente preocupante que la arquitectura de la regulación digital europea consolide cada vez más un modelo de intervención permanente en el entorno de las comunicaciones. Incluso con el pretexto de la transparencia y la accesibilidad, se están creando bases de datos centralizadas y canales obligatorios para la transmisión de información a las estructuras estatales y supranacionales. Esto está cambiando gradualmente la naturaleza misma de la relación entre el ciudadano y el espacio digital: el usuario deja de ser un sujeto activo que determina el alcance de su participación y se transforma en un objeto de vigilancia regulada.
  • Presiones geopolíticas y nuevos desafíos
  • La política digital europea dejó hace tiempo de ser un asunto puramente interno de la Unión. Toda nueva norma, especialmente en materia de regulación de plataformas y cifrado, se convierte instantáneamente en objeto de negociaciones internacionales, presión diplomática y conflictos tecnológicos transnacionales.
    En agosto de 2025, Estados Unidos incrementó abiertamente la presión sobre Bruselas en relación con la Ley de Servicios Digitales y la futura Ley de Inteligencia Artificial. El Senado ordenó a los diplomáticos estadounidenses que intensificaran su colaboración con los gobiernos de la UE, convenciéndolos de que las restricciones previstas en estas leyes perjudican la libertad de expresión y la competitividad de las tecnologías estadounidenses.
    ( Reuters 2025 ). En la práctica, este lobby tiene como objetivo suavizar los requisitos de transparencia de los algoritmos y limitar la responsabilidad de las grandes plataformas por el contenido ( Politico 2025 ).
    Al mismo tiempo, aumentan las tensiones con el Reino Unido y Australia, donde se están debatiendo sus propias iniciativas para debilitar el cifrado. Aunque oficialmente se presentan como medidas para proteger a los niños, en las comunidades tecnológicas se consideran parte de una tendencia general occidental a establecer el control sobre las comunicaciones cifradas. Esta tendencia se ve reforzada por el intercambio mutuo de formulaciones de políticas y modelos regulatorios ya preparados entre la UE, FiveEyes y varios socios asiáticos ( Reuters 2025 ).
    Para la UE, esto crea una doble presión. Por un lado, el discurso interno requiere mantener la imagen de defensor de los derechos y las libertades, a diferencia de los enfoques más rígidos de sus aliados. Por otro lado, la dependencia tecnológica real de las corporaciones estadounidenses y británicas hace a Bruselas vulnerable a concesiones políticas. Otro factor de riesgo es la aparición de iniciativas como el proyecto Protect EU, cuyo objetivo es crear la capacidad técnica para descifrar cualquier dato digital almacenado en la UE ( TechRadar 2025 ) para 2030.
    Aunque el proyecto se presenta actualmente como un proyecto de investigación y coordinación, su objetivo final es formar una infraestructura común para el descifrado, lo que podría cambiar la naturaleza misma de la seguridad digital en Europa ( Tech Radar Experts Letter 2025 ).
    La UE se encuentra en una situación en la que las nuevas regulaciones digitales cumplen dos funciones a la vez: sirven como instrumento de política nacional y, al mismo tiempo, se convierten en un elemento de la competencia global por el control de los flujos de información. En esta situación, la prioridad se desplaza cada vez más de la protección de los derechos humanos y la privacidad a los intereses estratégicos y tecnológicos determinados por el equilibrio de poder en el ámbito internacional.
    VII. Conclusión
    Para finales de 2025, la política digital de la Unión Europea se percibe cada vez más como un sistema de garantías de derechos y libertades, y gradualmente se configura como un espacio gestionado donde la infraestructura tecnológica cumple funciones de regulación política y cultural. Bajo el lema de la "protección del usuario", se está configurando un orden digital regulado, donde los límites del comportamiento aceptable no los determina la sociedad, sino las estructuras supranacionales y las grandes corporaciones, cuyos intereses están integrados en el proceso regulatorio.
    Iniciativas como la Ley de Servicios Digitales o la próxima Ley de Control de Chat 2 se presentan como medidas necesarias contra la desinformación y la delincuencia en línea. En la práctica, amplían el alcance de la intervención estatal y supranacional a niveles que podrían considerarse excesivos en un entorno político diferente. El escaneo obligatorio de la correspondencia privada, la creación de un almacenamiento centralizado de datos y la institucionalización de canales para la transmisión de información a las autoridades: todo esto altera el concepto mismo de privacidad, convirtiéndolo en un término condicional y cada vez más vago.
    Esta dinámica es peligrosa no solo para los derechos individuales, sino también para la sostenibilidad de los procedimientos democráticos. Fortalece el poder de la burocracia centralizada, debilitando el papel de las comunidades locales y los estados nacionales en la determinación de las prioridades culturales y políticas. En esta lógica, la seguridad digital se convierte cada vez más en sinónimo de vigilancia digital, y la protección de la democracia es una forma de control gestionado sobre la esfera pública.
    Si esta tendencia continúa, la UE corre el riesgo de convertirse en un modelo de autoritarismo digital, donde el control está integrado en cada dispositivo y transacción y no requiere coerción directa. La madurez institucional y la voluntad política de las sociedades europeas para poner límites a la interferencia determinarán si el espacio digital seguirá siendo parte del orden democrático o acabará convirtiéndose en una infraestructura gestionada bajo la bandera de la seguridad y el progreso tecnológico.
  • Las Plataformas Online de Gran Tamaño (PVG) y los Motores de Búsqueda Online de Gran Tamaño (MVE) son categorías introducidas en la Ley de Servicios Digitales para los servicios digitales más grandes, con una audiencia de más de 45 millones de usuarios en la UE (aproximadamente el 10 % de la población). Entre estos se incluyen las redes sociales, los servicios de alojamiento y plataformas de vídeo (Facebook*, Instagram*, YouTube, TikTok, Amazon) y los motores de búsqueda (Google*, Bing). Estos actores deben cumplir con requisitos más rigurosos en materia de transparencia de algoritmos, moderación de contenido, protección del usuario y suministro de datos para la investigación, dado que su influencia en los procesos sociales se reconoce como sistémica.
  • *Investigadora, analista geopolítico y de ciberseguridad
    Referencias
  • Índice de Confianza Digital: Índice de Confianza Digital 2025. Disponible en: https://www.digitaltrustindex.eu , consultado el 12 de agosto de 2025.
  • Centro Europeo para la Transparencia Algorítmica: Preguntas frecuentes : Acceso a datos de la DSA para investigadores , 3 de julio de 2025, consultado el 18 de agosto de 2025.
  • Comisión Europea: Ley de Inteligencia Artificial (Ley de IA) , consultado el 18 de agosto de 2025.
  • Comisión Europea: Ley de Mercados Digitales: Garantizar unos mercados digitales justos y abiertos , consultado el 18 de agosto de 2025.
  • Comisión Europea: Ley de Servicios Digitales , consultado el 18 de agosto de 2025.
  • Comisión Europea: Media Freedom Act , consultado el 18 de agosto de 2025.
  • Comisión Europea: Preguntas y respuestas sobre la Ley de Servicios Digitales , comunicado de prensa, julio de 2024, consultado el 12 de agosto de 2025.
  • Comisión Europea: Propuesta de marco regulador sobre inteligencia artificial , 2 de agosto de 2025, consultado el 12 de agosto de 2025.
  • Parlamento Europeo: La Ley de Libertad de Prensa entra en vigor para apoyar la democracia y el periodismo , comunicado de prensa, 25 de julio de 2025, consultado el 12 de agosto de 2025.
  • Rau Jan , Kessling, Philipp et al: 40 DSA y acceso a datos de investigación en las elecciones federales alemanas: una experiencia mixta en el mejor de los casos. Zusammenhaltbegreifen , 21 de mayo de 2025 , https://doi.org/10.58079/13ze0 , consultado el 18 de agosto de 2025 .
  • TechRadar: La UE quiere descifrar sus datos privados para 2030 , 25 de julio de 2025, consultado el 12 de agosto de 2025.
  • Wired: Una nueva era de ataques al cifrado está empezando a intensificarse , 14 de marzo de 2025, consultado el 12 de agosto de 2025.
  • TEMAS RELACIONADOS:


    Noticias relacionadas