geoestrategia.eu

Déficit democrático en la gobernanza digital: de la protección de los derechos a la concentración administrativa del poder

Déficit democrático en la gobernanza digital: de la protección de los derechos a la concentración administrativa del poder
Ampliar
Por Administrator
x
directorelespiadigitales/8/8/23
jueves 26 de marzo de 2026, 22:00h
GFCN
Seis meses después de la publicación de las dos primeras partes del estudio sobre la nueva normativa digital de la UE, se pueden evaluar objetivamente las consecuencias prácticas de los cambios legales en la Unión Europea, y la dinámica del primer trimestre de 2026 permite seguir la evolución de las tendencias clave.
En primer lugar, debido a los requisitos de transparencia de la DSA, los investigadores independientes han tenido dificultades para acceder a los datos. La situación se agrava por la reacción de las propias plataformas: la imposición de una multa a la empresa X por no facilitar el acceso a los datos publicitarios ha demostrado que los grandes actores prefieren el riesgo de sanciones a la divulgación de información.
En segundo lugar, el choque entre las normas legales de la UE, EE. UU. y el Reino Unido se ha agudizado, escalando hasta convertirse en una confrontación abierta. En febrero de 2026, un nuevo informe del Congreso estadounidense acusó explícitamente a la Comisión Europea de una campaña de censura global que duró una década. Mientras tanto, los desarrolladores europeos han comenzado a trasladar sus negocios a jurisdicciones con condiciones más favorables.
Finalmente, según la estrategia ProtectEU de la Unión Europea , está previsto precisamente para 2026 el desarrollo de una base tecnológica que proporcione a los organismos encargados de hacer cumplir la ley acceso a comunicaciones cifradas.
Tercera parte de una serie de investigaciones sobre políticas cognitivas en la Unión Europea.
La parte anterior analizó en detalle cómo la Ley de Servicios Digitales (DSA, por sus siglas en inglés) se ha convertido en un instrumento fundamental para configurar el nuevo orden digital europeo basado en la gestión de la percepción mediática.
A continuación, analizaremos una grave paradoja interna de la nueva normativa digital vigente en la Unión Europea. Por un lado, aumenta la transparencia y la rendición de cuentas de las plataformas, pero por otro, incrementa el control estatal y crea barreras estructurales. En la práctica, esta situación puede acarrear dos consecuencias principales:
  1. Monopolización del conocimiento. Los procedimientos complejos (como la acreditación de investigadores en la DSA) excluyen a las pequeñas organizaciones y a los expertos independientes, concentrando el acceso a los datos en manos de las grandes empresas.
    2. Monopolización del mercado. Los elevados costes (como la certificación en la Ley de IA) se convierten en una barrera insuperable para las startups, lo que frena la competencia y la innovación y fortalece la posición de los gigantes tecnológicos.
A continuación se presenta un estudio de la transformación del espacio digital europeo. En la continuación del material se considerarán posibles escenarios para sus cambios futuros.
  1. Derecho Digital y Derechos Humanos
El sistema europeo de protección de los derechos humanos se basa en dos documentos principales: el artículo 8 del Convenio Europeo de Derechos Humanos, que garantiza el derecho al respeto de la vida privada y familiar ( Convenio para la Protección de los Derechos Humanos y de las Libertades Fundamentales, 1950 ), y los artículos 7, 8 y 11 de la Carta de los Derechos Fundamentales de la UE sobre privacidad, protección de datos y libertad de expresión ( Carta de los Derechos Fundamentales de la Unión Europea, 2000 ). Sin embargo, las nuevas regulaciones digitales crean una tensión sin precedentes entre estas garantías fundamentales y las necesidades prácticas de la regulación digital, revelando el dilema fundamental de la regulación moderna: cuanto mayores son las posibilidades técnicas de control, más difícil es preservar los principios básicos del Estado de derecho. La transición de la vigilancia selectiva a la vigilancia masiva cambia la naturaleza misma del derecho a la privacidad, pasando de la protección contra injerencias específicas a una excepción a un sistema de vigilancia general.
La Ley de Servicios Digitales (DSA) busca equilibrar la seguridad y los derechos, pero su implementación se basa en un sistema centralizado de control de acceso a información clave. Tras la entrada en vigor de la DSA en vigor para todas las plataformas en línea y motores de búsqueda, la Comisión Europea adoptó un acto delegado sobre el acceso de los investigadores a los datos . Este documento estableció un procedimiento único para los equipos acreditados que estudian riesgos sistémicos. Asimismo, consagró criterios de selección estrictos y reguló los formatos en los que las plataformas deben compartir conjuntos de datos internos. Al mismo tiempo, el coordinador está obligado a informar a la Comisión Europea y al consejo de coordinadores. Esto amplía la auditoría externa, pero indirectamente transfiere el control sobre la autorización inicial y la lista de conjuntos de datos que se divulgarán a un organismo supranacional.
Por lo tanto, el problema del sesgo y la selectividad en la elección de temas y participantes está inherente a la propia arquitectura de este sistema, lo que dificulta enormemente la verificación objetiva de los hechos.
La experiencia demuestra que las solicitudes de investigación se concentran principalmente en el Coordinador de Servicios Digitales de Irlanda, uno de los organismos clave con potestad para acreditar a los investigadores y permitirles acceder a datos de numerosas plataformas importantes. Esto genera un cuello de botella donde las preferencias institucionales de un regulador pueden influir en la investigación en toda la UE.
Al mismo tiempo, los investigadores se enfrentan a una «paradoja de los datos»: para justificar una solicitud, deben describir detalladamente los datos que necesitan sin conocer su estructura en los sistemas de la plataforma. Si bien la ley exige que las grandes plataformas (VLOP/VLOSE) aclaren la estructura y la lógica de sus algoritmos, el acceso a estas aclaraciones solo es posible previa solicitud al regulador y únicamente para investigadores acreditados, a través de un procedimiento burocrático complejo.
La Ley de IA establece un enfoque diferente , introduciendo normas horizontales para los sistemas de inteligencia artificial y responsabilidades específicas para los desarrolladores de sistemas de propósito general. El texto legal subraya la necesidad de evaluar los riesgos, gestionar los modelos y documentar el ciclo de vida de los datos. En materia de derechos humanos, esto implica la introducción de controles de privacidad y no discriminación como norma obligatoria. Sin embargo, el elevado coste del cumplimiento normativo se convierte en una barrera que desequilibra la balanza de poder a favor de quienes pueden permitírselo: crear un sistema de gestión de calidad para un sistema de IA de alto riesgo cuesta entre 193.000 y 330.000 euros, con un coste anual adicional de 71.400 euros. Si bien este gasto es habitual para una gran empresa, para un equipo pequeño puede suponer una barrera de entrada. Por lo tanto, el equilibrio entre seguridad e innovación no es solo una cuestión de principios, sino también de recursos que permitan superar el escrutinio regulatorio y obtener la certificación de aplicaciones de alto riesgo.
Por ello, la intención general de la política de proteger los derechos debe ir acompañada de un control sobre los efectos distributivos; de lo contrario, las normas consolidarán de facto la concentración del poder tecnológico y regulatorio en manos de unos pocos actores. Una consecuencia no deseada podría ser el efecto de la denominada «presión regulatoria»: las empresas emergentes y los equipos de investigación trasladan el desarrollo de sistemas de IA a jurisdicciones con requisitos menos estrictos, lo que socava el objetivo de la ley de crear una «IA fiable» en Europa .
En el ámbito mediático europeo, la implementación de la Ley Europea de Libertad de Prensa (EMFA) se presentó como un fortalecimiento de la protección de las fuentes y la independencia editorial. Al mismo tiempo, la ley refuerza el régimen de transparencia de la propiedad e introduce instrumentos para la supervisión de la injerencia en las decisiones editoriales, lo que exige un escrutinio constante de la libertad de expresión y la ausencia de incentivos ocultos para la autocensura. La estructura de aplicación de la EMFA se basa en el Consejo Europeo de Servicios de Medios, un grupo de reguladores nacionales, y en un sistema de opiniones y recomendaciones que, si bien no son vinculantes formalmente, generan presión reputacional sobre los infractores. Esto significa que la fuerza real de estos mecanismos dependerá de la voluntad de la Comisión Europea de aplicar procedimientos de infracción contra los Estados miembros que no cumplan con la ley.
El Parlamento Europeo subraya: El objetivo es fortalecer la democracia y el periodismo, pero es aquí donde surge la cuestión de la práctica y su cumplimiento con los estándares de necesidad y proporcionalidad, ya que la evaluación de la injerencia en los procesos editoriales se traslada inevitablemente al ámbito del procedimiento administrativo. El riesgo es que la formalización de la protección debilite literalmente la independencia real de los medios si los requisitos procesales se convierten en un instrumento de control burocrático.
En resumen, el nuevo marco regulatorio crea una paradoja: simultáneamente, hace que las plataformas rindan más cuentas a la sociedad y aumenta el control gubernamental sobre las comunicaciones digitales. La DSA abre el acceso a los datos internos de las plataformas para estudiar los riesgos algorítmicos, pero el procedimiento de acreditación para investigadores es tan complejo que solo las grandes universidades con recursos administrativos pueden superarlo , dejando fuera a los pequeños grupos de investigación o periodistas independientes. Como escribí anteriormente, la Ley de IA exige la certificación de sistemas de alto riesgo con un coste de entre 193.000 y 330.000 euros. Para Google o Microsoft, esto es, de nuevo, un gasto rutinario, pero para una startup, es una barrera de entrada insuperable, lo que resulta en una innovación concentrada en manos de los gigantes tecnológicos.
La EMFA protege a los periodistas del software espía , pero los procedimientos de quejas y la acreditación de los "medios independientes" pueden limitarse a las grandes redacciones con departamentos legales, mientras que los medios más pequeños corren el riesgo de perder su voz. La sostenibilidad jurídica de este sistema dependerá de la aplicación práctica de los principios de necesidad y proporcionalidad. La cuestión fundamental aquí es si los requisitos procedimentales, como la acreditación, la certificación y los filtros burocráticos, se convertirán en una herramienta para la protección genuina de los derechos o en una nueva forma de concentrar la influencia en manos de quienes pueden costear los elevados gastos de cumplimiento . Si el acceso a los mecanismos de protección está determinado por la capacidad financiera y administrativa, entonces la retórica sobre los derechos se convertirá en una fachada para la redistribución del poder en el ámbito digital, de los pequeños actores a las grandes corporaciones e instituciones.
  1. Intersecciones geopolíticas.
El derecho digital europeo se ha convertido en objeto de juegos de política exterior y se ha situado en el centro de una nueva ronda de competencia transatlántica de normas. En agosto de 2025, se registraron en Estados Unidos intentos coordinados de influir en la aplicación de las normas europeas. El cable diplomático del 4 de agosto de 2025, firmado por el Secretario de Estado Marco Rubio, instruyó a las misiones diplomáticas estadounidenses a intensificar el cabildeo contra la DSA, apelando a los riesgos para la libertad de expresión y los intereses de las empresas estadounidenses. Esta señal fue reforzada sustancialmente por los republicanos en el Congreso, quienes publicaron un informe sobre la llamada censura extranjera el 25 de julio de 2025, en el que la DSA se presenta como un mecanismo para influir en la esfera pública estadounidense. Las tensiones se agravaron aún más con una carta del Presidente de la Comisión Federal de Comercio, Andrew Ferguson, del 21 de agosto de 2025, en la que advertía a las principales plataformas contra la implementación de la legislación europea de manera que menoscabara los derechos de los usuarios en la jurisdicción estadounidense.
Las iniciativas estadounidenses contra la regulación europea se están desarrollando en la escena política de Washington con una intensidad sin precedentes. El 3 de septiembre de 2025, la Cámara de Representantes celebró una audiencia sobre «La amenaza de Europa a la libertad de expresión y la innovación en Estados Unidos», donde se criticaron simultáneamente la Ley de Seguridad en Línea británica y la Ley de Servicios Digitales europea. Este tipo de presión pública demuestra que los debates sobre moderación y cifrado se están convirtiendo en un elemento de la competencia transatlántica de normas y valores. Es significativo que las multas máximas contempladas en la Ley de Servicios Digitales sean del 6 % de la facturación global de una empresa, mientras que las de la Ley de Seguridad en Línea británica ascienden al 10 % o 18 millones de libras esterlinas, lo que en la práctica significa que los reguladores europeos recaudan la mayor parte de la multa de los ingresos estadounidenses de los gigantes tecnológicos.
ACTUALIZACIÓN: La escalada continuó en diciembre de 2025: la administración Trump impuso sanciones de visado contra el excomisario europeo Thierry Breton —uno de los principales artífices de la DSA— y cuatro representantes de ONG del Reino Unido y Alemania, acusándolos de participar en una campaña global de censura dirigida a las plataformas digitales estadounidenses. En febrero de 2026, el Comité Judicial de la Cámara de Representantes publicó la segunda parte del informe «La amenaza de la censura extranjera» , donde, basándose en documentos de las grandes tecnológicas, también acusó a la Comisión Europea de una campaña de censura global de una década de duración, que incluía influir en la libertad de expresión dentro de los EE. UU.
Paralelamente a estos procesos, una tendencia global hacia la restricción del cifrado en jurisdicciones adyacentes está cobrando fuerza. En el Reino Unido, Ofcom ha recibido herramientas para implementar la Ley de Seguridad en Línea en la práctica, incluida la capacidad de exigir a los servicios que instalen tecnologías acreditadas de monitorización de contenido antes del cifrado. Esto permite esencialmente el escaneo masivo de clientes y ha suscitado objeciones por parte de la comunidad tecnológica, especialmente dado que la Fundación Wikimedia ha presentado una demanda contra el posible reconocimiento de Wikipedia como un servicio de "categoría uno" con los requisitos más estrictos.
Dentro de la Unión Europea, la política de acceso a los datos ha adquirido una nueva dimensión con la ambiciosa estrategia ProtectEU presentada en abril de 2025. La Comisión Europea presentó una hoja de ruta para el llamado acceso lícito, que establece plazos claros: en 2025, una evaluación del impacto de las normas de retención de datos; en 2026, la preparación de una hoja de ruta tecnológica para soluciones de cifrado; y para 2030, el desarrollo de una nueva generación de capacidades de descifrado para Europol. Esto constituye, en la práctica, un programa a largo plazo para debilitar la invulnerabilidad práctica del cifrado de extremo a extremo en favor del acceso de las fuerzas del orden, al tiempo que se cumplen formalmente los criterios legales de necesidad y proporcionalidad.
Resulta especialmente preocupante que las recomendaciones provengan de un Grupo de Alto Nivel compuesto principalmente por funcionarios encargados de hacer cumplir la ley, sin una representación equitativa de expertos en ciberseguridad y derechos humanos. Esto genera un desequilibrio sistémico que favorece el aumento de los poderes de vigilancia en detrimento de las garantías técnicas y legales.
En conjunto, estas líneas conforman un conflicto jurisdiccional estructural con profundas implicaciones para el orden digital global. Las plataformas y los proveedores de infraestructura se enfrentan a demandas contrapuestas, lo que genera lo que podría denominarse un «trilema regulatorio»: resulta imposible satisfacer simultáneamente los estándares estadounidenses de libertad de expresión¹, las exigencias europeas de transparencia y gestión de riesgos, y el modelo anglo-australiano de acceso forzoso a las comunicaciones cifradas.
Las contradicciones específicas son las siguientes: en Estados Unidos, la Primera Enmienda está diseñada para proteger incluso el discurso controvertido de la censura gubernamental, mientras que la Ley de Servicios Digitales Europea exige la identificación y eliminación activa de "contenido ilegal" y "desinformación". La Ley de Seguridad en Línea del Reino Unido (así como la Ley de Asistencia y Acceso de Australia ) van aún más allá, al exigir que las plataformas proporcionen técnicamente a las fuerzas del orden acceso a los mensajes cifrados, lo cual contraviene tanto los principios de privacidad estadounidenses como las normas europeas de protección de datos.
En consecuencia, Meta* ya ha afirmado que la DSA equivale a censurar sus plataformas, y las grandes empresas tecnológicas se ven obligadas a crear versiones distintas de sus productos para diferentes jurisdicciones, una práctica conocida como «balcanización digital». Telegram ha amenazado con abandonar por completo el mercado europeo antes que implementar «puertas traseras en el cifrado», mientras que las autoridades británicas exigen precisamente este tipo de soluciones técnicas.
ACTUALIZACIÓN: El 8 de diciembre se supo que Meta había hecho concesiones a la UE y había modificado su configuración publicitaria para usuarios de la Unión Europea a partir de enero de 2026 para evitar nuevas multas. Al mismo tiempo, la plataforma X de Elon Musk recibió una multa de 120 millones de euros por infracciones de transparencia en virtud de la DMA, la primera sanción de este tipo tras una investigación de dos años. Esto provocó una fuerte reacción de Musk: pidió la «abolición» de la UE y bloqueó la publicidad de la Comisión Europea en su plataforma. Otras dos investigaciones de la UE contra X siguen en curso.
Todos estos procesos generan fricción regulatoria, estimulan la búsqueda de sistemas legales favorables a las empresas y aumentan la probabilidad de que la parte más vulnerable sea el usuario, quien formalmente recibe más garantías, pero en realidad vive en un entorno de creciente control preventivo y procedimientos ambiguos para acceder a información privada. Resulta bastante interesante que los países de la alianza Cinco Ojos , tradicionalmente defensores de la libertad en internet frente a regímenes autoritarios, estén creando simultáneamente su propia infraestructura de control digital, utilizando argumentos similares sobre "seguridad nacional" que sus oponentes.
Las consecuencias a largo plazo de esta escisión regulatoria podrían ser más graves de lo previsto inicialmente. La fragmentación de internet a nivel global, basada en criterios jurisdiccionales, no solo socava la universalidad de los derechos digitales, sino que también crea las condiciones para una «guerra fría» tecnológica, donde la ciberseguridad y la privacidad se convierten en instrumentos de presión geopolítica. En este contexto, la protección de los derechos humanos corre el riesgo de quedar supeditada a la competencia entre modelos de gobernanza digital, ya que cada bando presenta su enfoque como el único democrático y seguro.
III. Redistribución del poder dentro de la UE: la soberanía digital como herramienta de centralización
La regulación digital europea ha pasado de ser una herramienta técnica a un mecanismo para una redistribución fundamental del poder entre las capitales nacionales y las instituciones supranacionales. Esta metamorfosis se evidencia con mayor claridad en la arquitectura del Programa de Políticas de la Década Digital 2030 , un ambicioso programa de transformación digital recogido en la Decisión (UE) 2022/2481, de 14 de diciembre de 2022.
Formalmente, el programa declara el logro de los “objetivos comunes” de digitalización: desde el desarrollo de competencias digitales básicas en el 80 % de la población hasta la implementación de tecnologías en la nube, inteligencia artificial y macrodatos en el 75 % de las empresas europeas para 2030. Sin embargo, tras esta retórica tecnocrática, se puede apreciar una transformación institucional más profunda. El mecanismo de presentación de informes anuales integrado en el programa establece, de hecho, un régimen de rendición de cuentas vertical: los Estados miembros deben presentar hojas de ruta nacionales detalladas a la Comisión Europea, y esta recibe el mandato no solo de evaluar su cumplimiento con los objetivos paneuropeos, sino también de coordinar medidas correctivas mediante un nuevo conjunto de herramientas de Proyectos Multinacionales (PMN).
En la dimensión político-teórica, esto significa una transición del modelo de “soberanía dividida” a un sistema de “convergencia gestionada” , donde la política digital, tradicionalmente dentro de la esfera del control parlamentario nacional, se transforma en un tema de administración supranacional. Bruselas se está convirtiendo no solo en la coordinadora, sino también en la arquitecta del futuro digital del continente.
La soberanía tecnológica como proyecto político.
El concepto de soberanía tecnológica, plasmado en la Resolución A-10-2025-0107 del Parlamento Europeo, de 11 de junio de 2025, resulta paradójico. El informe elaborado por la Comisión de Industria, Investigación y Energía (ITRE) señala que la UE depende en más del 80 % de proveedores externos para productos, servicios y propiedad intelectual digitales. Sin embargo, la solución propuesta —reforzar el control sobre las tecnologías críticas mediante «instituciones democráticas»— no se traduce, en la práctica, en el fortalecimiento de las democracias nacionales, sino en la consolidación del poder en manos de una burocracia supranacional.
El resultado es un efecto de “doble centralización”: los Estados miembros pierden influencia en la formulación de prioridades estratégicas y los ciudadanos se ven privados de la oportunidad de influir en la política digital a través de instituciones nacionales electas. El déficit democrático, largamente debatido en el contexto de la integración europea, adquiere una nueva dimensión en este contexto de la era de la transformación digital.
ECAT: Institucionalizando el poder algorítmico
En igualdad de condiciones, la creación del Centro Europeo para la Transparencia Algorítmica (ECAT) en abril de 2023 marca el surgimiento de un tipo de autoridad reguladora fundamentalmente nuevo: la experta en algoritmos. Formalmente, el centro, que opera dentro de la estructura del Centro Común de Investigación (JRC) de la Comisión Europea en Sevilla, tiene la función de proporcionar conocimientos científicos y técnicos para la aplicación de la Ley de Servicios Digitales (DSA).
Sin embargo, cabe destacar que las verdaderas facultades del ECAT van mucho más allá del soporte técnico. El Centro tiene el mandato de acceder a los algoritmos, los datos internos y los sistemas de moderación de contenido de las mayores plataformas en línea (VLOP) y motores de búsqueda (VLOSE). El equipo interdisciplinario de científicos de datos, expertos en IA, sociólogos y abogados tiene la oportunidad de analizar en profundidad el funcionamiento interno de los gigantes digitales, evaluar los riesgos sistémicos y prescribir medidas para mitigarlos.
Fundamentalmente, esta mediación entre las plataformas y la sociedad está integrada verticalmente en la estructura de la Comisión. Es Bruselas quien determina qué datos estarán disponibles para los investigadores a través del mecanismo del artículo 40 de la Ley de Servicios Digitales (DSA), en qué formato y con qué restricciones. La transparencia se transforma así en un recurso centralizado, distribuido desde un único centro. Surge una nueva y peligrosa forma de desigualdad en el acceso a la información: las instituciones supranacionales reciben una visión completa de lo que ocurre en el entorno digital, mientras que los investigadores independientes y el público solo pueden ver una versión cuidadosamente filtrada y dosificada de la realidad.
Esta asimetría crea una situación en la que la verificación objetiva de los hechos se vuelve prácticamente imposible: el verificador se ve privado del acceso a la información primaria y no puede evaluar la exhaustividad ni el sesgo de los datos proporcionados. En esencia, esto conduce a la institucionalización del sesgo sistémico, en el que la única realidad que se puede verificar es la que ha sido construida y aprobada previamente por los "guardianes" de los datos en Bruselas.
Economía del cumplimiento: la desigualdad de costos está integrada en el sistema.
En este contexto, cabe destacar una vez más que la arquitectura de la regulación digital europea genera una asimetría fundamental en la distribución de los costes de cumplimiento. Investigaciones realizadas por ECIPE y otros centros de estudios demuestran claramente que las pequeñas economías y empresas soportan una proporción desproporcionadamente alta de los costes de implementación de las nuevas normativas, desde la Ley de Servicios Digitales (DSA) hasta la Ley de Inteligencia Artificial (IA) . Esta observación también se ve confirmada por estudios más recientes de BusinessEurope , CCIA e ITIF .
Para las multinacionales, los costos de cumplimiento se están convirtiendo en costos operativos manejables integrados en sus modelos de negocio. Las grandes plataformas crean unidades especializadas, contratan a un gran número de abogados y lobistas, y desarrollan sistemas automatizados para cumplir con los requisitos regulatorios. Al mismo tiempo, para las pequeñas y medianas empresas (pymes), estos mismos requisitos suelen convertirse en barreras insuperables para el acceso al mercado.
La paradoja es que la regulación, declarada como una herramienta para limitar el dominio de las grandes tecnológicas, en la práctica fortalece su posición. Elevar el umbral regulatorio crea el efecto de un «foso regulatorio» que protege a los actores establecidos de los competidores potenciales. Como resultado, la dependencia de Europa de los gigantes tecnológicos estadounidenses y chinos no se debilita, sino que se mantiene bajo una nueva forma institucional.
Ley de Libertad de Prensa: Libertad bajo vigilancia
La Ley Europea de Libertad de Prensa (EMFA), que entró en vigor el 7 de mayo de 2024 y es plenamente aplicable desde el 8 de agosto de 2025, es una construcción ambivalente. Ya he mencionado que, por un lado, la ley introduce garantías sin precedentes para proteger las fuentes periodísticas, limita el uso de software espía contra los medios de comunicación y exige transparencia en la distribución de la publicidad estatal. Pero, por otro lado, la ley amplía los instrumentos de supervisión administrativa de los procesos mediáticos.
La creación del Consejo Europeo de Servicios de Medios de Comunicación en febrero de 2025 institucionaliza un nivel supranacional de regulación de los medios. El Consejo está facultado para coordinar las acciones de los reguladores nacionales, evaluar el impacto de la concentración de medios en el pluralismo y la independencia editorial, y actuar como árbitro en las disputas entre plataformas y proveedores de medios.
Como resultado, los reguladores nacionales de los medios de comunicación y las comunidades profesionales se encuentran inmersos en un sistema jerárquico, donde el marco para la libertad de expresión y la autonomía editorial se establece a nivel supranacional. Esto crea el riesgo de unificar los estándares de los medios en detrimento de la diversidad nacional y cultural, uno de los valores fundamentales del proyecto europeo.
La arquitectura del «nuevo poder»: de la gobernanza multinivel al centralismo burocrático de Bruselas.
La combinación de los procesos descritos configura una nueva arquitectura de poder en la UE, donde la regulación digital actúa como catalizador de una profunda transformación institucional. El modelo de gobernanza multinivel, que presuponía una compleja interacción entre actores nacionales y supranacionales, está siendo sustituido por un sistema que puede describirse como un «centralismo burocrático con rostro digital».
En este sistema, Bruselas controla no solo el marco regulatorio, sino también la interpretación de los datos, la asignación de recursos y la determinación de las prioridades de desarrollo. Los Estados nación se transforman en ejecutores de estrategias centralizadas, y los ciudadanos en usuarios controlados de un sistema en el que las decisiones clave sobre los límites de lo aceptable en el espacio digital las toma una élite tecnocrática distante.
La amenaza no reside tanto en las regulaciones en sí mismas —muchas de las cuales responden a los desafíos reales de la era digital— como en la institucionalización de asimetrías de poder a largo plazo. Cada nueva normativa incrementa la dependencia de los sistemas nacionales respecto a la infraestructura supranacional, creando una dependencia institucional de la que resulta cada vez más costoso escapar.
Europa avanza hacia un mercado único digital altamente gobernable y predecible . Este orden promete protección contra los riesgos sistémicos, rendición de cuentas algorítmica y respeto por los derechos fundamentales en el entorno digital. Sin embargo, el precio de estos logros podría ser la erosión del control democrático: el espacio público corre el riesgo de convertirse en un sistema cerrado, donde los límites aceptables se establecen mediante algoritmos, evaluaciones de expertos y decisiones administrativas tomadas en laberintos departamentales inaccesibles para la ciudadanía.
Si la trayectoria actual continúa, Europa corre el riesgo de acabar con un orden digital técnicamente impecable, pero carente de contenido democrático: una especie de «Leviatán digital» que ofrece seguridad y estabilidad a cambio de renunciar a la soberanía nacional y a la posibilidad de una participación pública real en la determinación del futuro del entorno digital.
La erosión de la subjetividad democrática en la era digital.
La transformación fundamental de la participación democrática en el orden digital europeo se manifiesta no tanto en la restricción formal del derecho al voto, sino en el desplazamiento estructural del centro de la toma de decisiones, más allá del alcance de los mecanismos democráticos tradicionales. Cuando el contenido del derecho a la privacidad se determina mediante las especificaciones técnicas de los algoritmos de moderación y los límites de la libertad de expresión se establecen mediante actos delegados sobre "riesgos sistémicos", los ciudadanos se encuentran en la posición de receptores pasivos de decisiones tomadas en espacios institucionales donde su voz es estructuralmente inaudible. Un votante puede influir de jure en la composición del Parlamento Europeo, pero no en los parámetros de aprendizaje automático que determinan la visibilidad de sus publicaciones en las redes sociales . Un parlamento nacional puede criticar la Ley de Servicios Digitales (DSA), pero no puede cambiar los umbrales algorítmicos que clasifican el contenido como "potencialmente dañino".
Cautiverio tecnocrático de las instituciones democráticas
Teniendo en cuenta nuestro análisis, podemos destacar la peculiaridad de la situación actual: las instituciones democráticas no desaparecen, sino que caen en una compleja dependencia de interpretaciones tecnocráticas presentadas como “objetivas” y “basadas en datos”. La Comisión Europea justifica la ampliación de las competencias de la ECAT por la necesidad de “experiencia científica y técnica”, los coordinadores nacionales de servicios digitales remiten a las “mejores prácticas internacionales” y las plataformas, a su vez, apelan a las “limitaciones de la tecnología” para explicar sus decisiones de moderación. En esta configuración, las cuestiones políticas sobre el carácter deseado de la esfera pública se disfrazan de problemas técnicos de optimización de algoritmos. El resultado de todo este proceso no es la abolición de la democracia, sino su devastación estructural: se conservan los procedimientos formales, pero su impacto en las condiciones reales de la vida digital de los ciudadanos se vuelve indirecto y mediado por múltiples capas de interpretación tecnocrática. Las instituciones democráticas se transforman en órganos de ratificación de decisiones tomadas en el marco de la lógica “objetiva” de la regulación técnica. La única pregunta es quién o qué está detrás de la adopción de estas decisiones tecnológicas.
[1] CEDH Artículo 8: “Toda persona tiene derecho al respeto de su vida privada y familiar, de su domicilio y de su correspondencia”.
Carta de la UE: Artículo 7: Respeto de la vida privada y familiar. Artículo 8: Protección de datos personales. Artículo 11: Libertad de expresión e información.