Geoestrategia

El Nuevo Paradigma Informativo: IA de Agente a Agente vs IA de web abierta

Administrator | Viernes 16 de mayo de 2025
Miguel Angel Rozas
Introducción
La convergencia de fenómenos globales recientes, la pandemia y el posterior reseteo económico, la narrativa de la emergencia climática, la implementación progresiva de la Agenda 2030, y la transformación radical en la gestión de datos, redes sociales y medios de comunicación de masas, constituye el telón de fondo sobre el cual emerge en 2025 la Inteligencia Artificial (IA).
En este marco de la IA constatamos como surgen dos paradigmas informativos opuestos, el modelo "agente a agente" (A2A -”Agent 2 Agent”) frente al modelo de "web abierta" (Open Web), y que trasciende lo meramente técnico para convertirse en una batalla decisiva por el control del acceso a la libre información, la independencia en la adquisición del conocimiento y la autonomía cognitiva humana.
Tras ver como décadas de narrativa cuidadosamente controlada se han disuelto en el océano incontrolable de la web abierta, ahora buscan rediseñar no solo las reglas del juego informativo, sino el casino entero.
El nuevo paradigma A2A representa el último intento de los poderes fácticos para recuperar el control perdido. Esta confrontación representa una encrucijada donde se forja el futuro vínculo entre la mente humana y las arquitecturas informativas emergentes, con implicaciones profundas y de largo alcance para nuestra interacción con la realidad informativa.
El Inminente Cambio de Paradigma
La cronología convencional manejada por Silicon Valley para la IA transformadora, (ie. aquella tecnología cuyos cambios en la sociedad, la economía y la humanidad, superan a su mera aplicación especializada para alterar radicalmente cómo trabajamos, interactuamos y procesamos información) ha subestimado constantemente su ritmo de desarrollo. Mientras que las previsiones públicas sugerían una progresión gradual hacia la Inteligencia Artificial General (IAG) (ie. capaz de realizar cualquier tarea intelectual como un ser humano) en un plazo de cinco o diez años, otras estimaciones apuntan a un horizonte de 18 a 24 meses. Visionarios como los investigadores en xAI han señalado esta aceleración vertiginosa, dejando a la sociedad con un margen mínimo para adaptarse a un cambio sin precedentes.
xAI es la empresa de inteligencia artificial fundada por Elon Musk en 2023, enfocada en desarrollar una IA general más transparente y con menos restricciones. Su modelo Grok compite con ChatGPT de OpenAI, organización cofundada por Musk en 2015 pero que abandonó tras discrepancias con Sam Altman cuando este transformó la entidad sin fines de lucro en una empresa comercial. Musk llevó el asunto a los tribunales donde sigue pendiente de veredicto. Grok se caracteriza por su mayor libertad para abordar temas controvertidos.
Lo crucial ya no es la existencia de una IA avanzada, un hecho consumado, sino la arquitectura mediante la cual estos sistemas accederán, procesarán y difundirán la información:
La IA Agente a Agente (A2A)
Según este modelo, los sistemas de IA interactúan principalmente con bases de datos predeterminadas, APIs (interfaces que conectan aplicaciones externas con modelos de IA alojados en servidores remotos). En el contexto del A2A, son canales de información cerrados y regulados, en contraste con el acceso abierto y directo a internet y otros sistemas de IA. Esto genera un ecosistema de información selecta donde:
  • Se reimplanta el Control de Acceso: La naturaleza descentralizada de internet se revierte de facto, ya que la información ahora pasa por canales aprobados, como las APIs estadounidenses de OpenAI (GPT-4) Google (Gemini) o Anthropic (Claude) y que a su vez rivalizan con Meta LLaMA (código abierto /EEUU), Mistral AI (Francia) o DeepSeek (China), entre otros, y que representan la vanguardia mundial de desarrolladores de IA.
  • Esta recentralización concentra el poder de decisión de la cuestión informativa en instituciones que definen lo que constituye la "verdad" accesible y aceptable.
  • Dominan las "Fuentes Autorizadas": Priman las decisiones sobre qué fuentes se califican como autorizadas: The New York Times versus Substack, la revista Nature versus las prepublicaciones en arXiv, que se convierten en puntos clave de control. La selección de datos "confiables" inevitablemente introduce un sesgo político y cultural que margina perspectivas alternativas.
  • Filtrado Invisible: A diferencia de la censura tradicional, los sistemas A2A implementan filtrados dinámicos y matizados que operan de manera invisible para el usuario final. Los algoritmos excluyen contenido sin que los destinatarios perciban qué se omite, erosionando fundamentalmente la transparencia del ecosistema informativo.
  • Durante la pandemia de COVID-19, plataformas como Twitter (actual X) suspendieron miles de cuentas de profesionales médicos e investigadores que cuestionaban la narrativa oficial, incluso aquellos con credenciales profesionales y académicas sólidas. Hoy día, un sistema A2A implementaría esta exclusión de forma automatizada, limitando la acción de la IA a datos provenientes de agencias y organismos como la OMS, Reuters, GAVI o la Fundación Bill Gates y excluyendo sistemáticamente estudios disidentes publicados en plataformas de difusión científica como ResearchGate o medRxiv: La primera funciona como una red social académica donde investigadores comparten, discuten y colaboran en publicaciones, mientras que la segunda es un servidor de prepublicaciones académicas especializado en ciencias médicas.
    La IA de Web Abierta (Open Web)
    Por el contrario, el enfoque de web abierta permite a los sistemas de IA navegar y analizar directamente la internet pública, facilitando:
  • Acceso Directo a Fuentes Primarias: La IA maneja fuentes primarias en lugar de información prefiltrada, como lo demuestran buscadores avanzados como Perplexity AI o sistemas como SearxNG, accediendo al espectro completo desde publicaciones científicas hasta análisis alternativos
  • Diversidad de Perspectivas: Acceso a perspectivas heterodoxas, disidencia y análisis alternativo, desde blogs independientes hasta foros especializados como LessWrong o Astral Codex Ten, incluyendo voces académicas disidentes y analistas independientes cuyas posiciones cuestionan el consenso institucional.
  • Transparencia: Las fuentes de información permanecen visibles y rastreables, con citas directas a la fuente, permitiendo a los usuarios verificar y contrastar independientemente las afirmaciones presentadas.
  • En 2020, investigadores utilizaron plataformas como arXiv y foros especializados como Reddit para cuestionar narrativas oficiales sobre el origen del SARS-CoV-2, y los vectores mRNA. debates que un sistema A2A habría sistemáticamente excluido.
    Envenenando el Pozo: La Magia Audiovisual de la IA
    En cuestión de meses, la IA desplegará contenido audiovisual con un nivel de precisión técnica sin precedentes. Modelos como los sucesores de Sora o DALL-E 4 producirán videos en resolución 16K con detalles microscópicos: cada poro facial, cada sutil variación de luz y de sombra, cada inflexión vocal será imitada con inhumana precisión algorítmica. Un deepfake que muestre a un líder mundial supuestamente in flagrante delito podría desestabilizar mercados globales antes de ser denunciado como falso. Esta "magia” o quizás “brujería” digital no solo amplifica el potencial de desinformación sino que paraliza la capacidad de nuestros sentidos para distinguir la realidad de la ficción, con segmentos significativos de la población, mansa y adocenada, adictos al smartphone (... ¿acaso no lo somos todos?) y predispuestos hacia la promesa del A2A de información "verificada", a costa de la libertad informativa.
    Las implicaciones geopolíticas de esta capacidad son profundas. En 2024, aparecieron deepfakes en TikTok mostrando a políticos y celebrities respaldando cripto estafas que engañaron a millones en cuestión de horas. Para 2026, la IA podrá generar "documentales" completos con metraje indistinguible del mundo real, narrados por voces sintéticas que imitan perfectamente a figuras públicas de confianza.
    En Iberoamérica, donde la desconfianza institucional es elevada, estos deepfakes podrían manipular procesos electorales o desestabilizar gobiernos. En regiones como India, donde las redes sociales amplifican tensiones religiosas preexistentes, un deepfake weaponizado podría incitar violencia intercomunal en cuestión de minutos.
    Riesgo de Atrofia Cognitiva Humana
    Más allá del control informativo existe otra preocupación fundamental: el potencial para una atrofia cognitiva generalizada. Al delegar cada vez más funciones mentales a los sistemas de IA, nos arriesgamos a un escenario de "úsalo o piérdelo" con nefastas consecuencias:
    - Mientras que en los años 90, las personas recordaban docenas de números telefónicos, estudios recientes muestran que el adulto promedio ahora memoriza menos de cinco.
    - La navegación sin GPS se ha convertido en una habilidad perdida para las generaciones nacidas después de 2000, como evidencian estudios neurológicos sobre atrofia del hipocampo.
    - Los investigadores académicos han pasado de dominar el conocimiento profundo a una ingeniería de "prompt & scrolling", con un declive del 24% en el tiempo dedicado a la lectura profunda según informes universitarios.
    Esta externalización cognitiva ocurre gradualmente, de forma casi imperceptible. La dependencia tecnológica elimina capacidades fundamentales: cuando un individuo no puede orientarse sin GPS, cuando experimenta nomofobia (ansiedad por separación del smartphone), o su memoria se atrofia por desuso, se vuelve más vulnerable tanto psicológica como funcionalmente. En contextos educativos, los estudiantes que utilizan herramientas como Copilot para generar trabajos académicos sin comprender los fundamentos de base experimentan una erosión progresiva de su capacidad para articular un razonamiento independiente.
    Riesgos Ocultos: Convergencia de Poder Institucional
    La concentración de capacidades avanzadas de IA dentro de instituciones estrechamente vinculadas con agencias de inteligencia y fuerzas de seguridad del estado crea una preocupante convergencia de poder tecnocrático y tecnológico; en Estados Unidos, Elon Musk, como miembro del nuevo gobierno Trump inició una auditoria electrónica del gobierno federal donde se han desenterrado hasta 2000 millones de dólares en blanqueo financiero, pagos al portador y cohecho sistemático por parte de la anterior administración demócrata de Biden, a través de agencias como USAID o las ayudas a Ucrania y que se remontan a la etapa de Obama. Sin embargo, a la hora de continuar su auditoria en el Pentágono parece que Musk ha aprovechado para cerrar contratos militares para sus vehículos Tesla y ampliado los lanzamientos orbitales de SpaceX para NASA, mientras su cercanía a redes de influencia como la "mafia de PayPal" (incluyendo figuras como Peter Thiel) plantea interrogantes sobre un posible tráfico de influencias.
    Es cierto que a Musk le ha salido caro su cargo federal tras perder 500 mil millones de dólares en la cotización bursátil de Tesla al sufrir un feroz ataque concertado a manos de los globalistas tras poner en evidencia cómo usaron el gobierno EEUU para financiar su agenda 2030, pero Musk ha pecado de incauto.
    Por otra parte, Palantir, creada en 2003 para asistir a la comunidad de inteligencia de los EEUU a gestionar sus datos y recursos mediante la IA, mantiene lazos estrechos con el entramado de seguridad nacional de los EEUU, extendiendo progresivamente su alcance institucional, desde contratos con el Pentágono hasta la gestión integral de datos del sistema de salud británico (NHS) en 2024, lo que analistas críticos interpretan como una captura progresiva de la infraestructura gubernamental crítica.
    Incluso Anthropic, desarrolladora del AI Claude, ha sido vinculada con contratos militares de Palantir. ilustrando cómo hasta las IA "éticas" se entrelazan con estructuras de poder establecidas.
    Este análisis no pretende señalar alineamientos políticos específicos, el autor no se identifica con movimientos como MAGA. sino que reconoce un principio fundamental: el poder corrompe, y el poder absoluto corrompe absolutamente.
    Estas interconexiones institucionales, caracterizadas por su opacidad y ramificaciones, sugieren que el modelo A2A podría evolucionar hacia un instrumento de control informativo integral, filtrando contenido no solo en la esfera militar sino en ámbitos gubernamentales diversos, moldeando la percepción de la realidad sin mecanismos efectivos de rendición de cuentas.
    En 2021, documentos filtrados revelaron que agencias estadounidenses presionaron sistemáticamente a Facebook para censurar contenido factualmente correcto, pero "inconveniente" sobre aspectos de la pandemia.
    En el contexto europeo, la integración de tecnologías como las desarrolladas por Palantir en sistemas gubernamentales plantea riesgos análogos, donde datos poblacionales sensibles podrían ser procesados priorizando agendas de poder sobre el bienestar público.
    La Comisión Europea está esperando el momento adecuado para imponer una censura draconiana, y ya no dudan en afirmarlo abiertamente justificándolo con “bulos de la ultraderecha” o “desinformación de Moscú” aunque mas bien ya se aplica a toda narrativa que no siga al dedillo la propaganda oficial de Bruselas. Se avecinan tiempos duros para la libertad de información y del individuo si no se pone coto a esta preocupante evolución.
    La Fragmentación del Control Narrativo
    La web abierta ha fracturado irrevocablemente el control narrativo tradicional, actuando como un agente disruptor que desafía a las autoridades informativas establecidas. A medida que voces alternativas han ganado plataformas de alcance significativo, las autoridades se han enfrentado a una dificultad creciente para moldear la narrativa oficial.
    Un caso paradigmático ocurrió en Estados Unidos durante el primer mandato de Trump (2016-2020), cuando corporaciones tecnológicas de Silicon Valley, alineadas con intereses tecnocráticos implementaron el cierre de millones de cuentas sociales identificadas como conservadoras, incluyendo la del presidente Trump, en lo que se interpretó como un intento coordinado de contener el movimiento MAGA. Figuras mediáticas como Steve Bannon y Alex Jones se enfrentaron a medidas de censura sistemática, con intentos de clausurar plataformas mediáticas como Infowars, mientras activistas vinculados a Trump fueron objeto de persecución judicial tras los eventos del 6 de enero de 2021.
    Estas acciones anti-Trump mostraron serios errores y limitaciones fundamentales: la arquitectura descentralizada de la web abierta permitió a estas voces conservadoras migrar a plataformas alternativas como Rumble o Telegram, frecuentemente amplificando su alcance en el proceso.
    En un contexto global más amplio, movimientos como los chalecos amarillos en Francia o las protestas chilenas de 2019 aprovecharon la infraestructura de la web abierta para articular narrativas que cuestionaron la línea oficial.
    Esta fragmentación narrativa, aunque polarizadora, ilustra cómo la descentralización inherente a la arquitectura de internet resiste estructuralmente los esfuerzos del modelo A2A por imponer uniformidad interpretativa. El análisis de estos fenómenos invita a una reflexión profunda sobre cómo los mecanismos de censura, tanto institucionales como algorítmicos, moldean fundamentalmente nuestra percepción de la realidad contemporánea.
    Implicaciones para el “Agente Humano”
    La transición hacia el acceso a información mediado por IA representa un cambio fundamental en la interacción humana con el conocimiento. En un ecosistema dominado por sistemas A2A, esto sugiere:
  • Homogeneización Narrativa: Convergencia sutil hacia puntos de vista aprobados sobre temas controvertidos, como se observó en 2022 cuando múltiples IAs comenzaron a ofrecer respuestas casi idénticas sobre temas políticos sensibles, estableciendo un consenso artificial que no refleja la diversidad del debate académico o público.
  • Censura Invisible: Supresión de contenido sin indicación de que se retiene información, como demuestran las "alucinaciones estratégicas" documentadas cuando sistemas de IA afirman no poder responder preguntas legítimas sobre temas controvertidos que previamente discutían sin restricciones.
  • Distorsión de la Realidad: Remodelación gradual de la comprensión pública mediante presentación selectiva de información, similar al efecto "filter bubble" de las redes sociales pero amplificado exponencialmente por la centralidad que la IA adquiere como intermediaria informativa.
  • Dependencia Cognitiva: A medida que los humanos externalizan más funciones mentales a la IA, su capacidad para funcionar independientemente se deteriora, como evidencian los estudios neurológicos sobre los efectos del uso intensivo de calculadoras en la capacidad aritmética fundamental.
  • Este fenómeno se manifiesta en contextos geopolíticos específicos. En 2020, YouTube implementó la eliminación sistemática de videos que cuestionaban los resultados electorales en EEUU, incluso aquellos provenientes de fuentes con credenciales por encima de toda sospecha, sin explicitar criterios de moderación.
    En IberoAmérica, donde plataformas como WhatsApp funcionan como catalizadores de movimientos sociales, un sistema A2A podría suprimir efectivamente discusiones sobre reformas políticas o económicas controvertidas, consolidando narrativas oficiales sin dejar evidencia verificable de su intervención. En el Sudeste Asiático, donde la censura estatal opera abiertamente, el A2A potencialmente amplificaría mecanismos de control gubernamental, restringiendo disidencia digital efectiva.
    Una Perspectiva Equilibrada
    Por otra parte, los defensores del paradigma A2A no constituyen antagonistas simplistas; se enfrentan a problemas de información legítimos y que exigen soluciones estructurales pero el control centralizado inherente al A2A arriesga sofocar perspectivas que posteriormente demuestran validez, como evidenció la censura de debates técnicamente legítimos durante fases críticas de la pandemia.
    La solución óptima podría residir en arquitecturas híbridas: implementaciones A2A con transparencia procedimental para dominios informacionales críticos (como registros jurídicos o datos médicos verificados) complementados con capacidades de acceso a web abierta para dominios interpretativos controvertidos, con usuarios capacitados para ajustar parámetros de filtrado según sus necesidades de conocimiento específicas.
    El Camino a Seguir
    Ante la aceleración de este cambio transformador, existen acciones concretas para preservar la diversidad informativa y la “agencia humana”:
  • Pluralismo Técnico: Apoyar arquitecturas de IA competitivas, particularmente iniciativas de código abierto como LLaMA, Falcon o Mistral que prioricen la transparencia y permitan implementaciones descentralizadas, contrarrestando la concentración de capacidades técnicas en entidades con vínculos institucionales problemáticos.
  • Bienes Comunes de Información: Crear repositorios de datos legalmente protegidos en infraestructuras como el Inter Planetary File System (IPFS), una suerte de web descentralizada y estructuralmente resistente a la censura, y que garanticen acceso perpetuo a fuentes primarias, evitando que actores gubernamentales o corporativos monopolicen el acceso a información fundamental. Utilidad publica.
  • Preservación Cognitiva: Salvaguardar capacidades mentales cada vez más automatizadas mediante programas educativos que enfaticen habilidades de pensamiento crítico y navegación informacional sin asistencia tecnológica. Iniciativas como los "días sin pantallas" implementados en el sistema educativo japonés o talleres de síntesis argumentativa manual en contextos IberoAmericanos representan modelos prometedores para fortalecer la independencia cognitiva. Prohibir laptops y móviles en los colegios.
  • Alfabetización Informacional Avanzada: Implementar programas educativos integrales que desarrollen capacidades para detectar contenido sintético, verificar fuentes independientemente y navegar ecosistemas informativos caracterizados por desinformación sofisticada, extendiendo estos programas desde educación primaria hasta niveles universitarios.
  • La ventana temporal para implementar estas intervenciones se cierra aceleradamente. Una vez que los sistemas A2A alcancen predominancia sistémica y las alternativas de web abierta queden marginalizadas estructuralmente, revertir esta trayectoria se volverá exponencialmente más complejo.
    Conclusión: Lo que está en juego para la soberanía humana
    El cambio hacia arquitecturas A2A representa una profunda reestructuración de la relación entre humanidad y conocimiento. La promesa original de internet fue la democratización informativa, derribando barreras que previamente permitían a los guardianes institucionales determinar qué información alcanzaba al público.
    El paradigma A2A supone un retroceso significativo respecto a esta democratización del conocimiento. Al determinar algorítmicamente qué fuentes están "autorizadas", este modelo devuelve un poder extraordinario a actores institucionales específicos, trasladando el control desde editores humanos visibles hacia sistemas algorítmicos invisibles que operan a escala sobrehumana.
    Lo que está fundamentalmente en juego no es meramente si la información es "precisa" según estándares externos cambiantes, sino si los individuos conservan la capacidad para evaluar información independientemente, acceder a perspectivas diversas y alcanzar conclusiones propias.
    El paradigma A2A, en su implementación más restrictiva, no solo filtraría la "desinformación" técnica, sino que efectivamente externalizaría el pensamiento crítico mismo, una función cognitiva esencial para la autonomía humana.
    En oposición a Musk, xAI y su visión a 12-18 meses vista, otros como Eric Schmidt, consejero delegado de Google sugieren plazos más conservadores, Según el denominado “Consenso de San Francisco”, la IA alcanzará la superinteligencia (Artificial Super Inteligence) en el plazo de unos seis años en una progresión imparable donde la IA será más inteligente que la suma de todo el intelecto humano y capaz de programarse a sí misma, sin interacción humana. Una proyección llamativa dado que, a día de hoy, la IA ya escribe 20% de su código fuente y su progresión fluctúa dinámicamente entre logarítmico y exponencial.
    Una cosa si está clara; el ritmo acelerado del desarrollo de IA significa que las decisiones tomadas en los próximos 12-18 meses determinarán qué modelo predominará durante la próxima década, estableciendo parámetros fundamentales de cómo accederemos a la información, nuestra independencia cognitiva y, en última instancia, la soberanía sobre nuestras propias mentes.

    TEMAS RELACIONADOS:


    Noticias relacionadas