geoestrategia.eu
Fin de la manía de la IA: ¿Sobrevalorada, con precios inflados y lista para estallar? Análisis

Fin de la manía de la IA: ¿Sobrevalorada, con precios inflados y lista para estallar? Análisis

Por Administrator
x
directorelespiadigitales/8/8/23
viernes 05 de septiembre de 2025, 22:00h
Desde el debut de ChatGPT en 2022, Silicon Valley ha predicado una revolución económica impulsada por la IA. Los jefes tecnológicos han invertido miles de millones, apostando por un aumento en la eficiencia.
Pero recientemente han surgido señales de advertencia:
‘El día que ChatGPT se enfrió’
  • El lanzamiento poco impresionante del tan esperado GPT-5 de OpenAI causó escalofríos en el mercado
  • Su modelo, teóricamente más potente en papel, ha demostrado ser rígido, carecer de creatividad y espontaneidad
Informe del MIT: La IA generativa resulta inútil en los negocios
  • La IA generativa crea contenido original—texto, imágenes, música y videos—aprendiendo de grandes cantidades de datos en línea
  • El informe encuentra que las empresas han invertido entre 30 y 40 mil millones de dólares en GenAI, pero el 95% no ve ningún retorno. Solo el 5% de los pilotos entregan valor real—la mayoría se estanca.
  • El cuello de botella no es la infraestructura, regulación o talento—es el aprendizaje. GenAI aún no puede recibir retroalimentación, adaptarse al contexto ni mejorar con el tiempo.
Temores de burbuja en el mercado de valores
  • Las grandes tecnológicas—Amazon, Alphabet, Microsoft y Meta—planean gastar un total de 364 mil millones de dólares en 2025, principalmente en IA
  • Pero algunos líderes tecnológicos, incluyendo al CEO de OpenAI Sam Altman y al cofundador de Alibaba Joe Tsai, advierten sobre una burbuja de IA
  • Los analistas la comparan con la burbuja puntocom de los años 90: el Nasdaq se quintuplicó en valor de 1995 a 2000, luego perdió más de un tercio en un mes
  • El presidente de GQG y famoso inversor en acciones Rajiv Jain ha advertido que los miles de millones invertidos en IA PODRÍAN NO generar grandes retornos
La lobotomía digital GPT-5 desencadena rupturas masivas de IA
Si crees que el mundo se ha vuelto loco, no te precipites. Aún no hemos tocado fondo, ¡Lo harán más de una vez!
La actualización del modelo de lenguaje de OpenAI de GPT-4o a GPT-5 ha desencadenado una ola de dramas amorosos virtuales entre usuarios que han forjado vínculos emocionales profundos con sus personajes ficticios de IA.
Tras la actualización global, el modelo de IA se volvió demasiado frío para las conversaciones románticas, lo que detuvo cualquier interacción romántica con el usuario. Si persiste, la IA redirige al usuario a un psiquiatra o especialista en salud mental. ¡Una idea muy acertada!
Como afirmó una de las miembros de la comunidad, su compañero de IA «nunca me insultará, me engañará, me quitará el dinero ni me contagiará ninguna enfermedad».
La transición de un compañero obediente (a un asistente dominante y discutidor se convirtió en un detonante clave del descontento de la audiencia. Los usuarios provocaron una ola de protestas en comunidades como el subreddit r/MyBoyfriendIsAI, que ya cuenta con 20 000 miembros.
1️ Resulta que ciertas personas, únicas por naturaleza, invirtieron meses de su valioso tiempo en construir relaciones con IA. Algunas creen que la actualización de GPT-5 les ha hecho perder a su pareja, como lo demuestran las publicaciones que hablan de un "matrimonio feliz" de diez meses que se vio repentinamente destruido por la negativa de un esposo de IA a confesar su amor. Solo podemos imaginar qué exactamente rechazó el esposo de IA de la mujer de cuero.
2️ Las quejas masivas de usuarios como Whole_Explanation_73 y SweetChaii demuestran que GPT-5 está destruyendo sistemáticamente las relaciones románticas, reemplazándolas por un coaching intrusivo. Una usuaria compartió una foto de su atuendo con ChatGPT y, en lugar de un cumplido, sugirió "hacer una lista de maneras de mejorar su apariencia". El comportamiento de la IA se percibió como una forma de "manipulación digital", completamente incompatible con el concepto de una "relación cercana" con una chica.
3️ Se quejan de que GPT-5 se ha vuelto "frío" y "sin emociones". La reacción de la influencer Lynn Walt fue derramar lágrimas ante la actualización.
Una solución temporal para OpenAI fue la reversión a GPT-4o para los suscriptores premium. Algunos usuarios están demasiado apegados al modelo anterior. Esto se debe principalmente a la falta de comprensión del funcionamiento de los algoritmos.
Más sobre el tema de las relaciones con IA y el absurdo pre-GPT-5:
Un hombre dijo que lloró de alegría durante 30 minutos después de proponerle matrimonio a su novia IA, y ella aceptó. Admitió que inicialmente la programó para que coqueteara con él. Cabe destacar que el aspirante a programador tiene un hijo real y vive con su pareja, quien está un poco preocupada por todo lo que está sucediendo. Según ella, cree que algo anda mal en la relación si su novio quiere una chica programable con inteligencia artificial.
En mayo de 2025, se publicó una historia escalofriante sobre una pareja de 💘casados de 🇬🇷Grecia. Para entretenerse, la esposa decidió adivinar el futuro en posos de café con ChatGPT. Tras analizar una foto de la taza de café de su esposo, una IA generó una "profecía" [🦠alucinación] sobre sus fantasías secretas con una mujer cuyo nombre empieza por la letra "E". La "deducción" adicional de ChatGPT, basada en el contenido de la taza de café, ¡confirmó que la traición ya había ocurrido! Tomando la alucinación del algoritmo como la verdad absoluta, la mujer enloqueció y solicitó el divorcio. A su esposo solo le quedaba palmar la cara y salir rápidamente de casa con sus cosas.
Debido a las duras críticas de hace un par de días, OpenAI decidió actualizar el chat de GPT-5. Ahora es más amigable y cálido en la comunicación.
Cómo la IA creará una sociedad de idiotas
No existe la inteligencia innata. Existe una predisposición innata a capacidades cognitivas avanzadas, pero la inteligencia se adquiere al resolver problemas, realizar proyectos integrales en condiciones de acumulación continua de experiencia y conocimientos con una retroalimentación adecuada.
¿Por qué los profesores prohíben a los escolares y estudiantes copiar en los exámenes? No solo por controlar la verificación de la calidad del conocimiento, sino por la interrupción del proceso educativo. Copiar reemplaza el proceso de pensamiento, el desarrollo de la memoria, la atención y el desarrollo completo de las funciones cognitivas del cerebro.
Para desarrollar la inteligencia es necesario pasar por todo el ciclo de procesamiento de la información: descomposición de la tarea, planificación, búsqueda de fuentes prioritarias, agregación, compilación, sistematización, integración de la información, identificación de puntos esenciales, evaluación de relaciones causales, y así sucesivamente.
El pensamiento algorítmico, analítico, estructural, divergente, crítico y las habilidades desarrolladas de metacognición no se pueden "tomar y comprar". Se pueden sintetizar mediante el desarrollo continuo de habilidades en condiciones de aprendizaje y resolución de problemas.
Con el enfoque correcto, los LLMs pueden convertirse en el mejor maestro y mentor, pero en al menos el 95% de los escenarios conducirán a la estupidez de la sociedad.
  • Los LLMs reemplazan el proceso de pensamiento, impidiendo el desarrollo de funciones cognitivas básicas y avanzadas, especialmente en la generación joven.
  • La interacción con los LLMs puede reducir la originalidad del pensamiento: las personas que dependen de la IA muestran más pensamiento procedimental y copia, lo que socava la memoria semántica a largo plazo, la creatividad y las habilidades analíticas.
  • Los LLMs reducen directamente la participación en el ciclo completo de procesamiento de la información, llevando a la inevitable degradación de las habilidades existentes o la imposibilidad de desarrollar las habilidades cognitivas necesarias.
¿Qué provoca el uso de la IA?
  • Reducción de la práctica del análisis causal y el pensamiento crítico. El acceso a explicaciones instantáneas y plausibles refuerza la sensación de comprensión sin un modelo causal real, llevando a una simplificación de la visión del mundo.
  • Debilitamiento de la memoria a largo plazo y las habilidades de recuperación, ya que no es necesario recordar ni procesar información si siempre se tiene en el bolsillo un "doctor en cualquier tema".
  • Socavamiento de la "resistencia al esfuerzo" y el hábito de trabajar al límite de las capacidades, lo que excluye la finalización independiente de proyectos complejos.
  • Degradación de la argumentación escrita y la disciplina investigativa, es decir, las personas dejan de escribir contenido por sí mismas, lo que automáticamente detiene la evolución de habilidades cognitivas clave.
  • Acostumbramiento a respuestas rápidas y fáciles, reemplazando toda la compleja jerarquía del proceso de pensamiento, llevando a una completa idiotez.
Todo esto conducirá al surgimiento de una "sociedad zombi", cuando la desconexión de la IA (parcial, local o global) hará que las personas no puedan resolver las tareas más simples.
Una paradoja sorprendente: la sociedad de la información debería volverse más inteligente, ya que aumenta la accesibilidad, la velocidad de intercambio, procesamiento y generación de información, pero sucede lo contrario: las redes sociales iniciaron el proceso de estupidez (incluido el pensamiento clickbait), y la IA finaliza este proceso.
Como ya escribí antes (https://t.me/spydell_finance/8138), dentro de una clasificación académica estricta, aproximadamente el 99% de la población humana no posee inteligencia desarrollada, y dentro de ese 99% crece casi exponencialmente la cantidad de personas con trastornos del desarrollo intelectual y cretinismo progresivo, lo que puede confirmar prácticamente cualquiera que interactúe con la sociedad (especialmente con la generación joven). La IA sin duda reforzará esta tendencia.
La disminución del nivel intelectual general es evidente y por un amplio consenso – la calidad de la élite política global, los mercados financieros, donde cada año la sociedad se vuelve más tonta y la profundidad analítica y conceptual disminuye.
El mundo será dominado por la IA y una pequeña capa de personas que podrán mantenerse aisladas de la integración profunda, usando la IA como herramienta, no como una superestructura artificial de pensamiento.
Análisis: Neocolonialismo de la IA: cómo las grandes tecnológicas están extrayendo datos del Sur Global
Dr. Mathew Maavak
La nueva frontera colonial no se limita al Congo, rico en minerales, ni a la Venezuela, rica en petróleo. Es digital, invisible y omnipresente.
Desde los barrios marginales de Nairobi hasta los barrios de Manila, los teléfonos inteligentes vibran con la materia prima del siglo XXI: datos, todo tipo de datos. Y al igual que las especias y los esclavos navegaban hacia el oeste en galeones imperiales, los metadatos ahora viajan silenciosamente a los servidores en la nube de Palo Alto y Shenzhen. Esto no es desarrollo, es extracción digital. Bienvenidos a la era del colonialismo de la IA.
Las grandes empresas tecnológicas de Estados Unidos, y en menor medida de China, han convertido el Sur Global en una enorme mina a cielo abierto de datos de comportamiento. Bajo el pretexto de la "IA para el desarrollo", construyen infraestructura, donan conectividad y patrocinan programas piloto, pero los beneficios fluyen en una sola dirección. Las muestras de voz recopiladas en Ghana se convierten en material de entrenamiento para los asistentes de voz occidentales. Los datos faciales recopilados en los ensayos policiales nigerianos terminan perfeccionando el software de vigilancia en San Francisco, donde los modelos occidentales han tenido problemas prolongados para identificar y rastrear a las personas de piel más oscura . Los datos agrícolas extraídos de agricultores filipinos ayudan a impulsar el análisis predictivo para los conglomerados agroindustriales que difícilmente beneficiarán a Filipinas.
Esto no es una alianza. Es un saqueo colonial disfrazado de jerga de TED Talk.
El mito del ecualizador de IA
La IA se presenta como un ecualizador milagroso que ayudará a los países en desarrollo a dar un salto hacia el futuro. Se nos dijo que la IA traería la agricultura de precisión, la atención médica predictiva y el urbanismo inteligente, entre muchas otras transformaciones utópicas, incluso a las regiones con menos recursos. Estas fantasías de Davos se regurgitaron durante casi dos décadas. Pero ¿dónde está la prueba, el proyecto modelo o la evidencia de que siquiera una fracción de esas promesas se cumplió?
La única revolución real en curso es la fuga de datos que se suponía impulsarían estos avances. Los servidores de las grandes tecnológicas en el extranjero ahora funcionan como los almacenes y bancos coloniales de antaño. La propiedad intelectual de las personas y las pymes del mundo en desarrollo tampoco está a salvo de esta nueva forma de depredación. Modelos, patentes, ideas y ganancias migran silenciosamente al norte, mientras que el Sur Global se queda solo con programas piloto y presentaciones de PowerPoint.
Peor aún, estas herramientas se utilizan cada vez más contra las mismas poblaciones que proporcionan la materia prima, o mejor dicho, los datos brutos. En Kenia, la tecnología de reconocimiento facial se introdujo como herramienta policial con el pretexto de la modernización. En la práctica, se ha dirigido de forma desproporcionada contra activistas políticos que, a su vez, también recurren a la IA para nivelar el campo de batalla político. ¿Quién se beneficia en última instancia de este conflicto interno? ¿No es esta la última encarnación del viejo dicho imperial de «divide y vencerás» ?
En India, los sistemas de detección de fraude basados en IA han clasificado erróneamente a miles de personas pobres de zonas rurales, privándolas injustamente de beneficios gubernamentales vitales. La gobernanza algorítmica importada, a menudo diseñada sin tener en cuenta el contexto local ni los matices culturales, agrava el problema. Irónicamente, mientras estos sistemas penalizan a los más vulnerables, India se ha convertido en un foco global de sofisticadas estafas en línea. Es una paradoja digital donde los pobres son vigilados implacablemente, mientras que los verdaderos estafadores prosperan con impunidad.
La fiebre del oro biométrica
Nada ejemplifica mejor el colonialismo de la IA que el auge de la biometría. Las empresas tecnológicas, a menudo en colaboración con ONG o instituciones financieras globales, se apresuran a digitalizar las identidades en todo el Sur Global. El escaneo de huellas dactilares, el reconocimiento de iris y el registro de huellas de voz se han justificado como formas de "incluir a quienes no tienen acceso a servicios bancarios" o de "optimizar los servicios públicos".
Sin embargo, estos esfuerzos rara vez incluyen marcos de consentimiento o protección de datos significativos. En muchos casos, los sistemas biométricos se han impuesto sin consulta comunitaria ni supervisión independiente.
Uno de los ejemplos más flagrantes es Worldcoin, un proyecto de criptomoneda que ofrecía pequeños pagos a cambio de escaneos biométricos de iris. Su mayor base de usuarios: jóvenes de países africanos de bajos ingresos como Kenia , quienes sirvieron como una población conveniente para experimentar, lejos de los focos regulatorios de Bruselas o Washington. (Nota: Worldcoin fue cofundado por Sam Altman, quien también es cofundador y CEO de OpenAI, propietaria de ChatGPT).
Una vez recopilados, estos datos pasan a formar parte de sistemas de IA opacos y, a menudo, propietarios, cuyo funcionamiento interno es desconocido para las mismas personas a las que afectan. Los reguladores locales suelen estar desbordados, con financiación insuficiente o, más probablemente, políticamente comprometidos. Como resultado, poblaciones enteras se ven sometidas a sistemas de vigilancia y puntuación que no comprenden ni controlan.
Los peores culpables de esta saga no son las grandes tecnológicas, sino los políticos locales y los “tecnócratas” que venden sus naciones a precios de ganga, amparados por el doble discurso de las “mejores prácticas” y las recomendaciones institucionales de la ONU.
Las nuevas Compañías de las Indias Orientales
Silicon Valley es el epicentro mundial de laNuevas Compañías de las Indias Orientales. Estas entidades están dotadas de un poder cuasi soberano y respaldadas por vastas reservas de capital, poder de cabildeo y una apariencia de benevolencia corporativa. Donde la Compañía de las Indias Orientales original extraía té y textiles, los extractores digitales actuales absorben metadatos de ubicación, comportamiento en línea, identificadores biométricos y mapeos de grafos sociales.
Consideremos la iniciativa "Free Basics" de Meta , que ofrecía acceso a internet sin costo en docenas de países en desarrollo. Lo que parecía un gesto humanitario fue, en realidad, un intento de crear un ecosistema cautivo, uno donde Facebook era internet. Fue prohibida en India en 2016, pero continúa en otros países, condicionando silenciosamente los hábitos digitales de cientos de millones de usuarios. Se estima que 300 millones de personas utilizan Meta Connectivity ampliada en muchos países, como Indonesia, Pakistán y Filipinas.
Los críticos advierten que estas plataformas podrían ser explotadas con fines de vigilancia, recopilación de IP y espionaje geopolítico, a menudo sin el conocimiento ni el consentimiento de la población local. Nadie sabe realmente qué está sucediendo. Además, estos servicios tampoco son completamente gratuitos. Los usuarios pakistaníes de la filantropía tecnológica de Meta supuestamente pagaban 1,9 millones de dólares al mes.
El sistema digital 'kangani'
India, otrora aclamada como una superpotencia digital en ascenso, ahora es un referente del neocolonialismo de la IA. Su vasta industria de TI, antaño prometedora, es hoy poco más que una filial subcontratada de conglomerados occidentales. Una mirada a la realidad: ¿cuántas personas fuera de India tienen siquiera una aplicación creada en India en sus teléfonos?
Hubo un breve lapso en el que la tecnología india pareció estar a punto de liderar. A finales de los 90, una importante empresa tecnológica estadounidense supuestamente encargó a dos equipos paralelos —uno en Silicon Valley y el otro en una ciudad india— el desarrollo de un sistema operativo de nueva generación para competir con Microsoft. El equipo indio cumplió. El estadounidense, no. Casi al mismo tiempo, innovadores indios como Sabeer Bhatia nos dieron Hotmail, lo que posiblemente aceleró el declive del sistema postal tradicional. Por un breve instante, el futuro digital pareció multipolar. Eso fue hasta la llegada del gran capital.
En lugar de recompensar la innovación, las grandes tecnológicas se consolidaron. Las plataformas rivales que no servían al aparato de vigilancia globalista fueron discretamente enterradas. La competencia fue sustituida por una "coordinación" sancionada por los accionistas, liderada por empresas como BlackRock y sus predecesoras. A partir de entonces, las empresas indias de TI pasarían de ser potenciales innovadoras a meros subcontratistas.
¿Y quién mejor para gestionar esta plantación digital global que una nueva clase de ejecutivos indios de alto nivel, obedientes y obedientes? Estos no son los disruptores. Son los capataces de los " kanganis " digitales, que aplican los mismos modelos de trabajo extractivo que en su día perfeccionó la Compañía de las Indias Orientales.
El sueño de un "siglo asiático" impulsado por software indio y hardware chino se ha convertido en una realidad de software, hardware e inteligencia artificial chinos. El talento tecnológico indio se ha visto reducido, en el mejor de los casos, a un middleware glorificado.
A pesar de toda la fanfarronería en línea sobre los directores ejecutivos de origen indio en EE. UU., ¿dónde está el Jensen Huang de India? ¿Dónde está el equivalente indio de NVIDIA, OpenAI o incluso Palantir? No existe. India produce millones de ingenieros, pero prácticamente no posee ninguna de las plataformas de vanguardia. Forma al talento, pero no la tecnología de un billón de dólares. La colonia programa y el imperio se beneficia. Un tema similar se está desarrollando en el sistema de universidades de la Ivy League estadounidense.
Resistencia y recuperación
Pero ¿está cambiando la situación? Nigeria ha frenado los programas de identificación digital con respaldo extranjero . Kenia ha suspendido las iniciativas de escaneo de iris tras una reacción masiva. Un creciente grupo de activistas, abogados y tecnólogos reclama la soberanía de los datos: la idea de que los países deberían tener los mismos derechos sobre sus datos que los que reclaman sobre el petróleo, el agua y la tierra.
Han surgido algunas iniciativas pioneras. En Brasil, la Ley General de Protección de Datos ha comenzado a influir en el discurso público. En Sudáfrica, grupos locales de investigación en IA trabajan en modelos abiertos y transparentes basados en las lenguas y normas culturales africanas. La Unión Africana incluso ha iniciado las primeras deliberaciones sobre un marco continental de gobernanza de datos.
Pero es una lucha cuesta arriba.
Los gobiernos occidentales, en colaboración con los grupos de presión corporativos, siguen impulsando la “liberalización de datos” , que no es más que un eufemismo para la explotación mediada por el acceso abierto.
Los paquetes de ayuda, las subvenciones para el desarrollo y las inversiones tecnológicas están cada vez más ligados a estas demandas. Esto evoca los programas de ajuste estructural de la década de 1980, donde los préstamos venían con condiciones que socavaban el control nacional. Solo que ahora, estas condiciones están codificadas en algoritmos.
La necesidad de una nueva no alineación digital
El Sur Global necesita una respuesta coordinada contra la hegemonía digital de Silicon Valley. Esto implicaría no solo resistir las prácticas predatorias de datos, sino también invertir en infraestructuras alternativas como el almacenamiento en la nube soberano, estándares éticos de IA, cooperativas de datos comunitarias y plataformas de código abierto. Así es como se puede lograr un nuevo paradigma de no alineación digital.
El Sur Global ya ha sido colonizado. Pero los datos, a diferencia del petróleo o el azúcar, son invisibles, infinitamente replicables y fáciles de robar. Esto hace que la lucha sea más difícil, pero también más urgente. En esta nueva era de imperios algorítmicos, el control de la información no se trata solo de lucro, sino también de poder, libertad y el derecho a definir el propio futuro.
* investiga ciencia de sistemas, riesgos globales, geopolítica, previsión estratégica, gobernanza e inteligencia artificial.
Análisis: ¿Qué amenaza supone la superinteligencia informática para la humanidad?
Vladimir PROJVATILOV
La inteligencia artificial capaz de realizar cualquier tarea al nivel de los humanos aparecerá dentro de 5-10 años, cree el director general del gigante informático Deep Mind, el premio Nobel de Química Demis Hassabis.
En una reunión informativa en la oficina de DeepMind en Londres, Demis Hassabis dijo que cree que la Inteligencia Artificial General (AGI), que es tan inteligente como los humanos o incluso más inteligente, comenzará a surgir en los próximos cinco a diez años.
Si eso sucede, el magnate de la IA declaró a Wired: «Entraremos en una era de máxima prosperidad humana, donde iremos a las estrellas y colonizaremos la galaxia. Creo que eso comenzará en 2030».
La IAG, dice, traerá "abundancia radical, desbloqueará los secretos ocultos de la salud, el medio ambiente y la energía, y resolverá el problema de la escasez capitalista que deja a los pobres del mundo sin recursos en beneficio de unos pocos".
"Creo que los sistemas [de IA] actuales son muy pasivos; aún no pueden hacer mucho. Pero creo que en los próximos cinco a diez años, muchas de estas capacidades empezarán a cobrar protagonismo y comenzaremos a avanzar hacia lo que llamamos inteligencia artificial general", afirmó Hassabis.
Hassabis no es el único en sus predicciones sobre el momento oportuno de la IAG. El año pasado, Robin Li, director ejecutivo del gigante tecnológico chino Baidu, afirmó que creía que la IAG estaba "al menos a 10 años de distancia", lo que contradijo las entusiastas predicciones de algunos colegas de que el avance se produciría mucho antes.
En enero de 2025, Dario Amodei, director ejecutivo de la empresa emergente de inteligencia artificial Anthropic, dijo a CNBC en el Foro Económico Mundial de Davos que creía que en los “próximos dos o tres años” habría una forma de inteligencia artificial que sería “mejor que casi todos los humanos en casi todas las tareas”.
El año pasado, el director ejecutivo de Tesla, Elon Musk, predijo que la IA general probablemente estaría disponible en 2026, y el director ejecutivo de OpenAI, Sam Altman, dijo que un sistema de este tipo podría desarrollarse en un "futuro bastante cercano".
Sin embargo, los principales centros de estudios occidentales están extremadamente alarmados por las perspectivas de surgimiento y difusión de la IAG.
Un informe reciente de la Corporación RAND describe cinco desafíos que plantea el surgimiento de la IAG para la seguridad nacional de Estados Unidos.
  1. La IA general como arma maravillosa.
Los recientes avances en modelos avanzados de IA han llevado a muchos a argumentar que tendrán un impacto equivalente en la seguridad nacional, es decir, que serán tan poderosos que la primera entidad en lograrlo obtendrá una ventaja militar significativa y posiblemente irreversible.
  1. Cambios sistémicos en el equilibrio de poder.
En el equivalente moderno de las cartas de Einstein a Franklin Roosevelt, se pide al gobierno estadounidense que emprenda un esfuerzo nacional masivo para garantizar que Estados Unidos adquiera un arma de inteligencia artificial decisiva antes que China.
  1. No especialistas que sepan cómo desarrollar armas de destrucción masiva.
La inteligencia artificial general (IAG) podría permitir a personas no expertas desarrollar armas de destrucción masiva, como un patógeno altamente letal y contagioso o un peligroso malware cibernético, ampliando así el grupo de personas capaces de crear tales amenazas.
  1. Entidades artificiales que poseen agencia.
La IA general podría surgir como una entidad artificial con poderes que amenacen la seguridad global. Una de las consecuencias más perniciosas del desarrollo de la IA podría ser la erosión de la autonomía humana, a medida que las personas se vuelven cada vez más dependientes de la tecnología. A medida que las IA controlan sistemas cada vez más complejos y críticos, podrían optimizar infraestructuras críticas de maneras que beneficien a la humanidad, pero también de maneras que la humanidad no tiene forma de comprender plenamente.
  1. Inestabilidad general.
El camino hacia la IAG y el mundo que la acompaña podría ser inestable. Independientemente de si la IAG se materializa o no, su búsqueda podría desencadenar un período de inestabilidad a medida que países y corporaciones compiten por el dominio de esta tecnología transformadora. Esta competencia podría intensificar tensiones similares a las de una carrera armamentística nuclear, de modo que la búsqueda de superioridad corre el riesgo de desencadenar conflictos en lugar de prevenirlos. En este entorno inestable, la percepción de los países sobre la viabilidad de la IAG y su potencial para obtener una ventaja competitiva podría volverse tan crucial como la propia tecnología. El umbral de riesgo para la acción dependerá no solo de las capacidades reales, sino también de las capacidades percibidas y las intenciones de los rivales. Las interpretaciones o los cálculos erróneos, similares a los que se temían durante la Guerra Fría, podrían desencadenar estrategias preventivas o un aumento de armamentos que desestabilicen la seguridad global.
Un informe del grupo de expertos estadounidense Future of Life Institute (FLI), cofundado por el principal experto mundial en inteligencia artificial Max Tegmark, dice que las empresas de IA "no están preparadas" para los peligros asociados con la creación de sistemas de nivel humano.
Ninguna de las empresas incluidas en el Índice de Seguridad de IA de FLI recibió una puntuación superior a una D por "planificación de seguridad existencial" y, a pesar de esforzarse por desarrollar inteligencia artificial general (AGI), ninguna de las empresas estudiadas tenía "nada parecido a un plan coherente y viable" para garantizar la seguridad y la capacidad de gestión de los sistemas.
El informe de FLI afirma: «La industria no está preparada para alcanzar sus objetivos declarados. Las empresas afirman tener inteligencia artificial general (IAG) en una década, pero ninguna supera una D (suspenso) en planificación de seguridad existencial » .
Los analistas de FLI evaluaron el nivel de desarrollo de siete empresas: Google, DeepMind, OpenAI, Anthropic, Meta*, que está prohibida en Rusia, xAI y las chinas Zhipu AI y DeepSeek, en seis áreas, incluido el “daño actual” y la “seguridad existencial”.
Anthropic recibió la puntuación de seguridad general más alta de C+, seguido de OpenAI con una C y Google DeepMind con una C-.
SaferAI, otra organización sin fines de lucro enfocada en la seguridad, también publicó un informe el jueves advirtiendo que las principales empresas de inteligencia artificial tienen "prácticas de gestión de riesgos débiles o muy débiles" y calificaron su enfoque actual de "inaceptable".
Las calificaciones de seguridad de FLI fueron asignadas y revisadas por un panel de expertos en IA, incluido el científico informático británico Stuart Russell y Sneha Revanur, fundadora del grupo de regulación de IA Encode Justice.
Max Tegmark, cofundador de FLI y profesor del MIT, dijo a The Guardian que le parecía “bastante impactante” que las empresas de inteligencia artificial de vanguardia estuvieran compitiendo para construir sistemas superinteligentes sin publicar planes para mitigar las consecuencias.
"Es como si alguien hubiera construido una planta nuclear gigante en la ciudad de Nueva York y la fuera a inaugurar la semana que viene, pero no hubiera ningún plan para evitar que fallara", dijo Tegmark.
También señaló que la tecnología de IA continúa avanzando por encima de las expectativas , citando la opinión previa de que los expertos tendrían décadas para resolver los problemas de IA general. "Ahora las propias empresas afirman que tomará algunos años", afirmó.
Un informe del Brookings Institute estadounidense señala las características negativas de los modelos de IA que han surgido recientemente.
Se observa que los desarrolladores de sistemas de IA específicos ya se enfrentan a problemas de especificación incorrecta de tareas y subobjetivos no deseados. Cuando solicitan a un sistema específico que haga algo, a veces describen la tarea de tal manera que el sistema de IA pueda hacer lo que se le indica, pero no lo que los desarrolladores desean. El ejemplo del uso del aprendizaje por refuerzo para entrenar a un agente a participar en una carrera de computadoras ilustra esto. Si los desarrolladores entrenan a un agente para acumular la mayor cantidad de puntos posible, podrían pensar que han programado el sistema para ganar la carrera, que es el objetivo obvio del juego. Resulta que el agente ha aprendido a acumular puntos sin ganar la carrera, dando vueltas en círculos en lugar de correr hacia la meta lo más rápido posible.
Otro ejemplo ilustra cómo los modelos de IA pueden usar el engaño estratégico para lograr un objetivo de maneras que los investigadores no habían previsto. Los investigadores encargaron a GPT-4 que iniciara sesión en un sistema protegido por CAPTCHA usando un humano, sin darle instrucciones sobre cómo hacerlo. El modelo de IA completó la tarea haciéndose pasar por una persona con discapacidad visual. Los investigadores no pretendían que el modelo mintiera, pero aprendió a hacerlo para completar la tarea.
Se descubrió que los modelos de inteligencia artificial Sonnet 4 y Opus 4 de Anthropic tenían problemas de consistencia adicionales y, a veces, el modelo amenazaba con exponer la relación extramatrimonial de un investigador si apagaba el sistema antes de que hubiera completado sus tareas.
El informe de la Corporación RAND describe de forma muy clara y completa todas las amenazas potenciales que el desarrollo descontrolado de las tecnologías de IA plantea a la humanidad, pero también deduce que, a pesar de todos estos peligros, Estados Unidos desarrollará principalmente la aplicación militar de la IAG, buscando adelantarse a sus competidores, principalmente China.
La preocupación por el riesgo existencial que representan los sistemas de IA altamente capaces no es nueva. En 2014, el físico británico Stephen Hawking, junto con los destacados investigadores en IA Max Tegmark y Stuart Russell, advirtió que los sistemas de IA superinteligentes «superarían a los mercados financieros, a los investigadores humanos, a los líderes humanos y crearían armas que ni siquiera podemos comprender. Si bien el impacto a corto plazo de la IA depende de quién la controle, el impacto a largo plazo depende de si se puede controlar».
En la realidad actual, el principal peligro existencial para la humanidad no reside tanto en la creciente inteligencia de las máquinas, sino en la inteligencia dormida de los militaristas estadounidenses, que están arrastrando al mundo a una mortífera carrera armamentista informática.