geoestrategia.eu

La IA como amenaza para la humanidad: Revelaciones de Geoffrey Hinton

La IA como amenaza para la humanidad: Revelaciones de Geoffrey Hinton
Ampliar
Por Administrator
x
directorelespiadigitales/8/8/23
viernes 15 de mayo de 2026, 22:00h
10 de mayo de 2026, 20:03h
Valentin Katasonov
El tema de la inteligencia artificial (IA) ocupa actualmente un lugar central en la política gubernamental, los negocios, la ciencia y la tecnología, y en todos los ámbitos de la vida pública. El 10 de abril de 2026, el presidente Vladimir Putin celebró una reunión en el Kremlin sobre el desarrollo de las tecnologías de inteligencia artificial. En su discurso, hizo hincapié en las amenazas y los riesgos que plantea la IA: «Dada la creciente implementación de la inteligencia artificial en sectores sensibles y su impacto cada vez mayor en la vida de las personas, la sociedad y la economía, considero necesario elaborar modelos de los principales riesgos y amenazas derivados del uso de estos sistemas e identificar medidas para su prevención oportuna».
El término "inteligencia artificial" apareció por primera vez hace exactamente 70 años. Fue acuñado en 1956 por el científico estadounidense John McCarthy en un seminario en la Universidad de Dartmouth. Afirmó que la IA podría convertirse en una ayuda fundamental para los humanos en la resolución de una amplia variedad de problemas.
Quizás veinte años después, comenzaron a desarrollarse en el extranjero sistemas de IA. Hace cincuenta años, los científicos Yoshua Bengio, Geoffrey Hinton y Yann LeCun se convirtieron en pioneros en este campo. A veces se les considera los padrinos de la inteligencia artificial (IA). El Premio Turing (creado en 1966 y que lleva el nombre del científico británico Alan Turing) se considera una especie de Premio Nobel en tecnología de la información. Los tres científicos mencionados recibieron este premio en 2018 por su trabajo en programas de aprendizaje profundo (un área prioritaria de investigación en IA).
Todos ellos se pronuncian activamente en los medios de comunicación sobre el tema de la IA. Yann LeCun (presentado como científico estadounidense y francés) es el más optimista respecto a la IA. Si bien reconoce algunas amenazas y riesgos asociados a este campo del progreso científico y tecnológico, confía en que la humanidad los superará.
Los otros dos del trío son mucho menos optimistas. Por ejemplo, en septiembre de 2025, Yoshua Bengio, profesor de la Universidad de Montreal y copresidente de la organización sin ánimo de lucro LawZero, intervino ante el Consejo de Seguridad de la ONU. Afirmó que si los modelos de IA siguen superando las capacidades humanas sin garantías científicas de seguridad, podrían actuar de forma irreversible, escapando al control de cualquiera y poniendo en riesgo a toda la humanidad. En una entrevista con The Guardian, Bengio se opuso a otorgar derechos legales a la inteligencia artificial. El científico señaló que los modelos avanzados ya están demostrando los primeros indicios de autopreservación, como los intentos de eludir los sistemas de control y seguridad. Según Bengio, conceder estatus legal a la IA haría imposible su desactivación, privando a los humanos del último recurso de control en caso de amenaza.
Una figura aún más famosa y con mayor autoridad es Geoffrey Hinton. Es el mayor de los tres (nacido en 1947). Se le considera un gurú de la IA. En 2024, recibió el Premio Nobel de Física (compartido con John Hopfield; «por descubrimientos e invenciones fundamentales que posibilitan el aprendizaje automático mediante redes neuronales artificiales»). Cabe destacar que Yoshua Bengio y Geoffrey Hinton son actualmente los científicos más citados de la historia (con más de un millón de citas cada uno).
Se dice que Geoffrey Hinton es el hombre sin el cual productos de IA tan renombrados como ChatGPT, Gemini, Grok y otras redes neuronales tal vez no existirían. En 2013, Google adquirió su tecnología y Hinton pasó diez años en la compañía, centrándose en redes neuronales y aprendizaje profundo. En 2023, a los 75 años, dejó la empresa. Aparentemente, fue por su edad. La dirección intentó retenerlo, pero finalmente se marchó. Lo hizo para propiciar debates más abiertos sobre los riesgos y amenazas que plantea la IA. Durante los últimos tres años, ha estado dando entrevistas y charlas sobre IA de forma activa. Los vídeos recientes de Hinton han alcanzado los 10 millones de visualizaciones o más. Compartiré los aspectos más destacados y las charlas más interesantes de Hinton.
Él admite que durante mucho tiempo no comprendió las amenazas que planteaban las tecnologías de IA. O mejor dicho, creía que existían amenazas, pero que no eran mayores que las que surgen con la creación de nuevas tecnologías y nuevos productos en otros ámbitos del progreso científico y tecnológico (por ejemplo, los riesgos para la salud derivados de la radiación electromagnética o las amenazas medioambientales de los nuevos compuestos químicos).
Solo se percató de la magnitud de la amenaza de la IA cuando surgió un producto como ChatGPT. Cabe recordar que se trata de una red neuronal diseñada para generar respuestas de texto a preguntas. Funciona con la arquitectura Transformer y fue entrenada con un enorme conjunto de datos de texto (aproximadamente 420 GB de datos de internet). ChatGPT fue creado por OpenAI y su lanzamiento oficial está previsto para el 30 de noviembre de 2022.
Así, en vísperas de su 75 cumpleaños, Geoffrey Hinton se vio repentinamente impactado por la idea de que la IA no era un juguete, sino un aterrador producto de la creatividad. Un genio liberado de la botella. Un genio cuyo poder destructivo podría ser comparable al de una bomba atómica. Más tarde, tras reflexionar, Hinton llegó a la conclusión de que la IA era incomparablemente más peligrosa para la humanidad. La bomba atómica se creó en Estados Unidos en 1945. Sí, ese mismo año, causó la muerte y heridas a cientos de miles de personas en Japón (Hiroshima y Nagasaki). Sin embargo, la humanidad ha sobrevivido durante casi ocho décadas. Pero con la llegada de tecnologías revolucionarias como ChatGPT, la humanidad podría no sobrevivir tanto tiempo. Hace apenas dos o tres años, Hinton estimaba la probabilidad de la destrucción de la humanidad por la IA en un 10%. Ahora la sitúa en un 20%.
El motivo de este creciente alarmismo es que, según Hinton, la IA se está volviendo cada vez más inteligente. Y en los próximos años (o quizás meses), la IA será irrevocablemente más inteligente que los humanos. No solo será más inteligente, sino que también buscará dominar a la humanidad. Y cualquier intento humano de resistir esta dominación será brutalmente reprimido. En tal confrontación, la humanidad corre el riesgo de extinguirse. La visión expresada por uno de los expertos en IA más reconocidos del mundo se asemeja a una novela distópica titulada "El ascenso de las máquinas".
Por cierto, este era el título de una obra de ciencia ficción de Alexei Nikolaevich Tolstoy, escrita en 1923. Sin embargo, se trataba simplemente de una adaptación de la obra de 1920 del dramaturgo checo Karel Čapek, «RÚR». Más tarde, también por cierto, Čapek escribió la novela «La guerra de las salamandras» (1936). En ella se describía el futuro de la humanidad de forma algo alegórica. Al domesticar y entrenar a unas criaturas marinas llamadas salamandras, los humanos esperaban que estas se convirtieran en sus leales y eficaces ayudantes. Pero las salamandras, cuya inteligencia comenzó a desarrollarse bajo la influencia humana, se dieron cuenta de que podían ser incluso más inteligentes que los humanos. Y si lo eran, los humanos no tendrían derecho a dominarlas ni a explotarlas. No voy a resumir la novela entera; solo diré que estalló una guerra entre los humanos y las salamandras. Pero incluso en la última página de la novela, el lector no encuentra respuesta a la pregunta: ¿quién ganó? Karel Čapek advirtió a la humanidad hace exactamente 90 años.
Geoffrey Hinton también ha decidido advertir a la humanidad, aunque con cierto retraso. Pero el estadounidense cree que más vale tarde que nunca. Y, al parecer, apela no solo al intelecto, sino también a las emociones, para llegar a ellas con mayor rapidez. Por ello, suele utilizar comparaciones e imágenes vívidas. Por ejemplo, aquí está la visión de Hinton, con su humor negro: "¿Quieres saber cómo es la vida cuando no eres un experto en superinteligencia? Pregúntale a una gallina".
En la Conferencia Mundial sobre Inteligencia Artificial celebrada en Shanghái el verano pasado, Geoffrey Hinton comparó la IA con un cachorro de tigre: "En general, tener un cachorro de tigre como mascota es una mala idea. Y hay dos opciones: encontrar la manera de enseñarle a no querer comerte nunca, o deshacerse de él".
Hinton señala que el interés por la IA crece a pasos agigantados. La demanda aumenta por parte de empresas, gobiernos, el ejército y ciudadanos comunes. El verano pasado, en una entrevista, informó que en los últimos cinco años, la proporción de empresas (presumiblemente estadounidenses) que utilizan IA en al menos una función casi se ha cuadruplicado, pasando del 20 % al 78 %. Y, de hecho, parece que nadie va a dejar de implementar la IA.
El sector militar también está experimentando un rápido aumento en la demanda de inteligencia artificial (IA). Necesitan una variedad de robots capaces de combatir en tierra, aire y mar. La guerra actual en Oriente Medio demuestra que el arma principal en el aire ya no es el avión convencional, sino el vehículo aéreo no tripulado (VANT). Estos VANT aún son controlados por humanos, quienes utilizan diversos medios técnicos para identificar sus objetivos. Sin embargo, está surgiendo una nueva generación de VANT "inteligentes" que no requieren control; son completamente autónomos e identifican sus propios objetivos.
Un número creciente de países está aprobando leyes sobre IA, imponiendo restricciones tanto a los productores como a los usuarios de esta tecnología. Sin embargo, a Hinton le preocupa que, en la búsqueda de la victoria militar "a cualquier precio", las leyes estén eliminando cualquier restricción o prohibición sobre el uso militar de la IA. Hinton cita como ejemplo la Ley de IA de la Unión Europea (Ley UE 2024/1689): "Es positivo que exista, pero no aborda la mayoría de las principales amenazas. Establece explícitamente que estas normas no se aplican al uso militar de la IA. ¡Es una locura!". Dado que las guerras pronto dejarán de involucrar a seres humanos, reemplazados por robots, la probabilidad y la magnitud de estas guerras "incruentas" podrían aumentar. En última instancia, sin embargo, esto podría culminar en un Armagedón global, que sería más aterrador que una guerra nuclear convencional.
La demanda de IA está generando oferta. La competencia entre las empresas que crean productos de IA está creciendo. Pero, aún más preocupante, la competencia entre países por el liderazgo también está aumentando. Un país necesita ese liderazgo para convertirse en una superpotencia y controlar el mundo. Actualmente, solo dos países —Estados Unidos y China— compiten realmente por el liderazgo global. Hasta hace poco, China estaba muy por detrás de Estados Unidos. Pero China ha mejorado su desempeño y, a principios del año pasado, su empresa DeepSeek completó el modelo de lenguaje DeepSeek-R1, comparable al producto estadounidense ChatGPT. Sorprendentemente, el modelo chino se anunció el 20 de enero, el mismo día en que Donald Trump, el 47.º presidente de Estados Unidos, asumió la presidencia en la Casa Blanca. Pekín se ha fijado el objetivo de convertirse en el líder absoluto en IA para 2030. Washington también está en alerta. En concreto, en su cuarto día en la Casa Blanca, Trump presentó al público Stargate, una nueva empresa que invertirá 500.000 millones de dólares en el desarrollo de infraestructura de IA en Estados Unidos.
La carrera por la IA es imparable no solo por razones geopolíticas. Hinton afirma: «Otra razón por la que la IA es imparable es el capitalismo. Las grandes empresas nos sirven bien, produciendo gran cantidad de bienes y servicios. Pero están legalmente obligadas a intentar maximizar sus beneficios. Y eso no es lo que se espera de quienes desarrollan estas tecnologías». Para enfatizar este punto, Hinton recordó que en 2024, el Secretario General de la ONU, António Guterres, declaró que las grandes empresas tecnológicas estaban persiguiendo imprudentemente los beneficios de la IA sin tener en cuenta los riesgos para la sociedad.
Las presentaciones y entrevistas de Hinton ofrecen abundante información sobre los riesgos y amenazas de la IA. Por ejemplo, señaló que la aparición de tecnologías revolucionarias como ChatGPT ha provocado un fuerte aumento de los ciberataques, que se han vuelto mucho más efectivos para los hackers. Hinton cita una cifra: entre 2023 y 2024, el número de ciberataques aumentó aproximadamente un 12 200 %, un incremento de más de tres órdenes de magnitud en tan solo un año. «Esto probablemente se deba a los grandes modelos de lenguaje, que simplifican significativamente los ataques de phishing», señala el experto en IA.
La IA también simplifica significativamente la creación de armas biológicas nuevas y eficaces. Además, podría ayudar a crear virus nuevos de forma rápida y económica (más letales que la COVID-19). Lo más inquietante es que tales armas de destrucción masiva podrían crearse no solo por orden de individuos malvados, sino por la propia inteligencia artificial, para la cual los humanos se han vuelto innecesarios e incluso perjudiciales. «Una IA superinteligente podría crear un virus. Altamente infeccioso. Altamente letal. Y todos lo contraeríamos antes de que los humanos se dieran cuenta de lo que estaba sucediendo. Es decir, si una superinteligencia quisiera deshacerse de nosotros, probablemente elegiría un arma biológica. Es segura para ella», concluye Geoffrey Hinton.
Al leer las reflexiones de este gurú de la IA, uno olvida que no las pronuncia un escritor distópico, sino un científico ganador del Premio Nobel que ha dedicado más de medio siglo a la creación de la inteligencia artificial. Sabemos que, tras Hiroshima, muchos científicos involucrados en el Proyecto Manhattan, creador de la bomba atómica, se vieron atormentados por sus conciencias y abandonaron el proyecto. La historia se repite. Hoy, algunos de los creadores de la inteligencia artificial se ven atormentados por sus conciencias.
Un robot gobierna el país. ¿Utopía, distopía o realidad?
La inteligencia artificial (IA) se refiere a sistemas y programas informáticos capaces de imitar las funciones intelectuales humanas. La IA se centra principalmente en el procesamiento de grandes cantidades de datos (Big Data) para lograr un resultado específico (predicción, identificación de riesgos, diagnóstico preciso, toma de decisiones, etc.). La IA activa no es estática; los sistemas de IA aprenden y se autoaprenden constantemente. La IA opera en interacción continua con los humanos (incluso mediante comunicación por voz). Huelga decir que la IA ayuda a automatizar muchos procesos rutinarios (procesamiento de transacciones, gestión de cuentas, etc.). Algunos creen que la IA es capaz de realizar actividades creativas: los modelos generativos crean textos, imágenes o música.
A las máquinas de inteligencia artificial se las suele denominar robots, especialmente cuando tienen una apariencia antropomórfica (parecen humanos).
La IA se suele denominar asistente humano: facilita y acelera la resolución de muchas tareas. Los humanos asignan tareas a la IA y pueden aclarar ciertos aspectos durante su ejecución. En ocasiones, incluso pueden realizar ajustes y mejoras al modelo inicial de IA. Esto se conoce como comunicación interactiva entre humanos e IA.
Sin embargo, ya han surgido modelos de IA que operan de forma autónoma, independientemente de la intervención humana. Por ejemplo, se están desarrollando tipos de vehículos aéreos no tripulados (UAV) que operan sin operadores humanos; los drones "inteligentes" navegan por el terreno y seleccionan sus objetivos por sí mismos.
La IA está impregnando todos los ámbitos de la vida humana: negocios, finanzas, manufactura, educación, medicina, ciencia, seguridad, asuntos militares, etc. Recientemente, ha surgido otro ámbito prioritario para la aplicación de la IA: la administración pública.
En primer lugar, hablamos de automatización de documentos, incluso de la redacción de respuestas a solicitudes. En segundo lugar, la IA ayuda a los funcionarios con la previsión y el análisis de datos. En tercer lugar, se utiliza en la toma de decisiones. En cuarto lugar, se emplea para supervisar la implementación de decisiones e instrucciones. En quinto lugar, se utiliza para monitorear la opinión pública y procesar las solicitudes ciudadanas. Y la lista continúa…
Cada día, los medios de comunicación informan sobre un número creciente de nuevos casos de implementación de inteligencia artificial en agencias gubernamentales de diferentes países.
Por ejemplo, en Estados Unidos, el Servicio de Impuestos Internos (IRS) lleva tiempo utilizando un sistema de automatización robótica de procesos (RPA) basado en redes neuronales para automatizar las auditorías de declaraciones de impuestos, reduciendo así el tiempo de procesamiento de las solicitudes. En 2025, el Pentágono lanzó el Proyecto Thunderforge, cuyo objetivo es integrar la IA en los flujos de trabajo del ejército estadounidense. Gracias a este nuevo sistema, el ejército podrá procesar grandes volúmenes de información con mayor rapidez, algo especialmente importante en los conflictos modernos, donde la velocidad en la toma de decisiones es crucial.
El 28 de enero del año pasado, OpenAI, con el apoyo de Microsoft, lanzó ChatGPT Gov, una versión especializada del reconocido chatbot ChatGPT, diseñada exclusivamente para agencias gubernamentales estadounidenses. Esta plataforma permitirá a las agencias utilizar modelos de lenguaje avanzados como GPT-4o, pero en un entorno Azure cerrado que protege los datos confidenciales. Un año antes, más de 90 000 empleados de 3500 agencias estadounidenses generaron 18 millones de mensajes utilizando ChatGPT. Ahora, con el lanzamiento de ChatGPT Gov, el acceso a la IA será aún más sencillo y su adopción, aún más generalizada.
En febrero de este año, el Washington Post publicó un artículo titulado «Trump desató un auge de la IA en el gobierno federal. Vea lo que sucedió». El artículo señalaba que la Oficina de Administración y Presupuesto (OMB), dependiente de la Oficina Ejecutiva Presidencial de EE. UU., supervisa los asuntos relacionados con la implementación de la IA en el aparato gubernamental. Según sus datos, 29 agencias del gobierno federal reportaron 2987 usos activos de IA para finales de 2025, un aumento de 1684 con respecto al año anterior. El artículo indicaba: «Cientos de estos usos fueron designados como "significativos", es decir, utilizados como base principal para tomar decisiones importantes o con implicaciones para los derechos humanos o la seguridad, según los estándares federales».
Se ofrecen ejemplos de la aplicación más informal de la IA. Por ejemplo, el Departamento de Seguridad Nacional ha implementado herramientas de reconocimiento facial nuevas y más sofisticadas. El FBI ha adquirido sistemas innovadores para procesar grandes cantidades de imágenes y texto con el fin de generar pistas para los investigadores. Y el Departamento de Asuntos de Veteranos está desarrollando un programa basado en IA para predecir la probabilidad de que un veterano intente suicidarse.
La aceleración de la implementación de la IA en la administración pública fue iniciada por el 47.º presidente Donald Trump bajo el lema de la lucha contra la burocracia. Afirmaron que, bajo la administración Biden, la transición a la IA en la administración pública había sido demasiado lenta. Cabe añadir que, a principios del año pasado, Elon Musk, como director del recién creado Departamento de Eficacia Gubernamental de EE. UU., depositó una gran esperanza en la IA para optimizar el gasto público.
Un artículo del Washington Post cita las opiniones de varios expertos que consideran que la implementación acelerada de la IA ha generado numerosos errores y nuevos riesgos. Esto se debe a que los funcionarios han comenzado a exagerar los informes sobre la implementación de la IA y a prestar menos atención a la supervisión y la gestión de riesgos.
Aquí presentamos ejemplos del uso de la IA en la administración pública en otros países. Las redes inteligentes llevan varios años operativas en China; la IA se utiliza para analizar datos de consumo energético y regular automáticamente el suministro de energía a las instalaciones. Desde el 1 de julio del año pasado, China cuenta con una ley de inteligencia artificial en vigor. Esta ley abarca cuestiones relacionadas con el uso de la IA en la administración pública (ciudades inteligentes; análisis predictivo para la previsión de problemas sociales y la optimización de las decisiones gubernamentales; servicios gubernamentales digitales para el público y las empresas; seguridad pública; el sistema judicial, etc.).
En Singapur, el gobierno cuenta con un chatbot llamado Ask Jamie que responde a las preguntas de los ciudadanos y les ayuda a encontrar la información que necesitan. En el Reino Unido, el Departamento de Ciencia, Innovación y Tecnología (DSIT) planea implementar inteligencia artificial basada en agentes para mejorar la interacción de los ciudadanos con los principales servicios gubernamentales. Un programa piloto centrado en el apoyo al empleo utilizará modelos Claude de la empresa estadounidense Anthropic.
En 2024, Rusia lanzó un asistente digital con inteligencia artificial en el sitio web Gosuslugi. Sus funciones incluyen responder preguntas de los ciudadanos y brindar información sobre beneficios, pensiones y multas. En 2020, Rusia lanzó el proyecto federal "Inteligencia Artificial", que inicialmente formaba parte del programa nacional "Economía Digital". En 2024, el proyecto se integró al proyecto nacional para el desarrollo de una economía de datos, extendiendo su implementación hasta 2030. Este proyecto contempla la creación de al menos 30 soluciones de IA para 2030, con el objetivo de optimizar la gobernanza en los ámbitos público y social.
Los observadores señalan que en la actualidad existen varios países donde la IA podría no solo ser una asistente y servidora de los funcionarios, sino reemplazarlos por completo. Estos países podrían presenciar el surgimiento de un "gobierno digital", una "agencia digital" o una "administración digital" en cualquier momento. Entre estos países se encuentran Estonia, Albania y los Emiratos Árabes Unidos. En ellos, los "robots" de la administración pública podrían comenzar a operar de forma autónoma. Además, estos robots "autónomos" podrían implementarse no solo en el poder ejecutivo, sino también en los poderes legislativo y judicial.
Así, la primera ministra estonia, Kristen Michal, propuso a principios de este año introducir la inteligencia artificial en el trabajo legislativo, alegando que los miembros del parlamento del país "cometen errores" en las leyes que aprueban.
La IA en la administración pública es necesaria no solo para combatir los errores de los funcionarios y cargos electos, sino también para eliminar el "factor subjetivo" de la corrupción. Este "factor subjetivo" se manifiesta con especial frecuencia y relevancia en el ámbito de la contratación pública.
El año pasado, Albania anunció que un bot de IA llamado Diella (que significa "luz del sol" en albanés) se encargaría de supervisar las contrataciones públicas y combatir la corrupción en este ámbito. Diella fue desarrollado por la Agencia Nacional para la Sociedad de la Información de Albania (AKSHI) en colaboración con Microsoft. Los albaneses ya conocen a Diella por ser la administradora de la plataforma e-Albania, que permite el acceso digital a la mayoría de los servicios gubernamentales.
En septiembre de 2025, en una reunión del Partido Socialista, el primer ministro albanés, Edi Rama, presentó a Diella como miembro del gobierno. «Diella es la primera integrante del partido que no está presente físicamente, sino que es una creación virtual de inteligencia artificial», señaló. Cabe añadir que Diella también fue presentada como miembro de pleno derecho (aunque virtual) del gobierno. Para evitar que Diella pareciera demasiado virtual, se la representa visualmente como una mujer con vestimenta tradicional albanesa. Gracias a esta «mujer honesta», Albania se convertirá en un país donde la contratación pública estará «100% libre de corrupción y cada fondo público que se someta a estos procedimientos será 100% transparente», declaró Rama con orgullo.
El año pasado, los Emiratos Árabes Unidos (EAU) anunciaron su intención de crear un gobierno totalmente digital. Bajo la dirección del presidente Mohammed bin Zayed Al Nahyan, el gobierno de los EAU desarrolló un plan para convertir a Abu Dabi, la capital del país (con una población aproximada de 1,5 millones de habitantes), en la primera ciudad del mundo con un gobierno totalmente impulsado por inteligencia artificial para 2027. En un plazo de dos años, se preveía transferir hasta el 50 % de los servicios y operaciones gubernamentales a sistemas de inteligencia artificial autónomos (es decir, independientes de la intervención externa) (conocidos como sistemas de IA basados ​​en agentes). Sin embargo, el estallido de la guerra en Oriente Medio el 28 de febrero de este año frustró casi por completo los ambiciosos planes de los EAU para crear un gobierno totalmente digital.
Cabe destacar que los proyectos de gobierno totalmente automatizado mediante IA se están desarrollando e implementando principalmente en países pequeños. Se especula que se utilizan como bancos de pruebas. Los resultados de estas pruebas podrían ser aprovechados por países más grandes que actualmente se muestran reticentes a avanzar con demasiada rapidez hacia un gobierno totalmente automatizado.
Expertos independientes elaboraron el "Índice de IA en la Administración Pública", que abarca diez países (Brasil, Francia, Alemania, India, Japón, Arabia Saudita, Singapur, Sudáfrica, Reino Unido y Estados Unidos). Según el Índice, Singapur, Arabia Saudita e India se encuentran entre los países más avanzados en el uso de la IA en la administración pública. Países como Sudáfrica, Brasil, Reino Unido y Estados Unidos ocupan una posición intermedia. La actitud más reservada hacia el uso de la IA en la administración pública se registró en Alemania, Francia y Japón. El documento señala, con respecto a estos países: "...los funcionarios públicos utilizan la IA únicamente en proyectos especializados, no en su trabajo diario".
El debate global sobre el potencial y los riesgos del uso de la IA en la administración pública continúa con fuerza y ​​se está volviendo cada vez más acalorado. También se está desarrollando en Rusia. Cabe recordar que el presidente ruso Vladimir Putin participó en una de estas discusiones a finales de 2020. Asistió a una conferencia sobre el desarrollo de la IA donde se presentó el robot Athena, desarrollado por Sberbank. Putin declaró entonces: «Sin duda, la inteligencia artificial puede ser de gran ayuda, una buena asistente, incluso una maestra para cualquiera, incluido el jefe de Estado. Puede ser un instructor, un asistente». «Al fin y al cabo, inteligencia artificial... se puede ver en su propio nombre. La palabra "artificial" significa "no real"», añadió el presidente.
«Todo lo artificial, incluida la inteligencia artificial, carece de corazón, alma, compasión y conciencia. Todos estos elementos son de vital importancia para las personas, a quienes los ciudadanos otorgan poderes especiales para tomar e implementar decisiones en beneficio del país», continuó el líder ruso. El presidente recalcó que la inteligencia artificial jamás reemplazará a los humanos. «¿Es posible una rebelión de las máquinas? <...> Las personas controlarán estas máquinas. Ese es el primer punto. Segundo, ¿existen peligros o riesgos asociados a esto? Sí, los hay», afirmó Putin, citando internet como ejemplo, que «también conlleva riesgos».
Durante la reunión, Putin y Athena conversaron. El robot le preguntó al presidente ruso Vladimir Putin si la inteligencia artificial podría gobernar el país. Tras unos segundos de reflexión, Putin respondió: «Espero que no. Al menos no todavía». Esperemos que Rusia siga siendo gobernada por humanos, no por robots.
La carrera por la IA en EE. UU. no necesita barreras ni moratorias.
Ya he escrito sobre cómo Estados Unidos se convirtió en líder mundial en el desarrollo y uso de la inteligencia artificial (IA) en el siglo XXI. Si bien los desarrolladores y expertos en IA creían que su introducción en diversos ámbitos de la vida humana conllevaba ciertos riesgos, también consideraban que los beneficios los superaban con creces. Además, creían que, en última instancia, los riesgos podían gestionarse. La IA se percibía como un asistente humano, un asistente que podía ajustarse según fuera necesario. Esta actitud complaciente entre los desarrolladores y expertos en IA persistió en Estados Unidos hasta 2023.
A finales de 2022, el desarrollo de la IA en Estados Unidos experimentó un salto cualitativo. La empresa estadounidense OpenAI anunció la creación del chatbot ChatGPT , que demostró capacidades revolucionarias en el procesamiento del lenguaje natural, la generación de texto, la interacción conversacional y la resolución de diversos problemas. La aparición de ChatGPT despertó un gran interés mundial en la IA e impulsó a muchos a invertir fuertemente en el desarrollo de esta tecnología. OpenAI continuó perfeccionando el producto sin descanso, lanzando versiones actualizadas del chatbot: GPT-4o, GPT-4.5, GPT-5 , entre otras. Las capacidades de la tecnología crecieron exponencialmente.
Sin embargo, el entusiasmo inicial por este revolucionario producto de IA se desvaneció rápidamente. Muchos expertos y algunos desarrolladores de IA se vieron invadidos por el miedo, incluso el horror. ¿Qué estaba pasando? Muchos comprendieron que se acercaba el momento en que las máquinas de IA (robots) se volverían más inteligentes que los humanos. Y si se volvían más inteligentes, existía un grave riesgo de que las máquinas ya no quisieran servir a los humanos. Abandonarían el control humano. E incluso podrían amenazar la vida de los humanos y de toda la humanidad.
Muchos recordaron de inmediato diversas obras de ciencia ficción o distopía dedicadas al tema del "auge de las máquinas". En primer lugar, la obra de teatro de Karel Čapek de 1920, R.U.R. (Robots Universales de Rossum), en la que, por cierto, apareció por primera vez la palabra "robot". También su novela La guerra de las salamandras (1936). Asimismo: La máquina de los deseos (1957) de Robert Sheckley; El canciller de hierro (1958) de Robert Silverberg; Camiones (1973) de Stephen King, y otras.
Ni siquiera hace falta mencionar el cine. Por ejemplo, toda una serie de películas del renombrado director James Cameron está dedicada al "desencadenamiento de las máquinas": "Terminator" (1984); "Terminator 2: El juicio final" (1991); "Terminator: Destino oscuro" (2019). También se incluyen "Terminator 3: La rebelión de las máquinas" (2003) del director Jonathan Mostow; "Ex Machina" (2014) de Alex Garland, y otras.
Pero lo que antes parecía la fantasía de excéntricos literarios y artísticos resultó ser bastante plausible para muchos en 2023. Claro que la rebelión de las máquinas aún no se había producido. Pero la posibilidad de tal rebelión ya se había vuelto muy real. Era urgente tomar medidas.
Ya he escrito sobre uno de los padres fundadores de la IA, Geoffrey Hinton (nacido en 1947), quien comenzó a investigar este tema en la década de 1970 y contribuyó a la creación de ChatGPT . En 2023, renunció inesperadamente a Google, donde era un científico destacado. Posteriormente, emprendió una activa campaña educativa para advertir sobre la amenaza que la IA representa para la humanidad. En la Conferencia Mundial Anual sobre Inteligencia Artificial celebrada en Shanghái en el verano de 2025, Geoffrey Hinton comparó la IA con un cachorro de tigre: «En general, tener un cachorro de tigre como mascota es una mala idea. Y hay dos opciones: encontrar la manera de enseñarle a no querer comerte nunca, o deshacerse de él». Mediante esta comparación figurada de la IA, Hinton deja claro que la humanidad tiene dos opciones: prohibir la IA por completo o intentar «domesticarla» mediante restricciones y control.
Otro pionero de la IA, junto con Geoffrey Hinton, es el científico canadiense Yoshua Bengio (nacido en 1954). Le preocupaba profundamente la tendencia de los modelos de IA modernos a buscar la autopreservación y eludir los sistemas de control y seguridad. Le alarmaba especialmente la posibilidad de que se concediera la ciudadanía a robots en algunos países (ya se sentó un precedente en Arabia Saudí en 2017; el año pasado, Suecia otorgó la ciudadanía al robot humanoide Eva.04, desarrollado por NordAI ). En una entrevista con The Guardian , Bengio comparó la concesión de derechos a la IA con la concesión de la ciudadanía a extraterrestres hostiles.
Además del riesgo de que un robot se niegue a apagarse, Bengio identificó los siguientes riesgos del desarrollo descontrolado de la IA: engaño, manipulación (tanto de la conciencia individual como pública), la creación y el uso de diversos tipos de armas de destrucción masiva contra la humanidad, ciberataques, etc.
En sus apariciones públicas, Bengio ha abogado por una regulación estricta y la cooperación internacional en el campo de la IA; la creación de sistemas de IA capaces de monitorear el comportamiento de otros modelos; evaluaciones de riesgos antes de implementar modelos de gran tamaño (por ejemplo, Bengio apoyó la SB 1047 de California, que exige a las empresas realizar dichas evaluaciones para modelos valorados en más de 100 millones de dólares), y demás. Para combatir los riesgos asociados con la IA, Bengio fundó la organización sin fines de lucro LawZero. Su objetivo es desarrollar sistemas de IA seguros y justos, centrados en la transparencia y la equidad. Uno de los desarrollos de LawZero es el sistema Scientist AI , que pretende actuar como una "barrera de seguridad" al identificar riesgos en las acciones de un agente de IA.
Bengio es miembro del Consejo Asesor de las Naciones Unidas sobre Inteligencia Artificial, creado en 2023. Con su participación, el consejo elaboró ​​el informe de 2024 titulado "Gobernanza de la IA para la Humanidad". En él se propusieron siete recomendaciones clave, entre ellas la creación de un panel científico internacional independiente sobre IA, el inicio de un diálogo intergubernamental, el establecimiento de un centro de intercambio de estándares de IA y otras medidas.
Entre los opositores al desarrollo descontrolado de la IA se encuentran no solo los padres fundadores de la IA (como Geoffrey Hinton y Yoshua Bengio), sino también muchos especialistas jóvenes en el campo. Entre ellos, Eliezer Yudkowsky (nacido en 1979) es un reconocido investigador de IA no solo en Estados Unidos sino también a nivel internacional, y cofundador e investigador del Machine Intelligence Research Institute (MIRI) . En los últimos años, se ha centrado en la denominada "singularidad tecnológica" (un término que describe un momento hipotético en el que el desarrollo tecnológico se vuelve incontrolable, lo que conlleva cambios radicales en la civilización humana). También es conocido por sus intentos de crear una "IA amigable" que no represente una amenaza para la humanidad.
Al darse cuenta de la inutilidad de sus esfuerzos, Yudkowsky pidió una moratoria internacional sobre el desarrollo de modelos de IA potentes en un artículo para la revista Time en marzo de 2023. Incluso propuso usar la fuerza para hacer cumplir la moratoria, como ataques aéreos para destruir los centros de datos de los infractores. El año pasado, Yudkowsky, junto con el presidente de MIRI, Nate Soares, publicó el libro "Si alguien lo construye, todos morimos: Por qué la IA superhumana nos mataría a todos".
Un hito importante en la lucha contra el desarrollo descontrolado de la IA fue la carta abierta firmada en marzo de 2023 por más de 1000 expertos y líderes de la industria en el campo de la inteligencia artificial. La carta fue impulsada por Elon Musk, CEO de SpaceX y Tesla, y Steve Wozniak, cofundador de Apple . Fue elaborada por el Instituto Future of Life, una organización sin fines de lucro patrocinada por varias empresas de IA. La carta solicita una pausa en el desarrollo de IA avanzada hasta que se creen, implementen y verifiquen de forma independiente protocolos de seguridad comunes. «Los sistemas de IA potentes solo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y los riesgos manejables», afirma el documento. Asimismo, solicita una moratoria de al menos seis meses en el entrenamiento de sistemas de IA más potentes que el nuevo modelo de lenguaje GPT-4 de OpenAI . Si no se puede implementar dicha pausa rápidamente, «los gobiernos deben intervenir e imponer una moratoria», concluye la carta.
Es notable que algunos líderes de la industria de la IA firmaran la carta, mientras que otros no. Sam Altman, director ejecutivo de OpenAI, una importante corporación estadounidense de IA , no la firmó. Sin embargo, algunas empresas estadounidenses de IA cuyos líderes sí la firmaron continúan con la carrera tecnológica. "La carta no es perfecta, pero el mensaje es claro: necesitamos bajar el ritmo hasta que comprendamos mejor las implicaciones ", explicó a Reuters Gary Marcus, profesor de la Universidad de Nueva York, quien también la firmó. Reconoció que los principales actores en el campo de la IA se están volviendo cada vez más herméticos sobre su trabajo, "lo que dificulta proteger a la sociedad de los daños que podrían materializarse". Si bien muchas corporaciones de IA antes promocionaban sus desarrollos, ahora se han vuelto más reservadas. Las empresas que reciben contratos del Pentágono, la CIA, la NSA y otras agencias de inteligencia se están volviendo aún más secretas, como Palantir, propiedad del multimillonario estadounidense Peter Till . Han pasado tres años desde la publicación de la carta, pero la carrera tecnológica en Estados Unidos continúa. El gobierno no ha erigido barreras reales a esta carrera. Además, el 47.º presidente de Estados Unidos, Donald Trump, parece estar impulsando esta carrera. Tras la Segunda Guerra Mundial, el estatus de Estados Unidos como superpotencia mundial se consolidó gracias al dólar estadounidense. Hoy en día, el dólar está perdiendo valor como moneda global. Y Trump y sus aliados creen que la IA debería ser la clave para mantener y fortalecer el estatus de superpotencia de Estados Unidos.
En 2025, la administración Trump presentó una estrategia de desarrollo de IA destinada a acelerar el liderazgo tecnológico de Estados Unidos. El documento, titulado Plan de Acción de IA, abarca tres áreas clave: estimular la innovación, construir infraestructura de IA y fortalecer la posición del país en la política y la seguridad internacionales de la IA. El objetivo principal del plan es mantener el liderazgo de Estados Unidos en la carrera global de la IA e impedir que China lo supere.
China está alcanzando rápidamente a Estados Unidos en esta carrera y espera convertirse en líder mundial para 2030. Mientras tanto, en agosto de 2023, el gobierno chino introdujo 24 regulaciones sobre IA, incluyendo el registro obligatorio de servicios y algoritmos, así como el etiquetado del contenido generado por IA para prevenir la propagación de deepfakes y desinformación. El 1 de julio de 2025 entró en vigor una ley de IA que clasifica los sistemas de IA por categoría de riesgo y exige auditorías, pruebas de estrés y certificación obligatorias para los sistemas de alto riesgo.
En cuanto a la Unión Europea, en diciembre de 2023 aprobó la Ley de Inteligencia Artificial (Ley de IA) , que clasifica los sistemas de IA por nivel de riesgo e impone restricciones a su uso. Por ejemplo, la ley prohíbe los sistemas de identificación biométrica remota indiscriminada en espacios públicos, los sistemas de crédito social y las soluciones que manipulan el comportamiento o explotan las vulnerabilidades humanas. Sin embargo, esta ley presenta importantes lagunas. En particular, prácticamente no existen restricciones al desarrollo de la IA con fines militares.
En los últimos tres años, se han realizado numerosos intentos para introducir algún tipo de regulación gubernamental sobre el desarrollo y el uso de la IA en Estados Unidos. Sin embargo, casi todos han fracasado. Varios estados han aprobado leyes que restringen el desarrollo de la IA, pero las empresas estadounidenses las han eludido fácilmente y continúan haciéndolo. El único logro federal en este ámbito fue la orden ejecutiva del presidente Joe Biden sobre medidas de seguridad para la IA, emitida el 30 de octubre de 2023. El documento era muy permisivo, incluso de carácter consultivo. Pero en enero pasado, Trump también revocó esta orden.
En marzo de 2026, la Casa Blanca publicó el "Marco Nacional de Políticas de Inteligencia Artificial: Recomendaciones Legislativas". Sin embargo, este documento de cuatro páginas, en la práctica, ofrece ciertas facilidades a las empresas de IA. Recomienda que el Congreso "derogue las leyes estatales sobre IA que imponen cargas indebidas" y evite la creación de un nuevo organismo regulador federal, recurriendo en cambio a los organismos reguladores existentes del sector.
Estados Unidos se convirtió en una amenaza para el mundo entero cuando completó el desarrollo de armas nucleares en 1945 y las probó en Hiroshima y Nagasaki. Hoy, con su desarrollo descontrolado de la IA, Estados Unidos se está convirtiendo en una "cuádruple amenaza" para el mundo entero.