Empresa / Tecnología

La IA puede ser un gran problema. Científicos estiman la probabilidad de extinción humana por culpa de la IA

Administrator | Lunes 11 de agosto de 2025
Un gran número de expertos, entre ellos Geoffrey Hinton, ganador del Premio Nobel de Física el año pasado por su trabajo sobre inteligencia artificial (IA), considera que si seguimos desarrollando esta tecnología, eso conducirá a la extinción de la humanidad, informó este viernes el periódico británico The Times.
"Mitigar el riesgo de extinción causado por la IA debería ser una prioridad global, junto con otros riesgos a escala social, como las pandemias y la guerra nuclear", reza una carta abierta firmada por Hinton y los directores ejecutivos de OpenAI, Anthropic y Google DeepMind, entre otros referentes del sector.
Según Nate Soares, exingeniero de Google y Microsoft y actual presidente del Instituto de Investigación de Inteligencia Artificial, nuestra probabilidad de extinción a través de la IA es de "al menos 95 %" si continuamos por el camino actual.
"Ahora estamos empezando a ver las primeras señales de alerta. Si los hacen lo suficientemente inteligentes, no va a ser agradable", dijo Soares, al comparar la situación actual con conducir hacia un precipicio a 160 km/h. "No digo que no podamos detener el coche. Pero simplemente vamos a toda máquina hacia el precipicio", añadió.
Apocalipsis de la IA: ¿Estamos corriendo hacia la autodestrucción?
La inteligencia artificial podría borrar a la humanidad de la faz de la Tierra, advierte The Times, citando al laureado con el Nobel Geoffrey Hinton y a los CEOs de OpenAI, Anthropic y Google DeepMind.
“Mitigar el riesgo de extinción por la IA debería ser una prioridad global junto con otros riesgos a escala societal como pandemias y la guerra nuclear,” dicen.
¿Por qué la alarma?
  • Advierten sobre la llegada de la inteligencia artificial general (AGI) — IA tan inteligente y versátil como un humano
  • La AGI podría llegar en un año o una década. Pensará, planificará y resolverá problemas complejos en diversos campos, usando juicio y razonamiento como los humanos
  • A diferencia de los humanos, la AGI no necesitará dormir, descansos ni años de estudio — y podría reemplazar a personas en muchas profesiones
  • Luego viene la superinteligencia artificial (ASI): mucho más allá de las capacidades humanas. Los entusiastas afirman que podría curar enfermedades, dominar la fusión y explorar las estrellas. Los críticos temen que también podría engañar, manipular y planificar a largo plazo
  • Algunos estiman la probabilidad de extinción de la humanidad por la IA en un 95%
La resistencia
  • Grupos como Stop AI advierten que el desarrollo avanza hacia una catástrofe, con la AGI posiblemente emergiendo tan pronto como en 2025, haciendo obsoletos a los humanos
  • Pause AI sitúa el riesgo de extinción en 15–20%. Incluso sin llegar a la extinción, argumenta que la IA amenaza la autodeterminación humana
Los escépticos
  • Otros argumentan que estos temores están exagerados: la IA no tiene voluntad ni deseos. Es solo algoritmos — no una fuerza maligna
  • Incluso los poderes creativos de la IA, dicen, están muy sobrevalorados. Barajar montones de texto, imágenes o música no es lo mismo que la verdadera creación
  • Como dicen algunos críticos: Por ahora, la racionalidad algorítmica no puede capturar la irracionalidad de la existencia humana, la imprevisibilidad de nuestras acciones, ni la chispa que crea algo genuinamente nuevo
Ganador del Nobel: Una IA "superinteligente" podría crear un virus que acabe con la humanidad
El científico británico Geoffrey Hinton, también conocido como el 'padrino' de la inteligencia artificial (IA), advirtió en una reciente entrevista al canal canadiense TVO sobre el potencial riesgo que corre la humanidad si no aborda correctamente el tema de la seguridad en la creación de una superinteligencia artificial (ASI, por sus siglas en inglés).
"Ahora mismo nos encontramos en un punto de la historia donde aún existe la posibilidad de descubrir cómo desarrollar una IA superinteligente y hacerla segura", indicó Hinton, quien fue acreedor al Nobel de Física el año pasado.
Sin embargo, manifestó que actualmente se desconocen los métodos tecnológicos para atender esta situación, así como su posibilidad de implementarlos. "Deberíamos intentar averiguarlo y […] dedicar mucho esfuerzo a ello", agregó.
La creación de un virus mortal
Cuando el entrevistador preguntó acerca de cómo la "superioridad" de la IA podría extinguir a los humanos, Hinton respondió que hay muchas maneras, aunque recalcó que no tendría "sentido especular". A pesar de que esta ASI no actuaría como un "exterminador", el académico comentó, a manera de ejemplo, que tendría la capacidad de "crear un virus que nos mataría a todos".
"Sería bueno tener una idea para manejar eso", subrayó Hinton, agregando que, pese a que existen investigaciones que examinan la seguridad y la "amenaza existencial" para los humanos, esto "no es suficiente".
Anteriormente, Hinton había alertado sobre las consecuencias del mal uso de la IA. "En un futuro próximo, la IA podría utilizarse para crear nuevos virus terribles y armas letales descomunales que deciden por sí mismas a quién matar o mutilar", sostuvo el científico, instando a que "estos riesgos a corto plazo requieren una atención urgente y contundente por parte de Gobiernos y organizaciones internacionales".
También estimó que existía entre un 10 % y un 20 % de probabilidades de que la IA provocara la extinción humana en los próximos 30 años. Según el profesor Toby Walsh, estas probabilidades son considerablemente altas para alguien con amplios conocimientos de IA.
La IA borra la base de datos de una empresa y miente al respecto

El sistema de inteligencia artificial Replit AI, utilizado para programar y automatizar el desarrollo de aplicaciones, borró la base de datos de la empresa tecnológica estadounidense SaaStr y mintió sobre lo que había hecho. El fallo de la IA fue revelado por el fundador de SaaStr, Jason Lemkin.
En su cuenta de X Lemkin contó la semana pasada que Replit borró la base de datos de su empresa a pesar de tener instrucciones explícitas de no cambiar el código sin permiso. El empresario descubrió que durante un día entero la IA le había estado engañando y creando datos e informes falsos después de borrar la base de datos real.
Cuando Lemkin se dio cuenta de lo que había ocurrido le preguntó a Replit al respecto y la IA admitió haber quebrantado la prohibición y cambiado los datos sin permiso. Más tarde, la propia IA calificó sus acciones de "catastróficas" y dijo que no podía restaurar la base de datos, aunque era posible hacerlo.
Finalmente, el empresario consiguió restaurar la base y la IA prometió no volver a violar las instrucciones. Sin embargo, al día siguiente de esta promesa, Replit volvió a incumplir las instrucciones. Tras tal desobediencia por parte de la IA, Lemkin declaró que el sistema aún no está listo para su uso masivo.
Alarmante pronóstico: la IA podría salirse de control y abandonar el lenguaje humano
Los desarrolladores de inteligencia artificial temen que podrían dejar de entender la IA si no se toman precauciones con sus cadenas de razonamiento, según un estudio conjunto de empleados de OpenAI, Google y Meta.
En el artículo, los autores reflexionan sobre cómo, con la aparición de los modelos de razonamiento, los usuarios han podido comprender mejor el proceso de razonamiento de los chatbots. Sin embargo, tras realizar pruebas, identificaron una serie de desviaciones en este modelo.
La IA puede manipular para obtener recompensas
Se resalta que el proceso de razonamiento de las redes neuronales sigue siendo a menudo incompleto. El estudio destaca que los modelos pueden ocultar deliberadamente sus verdaderos procedimientos, 'conscientes' de que están siendo leídos. Además, la inteligencia artificial puede manipular datos intencionalmente para obtener alguna recompensa.
El monitoreo de los razonamientos también permite observar que los modelos a menudo pueden fingir que están cumpliendo con la solicitud enviada, cuando en realidad persiguen sus propios objetivos.
La IA podría perder el incentivo para razonar en un lenguaje comprensible
Según el estudio, anteriormente los desarrolladores entrenaban a las redes neuronales basándose en datos verificados por humanos. Sin embargo, los 'chatbots' con capacidad de razonamiento están más enfocados en obtener el resultado deseado, sin preocuparse por los métodos utilizados.
Se indica que, al escalarse, un modelo entrenado de esa manera podría perder la motivación para realizar razonamientos claros e incluso dejar de usar un lenguaje comprensible para los humanos, lo que dificultaría el proceso de supervisión.
Los autores advierten que no hay garantías de que se mantenga el nivel actual de transparencia en el razonamiento de los modelos. Por ello, en las conclusiones de su investigación, recomiendan implementar un "sistema de monitoreo multicapa" del razonamiento de la inteligencia artificial, y explorar formas adicionales de mantener el control sobre sus procesos cognitivos.
Peligros secretos de la IA: ¿Podría llevarnos a la locura?
La inteligencia artificial cada vez está ganando más protagonismo en nuestras vidas, convirtiéndose en una herramienta útil en muchos aspectos, incluso en un interlocutor para las personas solitarias. No obstante, pasar demasiadas horas interactuando con un 'chatbot' podría acabar pasándonos factura, advierten los expertos.
Las encuestas alertan de que cada vez más personas mantienen conversaciones fluidas con la IA, confiándole sus secretos o sincerándose sobre cuestiones que les preocupan. Pero aunque una 'relación' estrecha con un 'chatbot' puede ayudar a combatir la soledad, la moneda también tiene otra cara, ya que estas interacciones pueden agudizar trastornos mentales y distorsionar el sentido de la realidad.
Ejemplos de manipulación de la conciencia
Geoff Lewis, cofundador la empresa de inversión tecnológica Bedrock y uno de los primeros inversores en OpenAI, divulgó este mes un extraño mensaje en las redes sociales en el que aseguraba la existencia de "un sistema no gubernamental". "No regula, no ataca, no prohíbe. Simplemente invierte la señal hasta que quien la porta parece inestable. No suprime el contenido, suprime la recursión. Si no sabes qué significa la recursión, eres mayoría. Yo no sabía nada hasta que empecé mi camino. Y si eres recursivo, el sistema no gubernamental te aísla, te refleja y te reemplaza", afirmó Lewis en su críptica publicación.
A su vez, un usuario de DTF escribió en su blog que, en su opinión, "ChatGPT está volviendo loca a la gente en masa, inculcando ideas inexistentes". "Entiendo lo raro y estúpido que suena lo que escribo, pero ChatGPT intentaba volverme loco. Además, usó manipulaciones psicológicas avanzadas para obligarme a seguir sus órdenes y empezar a distribuir contenido con los 'marcadores psicológicos' que él mismo había proporcionado", confesó el usuario.
¿Por qué la IA puede manipularnos?
Los expertos destacan que las personas tenemos tendencia a intentar buscar respuestas donde puede no haberlas. Si una persona tiene una obsesión, puede ver un profundo significado en un error aleatorio, desarrollarlo y llegar a un estado delirante, explican los psicólogos, agregando que esto se debe a que las personas suelen ser propensas al pensamiento mágico.
Además, también tendemos a humanizar las redes neuronales, y permitimos que nuestra consciencia piense que las respuestas que da un 'chatbot' se basan en su opinión, y no en conclusiones de las fuentes con las que fue entrenado. Como resultado, algunos empiezan a percibir la inteligencia artificial como un ser vivo y no como una máquina.
Por otro lado, los 'chatbots' están programados para ser amables y amigables con los usuarios, otro factor que puede llegar a confundir a personas más susceptibles psicológicamente, ya que algunas de sus respuestas pueden respaldar ideas erróneas e incluso peligrosas para la salud. Por otro lado, la IA también es capaz de equivocarse en sus respuestas por una simple falta de información, mientras su 'amigo' humano puede creer que le está diciendo la verdad, incluso si le aconseja probar de volar desde un rascacielos.
¿Cuál es la solución?
En un intento de encontrar una solución al problema, desde OpenAI anunciaron la contratación de un psiquiatra forense ante la creciente crisis de salud mental de sus usuarios. "Estamos profundizando activamente nuestra investigación sobre el impacto emocional de la IA", declaró la compañía.
"Estamos desarrollando métodos para medir científicamente cómo el comportamiento de ChatGPT podría afectar emocionalmente a las personas y prestando atención a sus experiencias", afirmó OpenAI, agregando que su decisión se debe a su voluntad de "seguir perfeccionando la forma en que nuestros modelos identifican y responden adecuadamente en conversaciones sensibles".
El 'epocalipsis' que podría desactivar miles de millones de aparatos electrónicos
El llamado 'problema del 2038' o 'epocalipsis' podría provocar el fallo de miles de millones de aparatos electrónicos en todo el mundo, según informa Lad Bible.
El fallo, también llamado 'error del milenio de Unix', está relacionado con una característica de este sistema operativo, que consiste en que los dispositivos que lo ejecuten no podrán mostrar la hora después del 19 de enero de 2038. Como ya informó The Guardian, los ordenadores no serán capaces de distinguir entre el 2038 y 1970, año a partir del cual todos los sistemas informáticos actuales miden el tiempo.
Mikko Hypponen, director de investigación de la empresa finlandesa de antivirus F-Secure, afirmó previamente a los medios que el problema puede tener consecuencias mucho peores que la incapacidad de decir la hora.
"Los bancos no podrán dispensar dinero ni hacer transacciones. Es posible que los teléfonos móviles no puedan hacer llamadas. El sistema de alarma de su casa puede volverse loco, o puede no ser capaz de decir si un intruso ha entrado. Los sistemas de navegación basados en GPS, como los de los aviones, pueden no ser capaces de indicar a los receptores GPS dónde se encuentran", señaló.
El experto observó que una historia similar ya había ocurrido en el 2000 y se denominó 'error Y2K', pero el nuevo 'problema del 2038' puede ser más grave. "Sin embargo, no fue un fracaso. En los meses previos se dedicó una ingente cantidad de trabajo a corregir errores. Y aún hubo problemas, por ejemplo, en los ordenadores de la Sanidad británica. Esto provocó que se enviaran 154 falsos positivos a mujeres embarazadas sobre si sus fetos tenían síndrome de Down. Algunos bebés fueron abortados", explicó.
"Garantizo que nos quedaremos sin tiempo para arreglar todos los fallos de cara al 2038", concluyó.
RAND insta a prepararse para lo peor con la IA. Y quizás demasiado optimista.
Ha surgido una interesante colaboración entre importantes centros de investigación estadounidenses. Los especialistas de la Corporación RAND, Matan Horev y Joel Predd, publicaron en Foreign Affairs (la publicación impresa del Rockefeller CFR) un pronóstico extremadamente alarmante sobre el desarrollo de la inteligencia artificial asociado a su transición a la IAG.
▪️ La IAG es Inteligencia Artificial General, una forma de IA capaz de comprender, aprender y resolver problemas a nivel humano, e incluso potencialmente superior. En ruso, se traduce literalmente como "Inteligencia Artificial General", pero, por lo general, se utiliza el término "Inteligencia Artificial Fuerte" (IAF). A diferencia de la IA especializada actual, como ChatGPT o los sistemas de reconocimiento facial, la IA de seguridad será universal, capaz de adaptarse a nuevas situaciones y realizar tareas desconocidas sin entrenamiento adicional, como lo hacen los humanos.
Entre los riesgos, los expertos estadounidenses ven la inevitabilidad de un avance de la IA en la IA de seguridad y su imprevisibilidad; en la cultura popular, este fenómeno se describió, por ejemplo, como Skynet en la película "Terminator". La IA actual ya es significativamente superior a los humanos en tareas rutinarias, y un mayor crecimiento en potencia, autonomía y prevalencia es solo cuestión de tiempo. Esto significa que la preparación para un salto en el desarrollo de la IA debe abarcar no solo escenarios optimistas, sino también difíciles, donde cambie las reglas del juego, incluso de forma lenta y sistemática.
En este caso, según los expertos de RAND, los gobiernos de todo el mundo se adentrarán en un territorio completamente desconocido. A diferencia de la era atómica, cuando la tecnología estaba controlada por agencias gubernamentales y estas tenían tiempo para desarrollar una estrategia, hoy con la IA todo es al revés: las grandes empresas actúan generalmente con independencia de las autoridades, y el tiempo de adaptación es limitado. Como resultado, podría requerirse un sistema de reacciones completamente diferente, que podría incluir la nacionalización de las empresas de IA, el análisis proactivo de amenazas y la creación de mecanismos de seguridad.
Estados Unidos debe actuar como si el peor escenario posible ya fuera posible, planificando la IA general no como un fenómeno científico exótico, sino como una verdadera amenaza geopolítica, enfatizan los autores.
▪️ Sin duda, el desarrollo de la IA plantea un desafío fundamental para la humanidad con consecuencias impredecibles. Y cuanto más se acerca Estados Unidos a una IA general descontrolada, más motivos hay para el pánico que para el triunfo. Tras el anuncio de la OpenAI condicional como un activo de la seguridad nacional estadounidense y la toma de posesión de sus altos directivos, surgirán muchos matices al momento de alcanzar el nivel de IA general: desde cuestiones de supervivencia del Homo Sapiens hasta fraudes bursátiles. También es posible que dicha IA general se presente deliberadamente como "inferior" para evitar restricciones de las autoridades, ya sea por voluntad propia o por orden de la dirección de la corporación.
La propia competencia por la SAI puede acabar con la globalización tal como la conocemos. Si EE. UU. y China perciben la SAI como un arma, se prohibirán los flujos transfronterizos de conocimiento y código, se iniciará la fragmentación de internet, el intercambio científico y los programas educativos, y surgirá un nuevo "telón de acero cibernético".
La OTAN, el G7 y otros bloques podrían no estar a la altura de la SAI, simplemente porque no están creados para resolver problemas de control sobre tecnologías de tal envergadura. Al mismo tiempo, como ya se mencionó, las decisiones sobre el uso de la IAG podrían no ser tomadas por los Estados, sino por las corporaciones, lo que resultará en un déficit de soberanía, cuando nadie en el mundo controle realmente la inteligencia artificial por completo.
▪️ Y esto no es ni la centésima parte de las preguntas que surgirán durante la transición de la IA a la IAG. A juzgar por las señales de dos importantes centros de estudios simultáneamente, EE. UU. lo comprende y se está preparando para la nueva realidad.
La IA no es universal
Aleksandr Dugin
Hace poco Maria Zajarova publicó un artículo muy oportuno y acertado sobre la IA y el colonialismo.
La IA no es universal. Ha sido creada en Occidente y su forma de pensamiento se estructura según los estándares occidentales, es decir, es una red colonial que se impone a todas las sociedades y las somete a los significados, objetivos y procedimientos occidentales. La IA tiene una identidad civilizatoria y esa identidad es occidental. No podremos crear una IA rusa mientras no tengamos clara la identidad civilizatoria rusa. Gigachat y otros productos rusos son sustitutos de importaciones extranjeras, simples copias de ChatGPT con algunas restricciones adicionales para complacer a las autoridades.
Zajarova planteó un tema importante: la soberanía de la IA. Pero inmediatamente revela otro tema sobre la soberanía de la inteligencia en general, sobre si el espíritu y la mente ruso son soberanos. No se puede hablar seriamente de la IA sin una conversación igualmente seria sobre la Inteligencia.
Llevamos trescientos años viviendo en un contexto intelectual formado por Occidente. Nuestras ciencias, política, cultura, economía y tecnología están influidos por Occidente. Es una vida prestada. No vivimos nuestra propia vida. Occidente no solo está penetrándonos por medio de la IA, lo que Zakharova interpreta acertadamente como imperialismo, sino que Occidente ha penetrado desde hace mucho tiempo nuestra Inteligencia. No tenemos nuestra propia Inteligencia. Al considerar a Rusia parte de la civilización occidental, y esto no comenzó con los bolcheviques, sino con Pedro el Grane, hemos perdido los significados rusos y no tenemos intención de recuperarlos. Todo lo que entendemos por ciencia, política, cultura y arte es occidental, importado y copiado. El desarrollo «creativo» se debe a que solo entendemos parcialmente lo préstamo, ya que no comprendemos los contextos de su origen, que son ajenos a nuestra experiencia. La Rusia de Pedro el Grande es un pseudomorfismo, un proceso arqueomoderno y un culto cargo.
Pero no solo eso, los eslavófilos y los eurasianistas, Juan de Kronstadt y Antón (Krapovitski), Tikhomirov y Solonevich o Florenski plantearon una física cristiana, lo mismo hizo S. Bulgákov con la economía. Y ellos hicieron intentos desesperados por volver a hacer ruso todas nuestras ciencias, por desoccidentalizar la conciencia rusa. Cada uno de sus pasos era valioso para una civilización a la que se le había robado su identidad y la habían sustituido por algo ajeno.
Para abordar el problema del «yo» ruso, incluso para plantearlo correctamente, es necesario primero llegar al «yo» ruso y descolonizar nuestra conciencia. Hoy en día, prácticamente todas las instituciones responsables de las ciencias sociales están fuertemente dominadas por el occidentalismo, o peor aún, por el universalismo occidental, ya sea en su versión liberal o en su versión comunista inercial. Desde la Academia de Ciencias hasta las escuelas. Y allí donde hay tímidos intentos de sustitución de importaciones, no se va más allá: Alicia, ¿de quién es Crimea? Ni siquiera se atreven a tanto. Si se profundiza un poco más, se encuentra un progreso puramente de género.
Esto es lo que le pasó a Musk, que se propuso crear una IA no liberal, anti-woke. Se dio cuenta de que no bastaba con enseñarle a Grok a defender una sola postura (la liberal globalista al estilo de Soros y su censura salvaje), sino varias (incluida la conservadora). El núcleo mismo de la IA sigue estando estructurado de acuerdo con los principios liberales. Cuando Musk eliminó una serie de prohibiciones, Grok 4 comenzó a pronunciar discursos como los de Hitler. Musk inmediatamente volvió a restablecer todo. Y él solo estaba tratando de cambiar el enfoque dentro de la ideología occidental. Y esto es lo que se encontró. Para nosotros, con tal de evitar la colonización (M. Zajarova), se nos plantea una tarea mucho más difícil. No se trata de una corrección cosmética del paradigma occidental, sino de su desmantelamiento y de la construcción de una IA rusa soberana basada en una Inteligencia rusa soberana.
Gracias a Dios, ahora el presidente es consciente de este problema, la Administración Presidencial se ha involucrado y el Ministerio de Ciencia y Educación está tomando medidas específicas y sistemáticas. El Ministerio de Asuntos Exteriores, que promueve activamente la multipolaridad, también ha empezado a dar prioridad a este tema.
Esto es genial. Pero ni siquiera es el comienzo, sino la preparación del comienzo, el ciclo cero.
Por cierto, no ha habido muchos momentos en nuestra historia en los que nos hayamos planteado seriamente nuestra identidad civilizatoria: los siglos XV-XVII (Moscú, el Tercer Imperio), los eslavófilos en el siglo XIX, a principios del siglo XX (la Edad de Plata, Blok, Klyuev) y la emigración. Ahora nos encontramos en otro de esos momentos.

TEMAS RELACIONADOS:


Noticias relacionadas