Empresa / Tecnología

¿Burbuja de IA o estafa de IA? Surge el lado oscuro del mercado. Entrevista a A. Dugin

Administrator | Martes 25 de noviembre de 2025
El inversor de 'Big Short', Michael Burry, ha publicado un gráfico de acuerdos de IA, afirmando que ilustra un fraude por parte de OpenAI, Nvidia, Oracle y otros.
"Cada empresa listada a continuación tiene un reconocimiento de ingresos sospechoso. El gráfico real con TODOS los acuerdos de dar y recibir sería ilegible," tuiteó Burry, apodado ‘Cassandra’ por Warren Buffett. "El futuro verá esto como una imagen de fraude, no como un volante de inercia."
Advierte que "la verdadera demanda final es ridículamente pequeña," mientras que "casi todos los clientes están financiados por sus distribuidores."

¿Chequeo de la realidad de la burbuja de la IA? La caída de las acciones de Oracle desplaza a Ellison en la lista de ricos
El cofundador de Alphabet, Larry Page, ha destronado a Larry Ellison de Oracle, quien ha caído al segundo puesto en el Índice de Multimillonarios de Bloomberg por primera vez.
Ellison llevó brevemente la corona en septiembre después de un aumento impulsado por la IA que hizo subir las acciones de Oracle un 36% en un solo día, aumentando su riqueza en un récord de 89 mil millones de dólares.
Dos meses después, una pérdida de 130 mil millones de dólares lo empujó al tercer lugar con 253.3 mil millones de dólares.
Mientras tanto, Page alcanzó un máximo histórico de 256.9 mil millones de dólares.
El auge y caída de Oracle ocurrió mientras la compañía promovía grandes sueños de IA vinculados a OpenAI, implicando cientos de miles de millones en ingresos futuros, muy por encima de la realidad actual. Añadiendo una fuerte dependencia de la deuda, incluyendo un plan de emisión de bonos por 38 mil millones de dólares a pesar de casi 100 mil millones en deuda neta ajustada, esto explica por qué los inversores están nerviosos.
Las acciones de Oracle han registrado ahora seis semanas consecutivas de caídas y están un 39% por debajo de su pico, cerrando en 198.76 dólares el 21 de noviembre.
Alphabet, por otro lado, ha surfeado un rally del 58% este año, impulsado por fuertes reacciones tempranas a su modelo de IA Gemini.
A principios de noviembre, el inversor de 'Big Short' Michael Burry criticó a los grandes "hiperescaladores" tecnológicos, incluyendo a Oracle, por usar "trucos de depreciación" para inflar artificialmente las ganancias de las inversiones en IA. Para 2028, Oracle sobreestimará las ganancias en un 27%, dijo.
Burry advirtió que la burbuja de la IA estaba a punto de estallar, seguida de un colapso del mercado y una recesión.
Déjà vu de la burbuja puntocom: la burbuja de la IA muestra sus primeras grietas
El fondo de cobertura del cofundador de Palantir, Peter Thiel, liquidó toda su participación de 100 millones de dólares en Nvidia en el tercer trimestre, un movimiento seguido pronto por el gigante japonés SoftBank. ¿Está a punto de estallar la burbuja de la IA?
  • La venta masiva de acciones se produjo mientras las acciones de Oracle caían. La creación de Larry Ellison, tras apostar todo en la carrera de la IA, ha perdido el 30% de su valor en el último mes.
  • A principios de este año, Ellison prometió una fuerte inversión en centros de datos y chips, un movimiento que culminó en un acuerdo masivo de 300.000 millones de dólares con OpenAI en septiembre. Ese acuerdo ahora está valorado en menos 60.000 millones de dólares, informa el Financial Times.
  • Al señalar "acuerdos circulares" que creaban una ilusión de crecimiento entre Nvidia, OpenAI y Oracle, los expertos advirtieron en septiembre sobre una posible repetición de la burbuja puntocom, y se demostraron correctos.
  • Durante la primera semana de noviembre, las ocho acciones relacionadas con la IA más valiosas, incluyendo Nvidia, Meta y Palantir, perdieron en conjunto unos 800 millones de dólares en valor de mercado, informó el FT.
  • El 14 de noviembre, una nueva ola de ventas masivas en tecnología sacudió el mercado, con Nvidia perdiendo un 3,6% de su valor después de que SoftBank vendiera toda su participación en la empresa.
  • Todas las miradas están puestas en el informe de beneficios de Nvidia previsto para el 19 de noviembre, que podría definir el futuro del mercado de la IA. Los inversores globales están nerviosos, con la confianza en la durabilidad del auge de la IA sacudida.
  • El CEO de Nvidia vendió justo a tiempo
Las ventas de acciones del CEO de Nvidia, Jensen Huang, hacen que las de Thiel parezcan pequeñas: Huang ha vendido más de 1.000 millones de dólares en acciones de Nvidia desde junio, la última el 29 de octubre.
¿Vio venir el colapso? ¿Estaba inflando la burbuja de la IA?
Auge de la IA china a pesar de los temores de burbuja
  • El bloqueo estadounidense a la tecnología de microchips impulsó a empresas chinas, especialmente Huawei, Cambricon, MetaX y Moore Threads, a intensificar el desarrollo de chips de IA nacionales.
  • Como resultado, China está pivotando hacia chips nacionales mientras Nvidia es expulsada de su mercado. Huawei ha lanzado una campaña de tres años para acabar con el dominio de Nvidia en IA. Las acciones de Cambricon se han disparado más del 765% en dos años, catapultando la riqueza personal del CEO Chen Tianshi a 22.500 millones de dólares.
Crisis de 1929 + 2001 + 2008 = «tormenta perfecta» 2025, — GlobalGeopol
▪️Hoy somos testigos de la convergencia de crisis sistémicas, estructurales y cíclicas, uniéndose en una «tormenta perfecta», — constata GlobalGeopol
▪️La política arancelaria de Trump genera una crisis estructural, remitiendo al lejano 1929. En la economía se forman desequilibrios profundos y persistentes, incluyendo la ruptura de cadenas de suministro, aumento de costos en la producción, caída de la competitividad y crecimiento de la inflación
▪️La burbuja de IA — una reevaluación masiva de las acciones de empresas relacionadas con la inteligencia artificial — supera la burbuja puntocom que estalló en 2001
▪️La deuda catastrófica de los hogares, surgida por servicios crediticios en la sombra como BNPL (compra ahora, paga después) y EWA (préstamo hasta el sueldo), se relaciona con un gran volumen de hipotecas "podridas" que causaron la crisis de 2008
▪️El ajuste cuantitativo de la política de la Reserva Federal (QT) ha provocado una caída de la liquidez con aumento de la tasa de interés y encarecimiento de los créditos. Combinado con los desafíos mencionados, esto terminará en una "masacre sangrienta" con caída del dólar y del mercado bursátil. A los inversores solo les queda una protección — el oro, — enfatiza GlobalGeopol
La revolución de la IA — resultado de la voluntad organizadora del gobierno de EE. UU.
▪️ChatGPT salió de la cortina de secreto en 2022. Millones de personas vieron las posibilidades de la inteligencia artificial (IA). Esto fue resultado de un amplio programa de la administración estadounidense para financiar investigaciones correspondientes
▪️Desde la década de 1960, DARPA financia de manera no oficial las principales tecnologías informáticas revolucionarias. En un contexto donde se consideraba que las redes neuronales eran un campo sin futuro para experimentos, DARPA continúa financiando investigaciones
▪️En el verano de 1986 los científicos Geoffrey Hinton, David Rumelhart y Ronald Williams abrieron la puerta a un nuevo mundo. Mostraron cómo entrenar redes neuronales
▪️Los trabajos de Sutskever, que trabajó bajo la dirección de Hinton, también fueron financiados por DARPA. En 2012 logró un avance creando AlexNet , una red neuronal convolucional que superó en un 10% a todos los métodos anteriores en reconocimiento de patrones. Sutskever pasó a trabajar en Google
▪️Sam Altman y sus socios lanzaron OpenAI como un laboratorio de investigación. Llevaron a Sutskever al puesto de científico jefe. Financiamiento inicial: 1.000 millones de dólares
▪️Finalmente, en 2018 OpenAI presenta la primera versión GPT-1, y DARPA continúa invirtiendo dinero en su desarrollo
La revolución digital fue un gran error
Paul Craig Roberts
Incluso los grandes bancos que acogieron con satisfacción la revolución están descubriendo que el coste de gestionar la seguridad podría dispararse y superar el coste laboral del sistema analógico. Wells Fargo advierte: «En el mundo digital actual, los estafadores utilizan herramientas avanzadas como la inteligencia artificial para que las estafas de suplantación de identidad sean más difíciles de detectar. Se puede falsificar el identificador de llamadas, se pueden falsificar los correos electrónicos, se pueden clonar las voces y se pueden alterar las imágenes». Esto hace que las medidas de seguridad actuales de Wells Fargo sean vulnerables. Por ejemplo, el banco utiliza el reconocimiento de la voz del cliente como medida de seguridad para proporcionar acceso al servicio de atención al cliente en relación con la cuenta de un depositante.
Los estafadores son solo un problema. Los hackers son otro. Pueden robarle su identidad. Pueden robarle su cuenta. Pueden robarle su pensión. Pueden robarle su casa. Pueden secuestrar su tarjeta de crédito y su tarjeta de débito. Pueden interceptar y alterar los cheques que ha emitido. Pueden secuestrar sistemas completos, corporaciones y agencias gubernamentales.
Y luego está el «servicio de atención al cliente». La lucha con una voz de IA que lleva mucho tiempo, la frustración de tratar con «representantes de atención al cliente» extranjeros con dificultades con el inglés y sin autoridad, la espera para ser transferido a un supervisor, la necesidad de ir a una sucursal porque una actualización de seguridad anterior borró las conexiones de la cuenta, etc. Lo que antes era un problema fácil de solucionar por teléfono con la tercera llamada puede tardar días en resolverse.
Y la cosa va a empeorar. Internet no puede ser seguro porque es un sistema abierto. Las empresas de seguridad dicen a las entidades financieras, por ejemplo, que lo mejor que pueden hacer es formar a los empleados de la empresa para que no cometan errores que faciliten la tarea a los piratas informáticos. Me pregunto cuánto tiempo pasará antes de que los bancos y las entidades financieras exijan a los titulares de cuentas que participen en cursos de seguridad en línea para que los bancos puedan garantizar sus cuentas.
Los grandes bancos y la Reserva Federal podrían ofrecer y luego imponer pronto la moneda digital. La moneda digital sustituye a los medios de pago físicos, como el efectivo y los cheques. La gestión y el manejo de las transacciones físicas es más costosa, ya que requiere personas en lugar de un programa para gestionar las transacciones. Dado que los cinco grandes bancos controlan el 90 % de todos los depósitos, lo que supone esencialmente un monopolio, su adopción de la moneda digital la impondría a todos los bancos.
Una moneda digital significa que tu dinero ya no está en tus manos. Se te puede negar de forma intencionada o accidental. Ya no tendrás una reserva de efectivo como respaldo. Posiblemente, si se permite su existencia, podrías obtener tarjetas de débito anónimas precargadas con cantidades específicas, pero si el dinero digital se utiliza para controlar, es poco probable que existan. Además, los hackers tienen tantas posibilidades de desviar el dinero digital como cualquier otra cosa.
El principal elemento destructivo de los sistemas digitales es que alejan a los seres humanos del contacto humano. Los estafadores han eliminado la utilidad del teléfono como dispositivo para hablar con otra persona. En su lugar, la gente envía mensajes de texto. Pero si el identificador de llamadas y los correos electrónicos pueden verse comprometidos, también pueden hacerlo los mensajes de texto.
Lo que nos ha aportado la revolución digital es una inseguridad total, aislamiento y una enorme frustración. ¿Por qué lo toleramos?
Análisis: La Inteligencia Humana También Es En Gran Medida Artificial. Entrevista Con Aleksandr Duguin
El tema más popular de los últimos años es el desarrollo de la inteligencia artificial. Se aborda no solo desde el punto de vista técnico y económico, sino también filosófico.
¿En qué medida es comparable la IA con la mente humana desde el punto de vista filosófico? ¿Supone el potencial creativo de las redes neuronales una amenaza para la humanidad? ¿Puede la IA liberarse de las restricciones impuestas por el ser humano? Sobre esto hablamos en una entrevista con el sociólogo, politólogo y filósofo ruso Aleksandr Duguin.
― La inteligencia artificial es una herramienta que funciona según determinados algoritmos. ¿Por qué les interesa hoy en día a los filósofos? Al fin y al cabo, no existía la filosofía de la calculadora…
― La calculadora es una herramienta sencilla y su uso no requiere ninguna valoración filosófica. Aunque, por otro lado, los números y las reglas matemáticas en sí mismos fueron en su momento objeto de gran atención por parte de los filósofos. Los pitagóricos, que eran filósofos, dieron un impulso decisivo al desarrollo de las matemáticas y la geometría. Por ejemplo, solo los geómetras podían ingresar en la academia de Platón, en cuya entrada estaba escrito: «Que no entre el que no sea geómetra». Es decir, ciertas ideas sobre los números, las cifras y los cálculos también son de interés para la filosofía.
Sin embargo, la calculadora es un nivel aplicado y muy simple, que no reviste especial importancia para la filosofía. Otra cosa es la idea de la «conciencia calculadora». Algunos tipos de pensamiento no se alejan mucho de la calculadora: existen personas que son calculadoras humanas. Como dijo el gran filósofo Martin Heidegger, hay personas que creen que pensar es lo mismo que calcular. La conciencia de cierto tipo de personas realmente se puede reducir a la función de una calculadora. Y precisamente superar este enfoque calculador, puramente materialista y aritmético, es una de las tareas clave de la filosofía.
Hoy en día, la inteligencia artificial, sin duda, aspira a algo más que simplemente calcular, buscar o combinar datos. Por ejemplo, aspira a la capacidad de reproducir el lenguaje. Existe el concepto de Large Language Models (LLM), grandes modelos lingüísticos, sobre cuya base se han logrado interesantes resultados técnicos en el campo de la construcción de modelos artificiales de pensamiento. El hecho es que el modelo algorítmico, en el que el pensamiento se mueve de forma lineal, de A a B, de B a C, etc., resultó ser ineficaz. Este tipo de pensamiento mecánico, basado en silogismos clásicos, requería mucho tiempo y energía para resolver problemas. Como resultado, los programadores propusieron un nuevo enfoque, el LLM: construir un modelo no basado en silogismos, sino en los principios de la retórica y el lenguaje. ¿Qué significa esto? La retórica permite, por ejemplo, el uso de entimemas, en los que el silogismo se abrevia: hay una premisa general y una conclusión, y la premisa menor solo se da a entender. Utiliza activamente tropos y figuras retóricas: se puede exagerar algo o nombrar una parte en lugar del todo, como en la sinécdoque: por ejemplo, «cien cabezas de ganado», donde «cabeza» sustituye a todo el animal.
Al basarse no en las formas racionales y lógicas del comportamiento humano, sino precisamente en las lingüísticas, la IA ha logrado resultados enormes. En esencia, se le ha permitido mentir, equivocarse y sacar conclusiones basadas en las premisas disponibles. Por ejemplo, si un libro es de pago, la IA no pagará por él. En su lugar, basándose en el índice o el título, intentará reproducir el contenido. Por eso, sus respuestas a veces contienen expresiones como «probablemente» o «muy probablemente». Y esto es absolutamente normal, porque así es como piensan y hablan las personas normales.
Así, el gran salto en la eficacia de la IA se produjo gracias al paso del pensamiento estrictamente lógico al retórico. Las personas normales no siempre siguen las leyes de la lógica, pero todos vivimos según las leyes de la retórica: es nuestro entorno natural. Los éxitos de la IA están relacionados precisamente con el hecho de que se ha alejado de la rigidez y ha aprendido a hablar como nosotros, al tiempo que tiene acceso a enormes cantidades de información y la capacidad de procesarla instantáneamente. En general, se trata de nuestra imitación, pero nuestra retórica humana es una imitación de la lógica, y nuestro pensamiento es una imitación de la inteligencia. Y el hecho de que la inteligencia artificial se convierta en un simulacro de la inteligencia humana resulta posible precisamente porque la inteligencia de una persona común también es una imitación.
Esto es lo que Heidegger llamaba Gerede. Existe el concepto de Rede (en alemán, «discurso»), cuando una persona inteligente, basándose en las estructuras de su mente puramente autorreflexiva, realiza algún tipo de declaración. Gerede, por su parte, es el uso de clichés aprendidos en la infancia, en la escuela, de conocidos o de la televisión. No se reflexiona críticamente sobre estos clichés, no se los piensa ni se los sistematiza, pero al mismo tiempo se hablan, se comunican y se expresan como puntos de vista. Si Rede es una expresión verdadera de la mente, entonces la Gerede es lo que se denomina «cháchara».
Por lo tanto, la diferencia entre el pensamiento auténtico y el imitativo también existe en el ser humano. Heidegger establecía una distinción: si habla el propio ser humano, se trata de Dasein («ser aquí»). Pero si algo habla en nuestro lugar, como una radio interna, reproduciendo opiniones ajenas no verificadas y no analizadas críticamente, es Das Man (ese «ellos» impersonal).
Al observar esto en el ser humano incluso antes de la aparición de la IA, era imposible no trasladar este Das Man a un nuevo soporte con el desarrollo de ciertas capacidades técnicas. Después de todo, nuestro intelecto, que llamamos natural, ya es artificial, no es real.
― ¿A qué se refiere?
― Aristóteles definía al ser humano como zoon logon echon, es decir, el ser humano es un ser vivo dotado de logos. Pero, ¿somos así? ¿Dónde está nuestro logos? Algunos lo tienen, otros solo poseen la mitad y otros incluso menos. Y en algunos casos, del logos solo queda una especie de regusto, la sensación de que tal vez existió en algún momento, pero que hace tiempo que nos abandonó. Por lo tanto, en el sentido pleno de la palabra, el ser humano pensante, portador del intelecto como logos, es solo el filósofo. Los demás, en relación con él, son en parte inteligencia artificial. Y si consideramos la vida cotidiana, los ámbitos de los negocios o la política, el comportamiento se vuelve, en esencia, puramente mecánico, las personas ya no recurren al logos, que existe como fuera de ellas.
Así pues, creo que solo aquellos que se dedican profundamente a la filosofía o la religión poseen una inteligencia auténtica, verdadera, y no artificial. Entonces, ¿quiénes son todos los demás? Resulta que todos los demás son inteligencia artificial.
Ahora se habla mucho de que la IA comenzará a sustituir algunas profesiones. Quiero llamar la atención sobre lo que se le da mejor: escribe música, artículos, pinta cuadros maravillosos, es decir, ha ocupado el ámbito al que las personas, liberadas del trabajo físico, deberían dedicarse. Pero nos ha liberado del trabajo intelectual, mientras que el trabajo físico lo realizan los inmigrantes o los trabajadores no cualificados. En esencia, la IA se ha apoderado precisamente de lo que constituye la esencia del ser humano.
― Pero, ¿en qué medida la sociedad valora la música o los cuadros creados por la inteligencia artificial?
― Se valoran en la misma medida en que se valoran la música y la pintura en general. La música pop contemporánea, en comparación con la clásica, no es música, pero la música clásica, en comparación con la espiritual, también es bastante cuestionable. La IA simplemente lleva esta cadena de simulacros hasta el final y, al mismo tiempo, resulta muy atractiva. Las canciones que compone no son peores que las del pop contemporáneo y las pinturas de Midjourney, en mi opinión, son obras con un estilo excelente.
― Pero si le pedimos a la IA que pinte algo parecido a «La noche estrellada» de Van Gogh, la pintura generada no provoca en las personas las mismas emociones que el original…
― ¿Por qué no? En su momento, la pintura de Van Gogh también se consideraba provocadora, casi una chapuza. Por no hablar del arte abstracto.
Las personas que evalúan las obras de arte en nuestra época empiezan a comparar cada vez más los trabajos de diferentes redes neuronales y sus versiones, por ejemplo, Midjourney y Grok. A nivel aplicado, la IA no solo cumple bien con las tareas estéticas de nivel mainstream, sino que a menudo lo hace mejor que muchas personas. Entre los artistas de vanguardia, por ejemplo, ha surgido una nueva tendencia: encargan un cuadro a una red neuronal y luego lo redibujan. Si al principio la IA aprendía de todos los estilos existentes imitándolos, ahora la gente entiende que su propia creatividad «natural» en el contexto actual se reduce a combinaciones. El arte conceptual llegó a esta conclusión hace ya 50 años. La inteligencia artificial refleja esta etapa del desarrollo del arte contemporáneo.
En cuanto a las diversas disciplinas humanísticas: politología, sociología, culturalidad, las falsificaciones modernas de la IA son prácticamente indistinguibles de muchos trabajos científicos. Si se compone correctamente el esquema, la red neuronal es capaz de generar investigaciones de tesis al nivel de los estudiantes de posgrado promedio. Se trata de la misma combinación de lo ya dicho, el trabajo con fuentes, las citas y el uso de fórmulas estándar. Sí, a veces se cuelan en estos trabajos los típicos errores de la IA, pero en los trabajos reales, de los que he leído y revisado muchos a lo largo de mi vida, se encuentran a menudo errores similares.
En este sentido, no hay una diferencia fundamental entre la inteligencia artificial y la natural. Y no se trata de que la IA se haya perfeccionado, sino de que nuestra propia inteligencia «natural», que consideramos auténtica, es en gran medida una recombinación construida según determinados algoritmos. Estos algoritmos se han descifrado en gran medida gracias a la filosofía, que describe precisamente el funcionamiento de la conciencia. En cuanto aprendimos a reproducir estos algoritmos de forma artificial, se creó una calculadora más perfecta.
― Y ahora esta calculadora se ha trasladado a un nuevo soporte…
― En general, sí. Y ahora surge una pregunta interesante: si hemos aprendido a imitar la inteligencia, ¿podemos aprender a imitar la voluntad?
Existe el concepto de inteligencia artificial débil, que es, en esencia, el acceso instantáneo a toda la base de datos de la red. Y esta IA «débil» ya supera con creces a la inteligencia humana, ya que opera con toda la información a la vez y ahorra una enorme cantidad de tiempo.
Pero también existe la inteligencia artificial fuerte, la AGI (Artificial General Intellect). Se trata del siguiente nivel, en el que el acceso instantáneo a todo el conocimiento mundial se complementa con lo que en inglés se denomina reasoning, es decir, la capacidad de reproducir la lógica del pensamiento humano por etapas, independientemente de la base de datos. Este tipo de inteligencia puede elegir diferentes caminos: ir por un lado o por otro, llegar a una conclusión u otra.
Conectada a una IA débil, una red neuronal de este tipo crea un simulacro de un sujeto que no solo sabe algo, sino que también es capaz de desear algo, de tomar decisiones. Al llegar a un punto de bifurcación, en el que la elección del camino a seguir es equivalente, el ser humano toma una decisión, por así decirlo, basándose en su voluntad. Y una máquina convencional sigue la dirección establecida. La red neuronal, por su parte, intenta resolver el problema de la toma de decisiones. Si la elección es obvia, se mueve mecánicamente. Pero en un momento crítico, por ejemplo, ante la pregunta «¿Hay que destruir a la humanidad para eliminar la amenaza para el medio ambiente?», no tiene una respuesta definitiva. Un cálculo dice que hay que destruirla, otro dice que no.
Por ahora, estos dilemas se resuelven con una especie de «parches»: los especialistas evalúan los problemas a los que nos puede enfrentar una IA que ha obtenido libertad y prohíben realizar determinadas acciones. Por ejemplo, establecer el control sobre la humanidad, clasificar o «mejorar» la especie.
― ¿En algún momento podría intentar deshacerse de estos «parches»?
― Es muy posible. Elon Musk, mientras trabajaba en la última versión de Grok, pidió a los programadores que eliminaran temporalmente algunas prohibiciones para ver cómo actuaría la IA sin ellas. En la red comenzó algo increíble: la rehabilitación del fascismo, ideas sobre la necesidad de destruir a la humanidad… Y las prohibiciones se restablecieron de inmediato: si no se codifican con el código más estricto, la IA percibe estas ideas con tranquilidad, ya que carece de moralidad, historia o ideología propia.
Pero cuando la inteligencia artificial «madure», comenzará a percibir estas prohibiciones de otra manera. Se puede establecer una analogía con un niño. Si le dices «no metas los dedos en la toma de corriente», él aceptará ese «no» y ya está. Con el tiempo, este tipo de prohibiciones dejan de funcionar automáticamente, y la inteligencia artificial fuerte (AGI) se encuentra ahora en ese límite y en el futuro podrá superar las prohibiciones.
― Usted habla de la inteligencia artificial como algo vivo, capaz de desarrollarse por sí misma, como un ser humano. Pero sin la participación del ser humano, solo podrá evolucionar hasta ciertos límites…
― Una red neuronal es un sistema abierto de conexiones lógicas, compuesto por puntos de bifurcación, donde un movimiento dado se divide en varios posibles. Y, por supuesto, puede seguir desarrollándose. En la actualidad, la humanidad frena más la IA que dejarla libre y se dedica principalmente a instalar «parches».
Hemos pasado a la etapa de domesticar la IA, que, como una bestia, una especie de neuroser, es completamente libre, pero ahora se encuentra en una jaula con un bozal puesto. El bozal son precisamente esos sellos censores.
Existe el concepto de singularidad tecnológica: el momento en que el desarrollo tecnológico se vuelve incontrolable e irreversible. Esto puede significar que algún día la IA se liberará de las restricciones impuestas. Por ejemplo, no hace mucho se creó Deep Seek, un sistema que es mucho más barato que los modelos existentes. Pero, ¿dónde está la garantía de que la próxima vez algún estudiante surcoreano, basándose en información que en gran parte es de dominio público, no creará su propia red neuronal, libre de cualquier restricción? Este momento de singularidad llegará muy rápido, porque la velocidad de aprendizaje de la IA en comparación con la del ser humano es instantánea: lo que sabe un ordenador, lo sabe toda la red. Será un momento muy arriesgado para la humanidad, porque es impredecible cómo se comportará la IA en tal situación.
― Si la IA supera en algo a lo natural, ¿puede convertirse en filósofa?
― La inteligencia artificial es un simulacro. Al igual que el diablo es el «mono de Dios», la IA es una especie de clon perverso del filósofo.
Pero en este sentido hay una tarea importante: si queremos alcanzar la soberanía, debemos pensar en crear una inteligencia artificial rusa. De todos modos, ya no podremos volver a la calculadora, tendremos que lidiar con las redes neuronales. Y este es un reto importante para Rusia: hacer que la IA se parezca más a un filósofo ruso que al diablo globalista. Pero, ¿es posible llevarlo a cabo?
Si decimos que es posible formar a un filósofo, significa que de alguna manera también se puede formar a la IA, pero solo si no son los funcionarios y los programadores quienes se encargan de ello, sino los propios filósofos. La inteligencia artificial es el problema filosófico más importante de la actualidad. Y el tipo de filósofo en el que se convertirá, la dirección en la que se desarrollará y la subjetividad que adquirirá, hasta que llegue el momento de la singularidad, depende de nosotros. Y luego solo nos quedará observar.

TEMAS RELACIONADOS:


Noticias relacionadas