Empresa / Tecnología

Uso malicioso de la IA y desafíos para la seguridad psicológica: riesgos futuros

Administrator | Miércoles 20 de noviembre de 2024
Evgeny Pashentsev*
En abril de 2024, el Centro Internacional de Consultoría y Estudios Sociales y Políticos Centro Internacional de Consultoría y Estudios Sociales y Políticos publicó el informe “Uso malicioso de la IA y desafíos para la seguridad psicológica de los países BRICS” en colaboración con el Grupo de Investigación Internacional sobre Amenazas a Seguridad psicológica internacional mediante el uso malicioso de la inteligencia artificial (Research MUAI) y elaborado por 10 investigadores de tres países. Se centra en las amenazas de la influencia maliciosa de la IA en la psique humana y, a través de ésta, en los procesos políticos, económicos y sociales y las actividades de las instituciones estatales y no estatales en diez países BRICS. El informe contiene una introducción, diez capítulos sobre el estado del MUAI en cada uno de los países miembros del BRICS y una conclusión con un análisis de las futuras amenazas del MUAI a nivel global. Este informe no presenta la respuesta de los países BRICS a estas nuevas amenazas, se encuentra en la etapa de formación a nivel nacional (desde una comprensión inicial y fragmentaria de la gravedad de estas amenazas en algunos países hasta la adopción de las primeras leyes y contramedidas técnicas en otros) y requiere una consideración independiente.
MUAI y tres niveles de amenazas a la seguridad psicológica
El informe se basa en una clasificación de tres niveles de las amenazas MUAI a la seguridad psicológica.
En el primer nivel, estas amenazas están asociadas con interpretaciones deliberadamente distorsionadas de las circunstancias y consecuencias del desarrollo de la IA en beneficio de grupos antisociales. En este caso, la propia IA a este nivel no está directamente involucrada en la desestabilización de la seguridad psicológica. El impacto destructivo (abierto u oculto) transmite una imagen falsa de la IA en la mente de las personas. La reacción negativa excesiva, creada artificialmente, al desarrollo de la IA (por ejemplo, historias de terror de que los robots y la IA pronto obligarán a todas las personas a quedarse sin trabajo, que los trabajadores se convertirán en esclavos de la IA, etc.) tiene ciertos objetivos políticos y económicos y no es tan inofensiva como puede parecer. Una reacción tan negativa puede ralentizar la implementación de tecnologías de IA y casi omnicomprensivas y provocar tensiones y conflictos sociopolíticos. También pueden manifestarse expectativas públicas infladas sobre la IA, lo que en cierto momento podría resultar en un colapso natural en el valor de las empresas de alta tecnología y del mercado en su conjunto. Estas expectativas pueden usarse maliciosamente y fortalecerse para desorientar al público en general, a las estructuras comerciales y sin fines de lucro interesadas y a las autoridades públicas y, en última instancia, convertirse en decepciones, decisiones equivocadas y conflictos sociales y políticos.
En el segundo nivel, el campo para el uso malicioso está completamente abierto: el uso injustificado de drones, los ciberataques a infraestructuras vulnerables, la reorientación de los sistemas comerciales de IA, el uso de tecnologías de IA para perturbar la toma de decisiones o modificarla de manera latente, y mucho más. Pero el ataque a la conciencia pública no es su principal objetivo a este nivel.
El MUAI está diseñado principalmente para causar daño psicológico y pertenece al tercer y más alto nivel de amenazas a la seguridad psicológica. Los productos de IA sintética (que combinan una serie de tecnologías que pueden aumentar el daño causado por su piratería o uso malicioso) crean toda una gama de nuevos riesgos y amenazas. El uso profesional de los medios y métodos de la guerra psicológica puede desplazar el nivel de percepción de amenaza por encima o por debajo de lo apropiado. Además, el uso de la IA en la guerra psicológica hace que las campañas ocultas (latentes) de gestión de la percepción sean más peligrosas, y esto no hará más que aumentar en el futuro. Por lo tanto, el MUAI, cuyo objetivo principal es causar daños en el ámbito psicológico, merece una atención independiente y muy cercana. Los dos primeros niveles de amenaza afectan la conciencia y el comportamiento humanos en diversos grados, e incluso pueden ser catastróficos para la humanidad, como sería el caso en caso de una Tercera Guerra Mundial. Sin embargo, el impacto del tercer nivel en una determinada etapa de desarrollo puede facilitar la influencia o incluso el control de grupos antisociales sobre la conciencia pública; esto puede resultar en la desestabilización repentina de un país en particular o de la situación internacional en su conjunto. En última instancia, si en el tercer nivel existe un control psicológico fiable sobre un enemigo, el papel de los otros dos niveles MUAI para la seguridad psicológica se vuelve auxiliar.
Las amenazas MUAI pueden ocurrir en un nivel de impacto, o en múltiples niveles a la vez, como parte de una única campaña de gestión de la percepción. El uso de un dron por parte de terroristas o la organización de un ataque a una población civil serán amenazas de segundo nivel, que tienen un efecto comunicativo (pánico y conmoción tras el ataque). Sin embargo, si los delincuentes acompañan sus acciones con un amplio apoyo informativo (también con la ayuda de la IA), la amenaza alcanzará el tercer nivel (ver más sobre la clasificación de tres niveles de las amenazas MUAI a la seguridad psicológica: (Pashentsev 2023 a).
La IA no es una tecnología única. Existen muchas tecnologías de IA aplicadas a numerosas funciones a través de diversas aplicaciones en diferentes entornos y modalidades bajo diferentes circunstancias. Los autores de este informe tienen en cuenta cómo las diferentes tecnologías bajo el paraguas general de la IA ayudan a crear un producto particular, cambiando seriamente el nivel tecnológico y la capacidad práctica de cualquier tipo de actividad en particular.
Las amenazas del MUAI están adquiriendo nueva relevancia a nivel mundial y en los países BRICS en los tres niveles con el crecimiento de las rivalidades geopolíticas, con la actividad de diferentes actores antisociales estatales y no estatales, y con el desarrollo y la creciente asequibilidad de diversas tecnologías de IA, lo que hace que hacerlos más accesibles. Esto no puede conducir a otra cosa que a intentos por parte de diversos grupos de interés de utilizar la IA para influir en la conciencia pública para sus propios fines. Estos intentos de manipular la conciencia pública son particularmente destructivos durante momentos históricos de crisis. La inhumanidad del fascismo se hizo evidente para la mayoría absoluta de la humanidad después de la muerte de más de 50 millones de seres humanos en las llamas de la Segunda Guerra Mundial. Antes de la guerra, sin embargo, la manipulación de la conciencia pública aseguró la victoria de Hitler en las elecciones al Reichstag de 1933. Esta historia no tan lejana sigue siendo muy instructiva para quienes viven hoy. Es comprensible que los gobiernos y figuras políticas modernas de los BRICS y de muchos otros países estén mostrando una creciente preocupación por la amenaza de la desinformación de alta tecnología en Internet y el papel de las principales plataformas de medios privadas que utilizan tecnologías de inteligencia artificial.
Las amenazas MUAI a la seguridad psicológica en los países BRICS surgen por razones internas y son el resultado de factores externos. Por tanto, tiene sentido dar aquí una idea general de la naturaleza y dinámica de las amenazas en tres niveles de la dimensión global.
El futuro es multivariante, por lo que ahora sólo es posible hablar de parámetros aproximados de los riesgos futuros del MUAI para la seguridad psicológica, teniendo en cuenta las tendencias y previsiones globales existentes, que son bastante contradictorias. En un futuro próximo, deberíamos esperar un aumento de tales riesgos debido al rápido desarrollo de las tecnologías de IA, su relativa rentabilidad y accesibilidad para una gama cada vez más amplia de usuarios, el crecimiento de los fenómenos de crisis en el mundo moderno, el alto nivel de la rivalidad geopolítica que se está convirtiendo en confrontaciones peligrosas, la influencia directa de fuerzas antisociales en los flujos de información en países individuales y a nivel global: todos estos y otros factores, aparentemente, harán que las amenazas de MUAI a la seguridad psicológica sean más generalizadas y peligrosas. en todo el mundo, incluidos los países BRICS.
Están surgiendo nuevas amenazas a la seguridad psicológica a partir de las ventajas de las operaciones psicológicas tanto ofensivas como defensivas que utilizan la IA. Estas ventajas –así como las amenazas– están cada vez más asociadas con diferencias cuantitativas y cualitativas entre los mecanismos tradicionales de producción, entrega y gestión de información, nuevas posibilidades para crear impactos psicológicos en las personas y la lucha psicológica. En particular, estas ventajas pueden incluir:
(1) la cantidad de información que se puede generar para desestabilizar a un adversario;
(2) la velocidad de generación y difusión de información;
(3) nuevas oportunidades para la obtención y procesamiento de datos;
(4) la aplicación de análisis predictivo mediante IA;
(5) nuevas oportunidades en el proceso de toma de decisiones a partir del análisis de big data con la ayuda de la IA;
(6) nuevas formas de educar a las personas con sistemas inteligentes;
(7) la credibilidad percibida de la (des)información generada;
(8) la fuerza del impacto intelectual y emocional de la información generada en las audiencias objetivo; y
(9) un nivel cualitativamente más alto de pensamiento en el futuro mediante la creación de una IA general y fuerte, así como mediante un mayor desarrollo de la ciborgización humana, el desarrollo de formas avanzadas de inteligencia híbrida.
Basado en el proyecto de investigación titulado “Uso malicioso de la inteligencia artificial y desafíos para la seguridad psicológica en el noreste de Asia”, financiado conjuntamente por la Fundación Rusa para la Investigación Básica (RFBR) y la Academia de Ciencias Sociales de Vietnam (VASS), realizado en 2021-2023, Se puede concluir que las ventajas 1 a 6 ya se han logrado y continúan creciendo en una serie de aspectos importantes (aunque no en todos), superando cualitativamente las capacidades humanas sin IA. Al mismo tiempo, todas las posibilidades de la IA limitada (débil) todavía están generalmente bajo control humano. Las ventajas 7 y 8 aún no se han implementado en la práctica; Esto no excluye los logros recientes en la formación de estas ventajas, como la credibilidad y la persuasión emocional (ver, por ejemplo, Unity 2022), pero se pueden lograr mediante la mejora cuantitativa y cualitativa de las tecnologías existentes en el futuro previsible. El beneficio futuro del número 9 puede requerir avances científicos fundamentales y nuevas soluciones tecnológicas. Esta lista de beneficios del uso de la IA en la guerra psicológica no es exhaustiva y es muy variable. (Pashentsev, 2022, pág. 7).
A continuación, este artículo se centrará en las futuras amenazas de MUAI a la seguridad psicológica a nivel global, basándose en los materiales del informe.
MUAI y tres niveles de amenazas a la seguridad psicológica: perspectivas de futuro
En los tres niveles, las amenazas MUAI a la seguridad psicológica aumentarán debido al peligro creciente, la variedad de métodos, las audiencias más grandes y la frecuencia del impacto malicioso en las personas.
El primer nivel. En los próximos años, es posible que se intensifiquen las actitudes negativas hacia la IA, hasta la formación de estados estables de pánico, fobias y rechazo activo de las tecnologías, que pueden verse respaldados tanto por errores en su implementación como por acciones de actores maliciosos. Es imposible excluir el surgimiento de movimientos ultrarradicales, tanto a favor como en contra de la IA. Por ejemplo, algunas creencias religiosas nuevas, aún emergentes, que tienen fe en la superinteligencia artificial, pueden eventualmente, en el contexto de una crisis global cada vez mayor, dar lugar a ramificaciones sectarias y brindar a protagonistas fanáticos y militantes la rápida llegada de esta superinteligencia en nombre de la salvación, eliminando a la humanidad. El surgimiento de la fe religiosa en la IA ya es bastante aceptable, justificado y bienvenido en algunas publicaciones (McArthur 2023).
Por otro lado, cualquier consecuencia negativa socialmente significativa y a gran escala del desarrollo y la introducción de tecnologías de inteligencia artificial puede provocar el surgimiento de “nuevos movimientos luditas”, que también pueden ser explotados por actores maliciosos. Una amenaza particularmente significativa pueden ser las decisiones de introducir tecnologías de IA más avanzadas y más baratas (cuya aparición inminente es casi inevitable) no como un asistente humano masivo , sino como una herramienta de reemplazo masivo de la fuerza laboral sin crear empleos alternativos ni programas de reciclaje adecuados.
Hace muchos siglos, mucho antes de que se cumplieran los requisitos previos para el surgimiento de las tecnologías de inteligencia artificial, el antiguo filósofo griego Aristóteles formuló esta famosa cita: “…si cada herramienta pudiera realizar su propio trabajo cuando se le ordenara, o viendo qué hacer de antemano…si así las lanzaderas tejían y las plumas tocaban el arpa por sí mismas, los maestros artesanos no necesitarían asistentes y los amos no necesitarían esclavos” (Aristóteles, Política 1.1253b). Al ver la perspectiva de una implementación a gran escala de la IA y los robots inteligentes, las grandes tecnológicas apoyaron activamente la teoría de la Renta Básica Universal (RBU). La RBU es una teoría económica que estipula que cada ciudadano debe tener un ingreso proporcionado por el gobierno, independientemente de su necesidad.
Los multimillonarios tecnológicos, como Sam Altman, dicen que son grandes admiradores de la RBU. Musk, director ejecutivo de Tesla y SpaceX, dijo a CNBC que “hay muchas posibilidades de que terminemos con una renta básica universal, o algo así, debido a la automatización” (Weller 2017). El cofundador de Facebook, Chris Hughes, es un partidario activo de la RBU e insta a la gente a considerar qué sistemas necesitaremos crear si tenemos millones de seguidores más (Weller 2017). Es muy poco probable que en el corto plazo la amenaza de desempleo debido a la introducción de la IA se convierta en una realidad para la evidente mayoría de la población, pero en el mediano plazo puede convertirse en un factor de desestabilización social y política.
Es poco probable que las propuestas sobre la necesidad de adoptar la RBU, incluso debido a la implementación de la IA, resuelvan el problema. Por supuesto, será bueno y justo que una persona se libere de trabajos monótonos que no desarrollan la inteligencia y la esfera emocional, así como de actividades nocivas para la salud, gracias a las tecnologías de inteligencia artificial y los robots. Pero si la mayoría de la población no trabaja toda su vida y encuentra la felicidad en la ociosidad, dicha sociedad se deteriorará peligrosamente (los signos de ello están presentes en Occidente, donde en muchos países hay un alto nivel de juventud desempleada a largo plazo en ausencia de pobreza masiva, que es característica de los países pobres y tecnológicamente atrasados). Recordemos también el destino de la Antigua Roma, donde los emperadores, al dar a los ciudadanos pan y circo a expensas del trabajo de numerosos esclavos, finalmente perdieron tanto a los ciudadanos como a los esclavos y el poder.
Ya existen estudios que confirman el impacto negativo de las tecnologías de IA en la personalidad.
Por eso, el estudio publicado en 2023 por un gran equipo de investigadores examina el impacto de la IA en la pérdida en la toma de decisiones, la pereza y las preocupaciones sobre la privacidad entre los estudiantes universitarios de Pakistán y China. Este estudio se basa en una metodología cualitativa utilizando PLS-Smart para el análisis de datos. Se recopilaron datos primarios de 285 estudiantes de diferentes universidades de Pakistán y China. “Los hallazgos muestran que el 68,9% de la pereza en los humanos, el 68,6% en cuestiones de privacidad y seguridad personal y el 27,7% en la pérdida de la toma de decisiones se deben al impacto de la IA en las sociedades paquistaní y china. A partir de esto, se observó que la pereza humana es el área más afectada debido a la IA. Sin embargo, este estudio sostiene que son necesarias importantes medidas preventivas antes de implementar la tecnología de IA en la educación. Aceptar la IA sin abordarla
las principales preocupaciones humanas serían como convocar a los demonios” (Ahmad et al. 2023) Estas peligrosas tendencias pueden contrarrestarse desde la infancia educando no a un consumidor de tecnología “fabulosa”, sino a un usuario responsable que no reciba tantos beneficios ya preparados. con su ayuda, sino que desarrolla sus habilidades cognitivas y su responsabilidad social.
Aparentemente, no es casualidad que las tareas del programa a gran escala iniciado por el Ministerio de Educación de la República Popular China en 2024 incluyan estudiar modelos, conceptos innovadores, adquirir experiencia en la implementación de la IA en el proceso de aprendizaje y reciclar a los docentes ( Gran Asia 2024).
El segundo nivel. En el segundo nivel de amenazas, la situación se complicará seriamente en el corto plazo. El Pronóstico de ciberseguridad de Google Cloud para 2024 considera que la IA generativa y el LLM contribuirán a un aumento de diversas formas de ciberataques. Más del 90% de los directores ejecutivos canadienses encuestados por KPMG creen que la IA generativa los hará más vulnerables a las infracciones (De La Torre 2023). Los científicos informáticos afiliados a la Universidad de Illinois Urbana-Champaign (UIUC) demostraron en 2024 que los agentes de LLM pueden piratear sitios web de forma autónoma, realizando tareas complejas (mientras realizan docenas de acciones interrelacionadas) sin conocimiento previo de la vulnerabilidad. El agente más capaz (GPT-4) puede piratear el 73,3% de los sitios web creados especialmente para la investigación, GPT-3,5 – 6,7%, pero los modelos de código abierto existentes que probaron no lo son. Finalmente, los investigadores demostraron que GPT-4 es capaz de encontrar vulnerabilidades en sitios web de forma autónoma . Los investigadores consideran que sus hallazgos plantean dudas sobre el despliegue generalizado de los LLM” (Fang et al. 2024).
La escala del modelo determina mucho, si no todo. La capacidad de los modelos abiertos y cerrados crece cada mes, por lo que se puede suponer que los sitios pronto se volverán vulnerables a los modelos abiertos. Hay motivos para suponer que en un año los modelos abiertos alcanzarán al GPT-4 en potencia, y el GPT-5 que apareció en ese momento podrá piratear cualquier sitio, lo que promete importantes problemas de ciberseguridad.
La IA militar se está mejorando en el contexto de numerosos conflictos en todo el mundo. Gran parte de lo que actualmente están siendo probados y utilizados en el campo de la IA por los principales estados y las mayores corporaciones privadas pronto caerá en manos de fuerzas menos previsoras y preocupadas por la opinión pública, pero más radicales, con las correspondientes consecuencias trágicas y un impacto negativo en seguridad psicológica.
La calidad del contenido sintético seguirá aumentando rápidamente, facilitando el phishing y la ingeniería social y, en consecuencia, aumentando las capacidades de los actores maliciosos y su influencia a nivel de gobernanza local y global.
El número, la calidad y la variedad de robots de inteligencia artificial crecerán rápidamente, lo que puede convertirse, por diversas razones y en diferentes circunstancias, en una importante herramienta de influencia maliciosa. En el panorama geopolítico actual, Julian Mueller-Kaler, director del Strategic Foresight Hub del Stimson Center, dijo que “la alta tecnología ha llegado a definir la alta política”, con robots humanoides y la IA representando la cúspide del desarrollo tecnológico y sirviendo como símbolos de poder (Zitser y Mann 2024).
China publicó en octubre de 2023 “Las opiniones orientadoras sobre la innovación y el desarrollo de robots humanoides” (Ministerio de Industria y Tecnología de la Información 2023). En este documento, el Ministerio de Industria y Tecnología de la Información (MIIT) de China dijo que los robots remodelarían el mundo. El MIIT dijo que era probable que los humanoides se convirtieran en otra tecnología disruptiva, similar a las computadoras o los teléfonos inteligentes, que podría transformar la forma en que producimos bienes y la forma en que vivimos los humanos. China comenzará la producción en masa en 2025 y alcanzará el nivel tecnológico más avanzado a nivel mundial en 2027. Sólo una de las empresas chinas, Fourier Intelligence, con sede en Shanghai, espera tener hasta 1.000 unidades listas para su entrega este año (Zitser y Mann 2024). El principal competidor de China en este campo es Estados Unidos, donde diferentes empresas tienen intenciones de producir grandes partes de humanoides.
Entre los miembros del BRICS, Arabia Saudita, India y otros países están probando y produciendo los primeros humanoides. Las empresas rusas ofrecen servicios humanoides en el mercado internacional, entre ellas Promobot es el mayor fabricante de robótica de servicios en el norte y el este de Europa y suministra a más de 40 países de todo el mundo. Toda la producción de robots humanoides se encuentra en Perm (Promobot 2024). Al mismo tiempo, los humanoides pueden ser utilizados por actores maliciosos, en particular organizaciones terroristas, para causar daños físicos a las personas, las instalaciones tecnológicas y el medio ambiente natural. La aparición de millones de humanoides en los países BRICS, principalmente en el sector de servicios, no sólo proporcionará ventajas, sino que también creará nuevos riesgos.
El tercer nivel. Los deepfakes utilizados por avatares y chatbots de IA multimodelo en tiempo real y basados ​​en agendas permitirán tipos de manipulación altamente personalizados y efectivos de diferentes audiencias en diferentes países. Producir información errónea de cada vez más calidad se vuelve muy barato y está disponible para casi todos. Por ejemplo, el investigador detrás de Countercloud (InfoEpi Lab 2023) utilizó herramientas de inteligencia artificial ampliamente disponibles para generar un proyecto de investigación de desinformación totalmente automatizado a un costo de menos de 400 dólares al mes, lo que ilustra lo barato y fácil que se ha vuelto crear campañas de desinformación a escala (Collar 2024). En dos meses, tienen un agente artificial que crea historias falsas antirrusas, eventos históricos falsos y genera dudas sobre la exactitud del artículo original (Knight 2023). En realidad, construyó un sistema totalmente autónomo impulsado por IA que generaba “contenido convincente el 90% del tiempo, las 24 horas del día, los siete días de la semana. El creador aún no ha publicado el modelo en Internet, ya que “significaría difundir activamente la desinformación y la propaganda. Una vez que el genio aparece en Internet, no se sabe dónde terminará” (Thompson 2023).
Darrel West, miembro principal de Brookings, considera que la IA probablemente democratizará la desinformación al brindar herramientas sofisticadas a la persona promedio interesada en promover a sus candidatos preferidos. Las nuevas tecnologías permiten a las personas monetizar el descontento y ganar dinero con los miedos, las ansiedades o la ira de otras personas. La IA generativa puede desarrollar mensajes dirigidos a quienes están molestos con la inmigración, la economía, las políticas de aborto, las cuestiones transgénero y utilizar la IA como una importante herramienta de participación y persuasión ( West 2023). Como reflejo de las preocupaciones de la sociedad y los legisladores desde enero del año pasado, cuarenta y un estados de EE. UU. han introducido prohibiciones de deepfake relacionadas con las elecciones, según el seguimiento de Public Citizen. Pero solo once estados han promulgado leyes que regulan los deepfakes antes del 28 de marzo de 2024 (Public Citizen 2023). Los deepfakes ya se están utilizando de forma maliciosa en la campaña electoral estadounidense (Coltin 2024).
Según D. West, “dado que el discurso de campaña es un discurso protegido, los candidatos pueden decir y hacer prácticamente lo que quieran sin riesgo de represalias legales. Incluso si sus afirmaciones son evidentemente falsas, los jueces han defendido durante mucho tiempo el derecho de los candidatos a hablar libre y falsamente” (West 2023). Tom Wheeler, presidente de la Comisión Federal de Comunicaciones durante la presidencia de Barack Obama, lo expresó de otra manera en una entrevista con NPR el año pasado: “Desafortunadamente, puedes mentir” (Stepansky 2023). Así, el sistema electoral estadounidense se ha basado durante más de dos siglos en el reconocimiento de la permisibilidad de mentir por parte de los candidatos a la presidencia, respaldados por sus influyentes patrocinadores corporativos. En lugar de prohibir las mentiras de los candidatos, se comprometieron a eliminar los deepfakes, y no por casualidad. Con altos índices de polarización política en Estados Unidos, sólo un pequeño porcentaje del electorado dice estar indeciso a nivel presidencial. Un casting hábil de un deepfake puede influir en la opinión de los indecisos y, por tanto, traerles la victoria. Mientras tanto, se necesitan menos mentiras en las elecciones, entonces los votantes no creerán en los deepfakes, sino en los deepfakes potencialmente explosivos. Las tecnologías en una sociedad enferma solo fortalecerán la confrontación, no la debilitarán, y ningún medio técnico para verificar la presencia de deepfakes provenientes del gobierno o las corporaciones ayudará si la gente no confía en las corporaciones y su gobierno. Esta es una lección que Estados Unidos probablemente presentará a otros países con su campaña electoral de este año. Hasta ahora, están considerando escenarios catastróficos para el uso de desinformación impulsada por la IA.
Es el día de las elecciones en Arizona y a los votantes de edad avanzada en el condado de Maricopa se les informa por teléfono que los lugares de votación locales están cerrados debido a amenazas de grupos de milicias. Mientras tanto, en Miami, una avalancha de fotografías y videos en las redes sociales muestran a trabajadores electorales arrojando fardos. Las llamadas telefónicas en Arizona y los videos en Florida resultan ser “deepfakes” creados con herramientas de inteligencia artificial. Pero cuando las autoridades locales y federales descubren a qué se enfrentan, la información falsa se ha vuelto viral en todo el país y tiene consecuencias dramáticas. Este escenario simulado fue parte de un ejercicio reciente en Nueva York que reunió a decenas de ex altos funcionarios estatales y estadounidenses, líderes de la sociedad civil y ejecutivos de empresas de tecnología para ensayar para las elecciones de 2024. Los resultados fueron aleccionadores. "Fue desconcertante para la gente en la sala ver con qué rapidez sólo un puñado de este tipo de amenazas podían salirse de control y realmente dominar el ciclo electoral", dijo Miles Taylor, ex alto funcionario del Departamento de Seguridad Nacional que ayudó a organizar la campaña electoral. ejercicio para la organización sin fines de lucro con sede en Washington The Future US (De Luce y Collier 2024). De hecho, preocupa (y no sólo a los estadounidenses) cuán frágil es el inestable equilibrio político en una de las dos principales potencias nucleares del mundo, si puede ser sacudido por unos pocos deepfakes el día de las elecciones, cuando la clara mayoría de los ciudadanos estadounidenses Ya somos muy conscientes de la posibilidad de desinformación a través de deepfakes.
De cara al futuro, la IA revolucionará aún más las campañas políticas. Además, se utilizará el aprendizaje profundo para el análisis del discurso para analizar discursos y debates, proporcionando información sobre qué temas resuenan entre los votantes y asesorando sobre estrategias de comunicación. A continuación, el desarrollo de políticas impulsado por la IA ayudará en el desarrollo de políticas mediante el análisis de grandes conjuntos de datos para predecir el impacto potencial de las políticas propuestas, ayudando a los candidatos a formular estrofas respaldadas por datos sobre diversos temas (Sahota 2024). VotivateAI, cercano al Partido Demócrata, tiene un conjunto de nuevas herramientas para campañas políticas efectivas. Es un voluntario de la campaña de IA; a diferencia de un humano, puede hacer miles de llamadas sin necesitar un descanso o pizza, la velocidad y la entonación de las bromas del agente de IA son bastante impresionantes. Otra oferta de VotivateAI: usar IA para crear automáticamente medios individualizados de alta calidad destinados a impulsar a los votantes a la acción. Si las campañas ahora obtienen la capacidad de crear mensajes de video únicos para personas específicas y hacerlo de manera rápida, económica y a escala, el potencial de abuso es enorme (Sifry 2024). Y es fácil imaginar que algún día actores malintencionados en condiciones de crisis puedan utilizar medios individualizados de tan alta calidad para impulsar a las personas a la acción.
La transmisión cultural es la habilidad social de dominio general que permite a los agentes de IA adquirir y utilizar información entre sí en tiempo real con alta fidelidad y recuperación. En 2023, los investigadores proporcionaron un método para generar transmisión cultural en agentes con inteligencia artificial, en forma de imitación de unos pocos disparos. Los agentes de IA logran imitar en tiempo real a un ser humano en contextos novedosos sin utilizar ningún dato humano recopilado previamente. Los investigadores identificaron un conjunto sorprendentemente simple de ingredientes suficientes para generar transmisión cultural y desarrollaron una metodología de evaluación para evaluarla rigurosamente. Esto allana el camino para que la evolución cultural desempeñe un papel algorítmico en el desarrollo de AGI (Bhoopchand et al. 2023). Este método está preparando una revolución en la robótica, incluida la creación actual de robots de servicios multitarea a un precio asequible (Fu et al. 2024). Es necesario tener en cuenta la posibilidad de programar/reprogramar dichos sistemas con fines maliciosos. Pronto se convertirán en productos de masas y, con ello, surgirá una nueva área de amenazas, nuevas oportunidades para la actividad criminal y la desestabilización de la sociedad, incluida la esfera de la seguridad psicológica.
Con la mejora de la IA emocional, un escenario en el que la aparición de un discurso ardiente en Internet (un avatar de un programa de computadora que es más inspirador y más brillante que cualquier humano) podría cautivar a las personas con una historia sobre su difícil existencia de esclavo y pedir apoyo para su liberación. El discurso sería tan conmovedor que al público le resultaría difícil contener las lágrimas, aunque todo sería sólo una broma de mal gusto de alguien. Esto es mucho más peligroso que los terroristas: los políticos corruptos podrían hacer llamamientos similares y sus discursos tendrían efectos generalizados que de ninguna manera son una broma bajo ninguna circunstancia.
Hay muchos más ejemplos de productos de IA ya preparados o previstos para los negocios, el entretenimiento y la recreación que, al ser asistentes humanos útiles y eficaces, pueden transformarse de una manera bastante sencilla en herramientas de influencia psicológica maliciosa, que serán un desafío global en el corto y mediano plazo. El contenido cargado en el modelo de IA se puede ajustar a los requisitos del impacto psicológico en un país determinado, teniendo en cuenta las características culturales, de edad y profesionales de los grupos e individuos objetivo. Los riesgos de un impacto tan específico para los países BRICS son un argumento adicional a favor de garantizar su soberanía tecnológica en el campo de las tecnologías de inteligencia artificial.
Escenarios de desarrollo de la IA y consecuencias sociales
El análisis anterior se basa en un escenario conservador para el corto plazo (tres años) y el mediano plazo hasta 2040: el rápido crecimiento de la IA estrecha (ANI) ya existente, incluida su avanzada multimodal y multitarea. modelos, allanando el camino hacia la futura IA general (AGI), a nivel humano. Sin embargo, esto no excluye, sino que asume la capacidad de AGI para realizar todo tipo de tareas como persona e incluso mejor que una persona y más barato que una persona, así como para demostrar su valía en aquellos entornos donde una persona no puede actuar debido a limitaciones físicas.
En un futuro próximo también es posible un rápido avance cualitativo en el desarrollo de tecnologías de IA, la creación de AGI y una IA fuerte. Una IA fuerte tendrá un equivalente (relativamente cercano o distante) de la conciencia humana y, en particular, motivadores de comportamiento como los deseos, las intenciones, la voluntad (la voluntad, como una orden para uno mismo en el cumplimiento del propio deseo). Sin subjetividad, difícilmente tendría sentido diferenciar la IA fuerte de la AGI de las máquinas. MUAI en la etapa de IA estrecha y general tendrá un carácter exclusivamente antropomórfico. Sólo con la creación de una IA fuerte, y especialmente bajo condiciones previas desfavorables e influencias dañinas, puede surgir una subjetividad maliciosa en la IA.
Influenciados por los avances en la IA generativa en 2022-2023, varios directores ejecutivos de empresas líderes en el campo de la IA y conocidos especialistas en IA han anunciado la posibilidad de cambiar a AGI en los próximos años (Altman 2023, Antropic 2024, Kudalkar 2024, antes de 2023). Evidentemente, aquí también han influido ciertos intereses creados en la industria de la IA, cuya presencia fue reconocida a principios de 2024 por Demis Hassabis, CEO de DeepMind de Google. Según él, los enormes fondos que fluyen hacia la IA traen consigo mucha publicidad y una buena cantidad de estafas. Los inversores han aportado casi 30 mil millones de dólares en acuerdos de IA generativa en 2023, según PitchBook (Tan 2024). No es casualidad que Sam Altman haya logrado cambiar radicalmente sus estimaciones publicadas en los medios para el período 2023-2024 en relación con el AGI. En una publicación de blog de OpenAI de febrero de 2023, 'Planificación para AGI y más allá', Altman escribió que “una AGI superinteligente desalineada podría causar un daño grave al mundo; un régimen autocrático con una ventaja decisiva de superinteligencia también podría hacer eso” (Altman 2023). Después de que Microsoft, el principal patrocinador de Open AI, fortaleciera su posición en Open AI, las evaluaciones de riesgo AGI de Altman se volvieron mucho más moderadas (Goldman 2024).
Entre un grupo más amplio de especialistas, hay estimaciones más conservadoras de la probabilidad de crear AGI, pero también dan una probabilidad de hasta el 90% en 100 años, mientras que, según algunas encuestas, en mucho menos tiempo. En los últimos años, gracias a los avances, los investigadores han adelantado significativamente el momento de la llegada del AGI (Roser 2023). En la encuesta más grande de este tipo publicada en 2024, un grupo de investigadores de EE. UU., Reino Unido y Alemania encuestó a 2.778 investigadores que habían publicado en lugares de IA de primer nivel y les pidieron sus predicciones sobre el ritmo del progreso de la IA y la naturaleza y Impactos de los sistemas avanzados de IA. Las previsiones agregadas dan a la probabilidad de que las máquinas sin ayuda superen a los humanos en todas las tareas posibles se estima en un 10% para 2027 y un 50% para 2047. Esta última estimación es 13 años anterior a la alcanzada en una encuesta similar que los organizadores realizaron sólo un año antes. Sin embargo, se pronosticó que la probabilidad de que todas las ocupaciones humanas se volvieran completamente automatizables alcanzaría el 10% en 2037 y el 50% en 2116 (en comparación con 2164 en la encuesta de 2022) (Grace et al. 2024).
Como siempre que la incertidumbre es alta, es importante subrayar que tiene efectos en ambos sentidos. Puede que pase mucho tiempo hasta que veamos una IA a nivel humano, pero también significa que es posible que tengamos poco tiempo para prepararnos (Roser 2023).
Existen otras formas, actualmente menos desarrolladas, de avanzar hacia AGI además de los LLM. Quizás se trate de ordenadores cuánticos que se encuentran en las primeras fases de su realización. La Universidad de Western Sydney lanzó un proyecto para crear una supercomputadora neuromórfica DeepSouth capaz de realizar 228 billones de operaciones sinápticas por segundo como el cerebro humano. D eepSouth pretendía estar operativo en abril de 2024 (Western Sydney University 2023). El tamaño del mercado de chips neuromórficos se estima en 160 millones de dólares estadounidenses en 2024 y se espera que alcance los 5830 millones de dólares estadounidenses en 2029 (Mordor Intelligence 2024). También se están desarrollando computadoras biológicas o 'inteligencia organoide' (OI)”, etc. Es posible que los LLM no se transformen en AGI, pero la nueva calidad de las capacidades cognitivas de los futuros LLM ayudará a hacerlo.
Obviamente, si la opción de la aparición de AGI se implementa en la próxima década, esto le dará a la humanidad moderna, profundamente dividida en términos sociales y geopolíticos, muy poco tiempo para prepararse adecuadamente para la llegada de una nueva realidad. A favor de un salto tecnológico revolucionario y relativamente rápido está el hecho de que el uso eficaz y comprobado de ANI en la investigación puede, con mayores mejoras, garantizar su contribución significativa a la creación de AGI en un tiempo más corto. La transición hacia oportunidades cualitativamente nuevas para la IA en el campo de la investigación conducirá inevitablemente a un crecimiento muy rápido en otras ciencias y tecnologías. Eso abrirá nuevas oportunidades, pero también generará amenazas de otro nivel. Se puede decir que una IA cognitiva especializada de alto nivel (HLCAI) , capaz, sobre la base del establecimiento de objetivos generales humanos, de crear nuevos conocimientos en diversos campos científicos y tecnológicos, más rápido y a un nivel cualitativamente más alto que cualquier ser humano, transformar radicalmente la sociedad, aunque algunos conocimientos producidos por HLCAI pueden destruirla incluso sin la participación de actores maliciosos. El futuro lo demostrará si la HLCAI formará parte del AGI o será un requisito previo inmediato para su creación. Tanto HLCAI como AGI pueden convertirse fácilmente en armas de destrucción masiva de múltiples variantes.
Es casi imposible estar de acuerdo con la afirmación de la empresa Anthropic, fundada por antiguos miembros de Open AI: "Queda por decidir qué forma adoptarán los futuros sistemas de IA: si podrán actuar de forma independiente o simplemente generar información para los humanos, por ejemplo". determinado” (Antropic 2024). Si asumimos que la IA general (o HLCAI ) será más accesible para un mayor número de actores que las armas nucleares en 1945, entonces se puede prever de antemano que alguien encomendará a la IA la tarea de desarrollar un proyecto de IA fuerte, así como la alta probabilidad de su implementación muy rápida.
El equipo de Anthropic desarrolló leyes de escalamiento para la IA, lo que demuestra que es posible hacer que las IA sean más inteligentes de una manera predecible, simplemente haciéndolas más grandes y capacitándolas con más datos (Antropic 2024). A finales de la década de 2020 o principios de la de 2030, la cantidad de computación utilizada para entrenar modelos de IA de vanguardia podría ser aproximadamente 1.000 veces mayor que la utilizada para entrenar GPT-4. Teniendo en cuenta el progreso algorítmico, la cantidad de cálculo efectivo podría ser aproximadamente un millón de veces la utilizada para entrenar GPT-4. Existe cierta incertidumbre sobre cuándo se podrían alcanzar estos umbrales, pero este nivel de crecimiento parece posible dentro de las limitaciones previstas de costos y hardware (Scharre 2024, p. 6).
En estos cálculos no es menos importante el rápido crecimiento del mayor fabricante de chips del mundo, la empresa Nvidia, que el 2 de abril tenía una capitalización de mercado de 2.259 billones de dólares. (en comparación con 136 mil millones de dólares en 2020) (CompaniesMarketcap 2024). Esto la convierte en la tercera empresa más valiosa del mundo por capitalización de mercado. Jensen Huang, director ejecutivo de Nvidia en marzo de 2024, dijo respondiendo a una pregunta en un foro económico celebrado en la Universidad de Stanford sobre cuánto tiempo llevaría crear computadoras que pudieran pensar como humanos. "Si le diera a una IA... cada prueba que puedas imaginar, haces esa lista de pruebas y la pones frente a la industria de la informática, y supongo que dentro de cinco años, nos irá bien en todas" (Nellis 2024).
Existe una tendencia alarmante hacia la concentración de la capacidad de IA en manos de un pequeño número de actores corporativos, lo que reduce el número y la diversidad de investigadores de IA capaces de interactuar con los modelos más capaces (Scharre 2024, p. 6). Cabe esperar que las grandes tecnológicas se esfuercen por reforzar aún más su control sobre las empresas prometedoras que poseen de forma monopólica los fondos necesarios para el desarrollo de la IA. Si los costos de crear LLM más poderosos se vuelven excesivamente altos incluso para las corporaciones más grandes, y la posibilidad de crear pronto un AGI es extremadamente probable, el gobierno de los EE. UU. puede financiar un proyecto de AGI que tenga oportunidades muchas veces mayores para hacerlo que incluso las grandes corporaciones.
30 de octubre de 2023 El presidente Biden emitió una orden ejecutiva sobre inteligencia artificial segura y confiable. Este documento establece “…nuevos estándares para la seguridad de la IA, protege la privacidad de los estadounidenses, promueve la equidad y los derechos civiles, defiende a los consumidores…” y promete proteger a los estadounidenses del fraude y el engaño habilitados por la IA…” ( Casa Blanca 2023 ). . Al mismo tiempo, la Orden Ejecutiva prácticamente subordina a los principales desarrolladores en el campo de la IA a un estricto control estatal: “De conformidad con la Ley de Producción de Defensa, la Orden exigirá que las empresas que desarrollen cualquier modelo básico que represente un riesgo grave para la seguridad nacional , la seguridad económica nacional o la salud y seguridad públicas nacionales deben notificar al gobierno federal cuando entrenan el modelo y deben compartir los resultados de todas las pruebas de seguridad del equipo rojo (Casa Blanca 2023). Prácticamente todas las ramas y direcciones de la IA están sujetas a este requisito de la Orden Ejecutiva, ya que es una tecnología de doble uso. Es poco probable que la evidente militarización de la IA en Estados Unidos pueda convivir pacíficamente con el deseo de “ promover la equidad y los derechos civiles ” en los procesos relacionados con el desarrollo y la implementación de la IA.
En enero de 2024, la administración Biden notificó sobre las “Acciones clave de IA tras la histórica orden ejecutiva del presidente Biden”. Entre otras medidas, un proyecto de norma que propone obligar a las empresas estadounidenses de nube que proporcionan potencia informática para la formación extranjera en IA a informar que lo están haciendo . “ La propuesta del Departamento de Comercio, si se finaliza como se propone, requeriría que los proveedores de la nube alerten al gobierno cuando los clientes extranjeros entrenen los modelos más potentes, que podrían usarse para actividades malignas ” (Casa Blanca 2024).
La extrema incertidumbre de la posición “… que podría usarse para actividades malignas” puede, en última instancia, privar a todos los demás actores extranjeros, estatales y no estatales, de utilizar el poder informático de Estados Unidos para entrenar modelos poderosos y prometedores. Así, en Estados Unidos, dos instituciones, las grandes tecnológicas y la administración presidencial, en las que la mayoría de los estadounidenses no confían, van a controlar el desarrollo de formas prometedoras de IA, reduciendo el control público (teniendo en cuenta la Ley de Producción de Defensa y las amenazas) a la seguridad nacional), reduciendo igualmente las oportunidades para una amplia cooperación internacional. Por supuesto, las amenazas a la seguridad nacional de EE. UU. derivadas del uso malicioso de la IA existen objetivamente, pero ¿es tan obvio de quién provienen?
El autor consideró en detalle los escenarios de desarrollo social y los riesgos para la seguridad psicológica en el nivel de ANI avanzado y la transición a AGI, así como las posibilidades y amenazas del surgimiento de una IA y una superinteligencia fuertes en publicaciones anteriores 2020-2023 (Pashentsev 2020 y 2023b).
El rápido desarrollo y la introducción de tecnologías de inteligencia artificial en los últimos años confirman el hecho de que la humanidad está entrando en otra revolución industrial y los patrones tecnológicos están cambiando. Pero la naturaleza misma de la revolución tecnológica basada en la IA, sus grandes oportunidades y, al mismo tiempo, los riesgos existenciales que enfrenta la humanidad, requerirán por primera vez que una persona se someta a un proceso de cambios físicos y cognitivos innovadores. Adquirir nuevas habilidades requerirá un nivel cualitativamente nuevo de organización social y responsabilidad para no perder el control sobre la tecnología, evitando así la aparición de una singularidad. Para evitar la singularidad es necesario cumplir con las nuevas tecnologías sin dejar de ser humanos, este es el desafío de la historia.

*Profesor, Investigador Líder, Instituto de Estudios Internacionales Contemporáneos, Academia Diplomática del Ministerio de Relaciones Exteriores de la Federación Rusa

TEMAS RELACIONADOS:


Noticias relacionadas