geoestrategia.eu
Los impactantes abismos de la inteligencia artificial

Los impactantes abismos de la inteligencia artificial

Por Administrator
x
directorelespiadigitales/8/8/23
jueves 19 de septiembre de 2024, 22:00h
Leonid Savin
Sustituir la realidad y analizarla en profundidad: los nuevos programas son capaces de ello.
La inteligencia artificial es una de esas tecnologías críticas que se están desarrollando rápidamente, y su aplicación se está llevando a cabo en una amplia variedad de campos. Aunque hay casos en los que estas innovaciones claramente no son beneficiosas, sino que se utilizan con fines destructivos.
El primer ejemplo está relacionado con la sustitución de la realidad en Venezuela. Dado que existe una posibilidad real de ser condenado a prisión por incitar a las protestas, los estrategas de la oposición han dominado un nuevo truco para la manipulación de los medios de comunicación: crearon presentadores de noticias virtuales como «Bestie» y «Buddy» para publicar informes críticos con el gobierno en las redes sociales. Este innovador enfoque con avatares virtuales, que forma parte del proyecto «Operación Retweet», les permite decir casi cualquier cosa, eludiendo responsabilidades. La «Operación Retweet», a su vez, forma parte de las iniciativas #VenezuelaVota y #LaHoradeVenezuela.
Por primera vez, apareció información al respecto el 16 de agosto en la CNN, que es el altavoz de los globalistas.
Los vídeos de la «Operación Retweet» se publican en plataformas de medios sociales como X (antes Twitter),YouTube, TikTok, Facebook e Instagram. En estas plataformas digitales, avatares de inteligencia artificial comparten información sobre temas de actualidad en Venezuela. El primer episodio, publicado el 14 de agosto, estuvo dedicado al número de detenidos tras las elecciones presidenciales y a cómo afecta la crisis política del país a la economía.
Obviamente, todo esto se muestra no desde la posición del Estado de Derecho y la soberanía, sino desde el punto de vista de la oposición y los intereses del principal instigador de la crisis actual: Estados Unidos.
Es bastante probable que el propio método fuera sugerido por patrocinadores del Departamento de Estado estadounidense.
La estrategia, en general, es bastante innovadora, incluso en materia de evasión de responsabilidades. Después de todo, si un presentador ordinario puede enfrentarse a un proceso penal por declaraciones que son claramente ilegales, ¿qué decir de un avatar virtual? Hay que buscar a su creador, periodistas, reporteros y editores, lo que complica claramente las acciones de investigación.
Una situación similar, pero con una dimensión ligeramente diferente, se está dando ahora en Corea del Sur. Hay un auge de deepfakes eróticos y pornográficos generados por IA.
En un delito reciente, varios estudiantes de secundaria de Busan crearon falsificaciones pornográficas de sus compañeros y profesores de su centro y las publicaron en una sala de chat de grupo en KakaoTalk. Se han dado casos similares en unos 150 institutos y colegios de todo el país. Según se ha publicado en las redes sociales, se han dado casos similares en unos 150 centros de enseñanza media y secundaria de todo el país. Esto sugiere un problema generalizado de delitos de deepfake perpetrados por adolescentes acostumbrados a los contenidos digitales.
Según las investigaciones del Hankyoreh, los delitos de deepfakes en unidades militares han alcanzado niveles graves. Se supo que algunos de los deepfakes que implicaban a mujeres soldados utilizaban fotografías de identificación y certificaciones oficiales del gobierno a las que sólo se podía acceder en la intranet militar. Dado que a esa intranet sólo pueden acceder personas con información privilegiada, esto sugiere que el alcance de tales delitos es realmente amplio.
Pero poco puede hacer el gobierno, por lo que el grupo coreano de defensa de los derechos de la mujer Womenlink afirma que las mujeres siguen «viviendo sin Estado» porque ya no creen que su país les proporcione la protección necesaria.
Sin embargo, la realidad falla no sólo por culpa de gamberros, como en Corea del Sur, o de activistas con motivaciones políticas, como en Venezuela.
En agosto de 2024, altos funcionarios electorales de Michigan, Minnesota, Nuevo México, Pensilvania y Washington enviaron una carta a Elon Musk quejándose de que el chatbot de inteligencia artificial de la plataforma X, Grok, produjo información falsa sobre los plazos de las votaciones estatales poco después de que el presidente Joe Biden abandonara la carrera presidencial de 2024.
Los secretarios de Estado pidieron que el chatbot dirigiera a los usuarios que hicieran preguntas relacionadas con las elecciones a un sitio web de información electoral.
Elon Musk se adelantó a las demandas de los funcionarios. Curiosamente, Alabama, Indiana, Ohio y Texas también fueron mencionados en la difusión de la información poco fiable sobre el momento de la votación, aunque no se recibió ninguna carta de los dirigentes de estos Estados.
La información falsa siguió repitiéndose durante 10 días. Se desconoce la razón por la que se facilitó dicha información.
Si estos casos ilustran una distorsión de la realidad y su sustitución, también existe el enfoque opuesto: un análisis exhaustivo y en profundidad de los datos. En teoría, puede utilizarse en diversos campos, pero ahora lo explotan activamente el ejército y los servicios de inteligencia estadounidenses.
El director de datos e innovación digital de la Agencia Nacional de Inteligencia Geoespacial (NGA, en inglés), Mark Munsell, afirmó que la NGA ha empezado recientemente a entrenar algoritmos de inteligencia artificial en su tesoro único de datos visuales y textuales. Durante décadas, la agencia de inteligencia estadounidense ha acumulado grandes cantidades de datos bien etiquetados, bien organizados y cuidadosamente examinados, incluido un archivo inigualable de imágenes por satélite. Para procesarlos, la agencia necesitaba dedicar mucho tiempo e implicar a un gran número de personal. Pero ahora estos archivos intentan combinarse con los informes de personas cuidadosamente seleccionadas sobre lo que ven en esas imágenes.
Existen grandes modelos lingüísticos que funcionan exclusivamente con texto: Se entrenan con texto, reciben datos de entrada en forma de texto y emiten respuestas en forma de texto. Otras formas de inteligencia artificial generativa pueden correlacionar texto e imágenes lo suficientemente bien como para convertir las indicaciones escritas de los usuarios en imágenes o incluso en vídeo.
Y ahora, el ejército y los servicios de inteligencia estadounidenses anuncian un nuevo enfoque y la próxima frontera: la IA multimodal. La capacidad crucial consiste en cruzar distintos tipos de información sobre la misma cosa, como una imagen o un vídeo con el pie de foto asociado que lo describe con palabras, de forma muy parecida a como el cerebro humano puede asociar una idea o un recuerdo con información procedente de todos los sentidos.
William Corvey, director del programa DARPA, señaló también en la mesa redonda de la Alianza de Inteligencia y Seguridad Nacional (INSA) que la IA multimodal puede funcionar incluso con sentidos de los que carecen los seres humanos, como las imágenes infrarrojas, las señales de radio y radar o el sonar.
«Imaginemos sistemas multimodales que puedan conciliar información visual y lingüística y otros tipos de modalidades de sensores que podrían estar disponibles para un robot pero no lo están para un ser humano». dice Corvey con admiración.
Los algoritmos modernos de IA han demostrado ser perfectamente capaces de trabajar con imágenes, vídeo y todo tipo de datos de sensores, no sólo texto, porque pueden abstraer todos y cada uno de ellos en las mismas representaciones matemáticas.
Por eso, el ejército estadounidense está tratando de utilizarlo para llevar diversos datos a un denominador común y a una orientación más clara. Y este enfoque se utiliza en todas partes.
El FBI está utilizando tecnología basada en IA para evaluar las pistas y asegurarse de que se identifican con precisión, se priorizan y se procesan a tiempo. El Open Source Enterprise de la CIA lanzó una herramienta interna de IA «estilo Chat-GPT» para permitir a los analistas tener «un mejor acceso a la inteligencia de fuente abierta», y la NSA abrió un «Centro de Seguridad de Inteligencia Artificial», centrado en defender «la IA de la Nación a través de la colaboración impulsada por Intel con la industria, el mundo académico, la Comunidad de Inteligencia (IC) y otros socios gubernamentales».
Aunque es de suponer que las nuevas tecnologías darán ventaja a las fuerzas de seguridad estadounidenses, hay que recordar la otra cara de la moneda: toda esta información se utilizará contra posibles adversarios, que en Washington incluyen a China, Rusia y otros países. Y desde su punto de vista, tal aplicación de la inteligencia artificial es también destructiva.
Análisis: La inteligencia artificial no existe
Más precisamente, existe una marca, un tema que se ha promovido activamente durante más de 10 años (pero ya hubo enfoques antes). Pero lo que hoy intentan vender bajo esta marca no es inteligencia. También puede llamar a la inteligencia artificial 1C-Accounting o Yandex.Navigator.
Intentaré explicar en términos sencillos qué se entiende por aprendizaje automático y redes neuronales.
Esto es un algoritmo. Como cualquier algoritmo, hace frente (como mínimo) a algún tipo de problema, pero por definición no puede resolver NINGÚN problema. Una red neuronal es el resultado del procesamiento estadístico de un gran conjunto de datos, llamado conjunto de entrenamiento. Y toda su "inteligencia" en realidad se reduce a escupir un resultado similar al de esa muestra al recibir algunos datos de entrada.
Aproximadamente, a la red neuronal le dieron miles de fotografías diferentes con gatos, y dijeron: esto es un gato. Luego dieron la misma cantidad de fotografías de perros: esto es un perro. Los coeficientes numéricos (pesos) están impresos en las neuronas y ahora puede enviar alguna foto nueva como entrada y esperar en la salida algo como "esto es 34% gato y 18% perro".
El principio es importante: las redes neuronales son un algoritmo para reconocer patrones e imágenes. No hay ninguna actividad intelectual en absoluto.
Reconocer fotografías y texto, simular diálogos, traducir, dibujar imágenes similares basándose en una solicitud de texto, sugerir código en el editor, eliminar ruido del sonido, resaltar tumores en imágenes de resonancia magnética, sí. Pero pensar... no, lo siento.
Al igual que la clasificación de burbujas, clasifica conjuntos de datos, pero no puede jugar al ajedrez ni construir una ruta.
Como cualquier algoritmo, las redes neuronales tienen sus desventajas y limitaciones. Lo primero que se desprende de la definición es la muestra de entrenamiento. Debe ser muy grande, muy completo y muy fiable. Si solo damos 100 fotografías de perros y gatos, la precisión del reconocimiento será insignificante. Si tomamos Wikipedia como fuente, entonces la neurona resultante tendrá creencias políticas claramente sesgadas.
Lo mejor es que es muy difícil corregir las “creencias” de una red neuronal, porque no es una biblioteca estructurada con registros legibles por humanos, sino simplemente un montón de números, y qué número es responsable del resultado es imposible de determinar. Esto lleva a incidentes divertidos (y ofensivos), como cuando Google Photos reconoció a los negros como monos, y a la colocación forzada de muletas encima de los resultados devueltos, como la censura manual: no hables de eso. En general, si el conjunto de entrenamiento alguna vez incluyó datos corruptos, entonces no hay forma de detectarlos; es más fácil entrenarlos nuevamente.
El sufrimiento de los desarrolladores no termina ahí: elegir los parámetros y la estructura de una red neuronal no es una cuestión trivial y se hace mediante prueba y error utilizando la intuición (ya que esta tarea no tiene una respuesta correcta). Cuántas entradas/salidas tiene una red neuronal, profundidad, etc: todo esto lo determina el desarrollador y, en consecuencia, también se puede almacenar.
Entrenar las redes neuronales requiere mucho tiempo y es costoso: requieren mucha potencia de procesamiento y electricidad. Y también es muy difícil "volver a entrenarlos" en tiempo real con nuevos datos: las noticias deben filtrarse a las redes neuronales y, de alguna manera, ajustar los pesos de las conexiones entrenadas anteriormente.
En general, los usuarios finales siempre deberían preguntarse:
- ¿Con qué datos se entrenó la red neuronal?
- ¿Quién proporcionó estos datos? ¿Se puede confiar en ellos?
- ¿Los datos son fiables y están actualizados?
- ¿Cómo podemos asegurarnos de que no haya entrado nada corrupto o erróneo en la red neuronal? (spoiler: de ninguna manera).