geoestrategia.eu
'Israel fue derrotado': el colapso de su arma maravillosa basada en un algoritmo de inteligencia artificial

'Israel fue derrotado': el colapso de su arma maravillosa basada en un algoritmo de inteligencia artificial

Por Administrator
x
directorelespiadigitales/8/8/23
viernes 19 de abril de 2024, 22:00h
Alastair Crooke
El periodista israelí Yuval Abraham ha escrito un artículo detallado y de múltiples fuentes que detalla cómo las fuerzas israelíes han marcado a decenas de miles de habitantes de Gaza como “sospechosos” de crímenes utilizando un sistema de selección de objetivos de inteligencia artificial.
El derecho internacional se basa en la responsabilidad humana y en la rendición de cuentas en última instancia cuando los humanos matan a otros humanos. La ley con respecto a los combatientes armados es más amplia, pero la responsabilidad personal se aplica igualmente al asesinato de civiles, mujeres y niños.
Pero ¿qué pasa si se afirma que la matanza está dirigida por una "máquina", por una Inteligencia Artificial, basada en una "ciencia" algorítmica?
¿La responsabilidad humana por matar a "otros" de alguna manera queda absuelta por la intención "científica" de las listas de muerte generadas por máquinas de IA, cuando "se vuelven locos"?
Esta es la cuestión que plantea el uso de la IA 'Lavender' por parte de las fuerzas israelíes para proporcionar a Israel listas de muerte en Gaza.
El periodista israelí Yuval Abraham ha escrito un detallado relato de denuncia de múltiples fuentes, en el que detalla cómo las fuerzas israelíes han marcado a decenas de miles de habitantes de Gaza como sospechosos de asesinato utilizando un sistema de selección de objetivos de inteligencia artificial con poca supervisión humana y una actitud permisiva. política de bajas.
El creador del sistema, el actual comandante de la unidad de inteligencia de élite israelí 8200, había defendido anteriormente el diseño de una "máquina objetivo" basada en inteligencia artificial y algoritmos de aprendizaje automático que podría procesar rápidamente cantidades masivas de datos para generar miles de "objetivos" potenciales. para ataques militares, en el fragor de una guerra.
Como detalló Abraham,
“Formalmente, el sistema Lavender está diseñado para marcar a todos los agentes sospechosos en las alas militares de Hamas y la Jihad Islámica Palestina (PIJ), incluidos los de bajo rango, como posibles objetivos de bombardeo. Las fuentes dijeron a +972 y Local Call que durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que registró hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos”.
“Durante las primeras etapas de la guerra, el ejército dio una amplia aprobación para que los oficiales adoptaran las listas de muerte de Lavender, sin necesidad de comprobar minuciosamente por qué la máquina tomó esas decisiones ni de examinar los datos de inteligencia en bruto en los que se basaban. Una fuente afirmó que el personal humano a menudo servía sólo como “sello de goma” para las decisiones de la máquina, añadiendo que, normalmente, dedicarían personalmente sólo unos “20 segundos” a cada objetivo antes de autorizar un bombardeo”.
Para ser claros: el 'genocidio' generado por la IA clava una estaca en el corazón del Derecho Internacional Humanitario.
"El resultado es que miles de palestinos -la mayoría de ellos mujeres y niños o personas que no participaron en los combates- fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA".
¿Quién es entonces el responsable? ¿Quién debe rendir cuentas?
El sistema estuvo defectuoso desde el principio. Las fuerzas militares Al-Qassam de Hamás operan desde profundos túneles subterráneos, donde tienen sus dormitorios, todo lo cual las hace inmunes a los programas de reconocimiento facial operados desde el reconocimiento aéreo israelí sobre Gaza.
En segundo lugar, como le explicó a Abraham un alto cargo 'B': "No sabíamos quiénes eran los agentes de 'nivel inferior' [en la superficie]". Los combatientes Qassam y los civiles de Gaza no parecen diferentes. No hay ninguna característica que identifique al 'hombre de Hamas' que lo distinga positivamente de cualquier otro hombre de Gaza, por lo que Lavender identificó a estos 'objetivos' como 'afiliados a Hamas' en fronteras fluidas, de manera que alguna vez se unieron a algún grupo de Whatsapp que alguna vez incluyó miembro de Hamás, o prestaron su teléfono a sus familias o lo dejaron cargando en casa.
“Querían permitirnos atacar [a los agentes jóvenes] automáticamente. Ese es el Santo Grial. Una vez que se vuelve automático, la generación de objetivos se vuelve loca”.
"Según las fuentes, la máquina otorga a casi todas las personas en Gaza una calificación del 1 al 100, expresando la probabilidad de que sean militantes".
Después de haber pasado algunos años trabajando en Gaza, permítanme decir que todos conocían o hablaban con alguien de Hamás en Gaza. Hamás ganó abrumadoramente las elecciones allí en 2006: por lo tanto, se podría decir que casi todo el mundo –de una manera u otra– está “afiliado”.
Se pone peor:
“A las 5 de la mañana, [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado”, dijo B. “Sacamos a miles de personas. No los revisamos uno por uno: pusimos todo en sistemas automatizados, y tan pronto como uno de [los individuos marcados] estaba en casa, inmediatamente se convertía en un objetivo. Lo bombardeamos a él y a su casa”.
" El ejército prefirió utilizar sólo bombas "tontas"... No conviene desperdiciar bombas costosas en personas sin importancia; es muy caro para el país y hay escasez [de esas bombas] ", dijo C.
El autor del sistema Lavender, el general de brigada Yossi Sariel, había escrito de forma anónima en The Human Machine Team (2021) que la sinergia entre ' La inteligencia humana y la artificial revolucionará nuestro mundo '. Claramente, los dirigentes israelíes (y algunos en Washington también) creían en su entusiasmo por esta revolución en la guerra (véase, por ejemplo, este artículo de John Spencer, catedrático de Estudios de Guerra Urbana en la academia militar de élite del ejército estadounidense, WestPoint). De ahí la repetida afirmación de Netanyahu de que Israel estaba al borde de una "Gran Victoria" en Gaza con 19 de las 24 Brigadas de Hamás desmanteladas. Ahora sabemos que fue una tontería.
La IA debía haber sido el arma secreta de Israel. Yossi Sariel (el creador de Lavender) hizo recientemente su mea culpa (reportado en The Guardian): Los críticos de Sariel, en un informe citado por The Guardian, creen que la priorización por parte de la Unidad 8200 de tecnología "adictiva y emocionante" sobre métodos de inteligencia más anticuados había llevado a desastre. Un funcionario veterano dijo a The Guardian que la unidad bajo el mando de Sariel había “seguido la nueva burbuja de inteligencia [IA]”.
Por su parte, Sariel habría dicho a sus colegas tras el 7 de octubre que “acepto la responsabilidad por lo ocurrido en el sentido más profundo de la palabra”, afirmó. “Fuimos derrotados. Fui derrotado”.
Sí, y como resultado de ello decenas de miles de palestinos, mujeres y niños inocentes han sido asesinados brutalmente. Y Gaza reducida a escombros. El reportaje de investigación de Yuval Abraham debería remitirse a la Corte Internacional de Justicia (CIJ), que examina las pruebas del "genocidio sospechoso" en Gaza.