Patricia Ávila
MONTEVIDEO (Sputnik) — Figuras del sector tecnológico mundial, como Bill Gates y Elon Musk, mantienen visiones opuestas sobre el desarrollo de la inteligencia artificial en un momento en que es furor el sistema de conversación automática ChatGPT.
En una esquina tenemos a Musk (dueño de Tesla, SpaceX y Twitter), a Steve Wozniak (cofundador de Apple), a Stuart Russell (profesor de la Universidad de Berkley y una prominente figura en el campo de la inteligencia artificial), todos a favor de que se haga una pausa en los experimentos en el sector.
En la otra esquina del cuadrilátero se calzan los guantes Bill Gates (fundador de Microsoft), Yann LeCun (vicepresidente y científico en jefe de inteligencia artificial de Meta, exFacebook), Jean-Gabriel Ganascia (profesor de la Universidad de la Sorbona y presidente del comité de ética del francés Centro Nacional para la Investigación Científica), que afirman que la pausa no tendría sentido y hasta la comparan con el oscurantismo.
Centenas de expertos en inteligencia artificial, incluidos los tres mencionados, advirtieron en una carta que los laboratorios se encuentran en una "carrera fuera de control para desarrollar y utilizar mentes digitales más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable".
"Los sistemas de inteligencia artificial contemporáneos se están volviendo competitivos con los humanos en tareas generales y debemos preguntarnos: ¿deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Deberíamos automatizar todos los trabajos, incluyendo los gratificantes? ¿Deberíamos desarrollar mentes no humanas que capaz con el tiempo podrían superarnos en número, ser más listos que nosotros y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?", argumentan los expertos.
Ante este temor de un futuro al estilo de la saga cinematográfica "Terminator", en vez de uno más pacífico como el imaginado por el escritor Isaac Asimov, quienes firman la carta comentan que la pausa sería necesaria para desarrollar protocolos de seguridad y no significa parar todas las investigaciones.
Tesla, por ejemplo, la compañía de Musk, continúa desarrollando sus autos autónomos con la esperanza de que en algún momento sean lo suficientemente eficaces como para lanzar una producción masiva, pese a los accidentes, en algunos casos con víctimas mortales, que han protagonizado sus prototipos.
Russell afirmó en una entrevista reciente con la cadena estadounidense CNN que cualquier meta interna que se plantee una inteligencia artificial creará un problema porque irá hasta las últimas consecuencias para cumplir con su objetivo.
El experto mencionó varios ejemplos de uso irresponsable de sistemas de inteligencia artificial en campos como la medicina, pero reconoció que actualmente no representan una amenaza directa al control ejercido por los humanos y no tienen la capacidad de formar planes a largo plazo.
En otra entrevista, con la revista de negocios Business Today, Russell, quien ha trabajado en el sector por 45 años, dijo que la inteligencia artificial es "un Chernóbil en potencia".
La discusión ocurre en momentos del auge del chatbot (aplicación de conversación con respuestas automáticas) de inteligencia artificial ChatGPT, creado por la empresa OpenAI con inversiones de Microsoft, y al que los usuarios le preguntan desde posibles números de lotería hasta cuestiones médicas o le piden que cree reportes.
El oscurantismo
Por otra parte, LeCun, también profesor de ciencia de datos en la Universidad de Nueva York (EEUU, este), dice que regular una herramienta que no existe aún es prematuro y que la pausa pedida además podría hacer que los experimentos se lleven a cabo en secreto.
"Pedir una moratoria es como una nueva ola de oscurantismo. ¿Por qué enlentecer el conocimiento y la ciencia? Yo estoy a favor de regular productos pero no le veo el propósito de regular el desarrollo y la investigación más que reducir el conocimiento que podemos usar para hacer la tecnología más segura", comentó el experto en un reciente podcast.
"No estamos ni cerca del nivel de inteligencia humana, no tengo dudas de que en unas décadas tendremos sistemas cuyo nivel de inteligencia sea igual o supere al humano, pero la inteligencia humana es muy especializada (...) Discutir medidas de seguridad de algo que todavía no existe es prematuro y errado", añadió.
Lo que sí debería hacerse es regular los productos, en estos momentos fabricados por unas pocas compañías con mucho poder e influencia, agregó LeCun.
Ganascia, profesor de ciencia computacional en la universidad francesa de La Sorbona e investigador en el campo de inteligencia artificial, coincidió con LeCun en que los experimentos aún están lejos de alcanzar un nivel de inteligencia humano.
"Las razones invocadas por este documento son por el momento de ciencia ficción. Decir que la inteligencia artificial representa una amenaza existencial para la humanidad no se basa en ningún hecho concreto", afirmó recientemente el experto en medios de su país.
¿Último round?
Gates también opinó que pausar los experimentos no resuelve los desafíos que puede crear la inteligencia artificial y que hay que aprovechar esta tecnología.
"Claramente, estas cosas tienen enormes beneficios (...) Lo que debemos hacer es identificar las áreas difíciles", dijo a la agencia de noticias Reuters.
Unas semanas antes, en su blog personal, Gates describió a la tecnología artificial como "revolucionaria" y señaló que, como la mayoría de los inventos, podría ser usada para bien o para mal.
"Los gobiernos necesitan trabajar con el sector privado sobre formas para limitar los riesgos", comentó.
También está la posibilidad de que los inventos se salgan de control, dijo.
"¿Podría una máquina decidir que los humanos son una amenaza, concluir que sus intereses son diferentes a los nuestros, o simplemente que dejemos de importarle? Posiblemente, pero este problema no es más urgente hoy de lo que era antes de los desarrollos de inteligencia artificial de los últimos meses", agregó.
Por su parte, el "padrino de la inteligencia artificial", Geoffrey Hinton, dijo al programa CBS News que el avance del sector podría compararse a la Revolución Industrial "o hasta (la invención de) la rueda" y agregó que "tal vez se esté cerca" de que las computadoras piensen por sí mismas cómo mejorar.
"Este es un tema, ¿verdad? Tenemos que pensar mucho sobre cómo controlarlo", afirmó.
Y en el final de la entrevista, ante la pregunta de si la inteligencia artificial podría intentar exterminar a la humanidad, contestó: "No es inconcebible, eso es todo lo que diré".
¿Nos eliminarán por nocaut?
Nueva red neuronal puede descifrar el 51% de las contraseñas en menos de un minuto
La empresa de ciberseguridad Home Security Heroes desarrolló recientemente la red neuronal PassGAN, un generador de contraseñas basado en una red generativa adversarial (GAN, por sus siglas en inglés), que es un modelo de aprendizaje automático.
La compañía proporcionó a PassGAN 15.680.000 contraseñas comunes de no menos de cuatro caracteres y no más de 18 para entrenar el modelo. Como resultado, PassGAN es capaz de descifrar el 51% de las contraseñas comunes en menos de un minuto, el 65% en menos de una hora, el 71% en menos de un día y el 81% en menos de un mes.
La red neuronal descifrará en menos de 6 minutos cualquier contraseña de siete caracteres, incluso si contiene números, letras mayúsculas y minúsculas y símbolos, e incluso una contraseña similar de 10 caracteres sería descifrada por el 'software' en 5 años. Por eso la empresa de ciberseguridad aconseja que los usuarios cambien sus contraseñas cada 6 meses y utilicen una distinta para todas sus cuentas.
Los desarrolladores de PassGAN enumeraron varias características que ayudan a que las contraseñas sean más seguras: deben tener al menos 15 caracteres, constar como mínimo de dos letras mayúsculas y minúsculas, números y símbolos. También se aconseja a los usuarios que eviten los patrones de contraseña obvios, aunque tengan todos los tipos de caracteres y la longitud necesaria.