La próxima batalla entre la máquina y el hombre

J. Villahizan (SPC)-Agencias
-

Los nuevos programas de Inteligencia Artificial (AI) como el ChatGPT-5 desarrollan imágenes, textos y conversaciones tan realistas que es difícil discernir entre lo que es verdadero y falso

La próxima batalla entre la máquina y el hombre

Parece ciencia ficción, pero la tecnología avanza a pasos tan agigantados que ya se puede conversar con una máquina o que un software cree textos elaborados, edite imágenes que parecen reales, componga exitosas partituras e incluso sirva para ligar. El futuro ya está aquí y da la impresión de que la técnica va a superar al hombre si este no acaba poniendo límites a su propia ambición, como vaticina un plantel de expertos internacionales aglutinado en torno a una plataforma que analiza la actual explosión de la Inteligencia Artificial (AI en sus siglas en inglés) y su repercusión.

Palabras como chatbot, asistente o AI generativa se han colado entre la terminología habitual de las empresas tecnológicas y los ayudantes de voz ya son una realidad en millones de viviendas de todo el mundo gracias a aparatos domésticos como Alexa, Siri, Irene o Cortana.

Los ejemplos prácticos de la Inteligencia Artificial para resolver problemas de la vida cotidiana son numerosos, desde encontrar el camino más rápido a casa a leer páginas web escritas en otro idioma o buscar información. Pero, ¿qué pasará en las próximas décadas?

Precisamente, son cada vez más los científicos que señalan que habría que repensar la AI ante el desembarco masivo de esta tecnología en la ciudadanía. Todos coinciden en que existe una preocupación creciente por «esta especie de carrera armamentística» en la que están involucradas firmas tan potentes como OpenAI, Google o Meta.

Y no es magia, sino ciencia. Los chatbots son softwares que están programados para interpretar el contexto y aprender automáticamente de cada una de sus interacciones precedentes.

Así, la última versión de OpenAI, ChatGPT-4, es capaz de resolver tareas nuevas y difíciles con un nivel de rendimiento similar al del humano en campos como las matemáticas, la codificación, la medicina, el derecho y la psicología. Y eso sin contar que la empresa capitaneada por Microsoft ya está desarrollando una nueva versión, el ChatGPT-5.

Por eso, los analistas piden mesura y precaución, pero sin llegar al catastrofismo. «Falta evaluación  y no sabemos qué consecuencias puede tener », destaca el director del Instituto de Investigación en Inteligencia Artificial del CSIC, Carles Sierra, quien compara estos programas con el proceso de investigación y aprobación de un medicamento.

Así, mientras un fármaco requiere años para su aprobación por las agencias regulatorias tras la superación de las fases de ensayos clínicos, las tecnológicas lanzan al mercado softwares a un ritmo de casi uno al mes.

«Con tecnológicas tan disruptivas es conveniente entender y anticipar las posibles consecuencias de su uso y regularlo», destaca Pablo Jarrillo-Herrero, del Instituto Tecnológico de Massachusetts (MIT), quien apunta que esta técnica avanza demasiado deprisa.

Además, se da la circunstancia de que estos programas buscan que lo que hace la maquina parezca enteramente humano, y ahí es donde está precisamente el riesgo, destacan los científicos.

 Estos sistemas, basados en el aprendizaje automático, se alimentan de los millones de textos, fotografías o vídeos publicados en internet y desarrollan nuevos modelos mejorados que van perfeccionando siempre el ejemplo anterior.

Los expertos aconsejan detenerse y repensar hacía dónde se quiere ir. Para ello, instan a las empresas tecnológicas a darse medio año para que la humanidad y los gobiernos entiendan mejor las posibles consecuencias negativas de la AI y regularizar su uso. Sin embargo, no son muy optimistas con esta opción, ya que el hombre nunca ha sido muy efectivo en la contención de iniciativas científicas con posibles avances no deseados, como ya sucedió con el desarrollo de las bombas atómicas o la técnica de edición genética CRISPR, consistente en cortar y pegar trozos de material genético.

Desinformación

Hasta ahora las noticias e imágenes falsas que circulaban por la red o eran recibidas por el usuario eran bastante fáciles de detectar para una persona educada; sin embargo, desde este momento y gracias a la Inteligencia Artificial es mucho más complicado descubrir en una primera lectura qué es realidad y que es mentira.

En este sentido, los investigadores concentran sus preocupaciones en la desinformación. Por ejemplo, ya existen imágenes hiperrealistas y absolutamente falsas del Papa con un plumas blanco o de Donald Trump resistiéndose a un arresto.

Así, agencias tan prestigiosas comoMagnum, creada hace 75 años por Robert Capa como una cooperativa de periodistas, alerta que una de los grandes retos del fotoperiodismo es que los ciudadanos puedan distinguir entre imágenes reales y las creadas por AI.

Por ello, insta a crear un sello para poder distinguir lo real de lo falso «porque la gente no está preparada para diferenciar lo verdadero de la ficción en una foto», concluye la directora de Magnum, Cristina de Middel, quien hace un llamamiento a pensar hacia dónde queremos ir.