El futuro de la inteligencia artificial y la importancia de regularlo

Los recientes desarrollos en machine learning, un subcampo de la Inteligencia Artificial (IA), inquietan cada vez más a propios y extraños en el mundo tecnológico. La aparición de programas y aplicaciones con capacidad no solo de procesar información sino también de crear textos, imágenes y videos fue una de las principales noticias a comienzos de año. El caso más resonante sobre ellos fue el de Chat GPT, un generador de textos que puede aprender de grandes volúmenes de datos y fabricar oraciones gramaticales coherentes en diferentes idiomas.

La rápida adopción de este tipo de tecnologías dedicadas a la automatización de actividades laborales, sociales y productivas generó un revuelo importante a nivel mundial. Sin embargo, ¿hasta dónde y cuánto avanzar con la automatización y el reemplazo del trabajo humano? ¿Cómo controlar las actividades que realizan las máquinas de manera autónoma? ¿Qué organismo debe regular estas innovaciones con impacto global? Estos interrogantes llevan a pensar sobre las implicancias éticas de la IA generativa y la importancia del involucramiento de los seres humanos en el diseño, ejecución y supervisión de estos sistemas.

Al respecto, Ideas del Litoral dialogó con Diego Milone, uno de los principales expertos en inteligencia artificial en la región, quien es Bioingeniero y tras realizar un Doctorado en la Universidad de Granada (España), trabaja como investigador del Conicet y docente de la Universidad Nacional del Litoral. Concretamente Milone participa en un grupo de investigación sobre informática e inteligencia artificial que se conformó hacia el 2004 y que después devino en el Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional (sinc(i)). Asimismo, este grupo es uno de los impulsores de la Licenciatura en Ciencia de Datos y la Ingeniería en Inteligencia Artificial de la ciudad de Santa Fe.

El verano de la IA

La IA no es un campo de investigación y desarrollo novedoso, sino que se viene configurando desde la década de 1950. Hace muchos años que se desarrollan modelos matemáticos y programas informáticos en este campo de estudios. ¿Podrías explicarnos por qué ahora se volvieron un fenómeno novedoso?

Técnicamente el actual proceso de expansión de la IA es una continuidad. No es que en ahora se inventaron cosas de las que nunca se había hablado en los últimos 40 años. Por ejemplo, yo trabajé en mi tesis doctoral (2003) en reconocimiento automático del habla. Y para que la computadora reconozca el habla le tenía que repetir la frase cinco veces hasta que entendía. Entonces la gente se cansaba y no lo usaba. Pero esa funcionalidad de IA ya existía, digamos. Pero ahora estos programas comenzaron a tener una tasa de acierto tan alta que todos los empezaron a usar. Lo que pasó fue que a partir del 2010 los investigadores le encontraron la vuelta para hacer que ideas que ya existían funcionen a una escala y con un nivel de eficacia y precisión que antes no se lograba. Ese fue el salto de precisión y exactitud que dio lugar a un nuevo verano en el campo de la IA: a partir del 2010 hubo algunos trucos interesantes que retomaron viejas ideas y las hicieron funcionar mucho mejor. Además, aparecieron los grandes volúmenes de datos, o sea, ahora es muy barato recolectar muchos datos (que antes no lo teníamos) y surgieron las placas de video (GPUs), que si bien se desarrollaron para videojuegos, terminaron siendo el motor de cómputo central de estas nuevas tecnologías de IA. Es decir, hubo una convergencia de desarrollos tecnológicos y algunas mejoras en los algoritmos que permitieron resolver problemas técnicos que limitaban el potencial del machine learning.

Entonces, a partir de 2010 comenzó una expansión de la IA. ¿Es por eso que algunos postulan que este “boom tecnológico” es un punto de quiebre o una cuarta revolución industrial?

Claro, desde el punto de vista científico-tecnológico, los actuales desarrollos de IA son una continuidad. Pero, por otro lado, hay un salto disruptivo con respecto a que estas metodologías computacionales de la IA permitieron resolver problemas con un nivel de precisión que nunca antes se había podido lograr en un sistema automático, porque siempre dependían de la persona que estuviera ahí corrigiendo los errores que cometía la máquina. Es decir, antes estos desarrollos informáticos no eran algo que se podía productivizar y no les daba ganancia a las grandes empresas. Pero después del 2010, sí. Y eso fue lo que generó el impacto a nivel productivo y social. Por lo que en el caso de las aplicaciones sí se puede hablar de un punto de inflexión o de quiebre.

Desarrollos locales

¿Qué tipo de investigaciones y desarrollos realizan en el sinc(i) de Santa Fe?

El origen del Instituto estuvo vinculado con desarrollos en salud, con métodos de diagnóstico preventivo y la detección de patologías. Siempre nuestro principal foco fue salud, aunque después se incorporó el sector agropecuario-ganadero, que fue traccionado por el entorno, por demanda local.

¿Y qué lugar tiene la región litoral en el desarrollo de la IA? ¿Es un lugar preponderante o periférico?

Yo diría que en los últimos diez años el sinc(i) ha pasado a estar en primer nivel en el país, por distintas razones. Una de ellas es porque apostamos a este tipo de Inteligencia artificial desde hace varios años. Hay otros tipos de IA, pero la que pegó el salto fue la basada en redes neuronales y el aprendizaje automático (lo que utilizan estos sistemas como el Chat GPT, por ejemplo). Nosotros apostamos a esto antes de que saliera, veníamos investigando estos métodos ya desde el invierno de la IA. Entonces cuando pegó el salto a nivel mundial, nosotros ya teníamos un grupo trabajando desde hace años. Eso fue un factor que dejó posicionado como referencia casi absoluta a Santa Fe en el país. Pero eso no sucede en otros lugares del país porque se dedican a otro tipo de IA, que aún está en el invierno, y tuvieron que adaptarse, cambiar por completo o tratar de combinar ambas formas de hacer modelos de IA.

Regular para prevenir

La UNESCO publicó un documento con recomendaciones éticas para regular la IA y recientemente el magnate Elon Musk firmó una carta abierta junto con otros especialistas donde solicitan un freno de Chat GPT-5 para debatir sobre su regulación. Es decir, ya hay debates sobre la necesidad de tener criterios éticos y políticos para regular este tipo de tecnologías. ¿Qué pensás al respecto?

Pienso que es un tema muy serio. No hay que tomarlo a la ligera porque, como en todos los temas sociales, hay intereses de todo tipo mezclados. Esta es una tecnología muy poderosa, como lo fue en su momento la ingeniería nuclear, por ejemplo, cuando pegó un salto desde la ciencia a la creación de reactores nucleares. Estamos ante saltos disruptivos grandes que están pasando del dominio de la ciencia para llegar a la sociedad, para generar muchos beneficios, pero potencialmente también pueden tener fines dañinos. O sea, desde el punto de vista social, no es algo a lo que no nos hemos enfrentado nunca, porque estos son debates similares los tuvimos con respecto a la energía nuclear o la clonación. Pero, a mi criterio, ese debate está muy lento. Siempre la ciencia y la tecnología avanzan a una velocidad más veloz que la sociedad, por su complejidad y su inercia.

Yo creo que, como sociedad, y desde el Estado, debemos tomar cartas en el asunto, tal como plantea a nivel regional la “Declaración de Montevideo por Inteligencia Artificial”. O al menos desde organizaciones multinacionales como la ONU hay que regular el uso. Es decir, a mí me parece medio ridículo regular la investigación en sí, es muy difícil que todos los laboratorios “paren de investigar”. Sino que hay que regular las aplicaciones de la investigación. Justamente la carta de Elon Musk en el fondo busca que paren de desarrollar ciertos productos. recomiendo mucho.

Nuevas funciones, viejos debates

¿Cómo consideras que será el desarrollo de la IA en el futuro próximo? Yo lo veo más como una integración de este tipo de desarrollos en las aplicaciones ya existentes. Por ejemplo, el reconocimiento de voz en el chat, la escritura automática de mails, etc…

Sí, lo estoy viendo más como una integración, que como una cosa nueva. Pero no por una razón técnica, sino por razones de mercado. Además, también vamos a vivir una integración silente, una integración de la que el usuario no es consciente directamente. Entonces, yo creo que va a haber una gradualidad y cada dos o tres años saldrá alguna nueva cosa disruptiva que te sorprenda. Pero lo natural para el mercado es que te vayas familiarizando de a poco, no que tengas que aprender a usar cosas nuevas que no entendés su lógica.

O sea, lo que se viene es una instalación progresiva de este tipo de aplicaciones…

Una instalación progresiva, con agregados a lo que ya existe. Pero también hay un montón de cosas que están detrás de los sistemas que están funcionando y no te das cuenta. Y eso es lo que preocupa, porque no sos consciente de qué estás usando. Si te dan un programa nuevo, podés saber cuándo usarlo, cuando te sirve o no. Por ahí lo más preocupante es cuando en esta integración silente el usuario no es consciente de qué forma está usando la inteligencia artificial. O, mejor dicho, en qué forma la IA está usando al usuario y a los datos del usuario. Cuando firmás esos contratos con letras chicas, cedes tus datos, interacciones o formas de uso. Eso es lo que lo que es más preocupante de toda esta movida.

Volvemos a la discusión sobre la privacidad de los datos personales… Sí, totalmente. La comercialización de todo eso que hay detrás del funcionamiento de la inteligencia artificial es lo que tenemos que debatir, y que todos tendrían que entender

Related posts

J. J. de Urquiza y el periodismo como herramienta política

No es por ahí

Conocimientos, opiniones y actitudes en ciencias