Page 12 - DiarioTiempo-31-10-23
P. 12
12
INTELIGENCIA ARTIFICIAL: patrones y aprendan, por ejemplo, que hay una altísima
EXPERIMENTO LOGRA QUE UNA probabilidad de que a las palabras “El césped es de color” las
siga la palabra “verde”.
Estos procesos de entrenamiento son lentos y muy costo-
MÁQUINA RELACIONE CONCEPTOS sos en términos energéticos. Para entrenar un modelo como
ChatGPT, que tiene en cuenta más de 175.000 millones de
parámetros, hace falta mucha capacidad computacional.
COMO HACEN LOS HUMANOS de ordenadores) funcionando día y noche durante semanas
Esto es, varios centros de datos (naves industriales llenas
o meses.
“Nosotros proponemos una solución parcial a este problema
El trabajo, publicado en ‘Nature’, abre la puerta a que herramientas de que se basa en una idea de las ciencias cognitivas”, explica por
teléfono Marco Baroni, investigador del ICREA y profesor del
inteligencia artificial generativa, como ChatGPT, aprendan más rápido, de departamento de Traducción y Lenguas Sociales de la Univer-
sitat Pompeu Fabra de Barcelona y coautor del estudio.
forma más eficiente y barata “Los humanos podemos aprender muy rápidamente porque
tenemos la facultad de la generalización composicional. Es
POR MANUEL G. PASCUAL decir, que si yo nunca he oído la frase ‘saltar dos veces’, pero sí
sé qué es ‘saltar’ y qué es ‘dos veces’, lo puedo entender. Eso no
es capaz de hacerlo ChatGPT”, señala Baroni.
l cerebro humano tiene una propiedad clave que los que se les sometió a las mismas pruebas que a las máqui- La herramienta estrella de OpenAI ha tenido que aprender
hace posible el lenguaje y nos permite elaborar nas. Los resultados muestran que la máquina fue capaz de qué es saltar una vez, saltar dos veces, cantar una vez, cantar
pensamientos sofisticados: la generalización generalizar tan bien o mejor que las personas. dos veces…
Ecomposicional. Es la habilidad de combinar de 86.1K El tipo de entrenamiento propuesto por Lake y Baroni
forma novedosa elementos ya conocidos con otros que se GUERRA UCRANIA | RUSIA afirma que los bombardeos puede servir para que los grandes modelos de lenguaje apren-
acaban de aprender. Por ejemplo, una vez que un niño sabe de ISRAEL son contrarios al Derecho internacional dan a generalizar con menos datos de entrenamiento.
saltar, entiende perfectamente qué significa saltar con las “Durante 35 años, los investigadores de la ciencia cognitiva, El siguiente paso, dice Baroni, es demostrar que su expe-
manos arriba o con los ojos cerrados. En la década de 1980 la inteligencia artificial, la lingüística y la filosofía han deba- rimento es escalable. Ya han probado que funciona en un
se teorizó que las redes neuronales artificiales, el motor en tido si las redes neuronales pueden lograr una generalización contexto de laboratorio; ahora toca hacerlo con un modelo
el que se apoyan la inteligencia artificial y el aprendizaje sistemática similar a la humana. Hemos probado por primera conversacional.
automático, serían incapaces de establecer esas conexiones. vez que sí”, afirma Brenden Lake, profesor adjunto del Centro “No tenemos acceso a ChatGPT, que es un producto propie-
Un artículo publicado en la revista Nature ha demostrado de Ciencia de Datos y del Departamento de Psicología de la dad de OpenAI, pero hay muchos modelos más pequeños y
que sí pueden, lo que abre potencialmente un gran campo de NYU y uno de los autores del trabajo. muy potentes desarrollados por centros académicos. Usare-
mejora en la disciplina. Los grandes modelos de lenguaje, como ChatGPT, son mos alguno de ellos”, subraya Baroni.
Los autores del estudio han desarrollado un innovador capaces de generar textos coherentes y bien estructurados a Una de las intenciones de los autores es, de hecho, “demo-
método de entrenamiento, que han bautizado como metaa- partir de las instrucciones que se les dé. El problema es que, cratizar la inteligencia artificial”. El hecho de que los grandes
prendizaje para composicionalidad (meta-learning for compo- antes de llegar a ser capaces de hacerlo, se les tiene que entre- modelos de lenguaje necesiten enormes cantidades de datos y
sitionality, en el original en inglés), en el que se actualiza cons- nar con una cantidad ingente de datos. de potencia de cálculo limita la cantidad de proveedores a un
tantemente la red neuronal y se la dirige a través de una serie Es decir, se procesan extensísimas bases de datos y se puñado de empresas con la infraestructura necesaria: Micro-
de episodios para que sea capaz de relacionar experiencias. desarrollan algoritmos de inteligencia artificial o aprendizaje soft, Google, Amazon, Meta, etcétera.
Posteriormente, realizaron experimentos con voluntarios a automático (machine learning) que sean capaces de extraer Si la propuesta de Lake y Baroni demuestra su valía entre-
nando este tipo de modelos, se abriría la puerta a que opera-
dores más modestos puedan desarrollar sus propios sistemas
y que estos no tengan nada que envidiar a ChatGPT o Bard.
El avance presentado por estos dos científicos puede ser de
utilidad también en otras disciplinas.
“Brenan y yo venimos del campo de la psicología lingüís-
tica. No creemos que las máquinas piensen como los seres
humanos, pero sí que entender cómo funcionan las máquinas
puede decirnos algo acerca de cómo lo hacen los humanos”,
destaca Baroni. “De hecho, demostramos que cuando nuestro
sistema se equivoca, el error no es tan grueso como los de
ChatGPT, sino que son parecidos a los de las personas”.
Así ha sucedido, por ejemplo, con un fallo relacionado con
la iconicidad, un fenómeno en lingüística presente en todas
las lenguas del mundo por el que si se dice A y B, salgo de casa
y voy a comer, eso quiere decir que antes salgo y luego voy a
comer.
“En tareas de tipo experimental, si le enseñas al sujeto
humano que, cuando se dice A y B, el orden correcto es B y A,
suele haber fallos. Ese tipo de error también lo hace nuestro
sistema”, ilustra el investigador italiano.
¿Qué recorrido puede tener el método ideado por Lake y
Baroni? Todo dependerá de qué suceda cuando se pruebe con
grandes modelos de lenguaje.
“No sabría decir si es una línea de investigación que vaya a
ofrecer grandes avances a corto o medio plazo”, opina Teodoro
Calonge, profesor Titular del departamento de Informática
en la Universidad de Valladolid, quien ha revisado el código
usado en los experimentos.
Y añade, en declaraciones a la plataforma SMC España:
“Desde luego, no creo que vaya a dar respuesta a los interro-
gantes que actualmente se plantean en el campo de la explica-
bilidad de la inteligencia artificial y, en particular, en el campo
Aspecto de la exposición sobre inteligencia artificial del Centro de Cultura Contemporánea de Barcelona.GIANLUCA de la inteligencia artificial”. (El País, España)
BATTISTA