10º Aniversario
¡El capitán cumple diez años!
descúbrelo

Melanie Mitchell: “La inteligencia artificialdespegará cuando se inserte en robots queexperimenten el mundo como los niños”

Por El País  ·  01.04.2024


¿Estamos exagerando el potencial de la inteligencia artificial (IA)? ¿Hasta qué punto es
inteligente? ¿Llegará algún día a alcanzar al ser humano? Estas son algunas de las preguntas que
se hace Melanie Mitchell (Los Ángeles, 55 años) en su libro Inteligencia artificial. Guía para seres
pensantes , que Capitán Swing publica en castellano este lunes. Su respuesta es contundente:
estamos muy lejos de crear una superinteligencia, por mucho que algunas empresas digan lo
contrario . Y uno de los motivos fundamentales es que las máquinas no razonan como nosotros.
Pueden hacer casi cualquier tarea mejor que nadie, pero entienden el mundo peor que un bebé de
un año. Mitchell aporta un contexto fundamental para calibrar el fenómeno de la IA, una tecnología
instalada en el debate público desde que hace dos años aparecieron herramientas como
ChatGPT. Políticos, empresarios y académicos han advertido recientemente sobre los peligros de
estos sistemas , que han deslumbrado al mundo con los textos elaborados que son capaces de
generar y las imágenes y vídeos hiperrealistas que pueden producir. La catedrática Davis de
Complejidad en el Instituto de Santa Fe y profesora en la Universidad Estatal de Portland describe
en su obra cómo funcionan los sistemas más avanzados de IA y los contrapone al razonamiento
humano. Conclusión: aspectos clave como la intuición o el conocimiento del entorno son, de
momento, inalcanzables para cualquier máquina. Mitchell atiende a EL PAÍS por videollamada
desde su casa de Santa Fe, Nuevo México. PREGUNTA. ¿De qué es capaz la IA hoy en día?
RESPUESTA. Hubo un gran salto en sus capacidades hace un par de años con la llegada de la IA
generativa, que incluye aplicaciones como ChatGPT o Dall-E . Pero estos sistemas, aunque pueda
parecerlo, no tienen el mismo tipo de comprensión del mundo que nosotros. Por eso, a veces
hacen algo extraño o se inventan cosas. Carecen de fiabilidad, tienen una serie de limitaciones
que son difíciles de predecir. Así que creo que, si bien estos sistemas pueden ser muy útiles y los
uso todo el tiempo, debemos tener cuidado con la confianza que depositamos en ellos.
Especialmente si no hay supervisión humana. P. ¿Por qué? R. Pueden cometer errores graves.
Un ejemplo claro son los coches autónomos. Una de las razones por las que todavía no están
entre nosotros es que fallan donde raramente lo haría un humano, como no identificando un
peatón o un obstáculo. Otro ejemplo son los sistemas automáticos de reconocimiento facial. Las
máquinas son extremadamente buenas para detectar rostros en imágenes, pero se ha
comprobado que son peores a la hora de identificar a las personas de piel más oscura o a las
mujeres. Con ChatGPT, hemos visto innumerables casos en que se inventa lo que dice. P. ¿El
boom de la IA generativa ayuda o perjudica al desarrollo de la disciplina? R. En cierto modo, este
hype aumenta las expectativas de la gente, y eso luego causa desilusiones. Ha sucedido muchas
veces a lo largo de la historia de la IA. En las décadas de 1950 y 1960, se decía que tendríamos
máquinas con inteligencia humana en pocos años. Eso no ocurrió. Llegó el llamado invierno de la
IA: se agotó la financiación para la investigación y quebraron empresas. Ahora estamos en un
período de mucha expectación. La pregunta es, ¿realmente va a ser el momento en que se
cumplan las predicciones de los optimistas o acabaremos en otra gran decepción? Es difícil de
predecir. P. Hace solo tres años, el futuro iba a ser el metaverso . Hoy ya nadie habla de ello.
¿Cree que con la IA puede pasar algo similar? R. Sucede continuamente con las grandes
innovaciones tecnológicas: se produce una especie de gran burbuja publicitaria, luego no se
cumplen las expectativas y la gente se decepciona, y finalmente la tecnología sale adelante. Ese
desarrollo resulta ser útil, pero no tan brillante como la gente esperaba. Es probable que eso sea
lo que pase con la IA. P. Usted sostiene que los sistemas de IA carecen de comprensión
semántica o sentido común y, por tanto, no pueden ser realmente inteligentes. ¿Cree que eso
cambiará en algún momento? R. Es posible. No hay ninguna razón por la que no podamos
conseguir desarrollar una máquina así. La pregunta es, ¿cómo llegamos hasta allí? ChatGPT se
ha entrenado con todos los libros y textos digitales disponibles, así como con todos los vídeos e
imágenes de internet. Pero hay cosas que tienen que ver con el sentido común y el conocimiento y
que no están codificadas en el lenguaje y los datos: solo se pueden captar a través de la
experiencia. Quizás las máquinas no podrán pensar de forma más humana hasta que no
experimenten el mundo como nosotros hacemos. Hay un gran debate en la disciplina de la IA
acerca de esto. Sospecho que el gran salto se producirá cuando la máquina no solo sea entrenada
pasivamente en el lenguaje, sino que también experimente activamente el mundo como lo hace un
niño. P. Cuando tengan forma de robot. R. Sí. Una IA insertada en un robot podría tener el mismo
tipo de educación o desarrollo que un niño. Es algo con lo que ya especuló en los años 50 Alan
Turing, uno de los padres de la informática. Esa idea cobra más sentido ahora. P. Usted describe
en el libro cómo funciona la IA y lo poco que tiene eso que ver con nuestra forma de razonar.
¿Importa el proceso si cumple su función? R. Depende de para qué quieras usar el sistema. El
GPS de mi coche puede encontrar una ruta de ida y vuelta a donde quiero ir. No entiende el
concepto de carretera o tráfico, pero hace un buen trabajo. La pregunta es si realmente queremos
que los sistemas interactúen de manera más general con el mundo humano. ¿Hasta qué punto
tendrán que entenderlo? Hubo un caso en el que un vehículo autónomo frenaba de golpe en un
momento determinado, y el conductor no sabía por qué. Resultó que había una valla publicitaria
con un anuncio que tenía una señal de stop. ¿Podrá evitar errores como ese? Solo cuando
comprenda el mundo como nosotros. P. ¿Hasta dónde cree que puede llegar la IA? R. No veo que
haya ninguna razón por la que no podamos desarrollar máquinas con una inteligencia equiparable
a la del ser humano. Pero va a ser muy difícil llegar hasta ahí, no estamos cerca de ello. En la
década de 1970 se pensaba que cuando las máquinas pudieran jugar al ajedrez al nivel de un
gran maestro se habría logrado igualar la inteligencia humana. Resultó no ser así. Luego se dijo
que cuando fueran capaces de traducir textos o mantener conversaciones. Tampoco ha pasado.
Toda la historia de la IA ha demostrado que nuestras intuiciones sobre la vida y la inteligencia a
menudo son erróneas, que en realidad todo es mucho más complejo de lo que pensábamos. Y
creo que eso seguirá siendo así. Vamos a aprender mucho más sobre lo que realmente significa
ser inteligente. P. Entonces habrá merecido la pena. R. Uno de los objetivos de la IA es ayudar a
entender qué entendemos por inteligencia. Y, al tratar de implementarlo en máquinas, nos
solemos dar cuenta de que realmente incluye muchos elementos que no consideramos. P.
Algunos pioneros de la IA, como Geoffrey Hinton , creen que esta tecnología se puede volver difícil
de controlar. ¿Usted qué opina? R. La IA conlleva muchos tipos de peligros. Se puede usar para
producir desinformación y deepfakes . Hay sesgos algorítmicos, como el que comenté en el caso
del reconocimiento facial. Hinton y otros van más allá y dice que estos sistemas podrían
desmadrarse y destruirnos. Esta afirmación es, como mínimo, muy improbable y especulativa. Si
llegamos a desarrollar un sistema superinteligente, dudo que no le importen nuestros valores,
como que matar a todos los humanos no está bien. Centrarse tanto en esta idea tan dramática de
las amenazas existenciales para la humanidad solo consigue desviar la atención de cosas que son
realmente importantes en este momento. P. ¿Cree que, como sociedad, estamos abordando
adecuadamente esas amenazas a las que nos enfrentamos hoy? R. Sí, aunque a la legislación
siempre le cuesta llevar el ritmo de la innovación. La UE ha dado un primer paso con el
Reglamento Europeo de la IA . Una de las cosas que estamos viendo en EE UU son las
demandas por derechos de autor . Todos estos sistemas están entrenados con enormes
cantidades de texto e imágenes. Si no se ha pagado por su uso, ¿estamos ante una infracción de
derechos de autor? La ley no está clara porque se promulgó mucho antes del desarrollo de esta
tecnología. Veremos cómo se resuelve esto. P. ¿Cuál es la aplicación de IA más impresionante
que ha visto últimamente? R. Lo que más me entusiasma es la aplicación de estos sistemas a
problemas científicos. DeepMind, por ejemplo, trabaja en el uso de IA para predecir la estructura
de las proteínas. También se está usando para desarrollar nuevos materiales y medicamentos.
Estamos en una especie de nueva era de la ciencia, puede que tan importante como la que se
inauguró con la llegada de los ordenadores. P. Dice en el libro que quienes calibran los sistemas
de aprendizaje profundo, la técnica más avanzada de IA, parecen alquimistas en vez de
científicos, porque ajustan parámetros en las máquinas sin saber exactamente lo que hacen. R.
Poco después de escribir el libro se empezó a hablar de los ingenieros de prompts [las
instrucciones que se le da las herramientas de IA generativa]. Su trabajo es tratar de hacer que el
sistema tenga el mejor rendimiento posible. Resulta que hay gente que está ganando mucho
dinero haciendo ese trabajo. Y es pura alquimia, no hay ciencia alguna detrás. Solo se trata de
probar cosas. Algunas funcionan y otras no, y no tenemos ni idea de por qué. P. Resulta irónico
que quienes tratan de optimizar una de las tecnologías más sofisticadas de la historia de la
humanidad lo hagan a ciegas. R. Estos sistemas son, en cierto sentido, cajas negras. Son
sistemas de software enormemente complejos que no se han programado explícitamente para
hacer cosas, sino que se han entrenado, han aprendido de los datos y nadie puede averiguar por
qué funcionan de la manera en que lo hacen. Los neurocientíficos tampoco entienden cómo
funciona el cerebro, y hacen experimentos para tratar de encontrarle sentido a lo que ven. Eso es
lo que pasa ahora con la IA generativa.

Ver artículo original