Pero en lo que las computadoras eran malas, tradicionalmente, era en la estrategia: la capacidad de reflexionar sobre la forma de un juego con muchos, muchos movimientos en el futuro. Ahí es donde los humanos todavía tenían la ventaja.

O eso pensó Kasparov, hasta que el movimiento de Deep Blue en el juego 2 lo desconcertó. Parecía tan sofisticado que Kasparov comenzó a preocuparse: ¡tal vez la máquina era mucho mejor de lo que pensaba! Convencido de que no tenía forma de ganar, renunció al segundo juego.

Pero no debería haberlo hecho. Resulta que Deep Blue no era tan bueno. Kasparov no había logrado detectar un movimiento que hubiera permitido que el juego terminara en tablas. Se estaba mentalizando a sí mismo: preocupado de que la máquina pudiera ser mucho más poderosa de lo que realmente era, había comenzado a ver un razonamiento humano donde no existía ninguno.

Sacado de su ritmo, Kasparov siguió jugando cada vez peor. Se mentalizó una y otra vez. A principios de la sexta partida, en la que el ganador se lo lleva todo, hizo una jugada tan mala que los observadores del ajedrez gritaron conmocionados. “No estaba para nada de humor para jugar”, dijo más tarde en una conferencia de prensa.

IBM se benefició de su lanzamiento a la luna. En el frenesí de la prensa que siguió al éxito de Deep Blue, la capitalización de mercado de la empresa aumentó 11.400 millones de dólares en una sola semana. Aún más significativo, sin embargo, fue que el triunfo de IBM se sintió como un deshielo en el largo invierno de la IA. Si se podía conquistar el ajedrez, ¿qué seguía? La mente del público se tambaleó.

“Eso”, me dice Campbell, “es lo que hizo que la gente prestara atención”.


La verdad es que no fue sorprendente que una computadora venciera a Kasparov. La mayoría de las personas que habían estado prestando atención a la IA, y al ajedrez, esperaban que eventualmente sucediera.

El ajedrez puede parecer la cumbre del pensamiento humano, pero no lo es. De hecho, es una tarea mental que se presta bastante al cálculo de fuerza bruta: las reglas son claras, no hay información oculta y una computadora ni siquiera necesita realizar un seguimiento de lo que sucedió en los movimientos anteriores. Solo evalúa la posición de las piezas en este momento.

“Hay muy pocos problemas en los que, como en el ajedrez, tienes toda la información que podrías necesitar para tomar la decisión correcta”.

Todos sabían que una vez que las computadoras fueran lo suficientemente rápidas, abrumarían a un humano. Era solo una cuestión de cuándo. A mediados de la década de 1990, “la escritura ya estaba en la pared, en cierto sentido”, dice Demis Hassabis, director de la empresa de IA DeepMind, parte de Alphabet.

La victoria de Deep Blue fue el momento que mostró cuán limitados pueden ser los sistemas codificados a mano. IBM había gastado años y millones de dólares desarrollando una computadora para jugar al ajedrez. Pero no podía hacer otra cosa.

“No condujo a los avances que permitieron la [Deep Blue] AI para tener un gran impacto en el mundo”, dice Campbell. Realmente no descubrieron ningún principio de inteligencia, porque el mundo real no se parece al ajedrez. “Existen muy pocos problemas en los que, como en el ajedrez, tienes toda la información que podrías necesitar para tomar la decisión correcta”, agrega Campbell. “La mayoría de las veces hay incógnitas. Hay aleatoriedad”.

Pero incluso mientras Deep Blue estaba limpiando el piso con Kasparov, un puñado de advenedizos rudimentarios estaba jugando con una forma de IA radicalmente más prometedora: la red neuronal.

Con las redes neuronales, la idea no era, como con los sistemas expertos, escribir reglas pacientemente para cada decisión que tomará una IA. En cambio, el entrenamiento y el refuerzo fortalecen las conexiones internas en una emulación aproximada (como dice la teoría) de cómo aprende el cerebro humano.

1997: Después de que Garry Kasparov venciera a Deep Blue en 1996, IBM le pidió al campeón mundial de ajedrez una revancha, que se llevó a cabo en la ciudad de Nueva York con una máquina mejorada.

AP FOTO / ADAM NADEL

La idea existía desde los años 50. Pero entrenar una red neuronal útilmente grande requería computadoras ultrarrápidas, toneladas de memoria y muchos datos. Nada de eso estaba disponible entonces. Incluso en los años 90, las redes neuronales se consideraban una pérdida de tiempo.

“En ese entonces, la mayoría de las personas en IA pensaban que las redes neuronales eran simplemente basura”, dice Geoff Hinton, profesor emérito de ciencias de la computación en la Universidad de Toronto y pionero en el campo. “Me llamaron ‘verdadero creyente’”, no es un cumplido.

Pero en la década de 2000, la industria informática estaba evolucionando para hacer que las redes neuronales fueran viables. El deseo de los jugadores de videojuegos por obtener gráficos cada vez mejores creó una gran industria en unidades de procesamiento de gráficos ultrarrápidas, que resultaron ser perfectamente adecuadas para las matemáticas de redes neuronales. Mientras tanto, Internet estaba explotando, produciendo un torrente de imágenes y texto que podrían usarse para entrenar los sistemas.

A principios de la década de 2010, estos avances técnicos permitieron que Hinton y su equipo de verdaderos creyentes llevaran las redes neuronales a nuevas alturas. Ahora podrían crear redes con muchas capas de neuronas (que es lo que significa “profundo” en “aprendizaje profundo”). En 2012, su equipo ganó cómodamente la competencia anual Imagenet, donde las IA compiten para reconocer elementos en imágenes. Asombró al mundo de la informática: las máquinas de autoaprendizaje finalmente eran viables.

Diez años después de la revolución del aprendizaje profundo, las redes neuronales y sus habilidades de reconocimiento de patrones han colonizado todos los rincones de la vida cotidiana. Ayudan a Gmail a autocompletar sus oraciones, ayudan a los bancos a detectar fraudes, permiten que las aplicaciones de fotos reconozcan rostros automáticamente y, en el caso de GPT-3 de OpenAI y Gopher de DeepMind, escriben ensayos largos que parecen humanos y resumen textos. Incluso están cambiando la forma en que se hace ciencia; en 2020, DeepMind presentó AlphaFold2, una IA que puede predecir cómo se plegarán las proteínas, una habilidad sobrehumana que puede ayudar a guiar a los investigadores a desarrollar nuevos medicamentos y tratamientos.

Mientras tanto, Deep Blue desapareció, sin dejar inventos útiles a su paso. Resultó que jugar al ajedrez no era una habilidad informática necesaria en la vida cotidiana. “Lo que al final mostró Deep Blue fueron las deficiencias de tratar de hacer todo a mano”, dice el fundador de DeepMind, Hassabis.

IBM trató de remediar la situación con Watson, otro sistema especializado, este diseñado para abordar un problema más práctico: hacer que una máquina responda preguntas. Usó el análisis estadístico de cantidades masivas de texto para lograr una comprensión del lenguaje que era, para su época, de vanguardia. Era más que un simple sistema si-entonces. Pero Watson enfrentó un momento desafortunado: fue eclipsado solo unos años más tarde por la revolución en el aprendizaje profundo, que trajo una generación de modelos de procesamiento de lenguaje mucho más matizados que las técnicas estadísticas de Watson.

El aprendizaje profundo ha pisoteado a la IA de la vieja escuela precisamente porque “el reconocimiento de patrones es increíblemente poderoso”, dice Daphne Koller, exprofesora de Stanford que fundó y dirige Insitro, que utiliza redes neuronales y otras formas de aprendizaje automático para investigar nuevos tratamientos farmacológicos. La flexibilidad de las redes neuronales, la amplia variedad de formas en que se puede usar el reconocimiento de patrones, es la razón por la que todavía no ha habido otro invierno de IA. “El aprendizaje automático realmente ha brindado valor”, dice, algo que las “olas anteriores de exuberancia” en IA nunca lograron.

Las fortunas invertidas de Deep Blue y las redes neuronales muestran cuán malos fuimos, durante tanto tiempo, al juzgar qué es difícil y qué es valioso en la IA.

Durante décadas, la gente asumió que dominar el ajedrez sería importante porque, bueno, el ajedrez es difícil de jugar para los humanos a un alto nivel. Pero el ajedrez resultó ser bastante fácil de dominar para las computadoras, porque es muy lógico.

Lo que fue mucho más difícil de aprender para las computadoras fue el trabajo mental casual e inconsciente que hacen los humanos, como mantener una conversación animada, conducir un automóvil a través del tráfico o leer el estado emocional de un amigo. Hacemos estas cosas con tanta facilidad que rara vez nos damos cuenta de lo engañosas que son y de la cantidad de juicios confusos y en escala de grises que requieren. La gran utilidad del aprendizaje profundo proviene de poder capturar pequeños fragmentos de esta inteligencia humana sutil y no anunciada.


Aún así, no hay una victoria final en inteligencia artificial. El aprendizaje profundo puede estar en lo más alto ahora, pero también está acumulando críticas agudas.

“Durante mucho tiempo, hubo este entusiasmo tecno-chovinista de que está bien, ¡la IA resolverá todos los problemas!”. dice Meredith Broussard, programadora convertida en profesora de periodismo en la Universidad de Nueva York y autora de Desinteligencia artificial. Pero como ella y otros críticos han señalado, los sistemas de aprendizaje profundo a menudo se entrenan con datos sesgados y absorben esos sesgos. Los informáticos Joy Buolamwini y Timnit Gebru descubrieron que tres sistemas de IA visual disponibles comercialmente eran terribles para analizar los rostros de mujeres de piel más oscura. Amazon entrenó una IA para examinar currículums, solo para descubrir que había mujeres de rango inferior.

Aunque los científicos informáticos y muchos ingenieros de IA ahora son conscientes de estos problemas de sesgo, no siempre están seguros de cómo lidiar con ellos. Además de eso, las redes neuronales también son “cajas negras masivas”, dice Daniela Rus, una veterana de IA que actualmente dirige el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT. Una vez que se entrena una red neuronal, su mecánica no es fácil de comprender ni siquiera por su creador. No está claro cómo llega a sus conclusiones, o cómo fallará.

“Durante mucho tiempo, hubo este entusiasmo tecno-chovinista de que ¡Bien, la IA resolverá todos los problemas!”.

Puede que no sea un problema, piensa Rus, confiar en una caja negra para una tarea que no es “crítica para la seguridad”. Pero, ¿qué pasa con un trabajo de mayor riesgo, como la conducción autónoma? “En realidad, es bastante notable que pudiéramos depositar tanta confianza y fe en ellos”, dice ella.

Aquí es donde Deep Blue tenía una ventaja. El estilo de la vieja escuela de reglas hechas a mano puede haber sido frágil, pero era comprensible. La máquina era compleja, pero no era un misterio.


Irónicamente, ese viejo estilo de programación podría representar una especie de regreso a medida que los ingenieros y los científicos informáticos se enfrentan a los límites de la coincidencia de patrones.

Los generadores de lenguaje, como GPT-3 de OpenAI o Gopher de DeepMind, pueden tomar algunas oraciones que haya escrito y continuar, escribiendo páginas y páginas de prosa que suena plausible. Pero a pesar de una mímica impresionante, Gopher “todavía no entiende realmente lo que está diciendo”, dice Hassabis. “No en un sentido verdadero”.

De manera similar, la IA visual puede cometer errores terribles cuando se encuentra con un caso límite. Los autos sin conductor se han estrellado contra camiones de bomberos estacionados en las carreteras, porque en todos los millones de horas de video en los que habían sido entrenados, nunca se habían encontrado con esa situación. Las redes neuronales tienen, a su manera, una versión del problema de la “fragilidad”.

Ir arriba