Durante los últimos cinco años, lo más popular en inteligencia artificial ha sido una rama conocida como aprendizaje profundo. La técnica estadística “grandiosamente” denominada, en pocas palabras, le da a las computadoras una forma de aprender al procesar grandes cantidades de datos. Gracias al aprendizaje profundo, las computadoras pueden identificar fácilmente las caras y reconocer las palabras habladas, lo que hace que otras formas de inteligencia humana parezcan estar a su alcance de repente, según mobile.
Empresas como Google, Facebook y Microsoft han invertido dinero en aprendizaje profundo. Las empresas que persiguen todo, desde curas para el cáncer hasta la automatización de back-office, proclaman su profunda experiencia en aprendizaje. Y la percepción de la tecnología y las habilidades de coincidencia de patrones se están aplicando para mejorar el progreso en campos como el descubrimiento de medicamentos y los coches sin conductor.
Pero ahora algunos científicos se preguntan si el aprendizaje profundo es realmente tan profundo después de todo.
En conversaciones recientes, comentarios en línea y algunos ensayos, un número creciente de expertos de IA advierten que el encaprichamiento con el aprendizaje profundo bien puede generar miopía y sobreinversión ahora, y desilusión después.
“No hay inteligencia real allí”, dijo Michael I. Jordan, profesor de la Universidad de California, Berkeley, y el autor de un ensayo publicado en abril destinado a atemperar las elevadas expectativas que rodean a la IA. “Y creo que confiar demasiado en estos algoritmos de fuerza bruta es una fe fuera de lugar”.
El peligro, advierten algunos expertos, es que la IA. se topará con un muro técnico y eventualmente enfrentará un contragolpe popular, un patrón familiar en inteligencia artificial desde que ese término fue acuñado en la década de 1950. Con el aprendizaje profundo en particular, dijeron los investigadores, las preocupaciones están siendo alimentadas por los límites de la tecnología.
Los algoritmos de aprendizaje profundo entrenan en un lote de datos relacionados, como imágenes de caras humanas, y luego reciben más y más datos, lo que mejora constantemente la precisión de coincidencia de patrones del software. Aunque la técnica ha generado éxitos, los resultados se limitan en gran medida a los campos donde están disponibles esos grandes conjuntos de datos y las tareas están bien definidas, como el etiquetado de imágenes o la traducción de voz a texto.
La tecnología lucha en los terrenos más abiertos de la inteligencia, es decir, el significado, el razonamiento y el conocimiento de sentido común. Si bien el software de aprendizaje profundo puede identificar instantáneamente millones de palabras, no comprende un concepto como “justicia”, “democracia” o “intromisión”.
Los investigadores han demostrado que el aprendizaje profundo puede ser fácilmente engañado. Revuelve un puñado relativo de píxeles, y la tecnología puede confundir a una tortuga con un rifle o un cartel de estacionamiento para un refrigerador.
En un artículo ampliamente leído publicado a principios de este año en arXiv.org, un sitio para artículos científicos, Gary Marcus, profesor de la Universidad de Nueva York, planteó la pregunta: “¿El aprendizaje profundo se acerca a un muro?”. Escribió: “Como es tan a menudo el caso, los patrones extraídos por el aprendizaje profundo son más superficiales de lo que inicialmente parecen”.
Si el alcance del aprendizaje profundo es limitado, ahora se puede dedicar demasiado dinero y demasiadas mentes refinadas, dijo Oren Etzioni, director ejecutivo del Instituto Allen para Inteligencia Artificial. “Corremos el riesgo de perder otros conceptos y caminos importantes para avanzar con IA.”, dijo.
En medio del debate, algunos grupos de investigación, nuevas empresas y científicos informáticos están mostrando más interés en los enfoques de la inteligencia artificial que abordan algunas de las debilidades del aprendizaje profundo. Por un lado, el Allen Institute, un laboratorio sin fines de lucro en Seattle, anunció en febrero que invertiría $125 millones en los próximos tres años, principalmente en investigación para enseñar máquinas para generar conocimiento de sentido común, una iniciativa llamada Project Alexandria.
Si bien ese programa y otros esfuerzos varían, su objetivo común es una inteligencia más amplia y más flexible que el aprendizaje en profundidad. Y, por lo general, están mucho menos hambrientos de datos. A menudo utilizan el aprendizaje profundo como un ingrediente entre otros en su receta.
“No estamos contra el aprendizaje profundo”, dijo Yejin Choi, investigador del Instituto Allen y científico informático de la Universidad de Washington. “Estamos tratando de elevar la mira de la IA., no criticar las herramientas”.
Esas otras herramientas de aprendizaje no profundo a menudo son viejas técnicas empleadas de nuevas maneras. En Kyndi, una start-up de Silicon Valley, los científicos informáticos están escribiendo código en Prolog, un lenguaje de programación que data de la década de 1970. Fue diseñado para el lado de razonamiento y representación del conocimiento de la IA., que procesa hechos y conceptos, e intenta completar tareas que no siempre están bien definidas. El aprendizaje profundo proviene del lado estadístico de la IA. conocido como aprendizaje automático.
Benjamin Grosof, un investigador de IA. durante tres décadas, se unió a Kyndi en mayo como su principal científico. El Sr. Grosof dijo que estaba impresionado por el trabajo de Kyndi sobre “nuevas formas de reunir a las dos ramas de la IA.”
Kyndi ha sido capaz de utilizar muy pocos datos de entrenamiento para automatizar la generación de hechos, conceptos e inferencias, dijo Ryan Welsh, el director ejecutivo de la start-up.
El sistema Kyndi, dijo, puede entrenar de 10 a 30 documentos científicos de 10 a 50 páginas cada uno. Una vez entrenado, el software de Kyndi puede identificar conceptos y no solo palabras.
En un trabajo para tres grandes agencias gubernamentales que se negó a revelar, Kyndi ha estado pidiendo a su sistema que responda a esta típica pregunta: ¿se ha “demostrado una tecnología en un entorno de laboratorio”? El programa Kyndi, dijo el Sr. Welsh, puede inferir con precisión la respuesta, incluso cuando esa frase no aparece en un documento.
Y el software de lectura y puntuación de Kyndi es rápido. Un analista humano, dijo Welsh, podría necesitar dos horas de media para leer un extenso documento científico, y quizás leer 1.000 en un año. La tecnología de Kyndi puede leer esos 1.000 documentos en siete horas, dijo.
Kyndi sirve como un asistente digital incansable, identificando los documentos y pasajes que requieren juicio humano. “El objetivo es aumentar la productividad de los analistas humanos”, dijo Welsh.