© 2016 Economist Newspaper Ltd, Londres. Todos los derechos reservados. Reimpreso con permiso.

El 1 de junio del 2009, un avión de pasajeros de Air France que viajaba de Río de Janeiro a París entró en una tormenta en medio del Atlántico. El hielo se empezó a formar en los sensores usados por la aeronave para medir la velocidad del aire, privando al piloto automático de esos datos vitales. Deliberadamente, por tanto, la máquina se apagó y cedió el control a los pilotos.

Sin conocer su velocidad, y sin un horizonte visible en medio de una tormenta en la oscuridad de la noche, la tripulación pasó apuros para salir adelante. Contra todo lo aprendido en su capacitación, mantuvieron la nariz del avión apuntando hacia arriba, forzándole a perder velocidad y elevación. Poco después, el avión se desplomó en el océano, muriendo las 228 personas que iban a bordo.

Los investigadores franceses del accidente aéreo concluyeron que una falta de capacitación del piloto había desempeñado una parte importante en la tragedia. Conforme las cabinas se vuelven más computarizadas, los pilotos necesitan mantener actualizadas sus habilidades de vuelo.

Sin embargo, los pilotos también son escasos. En julio, Airbus predijo que se necesitarán 500.000 más para el 2035 para mantener el ritmo del esperado crecimiento de la aviación. Eso significa más presión para mantener a los pilotos en sus cabinas, ganando dinero, en vez de en simuladores, tomando costosos cursos de actualización.

La ayuda, no obstante, podría provenir de los expertos en inteligencia artificial del University College London (UCL). Inspirados por la tragedia de Air France, Haitham Baomar y su colega Peter Bentley están desarrollando un tipo especial de piloto automático: uno que usa un sistema de "aprendizaje de máquinas" para salir adelante cuando las cosas se ponen difíciles, en vez de ceder el control a la tripulación.

Los pilotos automáticos de hoy no pueden ser entrenados, explicó Baomar, porque son programas "hard coded" (poco adaptables) en los cuales un número de situaciones activan estrategias de respuesta bien definidas y escritas previamente; mantener una cierta velocidad o altitud, digamos. Una lista de viñetas, que es lo que esos programas representan, no maneja bien las novedades: si se pone a una computadora en una situación que sus programadores no hayan previsto, no tiene más opción que entregarle el mando a los humanos.

Baomar sospechó que un algoritmo de aprendizaje de máquinas podía aprender de cómo los pilotos humanos hacen frente a emergencias graves como una turbulencia repentina, fallas en el motor o incluso –como sucedió en el jet de Air France– la pérdida de datos de vuelo críticos. De esa forma, dijo, el piloto automático quizá no tenga que ceder el control tan a menudo, y eso, a su vez, salvaría vidas.

El aprendizaje de máquinas es un tema candente en la investigación de la inteligencia artificial. Ya se usa para tareas tan diversas como la decodificación del habla humana, el reconocimiento de imágenes y la toma de decisiones de cuáles anuncios mostrar a los usuarios de internet.

Los programas funcionan usando redes neurales artificiales (ANN, por su sigla en inglés), que están laxamente inspiradas en los cerebros biológicos, para analizar enormes cantidades de datos, en busca de patrones y extrayendo reglas que los hagan más eficientes en cualquier tarea que se les asigne. Eso permite a las computadoras aprender solas las reglas básicas que los programadores humanos de otro modo tendrían que tratar de escribir explícitamente en el código computacional, una tarea notoriamente difícil.

La universidad tiene mucha experiencia en esta área. Fue la institución que engendró Deep Mind, la compañía ahora propiedad de Google cuyo sistema Alpha Go derrotó este año a un gran maestro humano en go, un juego de mesa terriblemente difícil.

El equipo del UCL ha escrito lo que llama un Sistema de Piloto Automático Inteligente que usa 10 ANN separadas. Cada una tiene la tarea de aprender las mejores configuraciones para diferentes controles –el acelerador, los alerones, los elevadores, etcétera– en una variedad de condiciones diferentes. Probablemente se necesitarían cientos de ANN para sacar adelante un avión real, dijo Bentley, pero 10 es suficiente para verificar si la idea es fundamentalmente sólida.

Para entrenar al piloto automático, sus 10 ANN observan a humanos usando un simulador de vuelo. Cuando el avión está en vuelo –despegando, navegando, aterrizando y haciendo frente a un clima severo y fallas del avión que pueden presentarse en cualquier momento–, las redes aprenden solas cómo cada elemento específico del vuelo se relaciona con todos los demás. Por tanto, cuando al sistema se le dé su propio avión simulado, sabrá cómo alterar los controles del avión para mantenerlo en vuelo tan rectamente y a nivel como sea posible, pase lo que pase.

En una demostración en un laboratorio del UCL, el sistema se recuperó con aplomo de todo tipo de contratiempos en vuelo, desde perder potencia del motor hasta una turbulencia extrema o una granizada cegadora. Si perdiera los datos de velocidad como le sucedió al vuelo de Air France, dijo Baomar, la máquina mantendría la nariz lo suficientemente baja para evitar que el avión se frene. La versión más reciente buscaría datos de velocidad de otras fuentes, como el sistema de posicionamiento global.

Para sorpresa del equipo, el sistema también pudo volar un avión en el cual no había sido entrenado. Pese a haber aprendido en un avión ligero Cirrus simulado, la máquina resultó experta en los aviones de pasajeros y los jets de combate también disponibles en la base de datos. Ese es un buen ejemplo de un fenómeno de aprendizaje de máquinas llamado "generalización", en el cual las redes neurales pueden manejar escenarios que son conceptualmente similares, pero diferentes en los detalles, de aquellos en que han sido entrenadas.

El UCL no es la única institución interesada en pilotos automáticos mejores. Andrew Anderson de Airbus, un gran fabricante europeo de jets, dijo que su compañía también está investigando las redes neurales.

Sin embargo, es poco probable que esos sistemas estén volando aviones de pasajeros pronto. Una de las desventajas de tener una computadora que se entrena sola es que el resultado es una caja negra. Las redes neurales aprenden modificando la fuerza de las conexiones entre sus neuronas simuladas.

Las fortalezas exactas con las que terminan no son programadas por los ingenieros, y quizá no sea claro para los observadores externos qué función está cumpliendo una neurona específica. Eso significa que las ANN no pueden aún ser validadas por las autoridades de aviación, explicó Peter Ladkin, experto en seguridad en la Universidad Bielefeld en Alemania.

En vez de ello, es probable que el nuevo piloto automático encuentre sus primeros usos en los drones. La versatilidad del sistema ya ha impresionado a los delegados en la Conferencia Internacional sobre Sistemas de Aviones No Tripulados en Virginia, en la cual Baomar presentó un reporte.

Ladkin añadió que podía ver en uso la capacidad del sistema para mantener el control en un clima desafiante en investigaciones científicas de cosas como huracanes y tornados; algunas de las condiciones de vuelo más difíciles que hay.

Dejanos tu comentario