Pasar al contenido principal

Se encuentra usted aquí

Noticias

Las cinco tribus del ‘machine learning’

30/11/2016 12:29
Read in

¿Cómo deben aprenden las máquinas para sacar el máximo partido a todos los datos que manejan? Las respuestas que dan los científicos informáticos permiten agruparlos en cinco tribus. Todos se ven capaces de encontrar un algoritmo maestro capaz de aprender cualquier conocimiento a partir de los datos, con enormes implicaciones para todo lo que hacemos. 

0
Votar
0 Comentarios

La humanidad ya cuenta con una cuarta fuente de conocimiento. Durante miles de años, todo lo que sabíamos nos llegaba por tres vías: la evolución, la experiencia y la cultura, entendida también como todo lo que aprendemos en nuestro entorno sociofamiliar. Ahora, también tenemos conocimiento gracias a las máquinas, a la inteligencia artificial (IA), y en concreto, al machine learning, que podemos definir como la rama de la inteligencia artificial consistente en que los ordenadores se autoprogramen aprendiendo de los datos.  

Tradicionalmente las computadoras eran programadas con un algoritmo que les explicaba paso por paso qué debían hacer, por ejemplo para jugar al ajedrez o expedir un ticket del parquímetro. Ahora cada vez son más capaces de no requerir esa programación externa detallada y de generar por sí mismas conocimiento.

Este es un salto cualitativo en la historia de la humanidad que de momento se va plasmando fundamentalmente en el ámbito corporativo. “Es imposible citar diez startups tecnológicas con éxito que no tuviesen machine learning en su estrategia”, decía el científico informático Paco Natham en su intervención en el reciente congreso Big Data Spain, que reunió en Pozuelo de Alarcón (Madrid) a miles de profesionales de esta incipiente ciencia, cada día más importante en el día a día empresarial.

En busca del algoritmo maestro

Los algoritmos ya saben qué películas nos gustan, filtran nuestros emails no deseados y hacen que nuestros teléfonos móviles nos organicen la vida, pero están aún lejos de alcanzar toda su potencialidad.

El objetivo es que sean capaces de alcanzar cualquier conocimiento a partir de los datos, a través de lo que ya se denomina el algoritmo maestro. Así se titula precisamente el reciente libro de uno de los mayores expertos mundiales en machine learning, el portugues Pedro Domingos, profesor de la Universidad de Washington.

En The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World. Domingos define las cinco tribus del machine learning, a las que bautiza como simbolistas, conectivistas, evolutistas, bayesianos y analogistas.    

¿Qué distingue a estas tribus? Enfocan el machine learning desde diferentes disciplinas y, en consecuencia, aplican distintas soluciones algorítmicas.

Los simbolistas tienen una base lógica y filosófica, y su algoritmo maestro es la deducción inversa: creen que lo esencial es ir cubriendo los huecos en el conocimiento de la máquina mediante deducciones inversas.

Los conectivistas piensan que ese es un enfoque demasiado cerrado y formal: la vida no funciona mediante la lógica. Sus teorías se basan en el funcionamiento del cerebro, por lo que su teoría básica es la neurociencia, y su algoritmo maestro, la retropropagación.

Uno de los conectivistas más reconocidos es Yann LeCun, profesor en la Universidad de Nueva York y, desde 2013, responsable de Investigación en IA de Facebook.

Con la retropropagación, los científicos informáticos conectivistas pueden presumir de estar avanzando hacia la creación de minicerebros artificiales. Después de crear modelos matemáticos acerca del funcionamiento neuronal, y de replicarlos, los conectan en red y los ‘entrenan’ con la retropropagación.

Uno de sus avances más comentados fue la creación de un cerebro artificial capaz de individualizar imágenes en vídeos. Lo probaron en YouTube y descubrieron, para su sorpresa, que distinguía perfectamente gatos, un animal muy frecuente en los vídeos de la plataforma online.  

Los evolutistas se basan en los principios de la biología evolutiva. Su herramienta son los algoritmos evolutivos, que parten de los principios de Darwin. Simplificando, los evolutistas mezclan posibles soluciones ante un problema. Esas alternativas compiten entre sí, se mezclan y sólo las más aptas no son descartadas, con lo que se encuentran progresivamente mejores soluciones.

Los bayesianos toman su nombre de Thomas Bayes, un matemático británico del siglo XVIII cuyo recuerdo pervive gracias al teorema que enunció. Los bayesianos apuestan por la  estadística, y su algoritmo maestro es la inferencia probabilística.

Su básica idea es que todo lo que has aprendido, todo lo que sabes, es incierto, así que tienes que calcular la probabilidad de que sea incorrecto, e ir actualizándola según las pruebas, siguiendo el teorema matemático de Bayes. De acuerdo a estos principios se crearon los primeros filtros de correo spam.

Numerosos estudios demuestran que la analogía es básica en el razonamiento humano: cuando nos encontramos con un dilema, buscamos en nuestro pasado, recordamos lo que pasó, y actuamos en consecuencia, utilizando analogías, que son la base del machine learning para los analogistas.

Sus algoritmos son la base de los sistemas de recomendaciones online, muy rentables para las empresas. La máquina aprende que si A y B tienen gustos similares, lo que B conoce y A no, gustará a A. Un tercio de las ventas de Amazon son a través de su sistema de recomendación.

Domingos considera que todas estas teorías son útiles y resuelven problemas muy importantes de machine learning, pero al mismo tiempo son incompletas. En todo caso, y como dijo en el Big Data Spain Ramkumar Ravichandran, director de Analítica de Visa, “la IA está mucho más cerca de lo que pensamos. Es un cambio sistémico que va a hacer que nuestro rol evolucione. Eso no significa que nos quedemos sin trabajo, porque ni todos los trabajos necesitan IA, ni la IA vale para todos los trabajos”.

¿Dónde, entonces, está la clave? “Lo importante es distinguir bien lo que hacen mejor los humanos y lo que hacen mejor las máquinas”, opinó Natham, cuyo pronóstico es concluyente: “Los humanos no nos quedaremos sin trabajo porque mientras haya problemas, habrá trabajo”. Hay cosas que ni el algoritmo maestro podrá cambiar. 

 

También te puede interesar:

“La inteligencia artificial no está a la vuelta de la esquina”

Sistemas cognitivos: los clientes ya no buscan información, quieren comunicarse