jeudi 17 décembre 2015

AGI: geometric intelligence

Le deep learning a le vent en poupe mais il se trouvent quelques uns pour rappeler que l'approche, aussi interessante et fructueuse soit elle, a quelques limites et inconvenients.
MIT technology review fait un article sur Gary Marcus et la boite qu'il vient de fonder, Geometric Intelligence.
Il prone une AI basee sur des algos plus proches du fonctionnement du cerveau humain. En particulier, une maniere d'acquerir des regles generales a partir d'un nombre reduit d'exemples.
En comparaison, un reseau de neurones type deep learning va avoir besoin d'entre quelques centaines a plusieurs millions d'exemples afin de decouvrir le fonctionnement qu'on lui demande d'atteindre.

Ca semble etre l'approche pronee aussi par bon nombre de chercheurs dans le domaine de l'AGI (Artificial General Intelligence). Certains presentent des architectures conceptuelles assez elaboree mais il manque les details pratiques de conception ainsi que des demonstrations des capacites reelles.

Geometric Intelligence a l'air d'avoir deja des resultats pratiques donc j'espere qu'ils sortiront des demonstrations de leur technologie bientot!

mardi 15 décembre 2015

Le deep learning pour tous

C'est la foire aux bonnes nouvelles pour tout ceux qui veulent se mettre au deep learning, des labos et grosses boites sortent leurs outils maison au grand jour, en version gratuite et open source!
Caffe, de l'univeriste de Berkeley, USA, etait deja la depuis un bout de temps
- Theano a egalement une bonne longueur d'avance
- il y a presque un an, Facebook filait un module deep learning pour le framework Torch
- Brainstorm, de l'institut IDSIA, Suisse, est arrive sur Github il y a quelques mois
- MxNet, du groupe DMLC, s'est pointe dans ces eaux la aussi, je crois...
- quelques semaines apres, Google file son TensorFlow
- il y a quelques jours, la creation d'OpenAI, une organisation dediee a la recherche et le partage (gratuit!) de travaux en IA (ils n'ont encore rien sorti mais elle contient deja pas mal d'experts dans le domaine apparemment)
- et maintenant, Facebook ouvre le design de Big Sur, son matos hardware specialise pour le deep learning

... et il me semble qu'il y avait encore d'autres annonces de ce style ces derniers mois...
C'est le moment de se remettre au Python et/ou de ressortir le C++! ...et de trouver une idee geniale d'application qui aille au dela des domaines usuels.

Pour s'initier au domaine, il y a quelques cours bien faits et gratuits sur le net, dont celui sur les reseaux de neurones sur Coursera, et puis les tutoriaux qui viennent avec certains de ces frameworks.

Pour l'instant, d'apres les echos du net, MxNet semble etre le plus interessant (et surtout, rapide!).