Deep Learning

DL ou “Apprentissage Profond“, lié aux réseaux de neurones profonds (DNN) – et plus précisément les Perceptrons Multi-Couches (PMC/MLP). Ont permis des progrès importants et rapides dans:  la vision par ordinateur, la reconnaissance vocale, le traitement automatisé du langage, la bioinformatique, etc. Pour plus d”infos, lire cette petite introduction au Deep Learning, c’est une bonne entrée en matière.

–> Voir les super CPU/GPU utilisés dans ce domaine et le Big Data

Frameworks et librairies:

–> TensorFlow de Google et autres solutions
–> Le Deep Learning par Microsoft
–> Le Deep Learning par IBM
–> Theano
–> Torch et Technologies de Facebook
–> Caffe
–> Open Neural Networks Library (OpenNN)
–> cuDNN de Nvidia

News:

  • Mai 2017: Des chercheurs français ont conçu un synapse artificiel auto-apprenant: un memristor, constitué d’une jonction de tunnel ferro-électrique ultrafine dont la conductivité peut être modulée par des impulsions de tension. En parallèle des chercheurs de l’Université de l’Arkansas, sont parvenus à fournir un aperçu microscopique de la façon dont fonctionne le dispositif. Une avancée qui pourrait donner un coup de boost au Deep Learning.
  • “Écouter” les voitures pour anticiper les pannes en utilisant le DL
  • Septembre 2015: FeatureFu, boîte à outils dédiée à l’apprentissage automatique écrite en Java, est mis en Open Source par LinkedIn.
  • 2006: Après plusieurs décennies de stagnation concernant le DL, c’est G. E. Hinton et son équipe qui, en 2006, ont fait la principale percée dans ce domaine.
  • Origine: conceptualisé en 1943 (McCulloch, W. & Pitt), le perceptron en 1957, mais la capacité d’apprentissage arrive dans les années 80s. Voir historique.
  • 1955: Pierre Teilhard de Chardin introduit le concept de noosphère qui prophétise l’émergence d’un cerveau planétaire réunissant tout l’humanité sous une forme dématérialisée.

Infos et ressources:

Par Bénicourt