Livre : L'apprentissage profond

par Ian Goodfelow, Yoshua Bengio, Aaron Courville
MASSOT EDITIONS

La bible du Deep Learning !

Ce livre fait autorité dans le domaine de l'apprentissage profond, concept et algorithme d'intelligence artificielle qui a explosé en 2012.

Les 110 premières pages récapitulent les principes mathématiques nécessaires à la construction des algorithmes d'apprentissage profond.
On commence par les scalaires, les vecteurs, les matrices, les dérivées, les intégrales, les transpositions, les tenseurs, les sigmoïdes, et on poursuit avec les gaussiennes, markov, l'entropie Shannon.
Les pages suivantes expliquent les concepts géniaux utilisés pour l'apprentissage profond : les réseaux de neurones convolutifs, la rétropropagation du gradient.

Par ce contenu riche, ciblé, et exhaustif dans le domaine, ce livre a tapé dans l'oeil d'Elon Musk, et il le recommande fortement.

Ce livre est également une sorte de mise en abîme, car il a été majoritairement traduit en français par une intelligence artificielle à base d'apprentissage profond, c'est à dire qu'il a été traduit automatiquement grâce à l'application des principes même qu'il contient.

La couverture du livre est aussi une mise en abîme, puisque cette image de paysage parisien avec la Tour Eiffel a été inventée par des algorithmes d'apprentissage profond. Ces coups de pinceau virtuel à la Van Gogh, traits en forme de vagues ou d'étoiles, sont en effet typique de cette génération spontanée d'images par intelligence artificielle.

Livre : L'Apprentissage Profond (version française)


Dans l'édition originale anglaise, parue fin 2016, la couverture générée par algorithme sur le même principe, représentait une magifique vue d'un Central Park fleurissant à New York.

Livre : L'Apprentissage Profond (version originale anglaise)



Ce livre est un gros pavé trés complet de plus de 700 pages.

Un extrait qui m'a scotché (parmi tant d'autres) :

. page 335 : Les réseaux convolutifs sont un exemple de l'influence des neurosciences sur l'apprentissage profond.

. page 336 : La recherche sur les architectures de réseaux convolutifs progresse si rapidement qu'une nouvelle "meilleure" architecture est annoncée toutes les semaines ou tous les mois concernant un problème spécifique, ce qui ne permet donc pas d'en privilégié une. Néanmoins les meilleures architectures ont toujours été assemblées à partir des éléments présentés dans ce chapitre.

Vous apprendrez dans le livre l'utilité pour l'apprentissage profond des éléments suivants :

. Régression linéaire
. Descente de gradient
. Chaîne de Markov
. Gaussienne
. Fonction de partition
. Loi de probabilité
. Machine de Boltzmann
. Réseaux convolutifs
. Réseaux de neurones
. Softmax
. Stochastique
. Rétropropagation

Ce livre est un must pour les passionnés d'intelligence artificielle qui veulent approfondir le sujet !







Le Blog