Podcast MIT Artificial Intelligence


Mes mots clés sur des épisodes

Avant propos

J'ai découvert ce podcast en 2018, année de sa création.
Son créateur, Lex Fridman, interview des personnalités du domaine de l'intelligence articificielle et étude du cerveau.
La qualité des invités et le temps consacré (les interviews durent de 1h00 à 1h30) en font un podcast incontournable à mon sens dans ce domaine.

Je partage ici quelques mots clés sur les passages d'épisodes qui m'ont le plus intéressés.
Les chiffres sont l'horodatage du podcast où un sujet est abordé (exemple : 38m10 = à la trentième minute et dixième seconde du podcast).

Ce podcast est en langue anglaise, et j'ai traduit quelques mots que je ne comprenais pas forcément à la première écoute, et qui pourront donc aider ceux qui ont le même niveau d'anglais que moi. Cette partie inclus également des expressions qui m'éclatent et que je note pour m'en rappeler.

Episode : avec Yann LeCun - 2019-08


Il est question des réseaux de neurones qui raisonnent.

Les mots-clés et idées majeures :
  • Memory network
    . hypocampus-like
  • Raisoning Network (15m00)
  • Energy minimization
  • " From Machine Learning to Machine Reasoning " paper by Léon Bottou, researcher at Facebook AI Research (20m00)
    . other paper in august 2019
  • Discrete function = can't learn
  • Continuous function = CAN learn

Lead to :
  • Cifar | Léon Bottou
  • Cifar | learning-in-machines-brains
  • Léon Bottou | papers
  • Springer | Machine Learning | Volumes from 1986 to now

    Connexe research = ADN :
  • Biorxiv | Poincaré Maps for Analyzing Complex Hierarchies in Single-Cell Data
    In the Abstract
    . Computational methods for discovering hierarchies from scRNAseq data
    . Poincaré maps produce state-of-the-art two-dimensional representations of cell trajectories on multiple scRNAseq datasets
    . can be used to learn predictive models that estimate gene expressions of unseen cell populations in intermediate developmental stages

    Best tweets :
    . => Another feat for #hyperbolic #deeplearning in #gene #expressions
    . => A new method based on hyperbolic geometry to discover hierarchies and branching processes using Single-Cell Data.
    . => Nice to see a non-Euclidean embedding approach
    . => New work by @mnick and others at @facebookai: a novel single-cell dimensional reduction algorithm, using hyperbolic geometry instead of Euclidean space (Poincaré maps). Very cool addition to existing trajectory analysis tools.

Episode : avec Tomaso Poggio


Tomaso a 40 années d'expérience dans le domaine de l'intelligence artificielle et de l'étude du cerveau.

Les mots-clés et idées majeures :
  • 14m30 : Brain vs CNN (Convolution Neural Network)
    . CNN better than LISP or Prolog to compete Brain
    . Baby don't see 1 million pictures labeled (CNN needs to see it in ML : 1 million picture label "this is a car " or "this is not a car ")
  • 19m00 : Hardware vs Software
  • DNA drosophile
  • My hunch // My guess
  • 27m00 : Cortex
  • 34m00? : Compositionality (where deep layer study?)
  • 40m00 : Stochastic gradient descent => successful outcomes
    . randomness in nature ?
    . minima of the low function
  • 48m00 : Unsupervised deep learning = GANs
  • 52m00 : School of AI = to learn stuffs to AI
  • 53m00 : A child is boostrapping.
    . Baby on first weeks looks only objects in motion = because it isolates the object from the backgound.
  • 58m00 : AGI
  • 01h08 : Silicon consciousness?
    . Turing test. Extended Turing test.

Des traductions de mots :
  • Hunch = Pressentiment

Episode : avec le CEO de OpenAI, Greg Brockman

Belle histoire : Il était passioné d'IA mais n'avait pas de PhD.
Il s'est formé par lui-même et a documenté ses apprentissages, questionnements, contributions, en écrivant des billets sur son blog. A défaut de publier dans des revues scientifiques.
Il a commencé son chemin comme cela et est maintenant à la tête de la société en intelligence artificielle, structure à la fois "private" et "non profit", qui emploie parmi les meilleurs experts du domaine !

Des mots-clés :
  • 21m00 = Perceptron : in 1950's NY Times told = Face recognition and Natural Language Processing will be resolved soon. But 10 years later, it didn't deliver.
  • 33m00 = Dare to dream
  • 38m00 = Structure of OpenAI Non Profit : the charter
  • 40m50 = Untangle
  • 43m00 = Government roles
  • 43m50 = The adult in the room
  • 45m00 = GPT2
    . GPT2 : décision not to release
  • 50m00 = The flip side
  • 01h04 = Deep Learning is scalable. And is better if scaled up.
    . Massive computation is important. GAN without mass computation = poor result.
  • 01m10 = Example : Dota (complex video game) = Idea of PPO happened without massive computation.

Des expressions qui m'éclatent et que je note pour (essayer de) les retenir :
  • No PhD to publish : he made a blog
  • "it her him" to talk about an Artificial General Intelligence (many times)
  • "The adult in the room"
  • "The flip side"
  • "Dare to dream" = Oser rêver

Des traductions de mots :
  • Untangle = désembrouiller
  • Tradeoff = compromis

Episode : avec Stuart Russel

Des mots-clés :

Améliorer votre anglais en lisant ou en écoutant des podcasts ?

Si ça vous intéresse, vous pouvez creuser dans ce site ami :)


De nouvelles infos du l'IA