Au programme :
- Un épisode spécial où on vous explique le machine learning, le deep learning, leur histoire, leurs différences, leur fonctionnement, leurs applications, et plus encore !
- Quelques liens :
Pour soutenir l’émission, rendez-vous sur http://patreon.com/RDVTech
Plus d’infos sur l’épisode :
- Les animateurs sont Nicolas Tupégabet (@nicotupe) et Patrick Beja (@NotPatrick).
- Le générique est de Daniel Beja (@misterdanielb). Sa musique libre de droit est sur MusicInCloud.fr.
Vous pouvez télécharger le fichier MP3, et vous abonner par iTunes ou en RSS.
Jeg dit
Pas tout compris mais très intéressant ! Merci pour l’essai de vulgarisation de ces concepts. Vais également essayer le Podcastscience…d’ailleurs quel serait votre top des 5 Podcasts francophone du moment ? Ma dernière découverte est Studio404 que vous connaissez déjà sûrement :).
Nicotupe dit
De mon coté hors podcastscience et les podcasts de Patrick, je ne rate jamais deux podcasts (l’un amateur et l’autre émission de radio) :
– Niptech : Entreprenariat, startups, tech, innovation. C’est le podcast que j’essaie de ne vraiment pas louper et que je trouve vraiment excellent à chaque fois!
– Affaires sensibles : histoire contemporaine avec un storytelling inimitable
Lothera dit
Bonjour , podcats vraiment interresant surtout la fin la projection vers les conséquences dans le quoditien , et dans l’avenir proche .
Sirius dit
Merci pour ce podcast de qualité ! 🙂
Pour aller plus loin et ajouter une petite brique de connaissance : j’ai récemment écouté un podcast sur France Culture d’un doctorant qui présentait son travail et plus précisément sa thèse sur la production d’un algorithme associé et une sorte de module permettant aux machines d’avoir des échanges émotionnels avec les humains. C’est le concept très concret de : Expériences sur un robot émotionnel haptique à corps sensible. Voici le lien vers le podcast en question : https://www.franceculture.fr/emissions/la-recherche-montre-en-main/experiences-sur-un-robot-emotionnel-haptique-corps-sensible
SwedishTiri dit
Excellente émission pour démocratiser le machine learning et le deep learning! C’était vraiment important d’en faire une je pense étant donné que l’on en intégre à toutes les sauces , de plus en plus. Donc merci pour ca.
quelques infos en plus pour les plus interessés:
– je conseille de regarder des conf de Yann Lecun, que vous citez, qui sont dispos à foison sur youtube. Etant un des papes du deep learning, il en fait régulièrement un peu de partout ds le monde.
Pour la période où le deep learning est devenu majeur:
en 2012, en fait, Geoffrey Hinton et son équipe ont participé à la compétition ImageNet en utilisant ce type d’algo sur lequel ils avaient travaillé dans les années 80. Résultat, ils ont explosé les scores. Et les années suivantes , toutes les autres équipes ont migré progressivement sur ce genre d’algorithme (Convolutional NeuralNet).
– A facebook, où Lecun dirige la branche AI, ils recoivent apparement plus de 300millions d’images par jour. Et ils les passent dans un filtre (donc ces algo Convnet) pour faire de l’identification autom des personnes (interdit en europe je crois par contre?) et un autre filtre aussi, pour faire de l’identification d’objets, cad voir , analyser et labeller ce qu’il y a dans la photo.
– Et les dernieres choses à la mode sont en effet, comme la dit Nicolas je crois, faire construire automatiquement par un algorithme, une architecture d’un deep neural network. Donc ce n’est plus l’humain qui construit manuellement quelle architecture il veut, mais c’est un autre algo qui va dire quelle est la meilleure architecture :/
A terme, la volonté est de peut etre pouvoir avoir une architecture qui serait assez géneralisable, pour faire du computer vision, ou du speech recognition ou du text recognition tout avec le meme reseau de neurones. Alors qu’aujourd’hui, les architectures sont tjrs specifiques au type d’application.
bref, vaste sujet, mais palpitant 😀
Nicotupe dit
Merci pour ces super compléments !
Coline dit
Bonjour
Merci pour cet épisode très interessant.
En ce qui concerne les applications au quotidien du machine learning il y a un marché assez développé que vous n’avez pas cité : la publicité en ligne pour laquelle des algorithmes, de plus en plus intelligents, gèrent des millions ou j’en même des milliards d’enchères en tant reel, et qui avec le temps achètent la pub/les clics de façon de plus en plus efficace en apprenant à partir de l’accumulation de données transactionnelles…
D’ailleurs a gestion de la fraude en ligne /paiements aussi ainsi que me semblent il, certains domaines de santé publique et particulièrement d’épidémiologie…
Le machine learning est partout, et surtout la ou il y a des données et des sous à faire.
(Et j’immagine donc dans la finance?)
Patrick dit
Ah oui, application intéressante en effet ! Et tu résumes bien la chose : le machine learning est partout où il y a des données… Ca fait pas mal de domaines ! 🙂
mika dit
Pour le chihuahua vs muffin :
http://www.huffingtonpost.com/entry/muffin-or-chihuahua_us_56e05c3ee4b065e2e3d461f2
on comprend mieux l’explication 😉
Jean-Philippe Encausse dit
MERCI !!! Pour cet épisode qui explique l’IA.
Je passe mon temps à évangéliser des clients sur cette thématique qui veulent de « l’intelligence artificielle » pensant que miraculeusement cela va changer le monde… Alors qu’en fait on est sur des IAs très spécialisées.
Voici un meetup (diffusé il y a quelques mois) qui parle de DNN appliqué aux outils de NLP.
https://www.youtube.com/watch?v=aPMkLSstDdQ
– Julie Desk qui décris une combinaison Humain/Machine
– Le second talk qui compare l’approche RegExp de l’approche Machine Learning.
Par ailleurs:
– Il y a des services en ligne pour jouer
– Il y a des framework comme tensor flow
– Entre les deux il y a des API avec lesquels jouer.
Dans ces API il y a entre autre Google Vision et Microsoft Cognitive Services qui permettent d’apprendre a reconnaître des images non pas sur ImageNet mais sur un set d’image uploadées. Et lors de la BUILD il y a eu une démo bluffant avec encore une autre techno de Reco Visuelle.
En mode non ML jetez un oeil sur Bear (https://bear2b.com/) et Selectionnist qui font de la reco d’image avec des vieilles technos comme SIFT => Et ça marche aussi très bien
Vous n’avez pas cité (je crois)
– la voiture autonome qui est un sujet très « game changer » avec le ML.
– du ML embarqué qu’on voit de + en + apparaître (aka Snips pour la voix ou d’autres solutions carrément au niveau puce)
– le sujet (qui m’énerve) du Droit vs IA (gros buzz des Avocats sur un sujet qui n’a pas lieu d’être)
PS: sur la fin vous abordez un sujet qui est l’UX et justement le Voice UI qui est la clef pour avoir de bon résultat. @nicotupe dis « c’est nous qui posons les questions » et justement c’est une faute de design d’API ou GoogleHome, Alexa ne permettent pas d’être proactif.
DEEPANSWER dit
Bonjour,
Excellent podcast, j’ai appris beaucoup de choses grâce à vous. Merci.
Pour revenir sur la connexions des neurones effectivement on peut se couper les 2 mains et continuer à marcher comme si de rien n’était… notre cerveau ne sera pas perdu ! Incroyable.
À 1h19mn33 Nicolas évoque quelque chose mais on ne comprend pas très bien et s’il s’agit d’un livre, un film, une série… j’ai juste compris la fin : « …ils ne savent plus comment marche le monde… ». Si quelqu’un peut m’éclairer je l’en remercie d’avance.
Bonne soirée.
Nicotupe dit
Salut,
merci pour tous ces compliments! Je pense que je parlais du film Idiocracy. Il présente un monde dans lequel l’humanité est devenue de plus en plus bête et il se trouve qu’à l’hôpital ce sont des humains assez débiles qui appuient sur des boutons pour savoir comment traiter les patients. https://www.youtube.com/watch?v=m0ywzRYSHR0
Bon visionage