Player is loading...

Embed

Copy embed code

Transcriptions

Note: this content has been automatically generated.
00:00:00
voilà merci de m'avoir invité je vais vous
00:00:05
parlez pas de la situation d'elias où sont ses limites
00:00:13
et qu'elles sont en quelques années son avenir dont
00:00:17
nous avons tous entendu parler de la révolution de l'apprentissage automatique
00:00:21
l i d i c d très ancienne
00:00:25
qui vient du fait du cortex visuel dans le cerveau
00:00:31
qui se trouve à l'arrière du cerveau qui et à peu près
00:00:35
et complot reproduire sous forme de couches comme vous voyez ce qui a inspiré
00:00:44
l'idée d'un réseau ne mènera à n'en a une mise en avant
00:00:56
donc c'est là la recherche sur le lien dans les années 70 messenger récemment
00:01:05
que l'informatique sic et les traitements des données à a permis que cela fonctionne donc
00:01:13
donc des images elle labellisés humaine 1 million et
00:01:17
demi donc et c'est de donner qui ont
00:01:21
qui ont provoqué d'énormes progrès dans ce
00:01:24
domaine surtout pour reconnaître la reconnaissance des objets
00:01:28
es tu sur les années au fil des ans
00:01:33
nous voyons la concurrence entre les rejets les chercheurs et compagnie
00:01:40
qui travaillaient sur la reconnaissance des objets et en 2012 nous avons vu
00:01:46
un état de réseau neural qui rentraient dans cette compétition dans cette concurrence
00:01:52
et vous avez vu à quel point cela a provoqué une chute drastique
00:02:00
voire même en deçà de la performance humaine pour ce
00:02:04
cette donnée donc voila cela a suscité un énorme optimisme
00:02:12
et notamment dans les domaines de la reconnaissance faciale les
00:02:17
voitures autonomes qui peuvent identifier des objets sur le la route
00:02:24
donc les jeux vidéo comme l'a donc les jeux les jeux comme logo par exemple
00:02:31
avec le grand ma mère être qui a été
00:02:34
défait par le programme basé sur un réseau neural
00:02:39
neuronal et même pour l'inde et des tâches linguistique
00:02:46
comme des modèles j'étais 3 par exemple je vois ici je vous donne quelques titres
00:02:53
c'est qu'une conversation et voyez donc avec la traduction
00:03:01
automatique avec des suggestions donc
00:03:06
estce que je sais pas si ces personnes sont de vraies personnes animées et cela a
00:03:12
l'air assez convaincant et ça a vraiment l'air d'être fait par des humains
00:03:17
cassant eux cependant ou comme le précédent orateur la divin à bord un grand nombre de limites
00:03:23
ali actuellement il a dit qu'il n'a pas d'
00:03:26
intelligence dans l'article et l'intelligence artificielle et même si
00:03:34
nous n'avons pas une définition très précise de l'intelligent
00:03:39
je suis d'accord donc voici quelles sont les limites de
00:03:42
tout d'abord nous savons qu'il ya ces machines qui traîne
00:03:48
par le biais de millions de formes de d'exemples par exemple des photos des
00:03:54
toutes sortes de données hier humaine et ce qui est
00:03:59
radicalement différent de l'apprentissage humain qui ne nécessite qu'
00:04:03
un très petit nombre d'exemples voire pas du tout
00:04:07
la manière dont ces machines apprennent et sont énormes
00:04:13
donc j'ai été 3 ss
00:04:15
programme linguistique comporte 175 milliards de paramètres
00:04:22
le numérique et il doit être traitée formés sur des
00:04:28
textes et basée sur des centaines de milliards de mots
00:04:32
donc que les chiens et de ceux de
00:04:35
ce processus fait que la création de ces systèmes
00:04:40
né disponible qu'aux grandes causes company compagnie qui
00:04:45
ont la possibilité de souffrir de ce genre de données
00:04:49
suisse hausse ces machines ne sont parfois pas
00:04:54
transparente dans leurs apprentissages voici un exemple très simple
00:05:00
voilà un de mes enfants un étudiant qui a formé un réseau neuronal pour décider
00:05:08
pourtant pour déterminer s'il faut comme l'illustre l'animal ou non en voici l'animal oui
00:05:15
il n'a pas d'animal ici à droite donc là la machine à
00:05:20
café sont enfin sur bon nombre de photos mais lorsque mon étudiants essayez de
00:05:24
comprendre exactement ce que la machine a v a pris
00:05:28
pour arriver à effectuer cette tâche il a remarqué aucune des choses
00:05:33
cette thèse et l'utiliser pour sa prise de décision c'était l'arrière plan
00:05:36
non pas ce qui était au premier plan mais ce qui était à l'arrièreplan
00:05:41
si l'arrière plan est éteint un camion un
00:05:48
c'était statistiquement associée au fait qu'il avait un animal par ce
00:05:53
que l'animal est à la bons plans et eux au premier plan voilà
00:05:59
cette machine avait appris cette passe très bien
00:06:03
de très bonnes manières mais en utilisant des informations
00:06:08
que l'on avait pas l'intention d'apprendre c'est vraiment raccourci 7 humblement un raccourci que cette machine avait prise
00:06:16
donc la machine apprend quelque chose qui lui permet de d'accomplir la tâche mais
00:06:23
ce n'est pas du tout la même chose que le même mode de faire que l'humain
00:06:29
et les machines font des erreurs connu ma ne connaîtrait pas par exemple un autre groupe de recherche a
00:06:37
à étudier à des réseaux neuronaux par exemple
00:06:41
ici on pouvait identifier ce camion de pompier
00:06:45
avec un taux très de confiance de nos 39% mais si l'objet
00:06:52
et avec photoshop et dans notre position alors le système
00:06:58
était sûr que c'est juste d'un bus scolaire
00:07:01
au même d'un bateau aux pompiers ou même d'un bon beurre
00:07:07
et c'est vraiment amusant parce que cela montre que la machine
00:07:14
s'appuie sur des éléments pour prendre sa décision très différents
00:07:18
des éléments que prennent les humains et enfin dans la vraie vie
00:07:23
de ce que nous appelons la fragilité de l'apprentissage peut provoquer des
00:07:30
accidents des catastrophes par exemple les voitures autonome comme l'est et cela par exemple
00:07:36
qui ne reconnaissent pas un camion un camion de pompier qui s'arrête
00:07:41
qui s'arrêterait sur eux la l'autoroute et qui donc n'aboutirait
00:07:45
donc voilà ce système que j'ai mentionné tout à
00:07:48
leur répéter 3 donc ce système de génération de texte
00:07:53
à montré très clairement que l'on ne comprend pas le texte les produits même si il
00:08:02
peut apparaître très semblable à un humain et peu
00:08:05
commettent des erreurs grossières et connu même commettrait pas
00:08:18
alors certains un personne en appeler ça le
00:08:22
club parrain de cet état un animal un cheval
00:08:27
ce qui en ont le prétendait pourrait faire des
00:08:31
mathématiques en lui donner un problème de ma t.
00:08:36
et pouvez donner la réponse soidisant mais en faite il est apparu
00:08:39
que la france ne faisait pas du tout de maths mais il répondez
00:08:44
un ou à la langage corporel
00:08:48
deux sons de son coach donc clarins
00:08:54
donc tous programmes d'apprentissage automatique
00:08:59
utiliser ni quelque chose dans les données qui n'
00:09:03
était pas du tout utilisé par les humains mais
00:09:08
c'est qu'avaient les corrélations statistiques et quand on voit cela
00:09:12
ici dans l'un de la
00:09:18
propriété quand les réseaux de reconnaître
00:09:21
des attaques sur image si l'on n'ajoute un image
00:09:27
qui a été classé correctement par un réseau neuronal si on rajoute
00:09:33
un bruit quelque chose qui
00:09:37
était vraiment amplifier voilà le résultat donc cela
00:09:41
a l'air identique à l'homme mais la machine pas toujours le classifiés commune autruche
00:09:49
quelque soit l'image
00:09:54
ce don qu'on appelle ça des processus de contraires
00:10:00
et on voit que ceux là fonctionne même
00:10:03
si l'on met des autocollants sur des signes
00:10:08
routier des enquêtés habitent ces machines ont été voilà par exemple la machine
00:10:15
on vous dira coule dans cet appel grain limitée à 84 valeurs
00:10:21
ce n'est pas bien ce n'est pas du tout pour les voitures autonome
00:10:26
voilà des problèmes s que connaisse la
00:10:31
robustesse du même du système de l'intelligence art
00:10:35
officiel et cela montre que l'apprentissage et très différent de celui
00:10:39
de des humains dans le vrai monde donne que je viens d'écrire
00:10:44
un rapport récemment qui dit pourquoi les gens
00:10:48
artiste avait plu difficile que ce que nous pensons ce
00:10:53
était pour dire pourquoi ne va pas bientôt rejoindre le niveau de l'humain et la première des raisons c'est que
00:11:00
il ya ni des
00:11:04
donc monsieur dreyfus ce qui a beaucoup écrit sur l'i. a. et qui dit qu'il a dit un obstacle un
00:11:09
inattendu dans le continuum assumée du progrès de l'i. a.
00:11:13
ca toujours été le problème du bons sens donc le bons sens
00:11:20
et vraiment maintenant le mot clé de l'i. a.
00:11:26
c'est un problème qu'aux bons nombre de gens sur lequel travaille comme
00:11:34
le cofondateur de microsoft avant de mourir il a quelques années a
00:11:39
investi beaucoup d'argent pour enseigner le bons sens aux ordinateurs
00:11:47
bien le département de la défense des etats unis
00:11:49
qui consacrent un financement non négligeable pour essayer de
00:11:54
conférer du bons sens en machine mais c'est un problème de taille donc j'imagine par exemple
00:12:02
ce qu'il ya une voiture autonomes qui se confronte à cette situation casque et sa voiture à comprendre
00:12:10
sous le la predict habilité du monde en
00:12:14
quechua s'il se passait dans cette situation donc
00:12:17
il a beaucoup de choses connues main comprendra propos l'appeler la physique intuitive
00:12:25
comme différents objets interagissent la psychologie un comment les
00:12:31
gens interagissent quelles sont leur relation la biologie pourquoi
00:12:39
pourquoi ils font ce qu'ils font dans des modèles
00:12:42
mentaux de causes et conséquences et grande des énormes ont connaissance
00:12:48
dont nous ne sommes pas conscient mais dont nous servant pour eux on
00:12:51
comprend de nouvelles situations et enfin la capacité d'abstraction et d'analogies
00:12:57
avec des situations connu précédemment donc tout cela
00:13:01
je dirais sont les grands défis
00:13:06
connelly actuellement et je nous sommes très loin
00:13:12
deux d'avoir amené les systèmes d'intelligence artificielle proche
00:13:18
de deux de toutes ses aptitudes humaines qui peuvent fonctionner
00:13:24
dans un dans le vrai monde
00:13:30
donc j'ai un de culasse de cet ouvrage que j'
00:13:33
écris et à l'intelligence artificielle un gâteau indique pour les humains
00:13:37
qui vient de paraître en français gars également j'espère que vous

Share this talk: 


Conference Program

Mot de bienvenue
Aurélie Rosemberg, Fondation Dalle Molle
Sept. 11, 2021 · 4 p.m.
382 views
Ouverture
Jean-Pierre Rausis, Président de la Fondation Dalle Molle
Sept. 11, 2021 · 4:15 p.m.
Intelligence artificielle et qualité de la vie
Prof. Hervé Bourlard, Directeur de l'Idiap
Sept. 11, 2021 · 4:30 p.m.
Intelligence artificielle pour penser comme les humains
Melanie Mitchell, Professeure à l’Institut de Santa Fe
Sept. 11, 2021 · 4:45 p.m.
Vers la robotique centrée autour de l’humain
Sylvain Calinon, Directeur de recherche à l’Institut de Recherche Idiap
Sept. 11, 2021 · 5 p.m.
Sécurité biométrique
Sébastien Marcel, Directeur de recherche à l’Institut de Recherche Idiap
Sept. 11, 2021 · 5:30 p.m.
Compatibilité avec l’humain : l’IA et le problème du contrôle
Stuart Russel, Professeur en informatique et Professeur de Smith-Zadeh en ingénierie, Université de Californie, membre honoraire de Berkeley et du Wadham Collège à Oxford -
Sept. 11, 2021 · 5:45 p.m.
Modéliser la subjectivité au cœur de la conscience pour rendre les robots plus humains
David Rudrauf, Professeur associé à l’Université de Genève, Directeur du laboratoire de la modélisation multimodale de l’Emotion et du Ressenti
Sept. 11, 2021 · 6 p.m.
172 views
Table ronde
Panel
Sept. 11, 2021 · 6:15 p.m.

Recommended talks

Artificial intelligence to think like humans
Melanie Mitchell, Professor at the Santa Fe Institute
Sept. 11, 2021 · 4:45 p.m.
The Human Cloud at Work and Virtual Assistants
Chris Brauer, Goldsmiths, University of London
Jan. 30, 2015 · 11:42 a.m.