Player is loading...

Embed

Copy embed code

Transcriptions

Note: this content has been automatically generated.
00:00:00
donc je vais vous parler de l'intelligence artificielle et de quoi ça sert
00:00:11
je vais commencer une définition très simple définition que l'on prend comme modèle standard
00:00:21
bien sûr l'IAC de faire des machines intelligentes mais qu'estce que ça veut dire et
00:00:27
c'est que les machines dont en attendant les accents n'attend que ce qu'elle atteigne les objective
00:00:35
c des objectifs c'est ce que nous faisons c'est à dire que nous développons des machines automatiques
00:00:44
des algorithmes ou d et cetera et
00:00:48
nous mettons nos objectifs fixant des objectifs de cette
00:00:54
machine elle doit remplir ses objectifs il ya différentes branches dahlia
00:01:02
les stands modèle standard
00:01:05
contrairement à d'autres modèles statistiques ou le contrôle théorie du contrôle etc l'économie
00:01:13
tout ceci opère ou fonctionne sur le même
00:01:16
modèle d'optimiser des objectifs de ce bien spécifiques
00:01:24
une des caractéristiques de la recherche le long des années c'est le but
00:01:30
pas un nécessairement explicite ni implicite et que nous aimerions
00:01:35
un q. i. un comportement
00:01:38
d'apprentissage rapide et de qualité
00:01:45
dans n'importe quel environnement de tâches n'importe lequel entre guillemets
00:01:51
c'est de dire n'importe lequel le domaine dans
00:01:55
lequel l'humain est compétent il aurait d'autres domaines exacte également
00:02:02
mais il ya des limites qui nous empêche de le faire et la question
00:02:07
que je de kim qui m'intéresse aujourd'hui cet
00:02:11
espace ici nous réussissant par ce que nous faisions tous tes parvenir
00:02:19
les unes des visions serait donc de l'un des
00:02:24
objectifs majeurs généraux c'est d'utiliser ses capacités
00:02:31
c'est
00:02:33
ce que faire ce que nous savons déjà faire nous savons déjà construire des maisons nous savons de
00:02:41
le relais des tuyaux entre eux tout ça si
00:02:45
si nous pouvions voir des systèmes ia
00:02:50
qui s'occupe de tout ce genre de processus qui coûtent très cher cela permettrait d'améliorer le
00:02:56
niveau de vie de chaque habitant de la
00:02:58
terre un niveau respectable 111 autre élément deux
00:03:05
section comme mode de vie éternelle ou d'autre voyage
00:03:09
rapide comme l'éclair juste pour ordonner à tout le monde
00:03:15
ça
00:03:17
le mode de vie de la classe moyenne
00:03:24
on s'est à dire que le pays b
00:03:27
serait décuplé silent traduit cela dans la valeur nette présente
00:03:34
7 serait 13,65 adrian dollars donc
00:03:42
donc c'est là voilà ça vous donne une
00:03:45
idée des dimensions il aurait également des avances c. ier
00:03:51
que nous ne pouvons pas faire actuellement c'est à dire dans les soins
00:03:56
donner à chaque personne à chaque habitant cette r d information digne de ce nom
00:04:03
et améliorer le taux d'eux résultats scientifiques
00:04:09
mais si vous demandez alan turing qu'estce qu'il se passe racine réussissant voilà ce qu'il
00:04:15
a dire 1951 il est probable que les fois que la méthode de
00:04:20
ne pensez pas la machine aura commencé cela ne prendra alors en cas de dépassement faible pouvoir assez
00:04:25
un moment donné par contre nous par conséquent il faudra bien nous attendre que la machine prennent le contrôle
00:04:32
et n'a pas proposer de solution c'était juste un constat il était résignée
00:04:40
voilà deux visions vraiment très différentes qui ne donne son ne va
00:04:46
pas coexister en fait si nous avons sont maintenant dans le temps
00:04:52
donc turing est en 1951 de encore actuellement
00:04:57
nous voyons qu'il a maintenant adhérèrent kit de commence à devenir réalité
00:05:03
d. voiture auto non moins donc un champion de go qui se fait battre par la machine
00:05:10
dans un système de con
00:05:12
trôle pour eux le traité antinucléaire
00:05:19
i à i'âge donc l'image de corée du
00:05:22
nord avec eux détection très précise des armes nucléaires
00:05:29
qui sont en corée du nord donc voilà bien entendu nous trouvons des moyens
00:05:34
c. a. m'a laissé en mauvais escient ne lui a bien sûr nous sommes des humains
00:05:39
donc l'utiliser l'utilisation d'intelligence artificielle pour tuer des gens et nous voyons
00:05:47
ce qui peut se passer en libye l'année dernière ou un
00:05:52
au moins drone
00:05:56
l d f et
00:05:59
a v donc attaquer
00:06:02
des humains est un don qui va ils agissaient de manière autonome et
00:06:08
étaient guidés par eux par l'intelligence artificielle et angers à genève
00:06:14
les états membres sur l'organisation en charge des armements
00:06:20
donc on ne pourra pas non plus progresser à ce sujet
00:06:26
avec ses avancées ici les gens commencent à
00:06:31
croire sérieusement aux progrès de l'i. a.
00:06:35
mais comme mélanie mitchell ne déclare ni ne sont pas encore
00:06:40
mais en faite je suis d'accord avec elle nous sommes
00:06:44
bien plus loin que la plupart des gens ne l'imagine mais s'il en revient à
00:06:49
eux sur les progrès effectués septembre dernières années il
00:06:53
ya beaucoup d'avancées majeures qui ont été réalisés
00:06:59
donc l'apprentissage automatique automatisé 0 un est un exemple viendra d'autre
00:07:04
mais il faut vraiment partir du principe que ces avancées vont arriver
00:07:10
et qu'il ait il y'aura des systèmes d'intelligence
00:07:13
artificielle qui parviendra prend des décisions meilleur que les humains 0 un
00:07:21
tuerie nous demande si cela se produit
00:07:25
alors nous créons des machines qui sont plus puissante que les humains
00:07:31
et c'est à nous de faire des bonnes de prendre les bonnes décisions dans le monde
00:07:37
et lorsque nous sommes l'espèce sur la planète et nous créons des machines qui sont
00:07:42
plus puissante que nous comment alors ce que nos gardant le pouvoir sur des entités qui ont
00:07:49
qui sont plus puissante que nous et tuerie n'a pas de réponse à cette question
00:07:55
je pense mais pour ma part qu'il ya une solution sécu conceptualisant l'intelligence artificielle
00:08:03
par exemple
00:08:05
nous voir comment les choses peuvent mal se passer regardons ce qui se passe sur les réseaux sociaux
00:08:12
donc le empressé un objectif par exemple maximiser le taux de clic
00:08:20
nous pou
00:08:25
donc il ya donc plusieurs manières d'agir et on peut
00:08:30
penser qu'en eux que la machine d'apprendre que les gens veulent
00:08:36
et ce que les gens en eux dans les banques agences ont intéressé mais en fait
00:08:40
ce n'est pas du tout ce qui se passe l'algorithme n'apprend pas ce que les gens veulent
00:08:45
lorsque ce n'est pas la meilleure manière de maximiser les clics
00:08:52
ce que vous apprenez c les séquences d'action
00:08:57
pour ma maximiser la récompense à long terme
00:09:02
la politique de fait 0 un par exemple dans un
00:09:06
dans le programme de go il change le plateau de jeu en ajoutant des pièces
00:09:12
et pour eux donc l'objectif étant de deux de remporter la partie maintenant
00:09:17
si on en change le la partie on change le suce
00:09:23
ce que fait de l'homme pour avoir comme objectif à long terme de gagner la partie donc c.
00:09:28
en fait il modifie la personne pour affaires et nouvelles
00:09:31
qui plus prévisible et donc célébrer prévisible vous pouvez v
00:09:39
donc justement vous avez d'avance mieux ce qu'elle fera cesser
00:09:43
la solution pour le problème d'optimisation pied spécifiés par les plateformes de réseaux
00:09:50
dire de maximiser les le nombre de clics
00:09:55
et c'est pas la solution que nous voulons mais c'est la solution au problème
00:10:01
qu'elle était posée et cela créé et je lui dirai ex a crée des situations plutôt catastrophique dans le monde
00:10:08
et c'est un exemple de ce qui se passe
00:10:11
mal lorsque l'on nomme ne formule pas précisément les objectifs
00:10:16
le flux lui a s'améliore et plus les résultats sans son mauvais
00:10:25
par ce qu'on en donne plus de pouvoir allia pour
00:10:28
eux causé les catastrophes dans le monde par des prises de décision
00:10:33
un en précisant mal les objectifs connu de noms et cela
00:10:38
nous empêche de plus en plus d'interférer avec ses actions donc cela veut dire que
00:10:43
donc les algorithmes sur les réseaux sociaux n'ont pas la capacité
00:10:48
et de prévenir les interférences mais les entreprises qui les prêts les protège
00:10:55
donc on en des capacités de prémisses interférences donc
00:11:01
si c'est bel et bien des cas que les vies a poursuivi des et
00:11:06
des objectifs qui sont mal le formuler produit des comtés des catastrophes cela veut dire
00:11:13
iv que cela et tout à fait en porteàfaux avec le modèle de base
00:11:20
et je reviens sur l'objet et l'objet de la fondation dont qualité de la vie
00:11:28
je dirais je serais prête à dire que la fondation ne
00:11:32
sait pas exactement comment définir exactement la qualité de la vie
00:11:37
que pourra prendre toute une série de séquences dans l dans le monde des et les déclassifiés
00:11:42
en pot en classiquement par rapport aux qualités à la qualité de vie
00:11:49
et je ne crois pas que la formation le pensent eux pensent faire les je crois
00:11:53
que le gouvernement ne pense et à un certains points nous le savons lorsque nous voyons
00:12:00
et lorsqu'on fait l'expérience de quelque chose qu'on auxquels on avait pas pensez vous
00:12:05
que ce soit désirable ou pas lorsque nous en faisons l'expérience nous réalisons que ce cas
00:12:13
mais notre habitat notre capacité à décrire par avance une spécification correcte
00:12:19
de ce que la qualité de la vie ou un autre objectif
00:12:24
c'est vraiment est h. f. mission impossible donc le nouveau modèle
00:12:30
ce que je vais essayer de vous convaincre pour dire
00:12:34
que c'est comme cela qu'il faut envisager via c. cq
00:12:37
elle a remplacé la définition que je donnais des parce que les machines sont intelligentes un dans la
00:12:41
mesure où leurs actions on peut attendre de leurs actions qu'elles atteignent leurs objectifs on remplace la part
00:12:49
les machines sont bénéfiques dans la mesure où l'on peut attendre de leurs actions qu'elles atteignent
00:12:54
nos objectifs n'ont pas leur objectif c'est
00:12:57
vraiment un changement majeur pas leurs objectifs nos objectifs
00:13:02
bien sûr le problème ici est plus compliqué
00:13:08
à on ne sait pas exactement quels sont nos objectifs mais
00:13:12
cette formulation beaucoup plus solide pour tenter de résoudre cette équation et
00:13:18
qui expliquent nos objectifs les objectifs que l'on donne à la machine
00:13:29
donc j'ai formulé cela
00:13:33
en 3 principes donc que certains qui chevauchent après la définition précédemment donné
00:13:41
le premier objectif
00:13:44
le premier principe c'est l'objectif du robot c'est de satisfaire les préférences de l'humain
00:13:53
et je veux parler ici du la définition de la préférence pour les
00:13:58
économies c'est à dire des préférences or par rapport aux autres loterie ou
00:14:05
tout ce que ce dont on se soucie
00:14:11
ou par eux la bizarre je préfère mais toutes les préférences
00:14:16
le deuxième principe et c'est vraiment le point clé c'est le robot et n'est pas certains
00:14:22
des préférences humaine et c'est cette incertitude
00:14:28
qui ait vraiment déterminante pour nous
00:14:33
permettre de prendre le contrôle sur la machine
00:14:35
le troisième principe dit que le comportement c le robot ne connaît pas nos préférences
00:14:42
alors compétent
00:14:47
donc là tout passe par le
00:14:49
comportement humain donc avec nos préférences
00:14:53
qui sont la cause de notre comportement et donc notre
00:14:57
compare notre comportement fournit des preuves de nos préférences
00:15:05
cela produit un comporte un comportement
00:15:09
et donc on ne peut pas à mettre en porteàfaux le comportement et les préférences
00:15:17
donc il faudra attendre meilleure compréhension devient pour eux à aller de
00:15:22
l'avant donc on peut prendre ses principes et formuler une définition mathématique
00:15:28
du du problème que le colis a est en
00:15:31
train d'essayer de résoudre on parle d'un jeu d'assistance
00:15:38
cet ajout d'assistance parce que le robot le but du robot
00:15:43
et d'eux maximiser ici la récompense humaine
00:15:50
aimer elle ne sait pas et ne reconnaissait pas l'acte de laquelle il s'agit
00:15:56
alors on peut regarder quels sont les solutions quelles sont les là la manière
00:16:02
dont le robot devrait se comporter pour satisfaire ses 3 principes et l'envoi
00:16:07
q.
00:16:09
cela n'apparaît pas dans le dans le modèle classique par exemple
00:16:15
ce
00:16:17
pas le robot va s'en remettre à l'homme
00:16:22
c'est dire que c'est cela la personne qui a et qui sait ce qu'il faut faire value demander la permission avant
00:16:29
d'effectuer une mission qui va me changer ou modifier les parties
00:16:33
du monde dont le robot n'ait pas assure par exemple
00:16:39
sur le robot doit sinon au bout
00:16:43
d'oi donc réparer le niveau
00:16:47
de carbone par exemple si bien avec une solution
00:16:52
et qu'il dit qu'il faut transformer les océans et comme l'a pas
00:16:56
dit qu'on a dit à l'avance que cela n'est pas possible alors pourquoi
00:17:06
xi il demandera la permission auparavant au client de dire estce que cette étude
00:17:11
bonne idée de changer les océans de modifier entière mais aussi en pour retrouver
00:17:15
le calme le niveau de carbone et le client dira non probablement pas voilà
00:17:21
et dans un cas extrême
00:17:25
si le robot
00:17:29
il fait quelque chose que l'on aime vraiment pas alors ils et elles le permettra de trancher
00:17:40
alors en selon paul débranché
00:17:42
on ne veut pas que le roux beau nous
00:17:50
for sale débrancher means vont exister qu'on peut le faire donc c'est vraiment par
00:17:55
contradiction avec une magie classique qui poursuit un objectif et qui n'a permettrait jamais quand la branche
00:18:09
dans des cas simples dont on peut améliorer les choses
00:18:14
augmenter le niveau des décisions des humains pour who construire ce
00:18:20
genre de machines et qu'ils résolvent des jeux d'assistance
00:18:25
et pour déployer ce genre de machines qui résolvent ce problème c'
00:18:29
est quelque chose de d'intelligent pour qu'il faudrait que l'on fasse
00:18:35
la l. approprié de carbone caractéristiques de ce modèle sec en
00:18:39
améliorant lia on n'obtient de meilleurs résultats non pas des résultats
00:18:44
le pire parce que la machine apprend de ses de ses actions
00:18:50
qui nous aident à atteindre
00:18:53
son objectif
00:18:57
donc il ya
00:19:01
il ya beaucoup de complications que l'on prévient ici donc
00:19:07
il ya un grand nombre d'humains et les machines prennent des décisions au nom d'un grand nombre d'humains
00:19:15
donc eux mêmes petites comme gouvernement par exemple et se
00:19:20
donc cela ressort de la philosophie morale
00:19:25
ce n'est pas un nouveau problème mais peut être
00:19:34
ces liens qui va nous permettre de faire des progrès dans ce domaine
00:19:41
et je ne veux pas dire qu'il a beaucoup de gens
00:19:46
qui l'a 7 deux de valeurs ou de préférence
00:19:54
il ne faut pas forcément sur toutes les mêmes
00:19:58
cette idée peut aussi avoir un grand nombre de machines et donc sont impliqués dans ce jeu d'assistance
00:20:06
pas nécessairement fabriqué par la même compagnie avec le même logiciel
00:20:11
donc il faudra résoudre un
00:20:15
problème de d'interaction stratégique inattendue
00:20:24
il faut comprendre et les préférences des humains implique
00:20:39
avec le fa le fait que nous avons des émotions
00:20:43
et très importants avec le fait que non préférence évolue
00:20:50
nous sommes nés avec eux un grand nombre de préférence sur l'avenir
00:21:03
et des théories qui s'occupe avec des préférences des hommes qui peuvent être changés par eux les machines
00:21:12
essayer d'approcher correcte cela veut dire c'est par ce que chaque domaine d'elias
00:21:18
a ses fondations avec un objectif connu
00:21:22
les fixes que 5 est une planning planification
00:21:29
il ya n.
00:21:31
tous ces domaines
00:21:33
ont des objectifs fixés connu si cette affirmation est incorrect
00:21:39
il faut reconstruire de ces domaines seront fondation plus large ou
00:21:46
ou il faut vraiment avoir une connaissance parfaite des objectifs et
00:21:52
cette nouvelle approche j'espère et je sais j'aimerais que le monde de l'adopter est à dire comment
00:21:58
développer de nouvelles applications etc donc pour résumer je dirais que
00:22:06
lui a un énorme potentiel pour le bien et normes valeurs économiques qui
00:22:12
amen un élan et répressive
00:22:19
et je les gens pensent pouvoir éviter le risque sinon stop
00:22:24
en lien et je crois que c'est tout à fait invraisemblable
00:22:30
d'éloigner l'i. a. du modèle
00:22:33
standard vers une forme ou au lit à eux
00:22:36
peut être bénéfique pour les humains même si nous ne savons pas encore ce que la signifie exactement
00:22:45
il a des personnes
00:22:47
qui veulent créer
00:22:50
un nouveau domaine d'éthique de l'intelligence artificielle et je
00:22:54
vais pas les décourager mais je dirais que le modèle dans lequel
00:23:01
aux ou oui à d et d est ici un qui disent que lui
00:23:05
a mauvaise et moins efficaces ou non que
00:23:10
le modem des chercheurs de d'intelligence artificielle
00:23:16
de 10 que lui a été nécessairement bénéfique
00:23:20
pour le genre humain nous parlons vrai sans véritablement
00:23:25
deux changer il ya donc avoir un système
00:23:30
de développement de liens de haute qualité
00:23:34
et pour que ce soit bénéfique pour le genre humain il ya beaucoup
00:23:38
de choses que les docteurs et les professionnels et les compagnies pourraient faire
00:23:47
qui serait dame dommageable et parfois des compagnies font des choses dommageables pour le genre humain mais
00:23:56
mais lorsqu'un chercheur médicale se lève le matin je pars du nombre
00:24:02
de professionnels il sait que ça sera bien pour eux pour l pour l'homme
00:24:08
et ça devrait être le cas pour l'i. a.
00:24:12
et les liens peut être bénéfique il ya des problèmes de mauvaises
00:24:17
déjà mauvais usage dont je ne vais pas vraiment parler aujourd'hui
00:24:22
nous avons vu dans l'année présentation précédente donc la manière de mauvaise utilisation
00:24:28
de l'i. a. pour les données défaut sa formation avec des faits cnous etc
00:24:35
et je n'ai pas de solution toute faite pour cela et il a aussi un problème deux
00:24:41
sur utilisation si nous avons vont d'un i. a. qui se comportent car son propre comportement
00:24:51
nous avons nos propres aux problèmes que socioculturel pour savoir comment retenir
00:24:57
l'un de côté intellectuelle de la civilisation humaine
00:25:02
et ne pas laisser la conduite de la civilisation et machines et ça c'
00:25:06
est une question sur laquelle le bon nombre de personnes se penche mais les machines
00:25:15
il ya plusieurs ouvrages ce sujet les
00:25:19
j'espère que

Share this talk: 


Conference Program

Mot de bienvenue
Aurélie Rosemberg, Fondation Dalle Molle
Sept. 11, 2021 · 4 p.m.
379 views
Ouverture
Jean-Pierre Rausis, Président de la Fondation Dalle Molle
Sept. 11, 2021 · 4:15 p.m.
Intelligence artificielle et qualité de la vie
Prof. Hervé Bourlard, Directeur de l'Idiap
Sept. 11, 2021 · 4:30 p.m.
Intelligence artificielle pour penser comme les humains
Melanie Mitchell, Professeure à l’Institut de Santa Fe
Sept. 11, 2021 · 4:45 p.m.
Vers la robotique centrée autour de l’humain
Sylvain Calinon, Directeur de recherche à l’Institut de Recherche Idiap
Sept. 11, 2021 · 5 p.m.
Sécurité biométrique
Sébastien Marcel, Directeur de recherche à l’Institut de Recherche Idiap
Sept. 11, 2021 · 5:30 p.m.
Compatibilité avec l’humain : l’IA et le problème du contrôle
Stuart Russel, Professeur en informatique et Professeur de Smith-Zadeh en ingénierie, Université de Californie, membre honoraire de Berkeley et du Wadham Collège à Oxford -
Sept. 11, 2021 · 5:45 p.m.
Modéliser la subjectivité au cœur de la conscience pour rendre les robots plus humains
David Rudrauf, Professeur associé à l’Université de Genève, Directeur du laboratoire de la modélisation multimodale de l’Emotion et du Ressenti
Sept. 11, 2021 · 6 p.m.
169 views
Table ronde
Panel
Sept. 11, 2021 · 6:15 p.m.

Recommended talks

Compatibility with humans: AI and the problem of control
Stuart russel, Professor of Computer Science and Smith-Zadeh Professor of Engineering, University of California, Honorary Fellow of Berkeley and Wadham College at Oxford
Sept. 11, 2021 · 5:45 p.m.
Parades technologiques et humaines à "CheatGPT"?
Maxime Gabella, Directeur, MAGMA Learning
March 22, 2023 · 5:55 p.m.
102 views