Player is loading...

Embed

Copy embed code

Transcriptions

Note: this content has been automatically generated.
00:00:00
je comprends de français mais il faut du temps pour trouver les
00:00:03
mots en français donc vu présentées ont exposé en anglais merci infiniment pour votre
00:00:10
l'invitation ont ils vraiment pendant 9 mois de parler d'un sujet si intéressant
00:00:18
qui et l'intelligence artificielle et les questions relatives aux états la paix et à la coopération internationale
00:00:25
vous demandez pourquoi eux quelqu'un de l'unit'
00:00:30
i. par vos parents d'intelligence artificielle un
00:00:37
si je peux me permettre je vais vous expliquer pourquoi nous en tant qu'institut
00:00:44
institut dont l'objectif principal de construire un monde plus sécurisé et pur sang p.
00:00:51
examine des approches facétieux là ils se séparent
00:00:55
ce que des ornements dessus quelques et international
00:00:58
le contrôle des de l'armement a toujours été
00:01:02
poussé animé par la technologie les 50 60 ans
00:01:06
lorsque les états se sont rendu compte que cette technologie lorsque c'est utilisé
00:01:10
dans le cadre d'un conflit provoqué des dommages qui souhaiteraient éviter à l'avenir
00:01:16
les états à confirmer de politique que de réglementation de traiter
00:01:22
et de solutions et juridiquement contraignantes
00:01:25
pour réduire les conséquences néfastes de l'
00:01:28
utilisation de cette technologie pourquoi je vous dites ça parce que l'orateur précédent
00:01:34
présente un argument très valables
00:01:39
quelle suivant si on regarde ce que les états font dans le cadre de la paix et la
00:01:44
sécurité des dans le cadre des nations unies en domaine
00:01:49
de l'intelligence artificielle sait exactement ce qu'ils font
00:01:53
on pourrait croire qu'il s'agit du etation du processus par lesquels
00:01:56
sont déjà passés non faites il ya quelque chose de très nouveau
00:02:01
dans ce que font les états les états essaie de réglementer les technologies avant même le développement
00:02:07
en entier de cette technologie avant que l'on commence
00:02:12
à utiliser les capacités militaires de ces technologies par le passé
00:02:17
on a mis au point des armes nucléaires tout le monde a
00:02:20
compris que ces armes étaient mauvaises donc on a commencé un
00:02:26
de fait signer des traités de non prolifération pour réduire le risque
00:02:33
en ce concerne lit un personne ne sait exactement dans quel sens on va aller donc les états
00:02:38
font des efforts pour créer un cadre qui pourrait
00:02:42
réduire les risques grâce à un ensemble d'initiatives
00:02:47
visant les technologies qui n'existe pas vraiment pour
00:02:51
l'instant dans pendant 15 minutes de jeu avec vous
00:02:55
m'accompagner emotion voyages voyage qu'est le voyage de
00:03:01
transposition tout ce que vous avez entendu grâce aux orateurs précédents
00:03:05
et je vais vous demander de cesser de crochets tout les problèmes
00:03:10
tout les oeufs défi que vous avez entendu dans un cadre de
00:03:17
base de l'intelligence artificielle pour faire des décisions eux qui
00:03:21
affectent le violemment eux s'ils pourraient eux qu'on se permet
00:03:28
décision de d'e lancé la guerre ou non vous
00:03:33
décision critique ici nous avons affaire à des états les
00:03:39
toutes les initiatives gouvernementales eux que nous avons entendu eux ont compris qu'il faut faire quelque chose
00:03:46
l'un des risques principaux en matière de plan d'action et le suivant cette technologie
00:03:51
et développer une culture de partager deux sources ouvertes open source tout le monde peut coder
00:03:59
et il ya beaucoup d'endroits où il a très peu de surveillance de ce qui est en
00:04:04
train d'être codé donc ses modèles d'algorithmes peuvent
00:04:07
être mis à disposition peuvent être répliquer et partager ton coeur
00:04:14
dans une culture de qui et basé sur le partage d'eux
00:04:18
de connaissances essieu des codes
00:04:21
de sources ouvertes i l
00:04:27
il les important de ne pas limiter les lacs c.
00:04:33
20 siècle technologie du secteur non etat
00:04:41
l'intelligence artificielle présente des
00:04:46
offres des opportunités inoui
00:04:52
et l'intelligence du ciel pourraient eux
00:04:57
complémenter grande gamme de tâche humaine évidemment cétologie
00:05:01
impliqués contraintes et les limitations ce qui
00:05:04
concerne la transparence la fiabilité l'équité
00:05:10
nécessité de terre de porter une certaine responsabilité alors tous ces problèmes
00:05:16
lorsqu'on les transpose dans un contexte de la paix la sécurité
00:05:23
les préoccupations autour de ces
00:05:26
questions augmente de manière exponentielle prescrit
00:05:30
à l'aspect je me dis que morale politique éthique etc
00:05:38
l'autre côté
00:05:42
toute l'architecture de gouvernance
00:05:44
naissante les présentes
00:05:50
faisons un projet de clôture en ce moment mon
00:05:54
institut et u n m l i
00:05:59
exception fin c la sécurité nationale installer toutes ces règles ne
00:06:03
s'applique pas lorsqu'il s'agit de la sécurité nationale
00:06:09
que ce soit le développement d'algorithmes ou tout autre chose dans qui agit de réglementaire
00:06:14
qui pourrait s'il n'ait pas complet rapidement
00:06:19
créer des lacunes potentiel pour des
00:06:23
acteurs étatiques et non étatiques
00:06:29
en fut d'un comportement inapproprié
00:06:34
qu'estce que nous voulons deviennent lorsque nous parlons
00:06:37
d'une applications militaires de l'i. a. sans être trop
00:06:42
précis je pense qu'on peut créer de grandes catégories
00:06:46
d'abord i. l'intelligence artificielle qui est utilisé
00:06:52
comme le multiplicateur de
00:06:56
le soutien à décisionnel
00:07:00
c'est le dieu de faire en sorte que l'architecture
00:07:03
militaire bénéficie d'un meilleur système de contrôle et de commandement
00:07:10
donc tout d'abord un homme
00:07:13
qui eux ne soutiennent décisionnel tant d'autres
00:07:17
catherine nous savons de TFI stabilisateur d'autonomie
00:07:23
dans ces deux catégories vous pouvez penser
00:07:26
des exemples de poursuite et d'optimiser la logistique
00:07:33
les le déploiement a forcé dans un
00:07:37
contexte militaire tout ceci est très puissant
00:07:41
quand ceci suppose que cette technologie sera utilisé en combinaison avec le
00:07:47
cerveau la puissance du c'est la puissance du cerveau humain
00:07:50
stauder l'urine association entre la théologie et l'être humain puis à la deuxième catégorie
00:07:59
d. a. en tant qu'utilisateur de l'autonomie
00:08:07
pour ce seul d'entre vous qui suivent
00:08:11
avec passion eux mes informations militaire vous avez
00:08:17
utilisation entré l'âge le rendu crème de claude guéant utilement
00:08:23
eux ne conteste pas des faits mains à l'avenir on peut prévoir
00:08:27
un scénario selon lequel au fur à mesure que la technologie devient de
00:08:30
plus en plus fiables dans la conduite de certaines tâches ces tâches pourrait
00:08:35
changer de tâches et contrôlé par un humain à des tâches autonome
00:08:41
je ne vais pas entrer dans la vie de
00:08:44
détail de la distinction entre l'automation très
00:08:48
sophistiquée et l'autonomie de l'autre côté mais les raisons de la capacité d'un système militaire
00:08:58
de s'engager et interagir avec l'environnement dans lequel
00:09:03
le système et les déployer sur la base des 5 fr
00:09:09
de ce que le fameux slogan gorbatchev s'applique également dans un contexte militaire
00:09:18
en somme le système d'os de se poser la question estce qu'il s'agit d'un champ que chez les étoiles
00:09:24
également d'eux détruire ou estce qu'il s'agit d'une ambulance ceux qu'évidemment je n'ai pas le droit de les détruire
00:09:35
dans le cadre de cette concurrent stratégique entre les
00:09:38
grandes puissances ceux qui souhaitent toutes être les premiers
00:09:43
un fait quelque chose il peut toutefois unique au svalbard que
00:09:47
j'entends par là même course intégrer les a dans les 4
00:09:52
capacité militaire avant que ses capacités militaires ne soit totalement fiable
00:09:58
et avant que les 4 de gouvernance
00:10:01
et gouvernementale ne soit totalement développer et très
00:10:07
ce sont des questions très clair immixtion d
00:10:13
dans domaine civil les questions autour de
00:10:18
l'i. a. et comment faire en sorte que les avantages de l'application de
00:10:23
l'utilisation de l'i. a. soient répartis de manière équitable de partout dans la société
00:10:31
on peut créer deux catégories d'état en ce qu'enseigne le développement
00:10:37
de l'i. a. les états qui sont des meneurs sont à la pointe
00:10:41
du développement de l'i. a. et d'autres c'est à qui ils
00:10:47
sont moins avancés technologiquement mais qui pourraient
00:10:50
bénéficier des progrès effectués par les premiers états
00:10:57
évidemment les incitations sont très différentes premièrement il faut garantir que
00:11:03
tout 4 de gouvernance ceux qui soit conçu ne soit pas un frein aux progrès de l'
00:11:10
autre côté entraider on ne veut même pas en
00:11:12
entendre parler l'intelligence artificielle ne peut pas à eux
00:11:18
être intégrés dans des systèmes d'armes pascal quelque soit le niveau de
00:11:23
sophistication de technologie et ceci serait immoral
00:11:26
et contraire à la dignité i. virgule mène
00:11:29
ce qui a beaucoup de concessions qui entrent en ligne de compte attend les considérations
00:11:34
techniques cette question que je souhaitais c'est le point que je souhaitais
00:11:40
le v. t. liée au point ne précisait pas vote suivant
00:11:46
c'est dire la question de la conduite du comportement humain
00:11:53
même si un opérateur disposent des compétences techniques qu'il sera difficile il
00:11:59
serait difficile de contrôler les algorithmes willy a eu des tentatives dans cette direction
00:12:06
mais le meilleurs moyens ce faux se focaliser l'utilisation
00:12:12
qu'estce que nous que les risques que ne souhaitant réduire
00:12:17
il compte réel de l'utilisation de sorte que les choses
00:12:24
puis des règlements tation eux qui sont plus douce
00:12:30
mais la question finale et toujours la même les
00:12:34
principes sont très beau mais comment les mettre en oeuvre
00:12:42
si vous voulez développer des capacités d'
00:12:45
isaac qui soient équitables le nouveau comprenant votre
00:12:50
l'objectif mais comment développer des
00:12:54
pratiques et des procédures pour eux de
00:12:58
s'assurer que vous alliez vraiment à mettre en oeuvre les grands principes en pratique
00:13:10
la conclusion j'aimerais vous de quelques mots sur ce qui
00:13:13
se passe au niveau des nations unies en matière de sécurité
00:13:18
internationales nationales et internationales nous savons que lui a beaucoup de domaines d'application
00:13:25
militaire mais les pourparlers actuel se focalise sur la partie émergée de l'espèce
00:13:33
ce qui concerne les systèmes d'armes autonome et létale
00:13:40
ce sont des systèmes d'armes qui sont destinés à eux
00:13:46
utiliser la force pour eux des frais de l'infrastructure gourgaud tués
00:13:51
et qui eux intégrer des fonctions autonome je ne
00:13:56
vais pas vous aviez avec les détails de cette discussion
00:14:00
mais les
00:14:05
mais un processus des nations unies et eux qui essaient de
00:14:10
minimiser ménager les l'impact de minimiser l'impact de l'humain
00:14:16
les responsables de l'organisation de ce processus de paix
00:14:21
ici évidemment encore beaucoup de du droit humanitaire international et
00:14:29
nous essayons de faire en sorte que les normes qui sont en train
00:14:32
d'être développée par l'industrie soit mise en oeuvre dans le domaine militaire
00:14:47
tant que le succès en matiere de
00:14:50
réglementation de l'application militaire de l'i. a.
00:14:55
un passe par le gouvernement les gouvernements retiennent les
00:14:59
pouvoir réglementaire mais les gouvernements ne peuvent pas adresse outre le problème tout seul
00:15:04
donc il faut trouver eux un moyens pour que les qui permettent au gouvernement d'eux
00:15:15
de plus pour que le gouvernement et
00:15:19
puissent profiter du le travail énorme qui a déjà
00:15:24
effectué dans ce domaine dans des entreprises privées merci
00:15:30
question avez vous des questions
00:15:35
la question
00:15:37
c'est que dans les usines
00:15:41
sommes nous trop de nos dans l'utilisation de l'intelligence artificielle d'un contexte de la guerre
00:15:50
c'estàdire ses machines obtenons etc quand on est trop confiant je pense
00:15:56
et il ya beaucoup d'excitation et beaucoup de
00:16:02
7 les inquiétudes de facilement compréhensible concernant cette technologie
00:16:12
en temps de guerre éclair
00:16:15
nous sommes encore très loin de là et certainement qu'on arrivera jamais à ce stade
00:16:21
parce que les forces armées ne sont pas intéressé un dans le déploiement
00:16:26
de quelque chose ou dont ils ne savent pas comment ça fonctionne dans
00:16:30
et qui n'arrive pas contrôler de que ce sera très intéressant de voir
00:16:35
quel sera le juste équilibre ou quelle sera la
00:16:38
décision finale jusqu'où nous voulons pousser l'autonomie tout
00:16:42
en conservant une forme un que certaines formes
00:16:46
de contrôle merci j'ai notre question de l'assemblée
00:16:52
oui merci cette présentation
00:16:57
qu'estce qui dit qu'elle évoque les grandes préoccupations et beaucoup de prêts aux occupations
00:17:03
moi par exemple nous sommes ns sommes vraiment
00:17:06
d'un centre bataille et veut vraiment maintenant terrible
00:17:12
donc nous avons j'ai parlé tout à l'heure des risques des projets des deux de liens
00:17:20
moi ma mon grand saucisse et de créer des projets matane sans contrôle aucun qui
00:17:26
à avec qu'estce que vous êtes d'accord qu'estce qui vote grandpré occasion pour ces prochaines décennies pour moi
00:17:35
de là où je suis je pense que les données que vous voulez yunnan hélas seule plateforme
00:17:41
où les grandes puissances se rejoignent et doivent parler
00:17:45
ce qui me préoccupe le plus actuellement c. cq
00:17:51
il ya vraiment un schéma très étroit pour la discussion et
00:17:58
et il existe de toute l'risquant état poussée sur
00:18:03
le bouton a déclenché l'alarme tout cela est ignorée si
00:18:09
cela a été fait par un humain ok mais ces basée sur des informations générées par l'
00:18:13
intelligence artificielle et ça c'est un problème et pour quelles raisons que je ne connais pas
00:18:18
à ce qu'on peut mettre un individu âpre en prison ce n'est pas un problème
00:18:23
que si certaines machines s'impose pas ton problème certaines causes ces études préoccupation je pense que maintenant
00:18:30
locaux souci c'est une vision de tunnel que nous avons actuellement des décès
00:18:35
de nos états membres qui se focaliser sur ce qu'a très particuliers
00:18:40
merci g. notre question ici
00:18:46
merci pour or cette présentation sur la gouvernance vu sous l'angle monnier et
00:18:55
j'aimerais vous demandez
00:18:57
le concept de mckinley multilatéralisme un s'est affaiblie
00:19:02
ces décès des dernières années et
00:19:05
au vu de la situation comment estce que vous
00:19:11
quel et le potentiel d'après vous
00:19:13
ca l'ONU
00:19:17
d'eux de devenir une naine organismes et légitime
00:19:22
et suffisamment puissant pour en matière de gouvernance bien
00:19:26
oui c'était très bonne question et elle a vraiment être âprement ses doctorat
00:19:31
c clair on ne peut pas nier le fait que
00:19:35
nous ne le concept de multilatéralisme inconnu vraiment demeurant dans
00:19:39
les difficultés ces dernières décennies voire même ces 4 derniers
00:19:44
mois et dès lors il ya des indications très clair que
00:19:49
je ne sais pas là il faut pas dire que l'o. n.
00:19:51
u. e. sera le forum l'eau dans le poker et l'a
00:19:58
traité globale sur les apports est signé ce hélas je ne pense pas
00:20:01
vraiment le moment historique de faire toutefois le mieux reste là l'unique platform
00:20:10
or nous ou avec un auteur à un nombre d'états membres aussi grand donc
00:20:17
jean monnet et nous pourrons nous avons tous les modalités de dire que tout
00:20:22
ce qui aime pas traitée va bien et portait un grand travail à faire
00:20:26
nous avons beaucoup de doutes i. 12 deux
00:20:30
donc offre de construire des capacités qui ne sont pas
00:20:34
contraignante au niveau juridique aimer politiquement oui elle le nez
00:20:39
pourrait le faire et pourrait utiliser en fin de compte les outils et non qu'elle a sa disposition
00:20:46
et les outils colonne utilise actuellement commencer par les impôts sur les armes conventionnelles ou
00:20:50
non sont créées pour développer une seule chose un protocole légalement contraignant dans le menu
00:20:58
à a beaucoup à offrir il s'agit juste voir ce qui convient à la situation donnée merci beaucoup

Share this talk: 


Conference Program

Mots de bienvenue
Aurélie Rosemberg, Prof. Antoine Geissbuhler, Vice-recteur de l’Université de Genève
June 15, 2022 · 4:01 p.m.
Ouverture de la Conférence
Mme Fabienne Fischer, Conseillère d’Etat du canton de Genève – Département de l’Economie et de l’Emploi (DEE)
June 15, 2022 · 4:06 p.m.
232 views
Introduction – Evolutions de l’informatique et vision
Prof. Giovanna Di Marzo Serugendo, Directrice du Centre Universitaire Informatique de l’Université de Genève et Professeure ordinaire à l’Université de Genève
June 15, 2022 · 4:16 p.m.
106 views
Réalité, Vérité et Intelligence Artificielle
Prof. François Fleuret, Professeur Ordinaire, Directeur du groupe de recherche en apprentissage artificiel, Université de Genève. Professeur Titulaire, École Polytechnique Fédérale de Lausanne. Chercheur externe, Institut de Recherche Idiap. Cofondateur Neural Concept SA
June 15, 2022 · 4:32 p.m.
143 views
Gouverner la montée en puissance de l’Intelligence Artificielle
M. Nicolas Miailhe, Fondateur et Président, The Future Society (TFS)
June 15, 2022 · 4:50 p.m.
230 views
Intelligence artificielle, questions relatives aux États, à la paix et à la coopération internationale
Dr Giacomo Persi Paoli, Directeur du programme de sécurité et de la technologie de l'Institut des Nations unies pour la recherche sur le désarmement UNIDIR
June 15, 2022 · 5:11 p.m.
Tour de table et questions
June 15, 2022 · 5:31 p.m.
Clôture du 50ème anniversaire
Jean-Pierre Rausis, Président de la Fondation Dalle Molle
June 15, 2022 · 6:31 p.m.

Recommended talks

Réponses / analyses du projet Abris d’urgence à Genève
Dominique Bourg & Pascal Rollet
Nov. 30, 2017 · 5:09 p.m.