Player is loading...

Embed

Embed code

Transcriptions

Note: this content has been automatically generated.
00:00:02
ok ça marche fonctionner on aurait très bien ce qui était comme on pouvait slide fonctionne
00:00:16
ok qui annoncera que ce monsieur voisin de fribourg
00:00:23
deux o également j'ai fait une grande partie des études a été fait voilà donc je vais vous parler un petit peu super
00:00:31
je veux parler un petit peu de d'aider à s'asseoir sur un sujet que je connais assez bien
00:00:36
ajouter un petit peu aussi de fusion de données jeux de 3 exemples qu'on
00:00:40
a fait dans mon labo un haut niveau de la fusion de données
00:00:45
je vais essayer de ne pas prendre trop de vote dans donc juste pour eux pour vous situer
00:00:50
un petit peu pourquoi je suis là ce soir donc moi je suis effectivement un produit
00:00:55
les PFL mais j'ai pas travailler également aux états unis notamment eux sont classés comme parler à
00:01:01
berkeley et puis j'ai fait donc qu'après mon doctorat avec effet j'ai fait aurait mati
00:01:07
et là j'ai eu la chance de travailler avec my stones précaire saoudite très incommodant
00:01:11
c. les personnes quinte de toux interne tout inventé au niveau des infrastructures de
00:01:16
données maximale coeur c'est quelqu'un qui a gagné de turing voir
00:01:20
on a pas de prix nobel en informatique on a effectivement un autre prix qui s'appelait turing award vu que monsieur nobel
00:01:27
vers un temps où l'informatique rencontres développer donc spearman qui a gagné 7
00:01:33
turing award il ya quelques années justement pour cette histoire des big data
00:01:36
donc j'ai pu faire du big data sinon un petit peu en avance j'ai commencé des dizaines d'années un automatique
00:01:43
à l'époque c'est assez rigolo que cela est du marché au niveau bilatéral c'est un petit peu
00:01:48
peu spécialement lorsque les sociétés qui venaient verne verbalement mais faites quelque chose de
00:01:53
créer de nouvelles bases de données et créer de nouvelles plateformes confer
00:01:57
spectateurs on arrive même pas stocker les données nos de nos clients et
00:02:01
ça c'était à 10 ans et depuis les enjeux
00:02:05
énorme au niveau bilatéral a déjà dire qu'on a fait beaucoup de progrès
00:02:08
et à l'heure actuelle on a vraiment des solutions opensource notamment des
00:02:13
compagnie on en parle un peu plus tard alors les gens qui fonctionne pour big data lancer des choses qui vont entrer dans les moeurs
00:02:19
chacune d'elles des choses vous expliquer un peu ce soir à l'heure actuelle toutes les grandes entreprises suisses ont
00:02:25
des infrastructures big data qui tourne qui sont productivité commandite donc souvent quelque chose que l'adoption assez phénoménale
00:02:32
donc voilà moi j'ai amorçage et donc des cascades ce soir je suis principalement chercheur
00:02:37
j'ai un labo chapelle qu'exercent les infos lab exascale
00:02:41
point info cible lire sur don papineau recherche n'hésitez pas
00:02:46
mais je fais des choses relativement pragmatique je dirais donc je travaille beaucoup et des grosses sociétés la
00:02:52
plupart américaine un donc je travaille pas mal avec
00:02:55
avec y échapper avec microsoft google saint jean
00:02:59
un et j'ai une casquette donc supplément city hall 7 what else agility
00:03:04
vous la connaissez probablement pas en fait c'est le leader suisse en dictateur en
00:03:09
façade élitiste ce dès qu'on a fondé avec mes amis et des
00:03:13
phases de l'ISA 201 s'occuper de la
00:03:15
plupart des uns et les infrastructures big data des très grandes compagnies
00:03:21
des micro des CFF on a eu
00:03:24
des swisscom kudelski zurich assurances des grandes banques etc
00:03:28
voilà je vous situer un petit peu soucieux des domaines que je connais assez bien au niveau en tout cas de
00:03:33
du software comment installer surtout dans les grandes entreprises après au niveau PME syndic de compliquer encore parler
00:03:40
un voilà donc c'est parti je vais commencer avec un petit colis juste pouvoir un petit peu
00:03:45
ce dont nous avons voulu parler niveau big data de faire comme avec les étudiants
00:03:50
donc je vais juste faire un petit signe ici vous avez j'entendais parler par exemple de régression linéaire
00:03:56
ça vous dit quelque chose à pas mal au côté donc une bonne moitié de
00:03:59
la salle je dirais ensuite vous avez série 3 v du big data dans
00:04:05
pas trop ok vous êtes bien tenir ce soir je m'en parler un
00:04:08
débat définition entre guillemets du big data actuel les cafés les sauver
00:04:16
4 à un montant de un
00:04:20
je sais gesticulations
00:04:23
médaille un sévère eux ont récemment
00:04:32
l'archevêque a entendu parler de radio pour bien pas trompeuse
00:04:36
hubert de la plus cadrés par le groupe a quand même une petite dizaine de personnes ok on va parler un tout petit
00:04:42
peu ou pas un danger pour faire un quad ce soir qu'elles en feront peut être un peu plus moderne
00:04:47
ah ok ou peut être dont personne de telle sorte que le radeau projets voient courir un
00:04:51
petit peu ces sujets je n'ai pas encore une fois entré dans les détails techniques
00:04:55
je vais parler un petit peu de qu'estce qui se passe alors
00:04:59
je dis toujours big data finalement ses oeufs dans le parc versées
00:05:03
simple je sais vous expliquer ma vision des big data ça vient d
00:05:06
u s américains qui ont des visions généralement assez simples des choses
00:05:11
donc big data simplement c'est un fait dans les très
00:05:14
grandes entreprises et des masses de données absolument gigantesques
00:05:18
dans un les entreprises petites alors sa salle pour les entreprises perdure donc
00:05:22
les data est un fait et ce avec à commencer bien sûr
00:05:25
avec les géants du web donc cette page vous expliquer à 10 ans
00:05:29
aurait mentionné celui google ebay yahoo qui a vraiment des problèmes
00:05:33
peu solubles au niveau de des bases de données un qu'estce qui s'est passé à 10
00:05:37
ans à ce que finalement il a eu l'explosion de nouveaux formats et de nouvelles machines
00:05:42
alors que ça veut dire et nouveaux formats lentement par exemple créée par
00:05:45
les capteurs créées par des iphone et smartphone en quelque
00:05:49
sorte de nouvelles données qui sont arrivés par exemple des nous des données donc spatiale temporelle des données GPS
00:05:56
différents mobiles et des données le tableau 7 pouces qu'
00:06:00
eux tous les sites web typiquement pouvait générer au
00:06:03
niveau des clics et des données graphe pour les réseaux de lille sochaux networks a les réseaux sociaux etc
00:06:10
dans des nouveaux capteurs dd nouveau gadget ce qui a fait qu'on a fond commun créer
00:06:16
des jeunes donné qu'on appelle pétain ou exerce les fonctions vous imaginez ce que c'est bien avec
00:06:22
néanmoins vous avez exaspéré info là donc ça c'est un labo qui fait de l'info l'information sur
00:06:28
eux sur l'exerce les fonctions de très grandes bases de données un énorme base de données traditionnelles donc
00:06:35
or à l'IBM dvd macmap assorti parce que pose grèce macédoine ou etc
00:06:41
les bases de données est simplement pas du tout prête à gérer ce genre de données
00:06:47
dont finalement c'est ça le début du big data anglophone chose très simple c.
00:06:52
l'impossibilité mais vraiment totale à l'époque de stocker ces nouvelles
00:06:56
sortes donné avec des nouveaux formats et avec des députés
00:07:00
jean taille qui était absolument inimaginable auparavant donc cesser relativement simple
00:07:06
et donc les google yahoo et les premiers à un installer de nouvelles
00:07:11
infrastructures pour ces données rupture qu'on appelait du coup big data
00:07:15
il a été suivi par toutes sortes de personnes ont donc bien sûr les scientifiques à l'heure actuelle souffler si vous les faire de
00:07:21
la biologie ou s'il voulait faire de l'astronomie vous avez intérêt
00:07:24
à connaître ses histoires de big data précédemment et tellement de données
00:07:28
un que c'est principalement frappa principalement mais la moitié d'un genre
00:07:31
de chercheurs actuels en astronomie c'est vraiment gérer ses
00:07:35
ces nouvelles formes de données donc s'accomplit la science et sa conquis comme
00:07:39
vous l'avez vu également toutes sortes d'autre domaine bien sûr les
00:07:44
financiers
00:07:46
été nan je parlais de migros mais aux etats unis où
00:07:49
vous êtes pas de voile marque tablette amazon bien sûr
00:07:53
que vraiment j'ai rendu du big data le manufacturier ou avoir moyens venir ce qu'on appelle industries 4
00:07:59
les gouvernements web encore les gouvernements que son avenir et donc voila j'ai mis quelques oeufs quelques unes de
00:08:05
magazines là pour montrer que finalement c'est quelque chose
00:08:07
qui vient plutôt donc de business tech un
00:08:12
un et qui touche donc bien sûr la science eux qui touchent les sciences
00:08:17
de base l'économie business bien sûr également tout ce qui eux
00:08:22
un fort effet justesse mais etc donc c'est gentil petit
00:08:26
poulet tout dépend de notre société et sa message me faire
00:08:29
passer également ce soir c'est que même si cet
00:08:33
effet il ya 5 ans l'apanage de google yahoo
00:08:36
un à l'heure actuelle c'est bien plus en plus important dans toutes sortes de domaines
00:08:42
donc on a vu par exemple a récemment si par le type de politique eux tout ce qui s'est
00:08:46
passé aux etats unis et à quel point finalement le
00:08:48
virus conclut finalement influencer sur les résultats politiques
00:08:53
par ces etats unis et de réseaux sociaux n'était pas prêt finalement s'apprête donc ça devient très intéressant à plus forte
00:09:01
des domaines objet alors que ces règles le data ou comment ça fonctionne
00:09:06
là encore une fois ces choses relativement simple g. bataille normalité un timer ici ça fonctionne pas
00:09:14
vous me direz si je trouve alors c'est cette vision très américaine que je
00:09:20
vous donne qui a au moins l'avantage de j'espère être médecin play
00:09:24
il faut le commander donc et c'est pas l'idée du big data jamais ça le data center furent elles aussi à des
00:09:30
mathématicien dans la salle de réception par un théorème validé en
00:09:33
bonne foi de réelles avancées relativement simple comprend des données
00:09:38
alors bonne foi gisèle bilde life acte eux ont là j'assume qu'il ya des données intéressant dans une société ça
00:09:44
peut ou non est le cas on dire qu'à l'heure actuelle avec les sites web
00:09:49
avec eux on en parle juste avant avec les relation client généralement les données qui sont intéressants
00:09:54
donc les données d'habitude un elles ne sont pas directement utilisable donc faudra d'abord les
00:10:00
l'élu stockées dans son appel and est allé chez revenir il faudra
00:10:04
oe comprendre quelles données sont manquantes ya toujours des données manquantes
00:10:09
vous avez pas quelles données sont manquantes vous connaissez pas bien pour vous donner il faudra nettoyer
00:10:14
ces données afin de détecter tuning mais tout ça pour dire que quand les bonnes données
00:10:19
on les alliés avec les bons aux algorithmes on appelle ceci à
00:10:23
l'heure actuelle de machine learning principalement vous avez peut être une
00:10:27
rendezvous 4 point 0 sur le marché learning sinon sa bonne idée mais aussi de l'intelligence artificielle à l'heure actuelle
00:10:33
eux ont eu beaucoup de choses dans les médias se propose donc à l'heure actuelle
00:10:38
tout ceci est très stupide si j'ose dire dans le sang faut pas avoir peur
00:10:42
que votre algorithme d'intelligence artificielle prennent le contrôle de la société c'est pas pour demain c'est
00:10:48
pour aprèsdemain malheurs actuels laisser ces algorithmes sont pour la plupart ce qu'on appelle des algorithmes supervisé
00:10:54
donc il faut vraiment prendre la main de ces algorithmes il faut leur donner beaucoup
00:10:58
donné il faut leur expliquer ces données pour qu'ils puissent faire des prédictions
00:11:02
donc c'est quelque chose de compliquer c'est quelque chose de fastidieux cette chose de très manuel
00:11:08
un donc beaucoup de points noirs mais finalement c'est là que se situe
00:11:12
à l'heure actuelle vraiment le la grosse bataille au niveau mondial
00:11:16
la grosse bataille entre google contre facebook entre l'inutile donc microsoft
00:11:21
et finalement le reste du monde un parc C6 histoire de la dette des
00:11:25
etats plus machine learning ça permet quoi on s'adresse à l'histoire
00:11:28
à qu'estce qu'on fait il faut qu'on avait donné et on a un modèle en matière prédictif
00:11:33
alla à partir de ces données ce qu'on veut en bon français cette démarche labor in fact
00:11:38
donc ce qu'on veut c'est pas avoir une moyenne ou unes variance ce qu'on veut savoir quelque chose
00:11:43
qui puisse directement impacter sur le business donc on voit par exemple une série de décisions qu'on peut prendre bandant
00:11:50
dans une société avec des probabilités de succès was estimant que les choses qu'on veut donc
00:11:56
la plupart du temps fait la prédiction de la classification qu'on essaie de prédire le
00:12:00
futur on essaie de classifier les différentes communautés différents futurs possibles d'après les actions
00:12:06
alors bien sûr on ne peut pas quel futur ainsi impossible mais quand je dis predictions 7 c'est
00:12:11
un peu compliqué que ça l'idée c'est vraiment d'avoir beaucoup de données en entrée
00:12:15
des algorithmes relativement robuste qui permettent de
00:12:19
données probabilité like les coudes sur les différents futurs
00:12:23
possibles et ça encore une fois en business intéressante
00:12:26
qu'après on peut prendre une décision qui fait non fondées fondé sur eux sur les données
00:12:31
c'est très à la mode donc si on prend des entreprises
00:12:34
encore fois comme amazon typiquement comme netflix vous connaissez peut être
00:12:39
donc vraiment des des sociétés qu'on appelle des cadres yvonne donc a plusieurs façons de prendre des décisions
00:12:45
à l'heure actuelle on peut engager des consultants on peut avoir l'expérience ça marche tout à fait
00:12:50
une nouvelle façon de prendre des décisions sociohistoire d'état john c avoir des données des
00:12:55
algorithmes et finalement prendre les décisions sur le biais de ses prêts
00:13:01
bonne foi survient netflix seulement comme ça que toute l'entreprise fonctionne
00:13:05
si on prend par exemple les séries qu'ils achètent
00:13:08
à la première série disons acheter etc sauf cadence un c'est vraiment ils ont pris cette décision d'acheter cette série
00:13:15
à cause des données ils ont fait des modèles sur les données sont beaucoup de données est lui qui savait également
00:13:19
ok ils savent exactement quel style eux sont appréciés dans le monde il savait également
00:13:25
que les acteurs sont appréciés donc vraiment une constellation de variables qui faisait que
00:13:30
un point de vue de donner à offrir un séjour intéressant ce niveau la prédiction
00:13:34
c'était la série calas cartonné et ça a fonctionné en l'occurrence
00:13:38
et donc à quoi sert tout ceci encore de façon relativement simple d'un point de vue américaine c'est simplement pour faire
00:13:43
générer plus de revenus dans le cas d'honnêtes fixé acheter la meilleure série
00:13:49
vous recommander la série vous allez le plus aimé pour bien sûr pour acheter votre abonnement est fixe
00:13:55
le mois suivant a alors c'est pour l'les entreprise si on lit un gouvernement si
00:13:59
on in association fait un petit peu différent là l'idée d'avoir des services optimisée
00:14:05
par le gouvernement typique du service personnalisé on devient
00:14:09
petit à petit en suisse également tout ce
00:14:13
qui est par essence marty utilisation par le big data et gouvernement simple qui peut l'aider
00:14:17
l'idée c'est d'avoir toutes sortes de données sur nos différents réseaux les réseaux
00:14:21
électriques les réseaux de transport en commun les réseaux peut être d'eux
00:14:26
canalisations j un exemple supplémentaire et donc d'optimiser tous ces réseaux pour les citoyens
00:14:31
voilà quoi peut servir le big data alors ça c'est un slide léger
00:14:39
une matinée qui a déjà quelques années mais qui illustrent un petit peu à l'heure actuelle ou estce que le big data
00:14:45
à de l'impact et voit ce qui pouvait avoir d'impact dans le futur alors commençons par le passé
00:14:51
elle présente également et c'est tout ce qui est globaux peut se déchaîne della
00:14:55
dont finalement cette 95% du business de google facebook qui sont
00:15:00
les oeufs top 5 validation comme vous savez savezvous boursière donc selon les sociétés
00:15:06
sont gigantesques qui font la très grande partie de leur chiffre d'affaires
00:15:09
ils le font 20 ne le font grâce à vous correspond simplement de du
00:15:13
marketing ciblé c'est comme ça que google et facebook font leur beurre
00:15:16
et donc là l'idée de base 50 fois très simples les sociétés vont eux
00:15:22
faire des profils vous concernant donc cette fois vous cliquer je crois que quelques
00:15:26
unes action sur leur site web que vous écrivez quelque chose sur facebook
00:15:29
ça a fini se profile et se profile va être utilisé pour
00:15:34
pousser des publicités eux qui ont des publicités donc personnalisé
00:15:39
pourquoi parce que bien sûr si vous cliquez sur une publicité qui eux qui vous intéresse directement ils
00:15:45
vont faire plus de revenus qui sans publicité générique sur laquelle je n'ai pas cliquer
00:15:50
donc ça c ce qui marche très fort depuis point dizaine d'années quinzaine d'années
00:15:55
c'est dans le futur bien entendu ces des sommes qui sont eux qui sont colossales là on parle de 100 milliards ça me paraît
00:16:01
vraiment le minimum prêter les enjeux sont beaucoup plus donc ceci avalon parle un peu plus
00:16:07
ensuite si on parle également du présent peut parler un petit peu du retail
00:16:11
donc je vous disais en suisse les grands retail eux ont bien entendu développer des solutions de data
00:16:17
les pionniers bien entendu c'étaient les américains donc walmart
00:16:20
tarde est amazon qui en fait toutes sortes de
00:16:25
le service là aussi personnalisé pour faire des coupons personnalisé donc imprimer des
00:16:31
des coupons de réduction eux qui potentiellement vous achetez vous amener acheter plus
00:16:36
peut également faire des choses dans les magasins directement on peut vous
00:16:39
suivre à la trace si vous avez le wifi activé
00:16:43
et ensuite regardez comment expliquer les clients se déplace dans le magasin gênant optimiser le magasin
00:16:49
non pas pour vous faciliter la vie bien sûr mais optimiser le magasin afin que vous achetez plus dans le magasin
00:16:55
potentiellement comprendre quelle sorte de trajet vous faites peut être compliqué la
00:16:58
tâche pourrait faire un petit détour vous mettre un produit
00:17:01
intéressant à côté d'un produit vous achetez déjà tous à ces choses que walmart ont fait déjà depuis des années
00:17:08
donc voilà c'est présent au niveau présent également ça c'est ce que les manufacturiers on appelle ça industries 4
00:17:15
cette idée là aussi relativement simple 7 demander des chaînes de production sur
00:17:20
lesquels on met des capteurs desquels bien sûr on peut attirer des deux
00:17:25
et utiliser ces données pour optimiser toutes les chaînes de
00:17:28
production et également d'optimiser tous les machines
00:17:32
je vous donne un exemple récemment qu'on a fait avec eux général electric ça a duré
00:17:37
dans les faits qui sont de très grosses turbine moi qui
00:17:40
connais rien de ses très beaux joujou qui créé électricité
00:17:44
et ils doivent les maintenir bien entendu ces équipements qui crée l'électricité et
00:17:48
donc pour eux jusqu'à présent vous avez des disciples de maintien
00:17:52
strict où les premiers mois tout les deux mois devait arrêter le moteur respectés que
00:17:57
les valeurs était ok au niveau de des déjections notamment n. o. deux
00:18:01
estce qu'on a fait avec maintenant récemment c. installer des capteurs sur ces sur ces moteurs
00:18:07
et au lieu de faire un cycle de maintenance tout les mois on va mesurer les émissions de c.
00:18:12
o. deux est source d'émission du moteur et on va arrêter le moteur que quand les émissions
00:18:18
votre critique donc on peut prédire à attention la semaine prochaine on va dépasser
00:18:22
les limites légales donc vos affaires in près d'une prévention entraînerait une
00:18:27
la syrie de vraiment de maintenance de la machine à ce qu'on appelle
00:18:31
prédictive made men sincère de la maintenance prédictive l'idée c'est vraiment
00:18:35
de d'optimiser au mieux eux tout ce qui et maintenance légalement tout ce qui est
00:18:40
donc chaîne de production et ensuite on peut parler un petit peu du futur
00:18:45
deux choses intéressantes qu'après tout d'abord tous quelle médecine alors là ça va être un combat absolument
00:18:51
gigantesque un étant donné qu'eux justement les grands
00:18:55
de l'informatique les google et facebook les samsung
00:18:58
son petit à petit en train de rentrer dans ce marché de la de la médecine et vont vraiment faire des dégâts par ce
00:19:03
qu'ils ont des amendes et des capacités optimiser les processus qui
00:19:07
sont eux vraiment assez incroyable donc ce qu'on appelle
00:19:11
un voici jeunes des scènes la médecine personnalisée l'idée là aussi relativement simple à
00:19:16
tous des biologiques qui sont différentes elles actuel généralement vous donne un traitement
00:19:21
donne un médicament qui effet pour finalement pour un être humain et
00:19:25
les moyens et très souvent laissé le traitement ira pas fonctionner
00:19:29
par ce que vous avez vous avez réagir différemment d'un être humain moyen bien entendu donc l'idée d'
00:19:34
avoir beaucoup de données vous concernant ou concernant ton patient avant bien sur des données peut être invalidée
00:19:40
smart watch peut être avec eux des scan de votre aliens de faire un profil
00:19:46
de votre biologie et finalement de faire un traitement qui peut être personnalisé là aussi
00:19:51
et c'est formidable au niveau de la médecine parce que le traitement
00:19:54
personnalisé potentiellement va être beaucoup plus efficace qu'un traitement standard
00:19:59
également une bataille au niveau business titre gigantesque et
00:20:02
bien entendu les compagnies vont fou nous faire
00:20:05
payer beaucoup plus cher un traitement qui personnalisés par rapport à un traitement qui généralise
00:20:11
et enfin bâle un petit peu de sciencefiction donc tout ce qui eux
00:20:14
administration malheureusement la big data n'est pas vraiment contraignant les moeurs
00:20:19
mais eux salem tatillons comme français beaucoup de niveaux de data pardon niveau smart cities donc au
00:20:26
niveau optimisation de toutes les oeufs de tout les réseaux de toutes les infrastructures du secteur public
00:20:35
les algériens finalement un étroit et du big data dont vous parlez introduction
00:20:40
il ya pas de définition claire du big data c'est un petit peu un besoin donc via cette
00:20:45
un mot qui relativement flou au niveau des détecteurs des technologies un mais il
00:20:50
ya gartner qui a examiné un inventé cette histoire des 3 v
00:20:54
qui reste bien souvent à l'heure actuelle encore on dit qu'on a un problème big data si on a au moins un de ces 3 v
00:21:01
alors quelles sontelles ces 3 v. cela tellement simple premier 7 volumes là
00:21:05
c'est plus simple un dans big data les ben dis donc
00:21:08
c'est relativement c relativement je crois aisé à comprendre que
00:21:11
si vous avez beaucoup de données alors on peut ergoter sur
00:21:16
ça veut dire beaucoup mais finalement signe une base de données traditionnelles ne peut pas à eux
00:21:22
je n'ai pas efficace sur vos données alors là il faut déjà avoir l'ordinateur
00:21:27
rentrer trop dans les détails qui s'est passé dans ses 10 ans je disais qu'on a vraiment développer de nouvelles
00:21:33
solutions pour gérer ce matin on est passé d'un modèle
00:21:36
où on faisait fonctionner bases de données sur un ordinateur
00:21:41
c'est ce qu'on a puisé la présence de course que ce que vous utilisez cette solution qui sont tout
00:21:45
à fait intéressante un mais qui sont limités à un ordinateur on a on a maintenant des solutions on peut
00:21:51
déployée sur ordinateur que ça veut dire n alors ça veut
00:21:55
dire n. c. entretenir 10 et 50'000 ordinateurs
00:22:00
donc une boîte de moindre envergure en suisse aura peutêtre un cluster big data
00:22:06
et sur lequel vont déployer des solutions de bases de données sur eux pour commencer des ordinateurs
00:22:12
les gens qui sont élastique donc on peut ajouter encore un dizaine ordinateur sur la plus donner aussi n'a plus de
00:22:17
de problèmes au niveau dilatation de plus de services à fournir et donc ça peut monter comme société comme cela
00:22:24
si bien que par exemple je travail allait passer pour microsoft en silicon valley
00:22:29
chacun de leur groupe d'ordinateur donc chacun leur cluster horizon 50'000 machines
00:22:34
donc il déploie ce maintenant cesser logiciels bases de données dépasser ces programmes des big data directement sur
00:22:40
50'000 machines la foi et raison d d vingtaine de classeurs comme ceci
00:22:45
voice renonce à la révolution au niveau du volume on est passé d'une machine à 50'000 machines finalement
00:22:52
mais il se peut que vous ayez relativement peu de données déguisé
00:22:57
malgré tout un problème de big data dans le sens où vous
00:23:00
infrastructures de données ne seront pas suffisantes pour gérer ces données par les
00:23:04
deux autres v le deuxième ce qu'on appelle la vélocité
00:23:07
là aussi je crois que c'est ce assez parlant parfois on a très peu de données d'
00:23:12
envoi on va avoir une réponse très rapide par rapport à ce que vous nous donnez un exemple
00:23:18
vous avez une idée d'un problème bien peu de données mais finalement la vélocité très importante
00:23:25
pour eux
00:23:28
c'est très très bon exemple voilà était cela j'ai déjà parlé que cela ne s'était déjà bien
00:23:30
avec laquelle je collabore également donc estce là c'est vraiment aussi in sociétés et des abris dont ils
00:23:35
font tout par rapport aux données donc de plus en plus on parle de conduite automatique
00:23:39
elle avait un temps légèrement les questions de vélocité passe finalement y'a pas tellement de donnée que si un les voitures t. cela
00:23:44
d. au niveau des capteurs ont des capteurs qui sont eux qui sont bien mais qui sont eux qui ne sont plus
00:23:50
rien à voir les capteurs les google cars qui coûte 1 million par eux par la voiture donc pas tellement de médecins
00:23:56
mais si vous avez un camion face de vous qui vous rentrez dans mais vraiment histoire de
00:24:02
vélocité il faut que la voiture vous alerte dans les 100 millisecondes les 200 ms
00:24:07
donc ça c'est un exemple un également tout ce qui est boursier de entendus sur la véracité
00:24:12
un on veut réagir l'occident dans ledit second pouvoir acheter ou vendre potentiellement
00:24:17
également des choses un peu plus pragmatique c'est ce qui aide en cas de catastrophe donc si on a un tremblement terre si
00:24:22
on aime catastrophe on peut pas réagir dans les minutes ou dans les heures voudrait agir tout de suite ça c'est la vélocité
00:24:29
et enfin à mon v. préféré c'est simplement la variété des données
00:24:36
donc là aussi des si vous avez plusieurs jeux de données
00:24:41
v. les mélanger pour résoudre le problème c'est quelque chose
00:24:44
que les infrastructures classique de données ne savent pas faire
00:24:48
avec la nouvelle zone très mauvaise nouvelle à ce niveau là c'est que même les nouvelles infrastructures de données ne savent pas faire ceci
00:24:52
donc pour chaque mois j'ai bien sauver se passer au niveau de la recherche cela
00:24:57
oui encore bien sûr au niveau volume vélocité beaucoup à faire mais mon variété
00:25:01
on se rend pas du tout comment intégrer différentes données de manière automatique ou semi
00:25:04
automatique tout se fait de manière plus ou moins manuel à l'heure actuelle
00:25:09
donc voilà si vous avez un c. v probablement qu'il vous faut nouvellement sécure big data
00:25:13
très souvent bien sûr vous allez mélanger cv dans toute
00:25:18
toute grosses installations big data vous aurez
00:25:21
un mélange de c v o finalement au niveau du business il vous faut une réponse dans les secondes et pas dans les heures
00:25:25
allez sur beaucoup de données avec différents types de données de différents silos
00:25:32
donné donc la plupart du temps actuellement des dangers vraiment ces 3
00:25:37
juste pour information donc c'est là la définition qui peu de départ du big data que ces 3 v
00:25:41
IDN et autre ont ajouté des v. donc typiquement peu
00:25:46
avant les 4 weder tél 5 v du big data
00:25:49
en parlant de diversité et d'autre chose d'autre d'autres dimensions mais je crois que 3 v sont les plus importants
00:25:53
voilà un s'entraîner détaille sa scène eux une infrastructure
00:26:00
heu je dirais assez typique de big data
00:26:05
un le 90% des très grandes boites en suisse
00:26:09
ont déployé quelque chose de vraiment similaire à celle
00:26:14
on a converger leurs niveaux je dirais de du substrat big data en tout cas pour les grandes boîtes
00:26:17
pour les p. m. donc bonne foi c'est un peu plus difficiles de ces choses qui
00:26:22
sont relativement compliqué mais peut vous donner l'idée de comment ça fonctionne juste quelques mots
00:26:25
donc on a plusieurs sources on a un quelque chose qui a créé
00:26:30
des flux de données comme par exemple kafka quelque chose de source
00:26:34
et si flux de données ils vont notamment se retrouver dans ce qu'
00:26:38
on appelle un détaler qu'un lac donnés en français j'imagine
00:26:41
et donc chacun de étalés que si un sermon type bizarre non seulement dire qu'on va mettre toutes les données
00:26:45
elle se classe ça c'est vraiment le début du big data et tout ce qui
00:26:51
analytique ce dont vous avez vos données qui sont éparpillés dans dans l'entreprise
00:26:55
sa part mentionné le big data il faut vraiment rassemble les données pour ensuite
00:27:00
commencer à les utiliser ces données pour sa première chose qu'on fait
00:27:04
dans les entreprises généralement avant même de penser prédictif classification business
00:27:07
optimisation va créer soeur d'étaler qu'on va créer une plateforme va
00:27:12
mettre toutes les données brutes généralement va stocker ses données brutes
00:27:17
et ensuite qu'estce qu'on fait avec ces données on peut visualiser on peut interagir avec eux avait quelque chose
00:27:21
par exemple un joli je vais vous dire le grand software confer saucisse appellera doux avec l'éléphant
00:27:27
c. un software qu'il a aussi utilisé par tout le monde à l'
00:27:32
heure actuelle quand je dis tout monter les salines grandes sociétés utile soudure ados
00:27:36
estce parce qu'un petit peu le si je simplifie le successeur de l'inde ou pas c'est quelque chose de relativement nouveau
00:27:40
qui a pris commune importance folle en 3 ou 4 ans jamais vu ça au niveau là aussi de l'adoption
00:27:46
ce parti était utilisé par personne et 4 ans à l'heure actuelle eux que ce soit un gros
00:27:53
swisscom kudelski ou du risque assurance du 10 août du bus par quelque part dans sa structure
00:27:58
donc on peut enfin les processing and de ces données empoli manipuler et débute vraiment c'est faire des modèles
00:28:04
comme vous expliquer auparavant fermiers modèle pour ensuite prédire
00:28:10
différentes choses au niveau des décisions de sociétés ou optimiser
00:28:15
dans différentes différents flux différents systèmes internes aux sociétés et ensuite bien sûr on déploie ses modèles
00:28:21
voilà j'ai changé prière relativement GTGT
00:28:29
relativement lent sur certains trouver comme ça j'
00:28:33
ai jusque là j'ai posé les bases j'allais très vite pour rester minutes vous parlez
00:28:36
plus de 3 applications un petit peu plus concrète peut être que l'explication est par ailleurs que j'ai
00:28:42
donné par qu'estce qu'on peut faire en pratique on peut faire toutes sortes de choses sur
00:28:47
les possibilités sont vraiment assez importante à ce niveau là alors ça c'
00:28:51
est justement quelque chose impossible smart city qui je crois est assez parlant
00:28:56
c'est juste qu'on a fait bien messieurs de chez eux à
00:29:00
dublin qui sont les spécialistes mondiaux niveau semences histoire smart cities c.
00:29:03
optimiser les canalisations donc dans les villes
00:29:09
alors moi je voulais absolument rien vraiment informaticien je connais bien l'histoire
00:29:14
de software je n'ai absolument et en cas d'annulation
00:29:18
je trouve assez rigolo que je travaille sur ce problème et finalement aller voir si on si on abstrait un
00:29:21
petit peu si on si on prend l'abstraction ce problème c'est finalement sur un point de données
00:29:26
alors quelles sont les quel est l'un des grands problèmes au niveau des canalisations vous savez peutêtre
00:29:31
c'est que dans les grandes villes on perd le 30% de l'eau
00:29:35
sachez incroyable comme eux comme chiffres mais vraiment si vous avez à newyork à rio de janeiro
00:29:40
un ou dans n'importe quelle grande ville et à 30% de l'eau qui a perdu
00:29:45
simplement à cause de fuite a parfois des petites fuites parfois ces défis suivants
00:29:49
et donc si cette défaite petite finalement c'est très difficile à détecter
00:29:53
pourquoi parce que ces infrastructures qui sont bien sûr soussol donc sont cachés
00:29:58
c'est très coûteux d'aller voir ce qui se passe et si
00:30:04
ainsi une fuite malheureusement restée complètement invisibles pendant des mois ou des années
00:30:07
alors comment estce que ce qu'on a fait pour eux pour eux pour résoudre ce problème en quelques mots
00:30:12
là aussi l'idée est assez simple ont installé des capteurs achat croisement
00:30:17
dans un réseau de capteurs et on a mesuré la pression
00:30:24
pourquoi la pression de la place que tout d'abord les capteurs qui pouvait
00:30:28
faire également la pression ces choses assez rigolo ces choses demeure relativement continue
00:30:31
dans le sens où fois quand la pression on peut on peut s'est donc un réseau de canalisation on
00:30:37
peut voir les différentes pressions qui avance réseau alors les
00:30:42
valeurs même sont relativement peu à peu intéressante
00:30:46
ensuite on peut faire un petit peu de statistiques et comprendre ce qui se passe dans l'espace et
00:30:49
dans le temps au niveau justement de cette pression donc si un endroit vous avez une haute pression
00:30:54
était juste à côté vous avez basse pression généralement un problème nous avons ensuite
00:31:00
donc on a fait ce genre de raisonnement un peu plus poussée et donc avec des nous vous
00:31:04
avez vous des statistiques ont développé pour l'occasion et au niveau temporel et au niveau géographique
00:31:08
finalement comprendre dans le réseau à partir des données brutes
00:31:13
quelles sont les points qui sont beaucoup trop bas
00:31:17
son mari elle borloo ici sur le graphique et quelles sont les points qui sont beaucoup trop
00:31:21
dans les deux cas finalement y'a un problème au niveau vraiment de du réseau de
00:31:26
canalisation et puis faut envoyer une équipe sur place pour eux pour résoudre ce problème
00:31:29
voilà évidement ce qu'on peut faire les quelques données sur un réseau qu'
00:31:34
on appelle l'heure actuelle un réseau critiquable le réseau ces réseaux critique
00:31:38
c'est un réseau démenti peut être attaquée malheureusement sion par les états unis mais je pense même en europe
00:31:41
donc de plus en plus il a des enjeux pour
00:31:47
eux monitorer en français et finalement sécuriser ses réseaux
00:31:50
d. les réseaux d'eau à peu des réseaux d'électricité septembre soit des réseaux de transport en commun et de plus en plus on le
00:31:54
fait en installant des capteurs en récupérant ces données et puis là on
00:32:01
souhaitons visant des statistiques et des machines en ligne sur ces données
00:32:05
un notre champ de la série de ce qu'on a fait récemment reste un travail de ma soeur de mon groupe
00:32:09
un vous rappeler peut être définie avec beaucoup de chomsky s'appeler ou comme vous le
00:32:15
savez à l'avance quelle qu'elle lequel quelque ligne quelque crime est commis
00:32:20
bien que les choses de similaires en donne pas les premiers à le faire mais on a eu un avantage au niveau de la prédiction
00:32:24
alors la partie fribourg lausanne là où la production d'un primat nathan stern vous intéressant
00:32:30
au niveau des données et donc ce qu'on a fait cette ont appris les crimes passés lâche passe derrière lui et non à
00:32:36
différents crimes comme vous l'avez donc quelqu'un qui rentre chez vous et qui
00:32:43
est bien envoyé cohen l'a sonné a donc un vol de véhicules
00:32:46
oui un modèle dont notamment le meurtre d'un différend catégorie très rigolo
00:32:53
et ce qu'on a fait donc en utilisant des données passé on va essayer de prédire
00:32:59
à moins que le prochain film elle embrassa bien sûr à base de crimes passés 1'000
00:33:03
ont été plus loin on a pris des données de réseaux sociaux finalement 10
00:33:08
ce qui se dit dans les réseaux sociaux un certains points de matane va influencer sur la démographie
00:33:13
20 un français sur les crimes naples également des données donc des
00:33:19
soins médicaux chacune donc finalement saisonnier relativement eux afin de
00:33:23
jouer au niveau des quel genre de building que les gens de magasins quel genre d'individus sont ces quartiers
00:33:27
et vous donner l'air elle s'est intéressé donc on a réussi finalement eux grâce à cette fusion
00:33:33
donner un grâce à cette variété donné on a réussi à faire vraiment des oeufs des prédictions
00:33:38
vraiment très bonne quoi on peut voir assez on peut on peut vraiment contrôler ses productions et voir que
00:33:44
assez peu surprenant mais si par exemple les parties votre véhicule a nathaniel prénom des coins
00:33:50
à éviter parce que c'est là où les sont à eux sont volés
00:33:55
0 un quatrième exemple vous parler de quelque chose d'assez différent là c'est ce qu'on a fait avec justement microsoft
00:34:00
vous dire la lignée des idées au niveau des data on peut optimiser toutes
00:34:07
sortes de choses vous parlez de moteurs belgique emploi optimiser adhérer localisation
00:34:10
on peut prédire des crimes on peut également tout simplement dîner optimiser des infrastructures informatiques
00:34:16
oui après tout on les imprévus informatique sont des infrastructures comme les autres
00:34:22
donc sont déployés microsoft a des millions de serveurs et donc malheureusement
00:34:26
elles servent certes pas trop ça c rigolo cet espace serveur justement la
00:34:32
la la menace de log donc la nation de données
00:34:36
j. serveur renvoie à l'entreprise et beaucoup trop haute donc qu'estce qui se passe
00:34:40
c'est que si un problème à l'heure actuelle sur le cloud de microsoft
00:34:46
justement utilise 6 saisons typique data pour prendre des terrains by de log faire
00:34:49
un script compliquée et comprendre devient un problème mais ça s'apprend
00:34:54
d des heures ça prend des jours à addis software développeur chez microsoft nous ce qu'on a fait finalement c'est à
00:34:59
partir de ces données justement la fine couche v data on affine
00:35:04
couche qui eux donnent un niveau d'abstraction par rapport
00:35:08
au travail de données pour créer finalement une vue d'esprit de ce qui se passe sur les différents serveurs
00:35:12
quel client utilise quelques données quels programmes lancés sur quel serveur
00:35:19
et grâce à cette couche finalement de donner un petit peu
00:35:24
plus élégant et bien finalement à microsoft faire toutes sortes de
00:35:28
de d'opérations de manière beaucoup plus simple par exemple ou donné l'idée
00:35:33
de qu'estce que peut faire microsoft avait justement cette couche du data
00:35:38
cette période eating ça c'est quelque chose qui vient très fort nous salutaire en europe savoir vraiment quelle machine
00:35:41
à été utilisé avec quelles données pour faire quelques quels résultats c'est important pour la
00:35:48
finance c'est de plus en plus important pour toutes sortes de business forum traçabilité
00:35:52
des données des résultats donc ce que je peux faire avec big data big data on peut aussi elle commence à comprendre
00:35:58
quelles sont les processus qui sont les plus importants dans les sociétés
00:36:04
et quelles sont les processus qui sont un problème dont on
00:36:08
peut annuler finalement pas ce qu'ils ont peu d'impact par
00:36:11
rapport aux autres processus dans l'infrastructure de data
00:36:13
donc voilà c'était un survol très rapide j'espère que vous donner quelques petite
00:36:19
idée de ce qu'on pouvait faire le data et je suis sûr qu'eux interlocuteur
00:36:24
successeur ou donner des exemples précis d'de ca l'école et de
00:36:30
ce qu'on peut déployer en pratique merci beaucoup philippines ou non

Share this talk: 


Conference Program

Mot de bienvenue
Christophe Reymond, Directeur du Centre Patronal
7 Nov. 2017 · 5:05 p.m.
Présentation des invités
Thierry Vial, PME Magazine
7 Nov. 2017 · 5:09 p.m.
Data Fusion & Big Data
Philippe Cudré-Mauroux
7 Nov. 2017 · 5:11 p.m.
936 views
Analyse Prédictive Automatique
Olivier Cognet, CEO, Predictive Layer
7 Nov. 2017 · 5:48 p.m.
143 views
Le Big Data et l'Agriculture
Cédric Romon, Agro-entrepreneur
7 Nov. 2017 · 6:15 p.m.
Table ronde
Panel
7 Nov. 2017 · 6:29 p.m.

Recommended talks

L.I.F.E. - express your truth through your accurate data
Dario Ossola, PhD, Algorithm R&D Coordinator, L.I.F.E. Corporation
3 June 2016 · 2:52 p.m.
The Web: Wisdom of Crowds or Wisdom of a Few?
Ricardo Baeza-Yates, Yahoo! Labs
21 May 2014 · 3:07 p.m.