Intelligence artificielle : le rêve de facebook... à paris

mam80

la rose et le réséda
Modérateur
Le réseau social californien ouvre à Paris un centre dédié à la recherche sur l'intelligence artificielle. Pourquoi Paris ? Et pour y faire quoi ?

Par Guillaume Grallet
Facebook a annoncé la création d’un bureau dédié à l’intelligence artificielle. Et il a choisi Paris.

« C’est la première fois que nous ouvrons un bureau sur l'intelligence artificielle en dehors des États-Unis », a expliqué Mike Schroepfer, directeur technique du réseau social, et bras droit de Mark Zuckerberg, le 2 juin à Paris. « Jusqu’ici, nous opérions de Menlo Park, ou encore de Greenwich Village à New York. »
Cette unité parisienne de FAIR (Facebook Artificial Intelligence Research) sera dirigée par Florent Perronnin, un ancien de Xerox à Grenoble.

« L’équipe parisienne comptera d’abord six membres, puis douze à la fin de l’année, et, à terme, une trentaine de permanents », détaille le Français Yann LeCun, professeur à l'université de New York (NYU) et qui chapeaute, depuis deux ans, l’activité liée à l’intelligence artificielle du réseau social au niveau mondial.

La nouvelle unité multipliera les collaborations avec des doctorants, et nouera des partenariats avec différents instituts français, comme avec l’Inria (Institut national de recherche en informatique et en automatique).

« Ce type d’accord nous permet de voir quelles sont les attentes du marché », explique François Sillion, directeur général délégué à la science de l’Inria. Les royalties issues des brevets déposés par les différentes entités seront partagées entre elles.

« La France a une des plus grosses communautés autour de l’intelligence artificielle dans le monde, et c’est pour cette raison qu’elle est la localisation idéale pour notre nouvelle équipe », a expliqué Mark Zuckerberg... sur Facebook après cette annonce.

Déceler l'humour
D’ores et déjà, le site basé à Menlo Park propose sur notre « timeline » des actualités en fonction de nos centres d’intérêt. Mais il veut aller plus loin.
« On va travailler sur le sens de chaque mot afin que la machine puisse s’approprier le sens d’un texte, soit capable de la résumer, ou encore de montrer un éclairage différent, voire opposé », a détaillé Yann LeCun.

Autre champ d’exploration : la traduction des textes. « Un de nos chantiers est de déceler les traits d’humour, ou encore les émotions dans les expressions écrites, même si cela va prendre du temps. »

Le labo va également travailler sur les images.
À terme, le réseau social sera capable de reconnaître un animal, pourra juger de l’intensité d'une compétition sportive, et pourra même dialoguer avec les individus », explique Yann LeCun, qui a tenu à préciser que « chacune de nos recherches se déroulerait dans le domaine public ». Une précision qui vise à rassurer les plus inquiets : le physicien Stephen Hawking, par exemple, qui a récemment redouté que l’intelligence artificielle ne signe, à terme, la mort de l’humanité.

Humble, Yann LeCun, dont le film préféré est 2001, l’Odyssée de l’espace, a toutefois expliqué qu’il restait beaucoup de problèmes à résoudre. « Un ordinateur n'apprend pas comme un enfant. » Il a détaillé quelques techniques d’apprentissage de la machine, comme le « reinforcement learning », qui permet de « faire comprendre à une machine quand elle a raison ou tort ».

Réalité augmentée
Enfin, Le Point.fr a pu profiter de la présence de Mike Schroepfer à Paris pour faire un point sur les nouveaux plans de développement du réseau social, qui s’est par ailleurs fixé comme objectif de connecter la planète, tout comme de renouveler la réalité virtuelle avec son masque immersif Oculus Rift.

« Nous sommes conscients que 1,2 milliard d’habitants n’ont jamais été connectés à Internet et nous aimerions y parvenir à l’aide notamment d’un drone solaire, baptisé Aquila, et sur lequel nous planchons en ce moment. »

À quoi va donc servir Oculus Rift, qui va devoir affronter la concurrence de Sony, Carl Zeiss ou encore HTC ? Mike Schroepfer, dont le Forever Peace de Joe Haldeman ne quitte pas la table de chevet, a donné quelques exemples concrets d'utilisation du masque qui sera accessible auprès du grand public en 2016.

« Il sert déjà à former des conducteurs de bus en Nouvelle-Zélande, et elles révolutionneront l'apprentissage de l'histoire et de la géographie. »

Quid de la montre connectée, comme celle d’Apple ou encore des lunettes interactives de Google ?
« Il ne faut pas que l’écran soit trop petit, car cela perd tout son intérêt, sauf à transformer son sac à dos en écran, ce qui n’est pas encore le cas
. Par ailleurs, bien sûr, nous aimerions avoir des lunettes qui affichent l’heure du prochain rendez-vous. Mais il faut pouvoir le faire sans donner l’impression d’être un cyborg. »

le point

mam
 

mam80

la rose et le réséda
Modérateur
Google, Facebook, Microsoft... Pourquoi les géants de la Silicon Valley misent sur les intelligences artificielles

Que la lumière soit. Sous la houlette du pionnier de la vision artificielle Yann LeCun, recruté en 2013, Facebook a ouvert un laboratoire de recherche à Paris, après New York et la Californie. Google, Facebook, Microsoft, Baidu… Tout le monde mise sur des réseaux neuronaux pour apprendre à la machine à reconnaître et à comprendre le monde. 20 Minutes fait le point sur la hype autour de cette technologie avec des experts.

Un réseau neuronal artificiel, qu’est-ce que c’est ?

C’est un modèle informatique « très vaguement basé sur l’architecture » de notre cerveau, explique Jeff Clune, directeur du Laboratoire d’intelligence artificielle de l’université du Wyoming. Des fonctions mathématiques tentent de modéliser le fonctionnement d’un neurone, avec plusieurs entrées et une sortie. L’appellation « deep learning » fait référence à une approche par couches. Lors d’une phase d’apprentissage, le système analyse des centaines de millions d’images et ajuste tout seul certains coefficients en fonction de ses succès et de ses échecs.

Et concrètement, ça marche comment ?

Dans cet exemple, la machine tente d’identifier Barack Obama. Elle analyse d’abord chaque pixel. Une couche de bas niveau reconnaît les lignes droites et les courbes. Une autre, les couleurs. Une plus élevée s’est entraînée à identifier son nez, une autre ses yeux etc. Le résultat final ressemble à « C’est son nez avec une certitude de 51 %, ses cheveux à 94 %, ses yeux à 77 %, donc c’est sans doute Barack Obama à 81 %. » Au fil des années, l’algorithme peut remarquer que ses cheveux blanchissent et prendre en compte cet élément.

Les limites

Avec sa nouvelle apps Photos, Google reconnaît en un clin d’oeil les clichés de votre chien ou de votre fille. Mais ces systèmes ont encore du mal avec certains effets d’ombre et avec les faux positifs. Dans une expérience, Jeff Clune a notamment montré qu’une surface jaune et noire était identifiée à tort comme un bus scolaire.

Pourquoi Facebook mise sur cette technologie ?

Pas simplement pour tagger vos amis ivres. Facebook veut s’appuyer « sur la reconnaissance d’image et la compréhension du langage naturel (tel que nous le parlons, ndr) pour améliorer le news feed, le partage de photos et inventer de nouveaux moyens pour communiquer et de partager ». Selon LeCun, un système automatisé peut par exemple reconnaître une vidéo violente (décapitation etc.) et la bloquer.

Google et les chats

En 2012, Google annonçait que son système avait passé des millions de vidéos YouTube à la moulinette et avait identifié le concept de « chat » sans aide humaine. En fait, « le système a reconnu un groupe partageant des caractéristiques communes », nuance Jeff Clune. En clair, la machine ne sait pas vraiment qu’il s’agit de minou mais elle devine que deux chats appartiennent au même groupe « oreilles pointues/longue queue ».

Et quand la machine « apprend » toute seule à jouer à un jeu vidéo ?

C’est l’une des avancées les plus bluffantes. Un système de DeepMind, racheté par Google, a appris à jouer à une quarantaine de jeux Atari comme le casse-briques Breakout. A la différence de Fifa ou Call of Duty, la machine ne suit ici aucun script prédéfini. Il s’agit d’un apprentissage par renforcement grâce à un signal lui indiquant quand le score monte, ce qui lui permet de déduire l’impact positif ou négatif d’une action. Après environ deux heures, elle est devenue aussi forte que l’humain. Après quatre, elle a développé une tactique optimale (en creusant un « tunnel » pour piéger la balle dans la partie supérieure). En revanche, elle est nulle à Pac-Man car elle n’arrive pas à élaborer une stratégie avec plusieurs secondes d’avance. Surtout, à la différence d’un enfant, elle est, pour l’instant, incapable d’appliquer ses progrès sur un autre jeu similaire : l’entraînement doit reprendre de zéro.

Les applications actuelles et futures

La vision artificielle ne se cantonne pas à identifier les chats et les enfants. Elle est centrale pour permettre aux voitures de Google de conduire toutes seules sans écraser les passants. Elle joue un rôle majeur dans la lutte contre le spam. Watson, le superordinateur d’IBM, peut assister les médecins dans leur diagnostic et détecter une maladie rare grâce à une base de données presque infinie. A terme, les robots auront besoin de voir pour devenir des assistants utiles ou secourir un humain piégé par une catastrophe comme l’explosion de la centrale nucléaire de Fukushima. Un ordinateur pourra encore décrire en temps réel la scène d’un film ou une œuvre d’art à une personne aveugle.

Les ordinateurs auront-ils bientôt la puissance du cerveau humain ?

Il y a 100 milliards de neurones dans notre cerveau et plus de 100.000 milliards de connexions (synapses). Le petit ver de terre c-elegans, lui, ne possède que 302 neurones, et malgré le séquençage complet de son génome et la cartographie de ses interactions neuronales, le fonctionnement global de son cerveau reste un mystère. La réalité, « c’est qu’on sait très peu de chose sur le cerveau », avertit Berthold Horn. Selon expert en vision artificielle du MIT, « malgré leur nom, les réseaux neuronaux artificiels ne fonctionnent pas de la même manière » et il est difficile de comparer les deux. Avec 100.000 neurones, la mouche drosophile est incapable de jouer à Space Invaders mais elle peut voler et éviter les obstacles avec plus d’efficacité que n’importe quel drone. La machine peut voir un humain, un chien et une balle sur une image mais aura du mal à établir la connexion instinctive « le chien va chercher la balle lancée par l’humain ». Nous ne sommes pas encore complètement remplaçables.

mam
 

farid_h

<defunct>
Contributeur
L'intelligence artificielle est un large domaine de recherche. La ou l'engagement de facebook devient interessant, c'est que beaucoup d'algorithmes de AI fonctionnent mieux s'ils peuvent operer sur un corpus geant de donnees. Avec les infos accumulees par facebook, et centralisees dans leurs banques de donnees, ces algorithmes peuvent le mieux montrer leur capacite. Bon, personellement, je n'utilise pas facebook justement pour cette raison, mais chacun est maitre de ses decisions. :)
 

mam80

la rose et le réséda
Modérateur
L'intelligence artificielle est un large domaine de recherche. La ou l'engagement de facebook devient interessant, c'est que beaucoup d'algorithmes de AI fonctionnent mieux s'ils peuvent operer sur un corpus geant de donnees. Avec les infos accumulees par facebook, et centralisees dans leurs banques de donnees, ces algorithmes peuvent le mieux montrer leur capacite. Bon, personellement, je n'utilise pas facebook justement pour cette raison, mais chacun est maitre de ses decisions. :)

mais si tu étais à la recherche d'un emploi, tu l'utiliserais

mam
 
Haut