Intelligence artificielle : alice et bob se débrouillent très bien sans nous

Sécurité : Deux chercheurs viennent de démontrer qu'il est possible à des intelligences artificielles d'apprendre à chiffrer leurs communications afin d'échapper aux indiscrétions d'une troisième machine. Problème : plus personne alors ne les comprend, pas même leur créateur.

Vous ne les connaissez pas encore mais Alice, Bob et Eve vont changer non seulement la manière dont vous travaillez, mais aussi peut-être celle dont vous vivez au quotidien.

Générer du chiffrement évolutif

Dans un article de recherche, Google a mis au point un scénario où des réseaux neuronaux parviennent à générer eux-mêmes du chiffrement évolutif, sur la base de l'intelligence artificielle et du machine learning. Concrètement, Alice et Bob, deux réseaux neuronaux en l'espèce, font évoluer seuls leurs outils de chiffrement de manière à laisser Eve dans le noir. Oui, car Eve est aussi un réseau neuronal.Ces trois figures classiques de la cryptologie sont des entités utilisée par les chercheurs pour tester des protocoles de sécurité et faire avancer la recherche (le chiffrement RSA, datant de 1970 a été perfectionné sur cette base). Leur rôle ? Alice et Bob tentent de communiquer de manière sécurisée, comprenez sans que personne à part eux ne soient au courant de ce qu'ils se racontent. Eve quant à elle tente d'écouter Alice et Bob par tous les moyens. Les deux chercheurs du projet Google Brain (lancé en 2011), Martin Abadi et David Andersen, viennent de publier une étude dans laquelle ils montrent que des intelligence artificielles utilisant des réseaux neuronaux (des algorithmes dont le fonctionnement est inspiré des réseaux neuronaux biologiques) peuvent parvenir à créer leur propre système de chiffrement.Le tour de force des chercheurs est mentionné en page 3 de l'étude. "Au lieu d'entraîner Alice et Bob séparément à mettre en œuvre un cryptosystème connu, nous entraînons Alice et Bob conjointement à communiquer avec succès et à vaincre Eve et ce sans notion prédéterminée du cryptosystème qu'ils doivent utiliser à cette fin". Concrètement, les deux machines ne devaient pas appliquer un plan prédéfini, mais trouver ensemble les ressources et les moyens nécessaires pour ne plus être compris de Eve.
 
Qui va ouvrir la boîte de Pandore ?

Problème soulevé par l'étude, intitulée "Apprendre à protéger les communications à travers la cryptographie neuronale " : si Eve n'a plus réussi au fil du temps, soit des essais / erreurs du machine learning, à comprendre ce que se disaient Alice et Bob, les chercheurs non plus. La cryptographie inventée par les deux entités n'est plus déchiffrable par Martin Abadi et David Andersen.De quoi effrayer Jacques Attali qui dans l'Express sonne l'alarme : les machines se dégageraient ainsi de la main mise des humains, ouvrant la voie à l'autonomie des machines, et les scénarios à la Terminator. "Ces intelligences (...) peuvent d’abord considérer que leur mission est de contrecarrer ceux de nos comportements qui, à leurs yeux, nous nuiraient ; qu’elles peuvent ainsi penser que l’humanité courre à sa perte et décider, pour son bien, de l’arrêter à temps. Mais elles pourront alors aussi agir contre l’humanité, dans leur seul intérêt ; surtout si elles pensent que, à terme, nous aurons intérêt à les détruire : elles peuvent alors nous combattre, en légitime défense" assure Jacques Attali.Machine learning oblige, le processus d'apprentissage de Bob pour comprendre ce que disait Alice a été particulièrement long et fastidieux. Il a fallu 15 000 essais à Bob pour comprendre les 16 bits du message envoyé par Alice, alors qu'Eve ne comprenait que la moitié de ce que disait Bob avec le même nombre d'essais."Nous démontrons que les réseaux de neurones peuvent apprendre à protéger les communications" mentionnent en conclusion les deux chercheurs. "L'apprentissage ne nécessite pas de prescrire des algorithmes cryptographiques particuliers, ni d'indiquer les moyens d'appliquer ces algorithmes : il est basé uniquement sur une spécification de secret représentée par les objectifs de formation".

http://www.zdnet.fr/actualites/inte...debrouillent-tres-bien-sans-nous-39844408.htm
 

Hibou57

Comme-même (tm)
VIB
Qui va ouvrir la boîte de Pandore ?

Problème soulevé par l'étude, intitulée "Apprendre à protéger les communications à travers la cryptographie neuronale " : si Eve n'a plus réussi au fil du temps, soit des essais / erreurs du machine learning, à comprendre ce que se disaient Alice et Bob, les chercheurs non plus. La cryptographie inventée par les deux entités n'est plus déchiffrable par Martin Abadi et David Andersen.De quoi effrayer Jacques Attali qui dans l'Express sonne l'alarme : les machines se dégageraient ainsi de la main mise des humains, ouvrant la voie à l'autonomie des machines, et les scénarios à la Terminator. "Ces intelligences (...) […]
Il manque un ingrédient encore : la conscience.
 

Ebion

Ça a l'air que je suis l'esclave da partida
VIB
Il manque un ingrédient encore : la conscience.

Et au-delà même d'une conscience purement intellectuelle, il manque surtout la volonté et l'affectivité aux machines. Les ordinateurs seront dangereux le jour où ils formeront le projet conscient de se révolter contre les humains. Mais je ne pense pas que ça arrive. Pourquoi l'instant, les machines exécutent servilement des opérations logiques et mathématiques sans savoir ce qui se passe et sans en souffrir.
 

toino

Bladinaute averti
Peut-être ne sommes nous que des machines avec une illusion de conscience...Il nous est à nous aussi impossible de penser en-dehors de ce que notre cerveau est physiquement possible de faire.
 
Haut