La commande vocale a créé une faille de sécurité grave

etre2en1

intersex people are cool
VIB
Des chercheurs ont découvert que les commandes vocales, Google, Siri…… ont créé une grosse faille de sécurité dans nos appareils.
Les commandes vocales censées faciliter nos vies facilitent aussi celle des pirates.
Des commandes vocales inaudibles par nos oreilles sont audibles par nos appareils qui alors exécutent des ordres à notre insu.
Les commandes peuvent être insérées dans des musiques, vidéos…………..

Les chercheurs ont réussi à faire exécuter des commandes avec des sons jusque à 8 mètres de l'appareil commandé, pour ouvrir une page du net, désactiver une alarme……………

Ils espèrent que en rendant public cette info cela décide les éditeurs de logiciels à corriger cette faille.

https://www.msn.com/fr-fr/actualite...-écoutez/ar-AAxggJS?li=AA523n&ocid=spartanntp
 
Dernière édition:

etre2en1

intersex people are cool
VIB
Il y a encore 20 ans, on pouvait déjà commander des appareils avec des fréquences vocales.

C'était le principe des vieux modems, les ordinateurs et appareils électroniques pouvaient être commandés avec des ordres transmis par des sons, d'où le fameux son qu'on entend dans les films et séries quand les ordinateurs se connectaient, ce n'était pas une musique mais un échange d'informations, d'instructions, des ordres.
Aujourd'hui, en installant et en activant la commande vocale, on reproduit cet accès.
La différence c'est que la commande n'a plus besoin de passer par un langage machine, l'ordre est vocal même si pour une oreille humaine elle semble inaudible.
On écoute un film sur YouTube, le micro entends lui aussi la bande son, la bande son contient des instructions que la machine va exécuter à notre insu.
Bien sûr on peut se dire que c'est limité, mais les pages du net sont remplies de vidéos de pubs avec du son qui sont autant de risques de commandes vocales rajoutées par des pirates, sans parler du fait que cela peut se cacher et que ça peut juste être un fichier audio inaudible pour nous mais pas par la machine.

Par mesure de sécurité, désactiver les commandes vocales si on ne les utilise pas vraiment, ne jamais utiliser d'enregistrement de moyens de paiement dans des sites et ne jamais activer de système de paiement en un click..
 

etre2en1

intersex people are cool
VIB
https://www.msn.com/fr-fr/actualite...onversation-privée/ar-AAxN0R4?ocid=spartanntp


Alexa, l'assistant vocal d'Amazon qui pilote ses enceintes connectées, a enregistré la conversation d'un couple américain et l'a transférée à un de leurs contacts. L'entreprise assure qu'il s'agit d'une situation exceptionnelle.

Après son rire incontrôlable, Alexa fait encore parler d’elle. L'assistant virtuel qui pilote les enceintes Echo d'Amazon a enregistré la conversation d’un couple de Portland puis l’a envoyée à l'un de leurs contacts, qui n'avait pourtant rien demandé. La femme a raconté à la chaîne de télévision américaine Kiro7 que l’enceinte Echo avait transféré leur discussion à un employé de son mari.

Les enceintes intelligentes font l'objet de critiques récurrentes, concernant leur fiabilité. Des chercheurs ont récemment démontré qu'elles pouvaient être bernées par des sons inaudibles, cachés dans des morceaux de musique.


Selon Amazon, cette situation est exceptionnelle car la manipulation nécessite un échange entre l’utilisateur et l’enceinte. "Echo s'est probablement réveillée à cause d'un mot dans une conversation de fond qui ressemblait à Alexa", explique l’entreprise. "Les paroles ont probablement été entendues comme une requête d'envoi de message. Alexa a ensuite demandé "A qui ?" Elle a interprété les voix comme un nom dans la liste des contacts et a demandé à haute voix, "[nom du contact], n'est-ce pas ?" avant d'interpréter la conversation comme étant "juste"", détaille Amazon.
:D
 
Haut