Menu
Accueil
Forums
Nouveaux messages
En ce moment
Nouveaux messages
Nouveaux messages de profil
Connexion
S'inscrire
Quoi de neuf
Nouveaux messages
Menu
Connexion
S'inscrire
Forums
Catégorie Principale
Général
Cette intelligence artificielle écrit si bien ses textes
JavaScript est désactivé. Pour une meilleure expérience, veuillez activer JavaScript dans votre navigateur avant de continuer.
Vous utilisez un navigateur obsolète. Il se peut que ce site ou d'autres sites Web ne s'affichent pas correctement.
Vous devez le mettre à jour ou utiliser un
navigateur alternatif
.
Répondre à la discussion
Message
[QUOTE="mam80, post: 16156120, member: 228134"] qu'elle inquiète ses concepteurs Lorsque l’algorithme développé par « Open AI », l’association à but non-lucratif soutenue par Elon Musk, donnait enfin les résultats attendus, l’équipe travaillant sur le projet nommé GPT-2 a décidé de faire machine arrière et de ne pas divulguer le code du programme. La raison ? Cet algorithme, générant des fausses informations indétectables a été jugé trop dangereux par ses développeurs. À l’heure où les fake news se propagent à une vitesse affolante, les concepteurs ont en effet peur que ces fausses informations, en tombant entre de mauvaises mains, se mettent à pulluler sur les réseaux sociaux. Pour le meilleur… comme pour le pire. [B][B]Qu’est ce le « projet GPT-2 » ? [/B][/B] Tout d’abord, il faut savoir que ce [B]programme[/B] a été modélisé par le centre de recherche [B]Open AI[/B], une organisation à but non lucratif soutenue par le patron de [B]Tesla[/B], [B]Elon Musk[/B], mais également de grandes entreprises internationales, comme [B]Amazon[/B] et [B]Microsoft[/B]. La fonction de l’outil est simple : il s’agit d’un [B]créateur de contenu[/B], qui peut rédiger des articles, mettre en forme des présentations, générer des commentaires à partir de sujets donnés. Pour perfectionner l’outil, les développeurs ont fait en sorte qu’il soit capable de construire un plan détaillé enrichi d’exemples, de citations, mais également de construire un argumentaire soutenu pour aboutir à une conclusion cohérente. Le tout avec une aisance qui ferait pâlir de jalousie le meilleur des rédacteurs… [B]Open AI[/B] a décrit [B]GPT-2[/B] comme étant « le nec plus ultra pour modéliser certains niveaux de langage », comme le résumé, la traduction, ou l’argumentaire. La firme soutient également que l’algorithme « est meilleur que les autres modèles de langue » après avoir été testé sur des plateformes comme Wikipédia, ou même à partir de livres réels, sans aucune formation spécifique. Pour réaliser cet impressionnant programme, il aurait fallu près de 8 millions de pages Web (40 Go de texte), pour participer à l’enrichissement et à l’autonomie de l’algorithme. Des efforts qui semblent néanmoins avoir conduit à une véritable réussite, puisque le programme a été, lors d’un test, capable d’écrire un article de 300 mots à partir du sujet suivant: « Un troupeau de licornes vivant dans une vallée des Andes qui n’avait jusqu’ici jamais été explorée ». Un exploit, au vu de l’absurdité du sujet, que ce soit par ses thèmes ou par sa formulation. [B][B]Pourquoi GPT-2 a t-il été censuré par ses propres développeurs ? [/B][/B] Comme beaucoup de travaux réalisés dans le cadre de l’intelligence artificielle, les développeurs du projet ont dû se confronter à des problématiques morales et [B]éthiques[/B]. Après avoir conçu [B]GPT-2[/B], les chercheurs ont annoncé que le projet, pourtant révolutionnaire, ne serait pas mis à disposition du public en raison « de (leurs) inquiétudes sur les [B]utilisations malveillantes[/B] de cette technologie ». En effet, selon eux, l’outil pourrait être utilisé à des fins malintentionnées : création aléatoire d’article Fake News, usurpation d’identité en ligne, ou même pire, automatisation des intox sur les réseaux sociaux. Les réseaux sociaux ont pris une importance considérable dans nos vies, et constituent pour beaucoup d’entre nous un moyen rapide d’avoir accès aux informations. Nul doute donc que la mise en service de ce système producteur de contenu fictif, et élaboré pour se perfectionner au cours des utilisations, pourrait avoir un impact désastreux sur la façon dont nous nous informons au XXIe siècle, selon la décision de la plateforme. C’est d’ailleurs sur le thème de la[B] manipulation des informations[/B] que la firme a souhaité conclure, en mettant en garde les citoyens du Web : » Le grand public doit être plus méfiant face aux textes publiés en ligne, comme les[B] deepfakes[/B] doivent les rendre plus méfiants concernant les images. « , ont-ils déclaré, faisant ainsi référence aux vidéos imitant la voix et la gestuelle d’une personne, dans le but de produire une vidéo dans laquelle l’image d’un individu a été manipulée. Source : [URL='https://www.ouest-france.fr/high-tech/etats-unis-un-generateur-automatique-de-texte-trop-performant-pour-etre-public-6225618']Ouest France[/URL] Par [URL='https://dailygeekshow.com/author/alice-mercier/']Alice Mercier[/URL], le 20 février 2019 mam [/QUOTE]
Insérer les messages sélectionnés…
Vérification
Répondre
Forums
Catégorie Principale
Général
Cette intelligence artificielle écrit si bien ses textes
Haut