Aller au contenu

Fausses informations : un programme d’IA jugé trop dangereux pour être rendu public


Invité fx.

Messages recommandés

Invité fx.
Invités, Posté(e)
Invité fx.
Invité fx. Invités 0 message
Posté(e)
Citation

Les créateurs de ce générateur de texte, capable d’imiter différents styles d’écriture, craignent qu’il ne soit utilisé pour concevoir de fausses informations à la chaîne. Opération de com ou vrai danger ?

23a5e73_17100-1ay3090.3czpno2yb9.jpg

 

 

OpenAI a-t-il créé un programme d’intelligence artificielle (IA) trop dangereux pour être rendu public ? C’est en tout cas ce que prétend un laboratoire américain à but non lucratif, dans un article publié, jeudi 14 février, sur son site Internet. Et copieusement commenté ces derniers jours par la communauté des chercheurs en IA.

Le programme en question s’appelle GPT-2 et sert à générer automatiquement du texte. Il a été « entraîné » à partir de 40 gigabits de textes, issus de huit millions de pages Web. « Avec un objectif simple, explique OpenAI : prédire le mot suivant, en se basant sur tous les mots précédents d’un texte. » Il suffit donc de lui donner quelques mots, comme une phrase, pour qu’il rédige une suite. Ce programme « s’adapte au style et au contenu » des mots qu’on lui donne, ce qui permet, selon OpenAI, de « générer une suite réaliste et cohérente sur le sujet choisi » par l’utilisateur. Un roman de fantasy, une recette, un article de presse ou un pamphlet politique, par exemple.

Le résultat est impressionnant, assure l’organisation, qui estime que sa technologie représente ce qui se fait de mieux aujourd’hui dans le domaine. Au point de s’en inquiéter. Pour elle, les textes produits par GPT-2 sont tellement réalistes que cette technologie, placée entre de mauvaises mains, pourrait se révéler dangereuse.

...

https://www.lemonde.fr/pixels/article/2019/02/19/fausses-informations-un-programme-d-ia-juge-trop-dangereux-pour-etre-rendu-public_5425426_4408996.html?xtmc=ia&xtcr=1

 

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant
Membre, Posté(e)
Niou Membre 9 573 messages
Baby Forumeur‚
Posté(e)

Je pense que les IA finiront par dépasser l'humain un jour parce qu'elles ont une puissance de calcul bien supérieure à la nôtre. En revanche, une « panne » d'électricité et elles ne valent plus rien.

Lien à poster
Partager sur d’autres sites

Invité riad**
Invités, Posté(e)
Invité riad**
Invité riad** Invités 0 message
Posté(e)
Il y a 3 heures, Niou a dit :

Je pense que les IA finiront par dépasser l'humain un jour parce qu'elles ont une puissance de calcul bien supérieure à la nôtre. En revanche, une « panne » d'électricité et elles ne valent plus rien.

Pour l'instant les IA ne sont pas du tout intelligentes, mais ils ont déjà surpassé l'homme dans plusieurs domaines ( jeux...), seulement ils sont très spécialisés, AlphaGo ne sait rien faire à part jouer le go, je pense que le jour ou l'IA deviendra généraliste, elle aura les mêmes défauts qu'un humain.
 

Lien à poster
Partager sur d’autres sites

Membre, 113ans Posté(e)
stvi Membre 20 709 messages
Mentor‚ 113ans‚
Posté(e)
Il y a 4 heures, fx. a dit :

Les créateurs de ce générateur de texte, capable d’imiter différents styles d’écriture, craignent qu’il ne soit utilisé pour concevoir de fausses informations à la chaîne. Opération de com ou vrai danger ?

23a5e73_17100-1ay3090.3czpno2yb9.jpg

 

OpenAI a-t-il créé un programme d’intelligence artificielle (IA) trop dangereux pour être rendu public ? C’est en tout cas ce que prétend un laboratoire américain à but non lucratif, dans un article publié, jeudi 14 février, sur son site Internet. Et copieusement commenté ces derniers jours par la communauté des chercheurs en IA.

Le programme en question s’appelle GPT-2 et sert à générer automatiquement du texte. Il a été « entraîné » à partir de 40 gigabits de textes, issus de huit millions de pages Web. « Avec un objectif simple, explique OpenAI : prédire le mot suivant, en se basant sur tous les mots précédents d’un texte. » Il suffit donc de lui donner quelques mots, comme une phrase, pour qu’il rédige une suite. Ce programme « s’adapte au style et au contenu » des mots qu’on lui donne, ce qui permet, selon OpenAI, de « générer une suite réaliste et cohérente sur le sujet choisi » par l’utilisateur. Un roman de fantasy, une recette, un article de presse ou un pamphlet politique, par exemple.

Le résultat est impressionnant, assure l’organisation, qui estime que sa technologie représente ce qui se fait de mieux aujourd’hui dans le domaine. Au point de s’en inquiéter. Pour elle, les textes produits par GPT-2 sont tellement réalistes que cette technologie, placée entre de mauvaises mains, pourrait se révéler dangereuse.

...

https://www.lemonde.fr/pixels/article/2019/02/19/fausses-informations-un-programme-d-ia-juge-trop-dangereux-pour-etre-rendu-public_5425426_4408996.html?xtmc=ia&xtcr=1

 

c'est un peu les mêmes discours que ceux des scientifiques qui à l'avènement du chemin de fer affirmaient qu'à un vitesse élevée l’entrée dans un tunnel allait faire éclater les tympans des voyageurs ...Il ne faut pas avoir peur de l'intelligence , mais plutôt de la bêtise ...

Le vrai danger c'est que le quart de la population est dépassée par les balbutiements de l'IA ... c'est cette même population dont l’espérance de vie régresse aux Etats Unis et bientôt chez nous , c'est aussi celle qu'on retrouve sur les ronds points en France ...

la fracture risque d'être une crevasse entre ceux qui seront formés , et ceux qui seront exclus  de cette évolution pour une raison ou une autre ..

"Une partie des Conservateurs pleins de bonnes intentions croit que le fait de perdre de vue la croissance économique entraînera une stagnation de plus en plus grande, tandis que d’autres (comme [Oren] Cass) croient que nous devons créer une économie dans laquelle plus d’individus pourraient être productifs, même si cela se faisait au détriment de la croissance du PIB.

[…]

Est-ce qu’un meilleur financement des programmes de formation des travailleurs, par exemple, permettrait de calmer l’angoisse existentielle qui entraîne un abus de drogues ? Peut-on espérer que l’augmentation des offres d’emploi, résultant de la Loi sur les réductions d’impôt et l’emploi, contrebalance le vide que les gens tentent de combler en buvant ou en se droguant ? La moralisation de la société civile suffira-t-elle à reconstruire un tissu social en charpie qui abandonne trop de gens à la solitude ? "

Lien à poster
Partager sur d’autres sites

Membre, Un con qui marche ira plus loin qu'un intellectuel assis, 52ans Posté(e)
DroitDeRéponse Membre 88 339 messages
52ans‚ Un con qui marche ira plus loin qu'un intellectuel assis,
Posté(e)
Lien à poster
Partager sur d’autres sites

Membre, 40ans Posté(e)
cheuwing Membre 16 677 messages
Maitre des forums‚ 40ans‚
Posté(e)

mouais, ça sent bien la communication, comme très, trop souvent avec Musk

« Quand on lui donne des sujets qui sont énormément représentés dans les données (le Brexit, Miley Cyrus, le Seigneur des anneaux, etc.), il est capable de générer un texte correct dans 50 % des cas. Mais l’inverse est aussi vrai : sur des contenus très techniques ou ésotériques, les résultats sont mauvais. »

OpenAI note aussi la présence de passages absurdes (comme lorsque le programme parle de feu sous l’eau) ou de changements de sujets abrupts. Ce qui s’explique par le fait que cette technologie, bien qu’elle réussisse à imiter l’écrit humain, est incapable d’en comprendre le sens.

« Course au clic »

Le problème est qu’en refusant de rendre sa technologie publique OpenAI rend impossible, pour la communauté scientifique, d’évaluer l’efficacité réelle du système. Ce qui lui a valu de nombreuses critiques. « Où peut-on trouver des preuves que votre système est bien capable de faire ça ? », s’agace par exemple Anima Anandkumar, responsable de la recherche en apprentissage automatique chez Nvidia.

« Quels chercheurs indépendants ont analysé votre système ? Aucun. (…) Si vous pensez que votre système est si efficace, ouvrez-le aux chercheurs. Pas à des journalistes qui font la course au clic. »

 

pour ma part je sais que openAI est en test depuis 3 ans sur un jeu  vidéo fonctionnant en équipe , et elle est encore très très loin (malgré des milliers d'heure de simulation ) 

 

Lien à poster
Partager sur d’autres sites

Invité fx.
Invités, Posté(e)
Invité fx.
Invité fx. Invités 0 message
Posté(e)

 

Lien à poster
Partager sur d’autres sites

Membre, Beluga-Pangolin, Posté(e)
BELUGA Membre 15 220 messages
Beluga-Pangolin,
Posté(e)

Il y a, sur ce forum entre autres, des intelligences très très artificielles ...:blush:

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
Pierrot89 Membre 7 808 messages
Maitre des forums‚
Posté(e)
Il y a 13 heures, fx. a dit :

Les créateurs de ce générateur de texte, capable d’imiter différents styles d’écriture, craignent qu’il ne soit utilisé pour concevoir de fausses informations à la chaîne. Opération de com ou vrai danger ?

23a5e73_17100-1ay3090.3czpno2yb9.jpg

 

OpenAI a-t-il créé un programme d’intelligence artificielle (IA) trop dangereux pour être rendu public ? C’est en tout cas ce que prétend un laboratoire américain à but non lucratif, dans un article publié, jeudi 14 février, sur son site Internet. Et copieusement commenté ces derniers jours par la communauté des chercheurs en IA.

Le programme en question s’appelle GPT-2 et sert à générer automatiquement du texte. Il a été « entraîné » à partir de 40 gigabits de textes, issus de huit millions de pages Web. « Avec un objectif simple, explique OpenAI : prédire le mot suivant, en se basant sur tous les mots précédents d’un texte. » Il suffit donc de lui donner quelques mots, comme une phrase, pour qu’il rédige une suite. Ce programme « s’adapte au style et au contenu » des mots qu’on lui donne, ce qui permet, selon OpenAI, de « générer une suite réaliste et cohérente sur le sujet choisi » par l’utilisateur. Un roman de fantasy, une recette, un article de presse ou un pamphlet politique, par exemple.

Le résultat est impressionnant, assure l’organisation, qui estime que sa technologie représente ce qui se fait de mieux aujourd’hui dans le domaine. Au point de s’en inquiéter. Pour elle, les textes produits par GPT-2 sont tellement réalistes que cette technologie, placée entre de mauvaises mains, pourrait se révéler dangereuse.

...

https://www.lemonde.fr/pixels/article/2019/02/19/fausses-informations-un-programme-d-ia-juge-trop-dangereux-pour-etre-rendu-public_5425426_4408996.html?xtmc=ia&xtcr=1

 

Fausse information, comme trop souvent sur internet.

Lien à poster
Partager sur d’autres sites

Membre, Zigbu, 76ans Posté(e)
Zigbu Membre 6 639 messages
76ans‚ Zigbu,
Posté(e)

Fausse ou vraie info, il n'en reste pas moins vrai que l'IA est une réalité. Balbutiante pour le moment mais qui va croître à vitesse grand V du fait même que les machines informatiques qui l'utilisent apprennent et augmentent ainsi leur "Intelligence". Puis la machine apprendra encore et encore, bien plus vite que le cerveau humain ne peut le faire. Il faut sept ans pour former un médecin, demain il faudra quelques jours pour former le robot que l'on viendra consulter. j'en tremble ! On est en train de créer des machines qui pourraient nous aider ou nous détruire. La limite entre les deux est très ténue. On nous dira que telle ou telle invention de l'homme a été jugée comme dangereuse, alors qu'à l'usage, on s'est apercu qu'il n'en était rien. Ah oui, par exemple, le nucléaire ! combien de catastrophes depuis qu'on nous a dit que cela ne craignait pas ?

C'est l'homme qui décide du niveau d'intelligence des machines qu'il va créer ! Combien d'inventions créées par leur initiateur avaient pour objectif une utilisation civile, ont étées détournées pour une utilisation militaire ? 

Lien à poster
Partager sur d’autres sites

Invité Quasi-Modo
Invités, Posté(e)
Invité Quasi-Modo
Invité Quasi-Modo Invités 0 message
Posté(e)
Il y a 3 heures, Zigbu a dit :

C'est l'homme qui décide du niveau d'intelligence des machines qu'il va créer ! Combien d'inventions créées par leur initiateur avaient pour objectif une utilisation civile, ont étées détournées pour une utilisation militaire ? 

Elles le sont toutes, détournées à des fins militaires (ou presque). Le problème est effectivement de taille. C'est pourquoi il y a de nombreuses pétitions pour notamment interdire l'utilisation de l'IA pour fabriquer des robots-soldats. Pour donner un exemple, ce serait très simple aujourd'hui de lâcher des armées de drônes dotés d'un programme d'IA capable de détecter et détruire les humains sur leur passage. Je ne sais pas si tout le monde aura les mêmes scrupules à ce sujet, surtout s'il est question de sûreté de l'Etat ou de sécurité des populations.

Il y a 5 heures, BELUGA a dit :

Il y a, sur ce forum entre autres, des intelligences très très artificielles ...:blush:

Certaines n'ont jamais passé le test de Turing alors soyez sympas :p

Lien à poster
Partager sur d’autres sites

Membre, Posté(e)
Pierrot89 Membre 7 808 messages
Maitre des forums‚
Posté(e)

Comme toutes les découvertes, l'IA peut être un chance de bienfait pour l'homme ou au contraire son asservissement.

Il serait pertinent que, comme dans d'autres domaines nouveaux, des comités éthiques donnent leur avis aux politiques.

Lien à poster
Partager sur d’autres sites

Annonces
Maintenant

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×