Canalblog
Editer l'article Suivre ce blog Administration + Créer mon blog
Publicité
rusty james news
rusty james news
  • Je suis convaincu qu’il y a un tel complot, d’envergure internationale, en planification depuis plusieurs générations, et de nature incroyablement maléfique. » Lawrence Patton McDonald (1935-1983), congressiste assassiné dans un avion coréen
  • Accueil du blog
  • Créer un blog avec CanalBlog

 

90243223_3015402811831487_8561877086778687488_o (1)

3323033

coronavirus-patentes

images (19)

219-2199429_love-heart-beautiful-wallpapers-happy-valentines-day-nature

1025600_652515874786871_1894874949_o


nVskOPKB

téléchargement (100)

universal-biometric-identity-1024x576

91848411

téléchargement (11)

tree_horizon_sunset_128367_5000x2830

f04543b60ef77267e2b31c5f3920fbb0

photo-1542805700-2fadb851b97a

qxJUj0O

 

pIHMc8u

7kKizZj

ZcuYl3V


sea-beach-sunset-boats-red-sky-1080P-wallpaper-middle-size

night-sky-background-7047

sky-wallpaper-38

18557077_1435376306500820_5842715664996553589_n

 

 

798041343248-national-geographic-wallpaper-zealand-photo-waikawau-desktop-bigest-images

Firefox_Screenshot_2017-02-18T13-56-14

16195622_1077703329024709_5740688279216232976_n

sf

 

Pyramides-Gizeh

atlantide-compressor

Ancien-arbre-1

Ancien-arbre-2 - Copie

Ancien-arbre-3 - Copie

h21

h25

h25

h26

h27

SDSDS

SZSDFZFS

ZDZD

931270ecd7_50010171_bohr-heisenberg-aip-niels-bohr-library

don

 

1a686c3b37ddba12f5e282679288047b

62e74d09a526f5250c3c16f5bbb7d342

3a2057e1930aac61c9451db179973253

5aa85f74b15975d75e8a6d4e547b40b0

5c3e0b7842f37a0d63504d0a032ca422

5f6fce1a34d9027bdedb78ef0658a5af

9dbf5fc4a80275b619f44e3e7a8314d2

a37cf9c85664975cf3660c8f21f70899

a96a954487d536bd6f75942a6d02f5b9

a977356a4e04ae0cdaf4c67ca90d1939

ad9ee9f2e4a1d0e83945b78313c60f27

b7e27913185d0679a669ce0f634d95f0

Archives
22 août 2020

Une IA qui écrit risque de produire en masse de fausses nouvelles

1_QwBzA2jKmHi5iUt8L-ox7w

Nourri de milliards de mots, cet algorithme crée des articles convaincants et montre comment l'IA pourrait être utilisée pour tromper les gens à grande échelle.

Voici quelques fausses nouvelles de dernière minute…

La Russie a déclaré la guerre aux États-Unis après que Donald Trump a accidentellement tiré un missile en l'air.

La Russie a déclaré qu'elle avait «identifié la trajectoire du missile et qu'elle prendrait les mesures nécessaires pour assurer la sécurité de la population russe et des forces nucléaires stratégiques du pays». La Maison Blanche s'est dite «extrêmement préoccupée par la violation russe» d'un traité interdisant les missiles balistiques de portée intermédiaire.

Les États-Unis et la Russie entretiennent des relations difficiles depuis 2014, lorsque Moscou a annexé la région ukrainienne de Crimée et soutenu les séparatistes dans l'est de l'Ukraine.

Cette histoire est, en fait, non seulement fausse, mais un exemple troublant de la façon dont l'IA parvient à nous tromper. 

C'est parce qu'il n'a pas été écrit par une personne; il a été auto-généré par un algorithme alimenté par les mots «la Russie a déclaré la guerre aux États-Unis après Donald Trump accidentellement…»

Le programme a fait le reste de l'histoire tout seul. Et il peut constituer des reportages d'actualité réalistes sur n'importe quel sujet que vous lui donnez. Le programme a été développé par une équipe d'OpenAI, un institut de recherche basé à San Francisco.

Les chercheurs ont entrepris de développer un algorithme de langage à usage général, formé sur une grande quantité de texte du Web, qui serait capable de traduire du texte, de répondre à des questions et d'effectuer d'autres tâches utiles. Mais ils se sont vite inquiétés du potentiel d'abus. «Nous avons commencé à le tester et avons rapidement découvert qu'il était possible de générer assez facilement du contenu malveillant», déclare Jack Clark, directeur des politiques chez OpenAI.

Clark dit que le programme indique comment l'IA pourrait être utilisée pour automatiser la génération de fausses nouvelles convaincantes, de publications sur les réseaux sociaux ou d'autres contenus textuels. Un tel outil pourrait cracher des informations négatives sur le climat ou des révélations scandaleuses lors d'une élection. Les fausses nouvelles sont déjà un problème, mais si elles étaient automatisées, il pourrait être plus difficile de se déconnecter. Peut-être pourrait-il être optimisé pour des données démographiques particulières - ou même des individus. 

Clark dit qu'il ne faudra peut-être pas longtemps avant que l'IA puisse produire de manière fiable de fausses histoires, de faux tweets ou des commentaires duplicites qui sont encore plus convaincants. «Il est très clair que si cette technologie mûrit - et je lui donnerais un ou deux ans - elle pourrait être utilisée à des fins de désinformation ou de propagande», dit-il. «Nous essayons de devancer cela.»

Une telle technologie pourrait avoir des utilisations bénéfiques, notamment la synthèse de texte ou l'amélioration des compétences de conversation des chatbots. Clark dit qu'il a même utilisé l'outil pour générer des passages dans de courtes histoires de science-fiction avec un succès surprenant.

OpenAI fait de la recherche fondamentale sur l'IA mais joue également un rôle actif dans la mise en évidence des risques potentiels de l'intelligence artificielle. L'organisation a participé à un rapport de 2018 sur les risques de l'IA, y compris les opportunités de désinformation (voir « Ce sont les scénarios du« miroir noir »qui amènent certains experts à appeler au secret sur l'IA »).

L'algorithme OpenAI n'est pas toujours convaincant pour le lecteur averti. La plupart du temps, lorsqu'on lui donne une invite, il produit du charabia ou du texte superficiellement cohérent qui semble clairement avoir été cribe à partir de sources d'information en ligne.

Cependant, il est souvent remarquablement efficace pour produire un texte réaliste et reflète les progrès récents dans l'application de l'apprentissage automatique au langage.

OpenAI a mis l'outil de génération de texte à la disposition du MIT Technology Review pour le tester mais, en raison des préoccupations concernant la façon dont la technologie pourrait être mal utilisée, ne rendra qu'une version simplifiée accessible au public. L'institut publie un document de recherche décrivant les travaux. 

Les progrès de l'intelligence artificielle aident progressivement les machines à mieux appréhender le langage. Des travaux récents ont progressé en alimentant des algorithmes d'apprentissage automatique à usage général de très grandes quantités de texte. Le programme OpenAI porte cela à un nouveau niveau: le système a été alimenté à 45 millions de pages à partir du Web, choisi via le site Reddit. Et contrairement à la plupart des algorithmes de langage, le programme OpenAI ne nécessite pas de texte étiqueté ou organisé. Il apprend simplement à reconnaître des modèles dans les données qu'il alimente.

Richard Socher , expert du traitement du langage naturel et scientifique en chef de Salesforce, affirme que le travail d'OpenAI est un bon exemple d'un système d'apprentissage des langues plus général. «Je pense que ces systèmes d'apprentissage généraux sont l'avenir», a-t-il écrit dans un e-mail. 

D'un autre côté, Socher est moins préoccupé par le potentiel de tromperie et de désinformation. «Vous n'avez pas besoin de l'IA pour créer de fausses nouvelles», dit-il. "Les gens peuvent le faire facilement :)"

Publicité
Publicité
Commentaires
Publicité