close

Sommaire

RECEVOIR LE MAGAZINE

Vous souhaitez recevoir notre magazine en version papier ? Indiquez-nous vos prénom, nom et adresse postale :

Réseaux sociaux

Crédits

UNIVERSITÉ PARIS DESCARTES
12 RUE DE L’ÉCOLE DE MÉDECINE
75006 PARIS

DIRECTEUR DE LA PUBLICATION : Frédéric Dardel

RÉDACTEUR EN CHEF : Pierre-Yves Clausse

RÉDACTEURS : Jean-Christophe Piot, Pierre-Yves Clausse

CRÉDIT PHOTOS : Université Paris Descartes – Philip Martin – istock2018

CONTRIBUTEURS :
Par ordre d’apparition dans le magazine : Frédéric Dardel, Alain Fischer, Odile Launay, Serge Blisko, Olivier Garraud, Juan Alonso, Marie Veniard, Theodore Alexopoulos, Nathalie Martial-Braz, Samuel Laurent, Claude Forest, Charbel Massaad, Catherine Labbé-Jullié, Brandon Stell, David Janiszek, Gérald Bronner

Présents uniquement dans la version en ligne : Ange Ansour, Didier Pourquery,
Nicolas Martin

En partenariat avec l’émission La Méthode Scientifique sur France Culture.

CONCEPTION ET RÉALISATION : Caillé associés

UNE IDÉE, UNE QUESTION ? presse@parisdescartes.fr

close

RECEVOIR LE MAGAZINE

Vous souhaitez recevoir notre magazine en version papier ? Indiquez-nous vos prénom, nom et adresse postale :

Réseaux sociaux

close

Crédits

UNIVERSITÉ PARIS DESCARTES
12 RUE DE L’ÉCOLE DE MÉDECINE
75006 PARIS

DIRECTEUR DE LA PUBLICATION : Frédéric Dardel

RÉDACTEUR EN CHEF : Pierre-Yves Clausse

RÉDACTEURS : Jean-Christophe Piot, Pierre-Yves Clausse

CRÉDIT PHOTOS : Université Paris Descartes – Philip Martin – istock2018

CONTRIBUTEURS :
Par ordre d’apparition dans le magazine : Frédéric Dardel, Alain Fischer, Odile Launay, Serge Blisko, Olivier Garraud, Juan Alonso, Marie Veniard, Theodore Alexopoulos, Nathalie Martial-Braz, Samuel Laurent, Claude Forest, Charbel Massaad, Catherine Labbé-Jullié, Brandon Stell, David Janiszek, Gérald Bronner

Présents uniquement dans la version en ligne : Ange Ansour, Didier Pourquery,
Nicolas Martin

En partenariat avec l’émission La Méthode Scientifique sur France Culture.

CONCEPTION ET RÉALISATION : Caillé associés

UNE IDÉE, UNE QUESTION ? presse@parisdescartes.fr

close

Mode d'emploi

Naviguer à l'horizontale

LA NAVIGATION DE GAUCHE À DROITE.
les rubriques se succèdent pour respecter la progression du magazine.

Naviguer à la verticale

LA NAVIGATION DE HAUT EN BAS
Glisser verticalement, pour faire le contenu de l'article.

Outils

  • close
    Fermer
  • print
    Version imprimable
  • format_size
    Agrandir le texte
  • search
    Rechercher
  • thumb_up
    Aimer l'article
  • share
    Partager
  • comment
    Commentaires
close
Generic selectors
Exact matches only
Search in title
Search in content
Search in posts
Search in pages
Filter by Categories
Chapitres
Défi Biomédical
Défi économique
Défi humain
Défi règlementaire
Défi sanitaire
Défi sociétal
édito
Et ailleurs ?
Et demain ?
Panorama
webzine-5
webzine-6
webzine-7
Et demain ?

L’intelligence artificielle nous sauvera-t-elle des fake news ?

L’intelligence artificielle peut-elle être un rempart face à la multiplicité des fake news sur Internet et les réseaux sociaux ? L’informatique ayant conquis tous les aspects de nos vies quotidiennes, cet outil peut-il nous servir à dénouer le vrai du faux, à repérer les fausses Informations générées par des programmes ? Éléments de réponse, recueillis par Sohane Nguyen-duc, Dana Peeters et Ségolène Proust de la Gironière, étudiantes en deuxième année d’Infocom à l’IUT de Paris Descartes, auprès de David Janiszek, maître de conférences à l’université Paris Descartes, spécialiste de l’intelligence artificielle.

David Janiszek,
Maître de conférences, spécialiste de l’intelligence artificielle.
Université Paris Descartes

En quoi l’intelligence artificielle (IA) est-elle si impliquée dans le phénomène des fake news ?
Avant de parler de fake news, il faut parler d’informations. Or la masse d’informations qui circule sur Internet est colossale. Rien que sur les réseaux sociaux on estime que, chaque minute dans le monde, plus de 100 000 messages sont publiés sur Twitter, 500 000 commentaires et 130 000 photos sont envoyés sur Facebook et 400 heures de vidéos postées sur YouTube. De telles quantités d’informations ne peuvent être traitées par l’homme. En cela, l’informatique nous apporte une aide précieuse. Le problème est que parmi toutes ces informations, certaines sont des « fake » c’est-à-dire de la désinformation.

L’informatique peut-elle aider à identifier ces fake ?
La technologie fait des progrès considérables aussi bien dans la création de fake que dans leur identification. Mais le tri reste compliqué à réaliser et n’est jamais parfait, parce que même les humains n’en sont pas capables. Le problème est que pour que la désinformation passe, il faut des informations vraies dans le message. La partie fausse est incorporée de façon subtile dans la désinformation, c’est ce qui induit les machines en erreur mais aussi les individus. Du point de vue de l’informatique, on est sur un problème de classification entre les messages correspondant à une information vérifiée et ceux relevant de la désinformation. La plupart des algorithmes d’apprentissage et de classification se basent sur des modèles limités et, à ce jour, aucun d’entre eux n’est capable de comprendre le sens d’un texte. La vérité est dans la nuance. Mais faire la différence entre une fausse information relevant d’une erreur ou une désinformation intentionnelle n’est, pour l’instant, pas à la portée de l’IA.

Les fake news agissent avant tout grâce à l’émotion qu’elles suscitent.

Pourquoi ?
Que l’intelligence artificielle fasse des progrès est indéniable, mais le mythe selon lequel les ordinateurs pourraient bientôt prendre le contrôle et agir de façon intentionnelle et préméditée relève de la science-fiction. Aucun ordinateur n’a, à l’heure actuelle, conscience de lui-même. D’autre part, toute intelligence artificielle relève d’une programmation humaine. Ce qui veut dire que la machine n’est capable de prévoir que ce qui est dans le cadre défini par son programmeur. Mais pas l’imprévisible. Or, l’une des caractéristiques premières de l’intelligence humaine est son adaptabilité face à l’imprévu et à l’imprévisible. Ce qui, pour le moment, est totalement impossible en informatique pour des tâches courantes.

Et demain ?
Un projet international intitulé « Fake News Challenge » a été lancé et ouvert aux chercheurs du monde entier. Son but est d’affiner les techniques actuelles pour rendre l’intelligence artificielle fiable à 100% face à la désinformation. Le projet est ambitieux mais, pour l’heure, l’intervention humaine reste nécessaire. Les fake news agissent sur des ressorts émotionnels très importants pour les êtres humains mais sont impossible à interpréter pour un ordinateur. La peur, la croyance, les sentiments en général… autant de choses profondément ancrées en l’homme et totalement imperméables à une machine, aussi puissante soit-elle. C’est ce qui fait la limite et la différence principale entre l’intelligence humaine et l’intelligence artificielle. Le jour où les ordinateurs seront capables de tomber amoureux, nous en reparlerons…