Si les IA sont utiles voire indispensables dans certains secteurs (santé, RH…), qu’en est-il dans le domaine de l’information et la communication ?
En novembre 2022, une nouvelle intelligence artificielle voit le jour : ChatGPT. Il s’agit d’un robot capable de générer des textes écrits, lancé par l’entreprise OpenAI.
Rapidement, ce service est victime de son succès. Selon Reuters, ChatGPT dépasse les 100 millions d’utilisateurs actifs en janvier 2023, soit deux mois après son lancement, ce qui représente 13 millions de visiteurs uniques par jour.
Mais ce n’est pas la première IA en matière de rédaction.
En 2014, l’agence Associated Press (AP) publie ses premières dépêches entièrement écrites par une intelligence artificielle. En 2016, le Washington Post met au point un robot-journaliste. En un an, il écrit plus de 800 articles. En France aussi, des robots-rédacteurs aident les rédactions.
Les outils de génération de texte comme ChatGPT sont très intéressants. Ils permettent de créer des articles de blog, de textes de site Internet, des posts sur les réseaux sociaux… On peut aussi leur poser des questions.
Avoir un regard critique
Il faut évidemment prendre du recul et d’exercer un regard critique.
Les réponses peuvent être vraies ou fausses. Une IA peut aussi ne pas connaître certains sujets. Tout dépend comment l’IA a été entraînée.
Une IA peut aussi avoir des biais ou un mode de réflexion problématique. Par exemple, en 2016, à peine lancée, une intelligence artificielle de Microsoft tient déjà des propos racistes.
Il peut également y avoir de l’agnotologie (production stratégique d’ignorance). Ainsi, une IA peut passer sous silence des faits historiques ou « zapper » des personnalités pourtant incontournables.
De nombreux scénarii d’attaques
Dans une guerre de l’information, on peut facilement imaginer une multitude de scénarii utilisant les IA.
Les IA peuvent être utilisées à des fins offensives. Par exemple, certaines IA génèrent des photos de personnes inexistantes. Ces visuels servent ensuite à créer de faux profils sur les réseaux sociaux.
Derrière le profil de Jonathan ou Julie se cache un concurrent qui cherche à en savoir plus sur vous, vos produits, vos projets, votre entreprise…
Avec les deep fakes, il est possible de créer de faux discours, jamais prononcés, avec l’apparence d’un homme ou d’une femme politique, ou d’un chef d’entreprise.
Les IA peuvent aussi être utilisées comme attaquants. Dans le cas de cyberharcèlement, elles prennent la forme d’attaques de bots.
On peut aussi tromper volontairement une IA en jouant sur sa capacité à apprendre ou en l’induisant en erreur. Ainsi, l’IA peut estimer que tous les feux rouges sont des feux verts.
Bref, il existe une multitude de scénarii. Il convient donc d’être particulièrement en alerte sur ces sujets.