ChatGPT m'a encore menti : Pourquoi et comment ChatGPT invente des fausses informations ?
Hier, ChatGPT m'a encore menti...
Voyons pourquoi et comment il invente des fausses informations ?
Vous avez probablement entendu parler de l'avocat qui a utilisé ChatGPT pour "compléter" ses recherches. Le chatbot a totalement inventé six décisions de justice qui ont ensuite été gardées dans le plaidoyer pour l'indemnisation pour des blessures liées à un voyage en avion, car l'avocat n'a pas vérifié s'ils existaient réellement.
Résultat : Une amende de 5 000 dollars pour l'avocat et un procès perdu.
Quand les outils d'IA tels que ChatGPT sont-ils sujets à des "hallucinations" ?
Un article, paru dans le Guardian la semaine dernière sur le sujet, mentionne un autre exemple où ChatGPT a faussement accusé un professeur de droit américain de harcèlement sexuel et a cité un rapport inexistant du Washington Post dans le processus. Une vidéo promotionnelle de Bard, le rival de ChatGPT de Google, a donné une réponse inexacte à une question sur le télescope spatial James Webb.
Les développeurs d'OpenAI semblent avoir réussi à empêcher le bot de fabriquer de fausses références scientifiques et d'inventer des articles de journaux auxquels il se référait encore il y a 4 mois, mais ChatGPT continue d'inventer des faits.
Hier, j'ai demandé à ChatGPT de résumer pour moi deux articles sur un sujet de niche qui n'est pas très bien couvert sur le web. Le résultat était terrible, presque tout était faux : dates non concordantes et faits inventés.
Alors, pourquoi cela se produit-il encore et quand exactement ne pouvons-nous pas faire confiance à ChatGPT ?
La première raison est très simple : les bots IA comme ChatGPT génèrent des phrases sémantiquement correctes et semblent savoir ce qu'ils disent. Mais ce n'est pas le cas, ils assemblent les mots par corrélation statistique. Cette corrélation génère souvent un texte qui semble avoir un sens. Seulement, l'IA ne le comprend pas et se contente d'assembler les mots qui sont les plus susceptibles d'avoir un sens ensemble.
Cette méthode fonctionne très bien lorsque des milliers de sources parlent d'un sujet, voire se citent mutuellement, et que la corrélation est forte. La pertinence statistique est forte.
La pertinence statistique compte : moins il y a de données, mois la réponse de ChatGPT est fiable
Cependant, lorsque vous travaillez sur des sujets de niche qui n'ont que quelques sources, cette corrélation statistique pour les "faits réels" est faible et est souvent plus faible que les corrélations aléatoires qui n'ont rien à voir avec le sujet. Comme ChatGPT propose systématiquement quelque chose, cela peut être complètement faux et simplement inventé sur la base de ces corrélations aléatoires.
Pas assez de temps de calcul pour une réponse fiable ?
En outre, les bots IA qui utilisent les LLM ne disposent parfois pas d'un temps de calcul suffisant pour parcourir l'ensemble de leur base de données. Ils peuvent s'arrêter au bout d'un certain temps et vous donner leur meilleure estimation des probabilités, ce qui peut également conduire à des résultats erronés, car la probabilité peut être fausse.
Ainsi, lorsque vous effectuez des recherches sur des sujets de niche, ChatGPT peut se contenter d'inventer des faits générateurs de nouvelles en raison de l'absence de pertinence statistique des faits réels.