L’IA gagne en puissance, mais ses hallucinations empirent


Classé dans : Monde social et de l’éducation | 0

Une nouvelle vague de systèmes IA, dits de « raisonnement automatisé », produisent de plus en plus souvent des informations erronées. Même les entreprises d’IA ne savent pas pourquoi, rapporte un texte du The New York Times publié par La Presse. Deux ans après l’arrivée de ChatGPT, les entreprises technologiques, les employés de bureau et les particuliers utilisent les robots d’IA pour des tâches de plus en plus variées. Mais il n’existe toujours aucune garantie de l’exactitude des informations obtenues. Les technologies les plus récentes et puissantes, appelées « systèmes de raisonnement » – d’OpenAI, Google et DeepSeek, entre autres – génèrent plus d’erreurs. Elles sont bien meilleures en mathématiques, mais leur maîtrise des faits est moindre. On ne sait pas exactement pourquoi. Ces robots d’IA sont basés sur des systèmes mathématiques qui apprennent en analysant une pléthore de données numériques. Ils n’ont pas la capacité de distinguer le vrai du faux. Parfois, ils inventent : un phénomène IA appelé « hallucinations ». Lors d’un test, le taux d’hallucinations des nouveaux systèmes d’IA atteignait 79 %.

Autres textes liés à l’intelligence artificielle et au Web :
Plus d’IA, moins de traducteurs ?
Traduction et IA : « Notre métier ne disparaîtra pas demain matin ».
Avec le designer historique d’Appel : OpenAI s’attaque aux appareils connectés.
Adieu, Skype, et merci pour tous les appels.