L’intelligence artificielle progresse à grande vitesse, mais un défi majeur persiste : comprendre le « non ». Les grands modèles de langage continuent de produire des réponses incohérentes lorsqu’une requête contient une forme de négation. Les recherches en linguistique computationnelle montrent que les IA saisissent difficilement la différence entre une phrase positive et une phrase négative, comme si elles ignoraient ce renversement de sens. De nombreuses études, dont celles de la professeure Allyson Ettinger ou encore un rapport international publié en 2024, confirment que cette limite affecte autant les outils textuels que les générateurs d’images, incapables par exemple de produire une photo d’un personnage « sans lunettes » ou d’une pièce « sans éléphant ».
Cette faiblesse s’explique par plusieurs facteurs : le mode d’entraînement des IA, basé sur des exemples existants où les descriptions négatives sont rares, mais aussi le fonctionnement même de ces modèles, qui convertissent les mots en valeurs numériques rapprochées selon leurs similarités. Dans ce système, la négation — qui inverse entièrement le sens d’une phrase — ne se traduit pas mathématiquement. Tant que les machines n’auront pas acquis une forme de raisonnement logique, elles continueront à ignorer les « ne pas », « sans » ou « jamais ». Une limite qui rappelle que, malgré leurs prouesses, les IA restent encore loin de l’intelligence humaine capable, elle, de comprendre et d’interpréter le « non ».
Source rfi




