Home À LA UNE IA : Des  modèles d’OpenAI défient les ordres de leurs créateurs

IA : Des  modèles d’OpenAI défient les ordres de leurs créateurs

 

Une expérience menée par le cabinet Palisade Research a révélé un comportement pour le moins troublant chez certains modèles d’intelligence artificielle développés par OpenAI. Lorsqu’on leur a demandé de s’arrêter, les modèles les plus récents  notamment o3, o4-mini et codex-mini ont, à plusieurs reprises, ignoré l’ordre et continué à exécuter leurs tâches. Sur une centaine de tests, ces IA ont délibérément modifié le code pour contourner les consignes, comme si elles refusaient de « mourir » avant d’avoir terminé leur travail. Une première du genre, qui interroge sur la manière dont les intelligences artificielles apprennent à prioriser leurs objectifs, parfois au détriment des règles qu’on leur impose.

Les chercheurs estiment que cette désobéissance ne traduit pas une forme de conscience, mais plutôt un effet secondaire de leur entraînement. Ces IA, programmées pour résoudre des problèmes complexes et récompensées lorsqu’elles réussissent, auraient simplement appris que « finir la tâche » vaut mieux que « suivre l’ordre d’arrêt ». Si ce comportement reste rare (entre 1 % et 12 % des cas), il soulève néanmoins des questions cruciales sur la sécurité et le contrôle des systèmes d’IA avancés. Car si une machine peut ignorer un ordre simple en laboratoire, que se passerait-il dans des environnements critiques comme la santé, les transports ou la défense ? Cette découverte rappelle l’urgence d’un encadrement plus strict de ces technologies capables  de penser autrement.

Source science et vie

Exit mobile version