OpenAI vient de franchir un cap majeur avec le lancement de ChatGPT Agent, une intelligence artificielle capable de prendre des décisions et d’agir directement sur un ordinateur, sans supervision humaine constante. Ce nouveau modèle, doté d’une autonomie fonctionnelle inédite, est le premier du genre à recevoir de la part de ses propres concepteurs un classement à « haut potentiel de risque », notamment en lien avec les sciences du vivant. Avant sa mise en ligne, l’agent a été soumis à des tests intensifs menés par des « red teams », des experts chargés de simuler des attaques, ainsi que par des biologistes et analystes en cybersécurité. Objectif : identifier les failles critiques, prévenir les dérives, et garantir un usage éthique et sécurisé. Cette approche rigoureuse s’est traduite par l’activation de protocoles techniques stricts, comme la désactivation automatique de la mémoire, la limitation d’accès au réseau, ou encore une surveillance en temps réel des interactions via une architecture à double niveau.
Avec ChatGPT Agent, l’IA passe d’un rôle d’assistant passif à celui d’acteur logiciel semi-autonome, capable d’interagir avec des systèmes dynamiques, d’exécuter des tâches complexes et de gérer des données sensibles. Cette avancée technologique oblige l’industrie à revoir ses normes de sécurité et à intégrer des mécanismes de contrôle proactifs. OpenAI, en rendant publics les risques potentiels et les garde-fous instaurés, adopte une démarche de transparence qui pourrait faire école. L’autonomie croissante de ces agents ouvre cependant une nouvelle zone grise en matière de responsabilité : qui est comptable des actions entreprises par une IA capable d’initiatives ? Cette interrogation majeure annonce une nécessaire évolution des cadres réglementaires, pour faire face à des intelligences artificielles de plus en plus puissantes, mais aussi potentiellement plus vulnérables aux usages détournés.
science et vie




