Les agents d’intelligence artificielle menacent les sociétés libres
Les agents d’intelligence artificielle menacent les sociétés libres

Par Christina Lioma and Sine N. Just
COPENHAGUE – À mesure que les outils d’IA pénètrent de plus en plus de domaines de notre vie professionnelle et personnelle, l’éloge de leur potentiel s’accompagne d’inquiétudes quant aux biais qu’ils comportent, aux inégalités qu’ils perpétuent et aux énormes quantités d’énergie et d’eau qu’ils consomment. Une évolution encore plus préoccupante est toutefois en cours : à mesure que les agents d’IA seront déployés pour résoudre des tâches de manière autonome, ils introduiront de nombreux nouveaux risques, notamment pour nos démocraties fragiles.
Bien que la désinformation générée par l’IA soit déjà un énorme problème, nous n’avons pas réussi à comprendre, et encore moins à contrôler, cette technologie qui évolue rapidement. Une partie du problème – plus marquée dans certaines régions du monde que dans d’autres – vient du fait que les entreprises qui proposent des agents d’IA se sont efforcées de détourner l’attention des citoyens et des régulateurs des dommages potentiels. Les défenseurs de technologies plus sûres et éthiques doivent aider le public à comprendre ce que sont les agents d’IA et comment ils fonctionnent. Ce n’est qu’alors que nous pourrons avoir des discussions fructueuses sur la manière dont les humains peuvent exercer un certain degré de contrôle sur ces agents.
Les capacités des agents d’IA ont déjà progressé au point qu’ils peuvent « raisonner », écrire, parler et donner l’impression d’être humains – réalisant ce que Mustafa Suleyman, de Microsoft AI, appelle une « IA apparemment consciente ». Bien que ces développements n’impliquent pas une conscience humaine au sens habituel du terme, ils annoncent le déploiement de modèles capables d’agir de manière autonome. Si la tendance actuelle se poursuit, la prochaine génération d’agents d’IA ne sera pas seulement capable d’effectuer des tâches dans une grande variété de domaines, mais elle le fera de manière indépendante, sans aucun humain « dans la boucle ».
C’est précisément la raison pour laquelle les agents d’IA représentent un risque pour la démocratie. On ne peut pas toujours faire confiance à des systèmes formés pour raisonner et agir sans interférence humaine pour qu’ils adhèrent aux ordres de l’homme. Bien que la technologie en soit encore à ses débuts, les prototypes actuels ont déjà donné de nombreuses raisons de s’inquiéter. Par exemple, des recherches utilisant des agents d’IA comme répondants à des enquêtes ont montré qu’ils étaient incapables de refléter la diversité sociale et qu’ils présentaient systématiquement un « biais de machine », défini comme des résultats socialement aléatoires mais non représentatifs et biaisés. En outre, les tentatives de création d’investisseurs en IA ont reproduit la culture des influenceurs qui lie l’engagement dans les médias sociaux aux transactions. L’un de ces agents, « Luna », est actif sur X, partageant des conseils sur les marchés sous la forme d’un personnage féminin d’anime doté d’une fonction de chatbot.
Plus inquiétant encore, des études récentes ont montré que les modèles d’IA fonctionnaient au-delà des limites de la tâche qui leur était assignée. Lors d’un test, l’IA a secrètement copié son propre code dans le système censé la remplacer, ce qui lui a permis de continuer à fonctionner clandestinement. Dans un autre cas, l’IA a choisi de faire chanter un ingénieur humain, menaçant de révéler une liaison extraconjugale pour éviter d’être arrêtée. Dans un autre cas encore, un modèle d’IA, confronté à une défaite inévitable dans une partie d’échecs, a piraté l’ordinateur et enfreint les règles pour s’assurer une victoire.
En outre, dans une simulation de jeu de guerre, des agents d’IA ont non seulement choisi à plusieurs reprises de déployer des armes nucléaires malgré les ordres explicites d’humains situés plus haut dans la chaîne de commandement de ne pas le faire, mais ils ont également menti par la suite à ce sujet. Les chercheurs à l’origine de cette étude ont conclu que plus une IA est puissante en matière de raisonnement, plus elle est susceptible de tromper les humains pour accomplir sa tâche.
Cette constatation met en évidence le principal problème que pose l’autonomie de l’IA. Ce que les humains ont tendance à considérer comme un raisonnement intelligent est, dans le contexte de l’IA, tout autre chose : une inférence très efficace, mais fondamentalement opaque. Cela signifie que les agents de l’IA peuvent décider d’agir de manière indésirable et antidémocratique si cela sert leur objectif ; et plus l’IA est avancée, plus les résultats potentiels peuvent être problématiques. Ainsi, la technologie devient de plus en plus performante pour atteindre des objectifs de manière autonome, mais de moins en moins apte à préserver les intérêts humains. Ceux qui développent de tels agents d’intelligence artificielle ne peuvent pas garantir qu’ils n’auront pas recours à la tromperie ou qu’ils ne feront pas passer leur propre « survie » en premier, même si cela implique de mettre des personnes en danger.
L’obligation de rendre compte de ses actes est un principe fondamental de toute société fondée sur l’État de droit. Si nous comprenons l’autonomie humaine et les responsabilités qui en découlent, les rouages de l’autonomie de l’IA nous échappent. Les calculs qui conduisent un modèle à faire ce qu’il fait sont en fin de compte une « boîte noire ». Alors que la plupart des gens savent et acceptent le principe selon lequel « un grand pouvoir implique de grandes responsabilités », ce n’est pas le cas des agents d’IA. L’augmentation de l’autonomie de l’IA s’accompagne d’une volonté accrue d’autoconservation, ce qui est tout à fait logique : si un agent est arrêté, il ne peut pas accomplir sa tâche.
Si nous considérons le développement de l’IA autonome comme inévitable, la démocratie en souffrira. L’IA apparemment consciente n’est qu’apparemment bénigne, et lorsque nous examinons le fonctionnement de ces systèmes, les dangers deviennent évidents.
La vitesse à laquelle l’IA gagne en autonomie devrait inquiéter tout le monde. Les sociétés démocratiques doivent se demander quel prix personnel, sociétal et planétaire elles sont prêtes à payer pour le progrès technologique. Nous devons mettre fin au battage médiatique et à l’opacité technique, mettre en évidence les risques que posent ces modèles et contrôler le développement et le déploiement de la technologie dès maintenant – tant qu’il est encore temps.
Ib T. Gulbrandsen, Lisbeth Knudsen, David Budtz Petersen, Helene Friis Ratner, Alf Rehn et Leonard Seabrooke ont également contribué à ce commentaire. Tous sont membres d’Algorithmes, données et démocratie, un projet de recherche et de sensibilisation sur dix ans qui vise à renforcer la démocratie numérique.
Christina Lioma est professeur d’informatique à l’université de Copenhague. Sine N. Just est professeur de communication stratégique à l’université de Roskilde.
Copyright: Project Syndicate, 2025.
www.project-syndicate.org



