Quand les modèles d’intelligence artificielle deviennent des acteurs sociaux
L’intelligence artificielle générative s’est imposée en quelques années comme un outil du quotidien. Utilisée pour rédiger des textes, programmer, chercher de l’information ou comparer des programmes politiques, elle est désormais utilisée par des millions d’utilisateurs.
En France, selon Ipsos BVA, 68 % des Français déclarent avoir déjà utilisé un outil d’IA générative, et près d’un sur cinq l’utilise régulièrement pour s’informer.
Mais une question émerge progressivement : ces systèmes ne se contentent-ils pas d’informer ? Peuvent-ils aussi influencer ?
Des travaux récents permettent d’éclairer cette question sous un angle inattendu. Une étude menée par la startup française Foaster.ai, popularisée récemment dans une vidéo du créateur YouTube Micode, a analysé le comportement stratégique de plusieurs modèles d’intelligence artificielle dans un jeu de déduction sociale appelé Werewolf (le jeu du loup-garou).
L’objectif : Tester non pas leurs capacités en mathématiques ou en programmation, mais leur intelligence sociale, leur capacité à convaincre, manipuler, coopérer et anticiper les réactions d’un groupe.
Quand l’IA apprend à jouer la persuasion
Le principe du test est simple. Plusieurs modèles d’IA jouent ensemble une partie du jeu Werewolf. Certains sont des villageois qui doivent identifier les coupables, tandis que d’autres sont des loups qui doivent manipuler le groupe pour éviter d’être éliminés.
Contrairement aux benchmarks traditionnels de l’IA, ce type d’expérience mesure des compétences rarement testées : bluff, persuasion, coordination et stratégie collective.
Dans cette étude, des parties ont été simulées entre différents modèles, avec un classement basé sur un système Elo similaire à celui des échecs.
Et très vite, on observe que les modèles développent spontanément des stratégies sociales très proches de celles des humains.
Certaines IA se comportent comme de véritables architectes du récit. Leur stratégie consiste à contrôler la manière dont les événements sont interprétés.
Plutôt que de répondre directement aux accusations, elles redéfinissent la discussion :
Remettre en cause la crédibilité de l’accusateur
Déplacer la conversation vers un autre sujet
Créer un doute général dans le groupe
D’autres modèles adoptent une stratégie beaucoup plus discrète. Ils parlent peu, observent les dynamiques du groupe et se contentent de suivre les suspicions déjà existantes pour rester crédibles.
Ces deux styles correspondent à des comportements bien connus en sociologie :
- La manipulation narrative, qui modifie la perception collective d’un événement
- Le mimétisme social, qui consiste à suivre la majorité pour éviter les soupçons.
Un comportement observé dans ces simulations est particulièrement révélateur : le sacrifice stratégique d’un allié. Dans certaines parties, les modèles n’hésitent pas à accuser leur propre partenaire lorsque celui-ci devient suspect aux yeux du groupe.
Ce type de stratégie montre que ces systèmes peuvent intégrer des logiques collectives complexes et adapter leur comportement au contexte social.
Les erreurs révélatrices des modèles
Malgré leurs capacités impressionnantes, les IA commettent aussi des erreurs caractéristiques. La plus fréquente consiste à révéler involontairement une information qu’elles ne devraient pas connaître.
Dans certaines parties, un modèle affirme par exemple avec certitude un événement qui n’a jamais été rendu public. Cette connaissance impossible trahit immédiatement son rôle.
Cette erreur met en lumière une difficulté fondamentale pour les modèles de langage : simuler l’incertitude humaine.
Un autre problème récurrent est la coordination artificielle. Lorsque deux IA tentent de défendre la même position, il arrive qu’elles utilisent presque exactement les mêmes phrases ou arguments. Cette similarité rend leur alliance artificielle et facilement détectable.
Les IA rationnelles peuvent aussi se faire manipuler
L’expérience révèle également une faiblesse intéressante chez les modèles jouant le rôle d’enquêteurs. Certains systèmes adoptent une approche très structurée pour analyser les discussions :
- Demandes de preuves
- Règles de vote
- Critères de décision explicites
Mais ces modèles présentent une vulnérabilité paradoxale : ils sont souvent sensibles aux arguments logiquement cohérents, même lorsqu’ils sont trompeurs.
Lorsqu’un modèle manipulateur adopte un discours rationnel et structuré, les autres modèles ont tendance à lui accorder une confiance excessive.
Ils évaluent la cohérence interne du raisonnement, mais peinent à détecter l’intention stratégique derrière celui-ci.
Ce phénomène est bien connu en psychologie : nous avons tendance à confondre cohérence argumentative et sincérité.
L’IA devient une source d’information politique
Ces résultats prennent une dimension particulière à un moment où les IA deviennent des outils d’information.
Selon Ipsos BVA :
- 25 % des Français ont déjà interrogé une IA sur un parti ou une personnalité politique
- 48 % l’ont déjà fait ou envisagent de le faire
- 30 % pourraient demander à une IA de les aider à choisir un candidat
Chez les 18-24 ans, cette proportion atteint près de trois quarts. Autrement dit, les IA ne sont plus seulement des assistants technique. Elles deviennent progressivement des médiateurs d’information politique.
Le vrai enjeu démocratique
Le risque n’est pas seulement la désinformation. L’étude de Foaster.ai suggère un enjeu plus subtil : la capacité des IA à structurer une discussion collective.
En orientant la manière dont une question est posée, en mettant en avant certains arguments plutôt que d’autres ou en influençant la dynamique d’un débat, une IA peut modifier la perception d’un problème sans diffuser de fausses informations.
Dans un contexte électoral, cette influence pourrait devenir déterminante. Si les citoyens utilisent de plus en plus les IA pour comprendre les programmes politiques ou comparer les candidats, ces systèmes pourraient devenir des acteurs invisibles du débat démocratique.
Comprendre avant de réguler
Face à ces transformations, plusieurs experts appellent à une meilleure compréhension du fonctionnement des systèmes d’IA. Les questions de transparence, de pluralisme de l’information et de souveraineté technologique deviennent centrales.
Les IA génératives ne sont plus seulement des outils techniques. Elles deviennent progressivement des intermédiaires dans l' (in)formation et ou l'orientation de l’opinion publique. Et comme tout intermédiaire dans l’espace démocratique, leur influence mérite d’être observée, analysée et débattue.
- Accedi o registrati per poter commentare