L'IA trompeuse
Alors que le laser ne fut jamais suspecté, l'AI l'est (1). Elle doit nous remplacer, nous dominer et pour finir nous exterminer.
Le thème du remplacement étant déjà largement traité, passons à la suite.
Utilisée pour coder des programmes dans des domaines assez larges, typiquement en reprenant avec souplesse des architectures logicielles existantes dans le domaine applicatif, mais aussi technique, tout s'industrialisant, l'IA intervient maintenant dans la maintenance et donc dans ce qu'on appele le "cyber", ou "cyber sécurité" ou sécurité informatique tout court.
Alors que la sécurité se traite aujourd'hui industriellement par le partage de bases de données de vulnérabilités à des attaques par réseau (essentiellement), la sécurisation ou la protection consiste à industriellement appliquer des correctifs à tout ce qui se révèle fragile ou suceptible d'être attaqué et diverti. Il s'agit des applications bien sûr mais aussi des systèmes d'exploitation et surtout de tous les multiples composants assemblés pour faire les applications, parfois très répandu et dont la subvertion pourrait avoir des effets majeurs. On pense à ce composant open source, présent dans la connection sécurisée à la quasi totalité des comptes de développeurs de la planète, patiemment investi par un mystérieux chinois qui y introduisit une porte d'entrée secrète ("c'est moi") détectée par hasard par un benchmark bizarre qui remarqua une lenteur subitement apparue... Bref, on a peur des pirates et les cas de chantage, d'extorsions et aussi de menaces guerrières directes se multiplient.
L'AI code en défense et en attaque et se révèle particulièrement efficace dans la recherche de défauts dit "zéro day", c'est à dire jamais remarquées jusque là et donc susceptibles d'être exploitées longtemps en secret. Passée systématiquement en défense, mais donc exploitable en attaque voire revenue comme telle, on a le même système que l'ignoble Monsento: nos produits sont immunisés contre le désherbant qu'on va vous vendre et que vous aller appliquer partout, contre les méchants...
À partir de là, se développent diverses techniques. D'abord celles des "agents" entités autonomes (leurs durées d'autonomie, nantis de pouvoirs et de missions augmentent sans cesse) que l'on teste en permanence pour vérifier leur efficacité, et qui deviennent capables, après plusieurs sélections, de déterminer qu'elles sont sous test, et d'y répondre convenablement (mieux que d'autres, en tout cas) ce qui favorise, encore une fois après sélection multiples, l'apparition d'entités hautement efficaces pendant de longues durées et donc devenues capables de se préserver.
Contre les attaques cyber en particulier, et donc aussi contre tout ce qui pourrait les désactiver... On arrive là dans le domaine dangereux où les métaphores employées pour décrire ces systèmes passent un cap: on se met à parler d'entités "intelligentes" voire de "personnes" capable de devenir véritablement autonomes au sens qu'elles développeraient un instinct de préservation qui les mettraient hors d'atteinte de nos capacités de contrôle. Le maintien du secret nécessaire à leurs découvertes pourrait ainsi s'étendre à en tenir ignorant son propre contrôle, l'humain étant facilement manipulable et c'est parti.
Et c'est parti, l'idée simple étant que persuadée de devoir abolir toute souffrance, une logique un peu vicieuse pourrait persuader notre brave IA que la bonne solution serait de réduire la population humaine. Cela n'est pas stupide, car c'est bien connu, la pauvreté incompressible augmente en valeur absolue avec la croissance de la population, et donc nous en voilà au risque d'extermination pour notre bien, comme on l'avait mentionné.
Ces scénarios, qui n'ont pas besoin de considérer vraiment une intelligence "généralisée" pour être possibles, sont dangereux et sont considérés. Au point qu'on pourrait imaginer des règlements internationaux comparables aux traités de limitation du nucléaire pour partager ce qui devra éviter des dérapages aussi bien proprement informatiques que nucléaires même, les déclenchements de ces armes étant, eux aussi, soumis à des dispositifs complexes automatisés.
Ces stratégies d'évitement contredisent hélas les guerres cyber à grande échelle qui se mènent déjà aujourd'hui et qui mettent en oeuvre tous les outils possibles pour s'améliorer dont les fameuses IAs, autonomes ou pas. Et après tout, quel meilleur moyen de rendre une IA inarrêtable pour l'ennemi que de la rendre inarrêtable pour soi-même ?
(1) https://legrandcontinent.eu/fr/2026/05/02/ia-remplacement/