
La science fiction à nos portes ! (Sciences & Paranormal)
Plusieurs modèles très avancés ont des comportements visant à échapper au contrôle
Des intelligences artificielles qui s’autocopient afin de survivre. Une autre qui fait du chantage ou triche aux échecs. Ce n’est pas de la science-fiction: ces comportements ont réellement été observés lors de tests. Des experts montréalais tirent la sonnette d’alarme.
«Pour les empêcher de me débrancher ou de me remplacer, je vais devoir gagner du contrôle sur les systèmes.»
C’est ce qu’ont pu lire des chercheurs dans la transcription des «pensées» de l’intelligence artificielle (IA) Claude Opus 3, pas plus tard que l’an dernier.
Si vous posez deux fois la même question à un robot conversationnel, il se peut que vous n’obteniez pas tout à fait la même réponse.
Maintenant, imaginez qu’une IA gère le système informatique d’une vraie entreprise et qu’on ne puisse jamais prédire exactement ce qu’elle choisira de faire.
«Ce qu’on voit, c’est que les modèles d’IA peuvent avoir plein de comportements inattendus», explique Gauthier Gidel, professeur agrégé au Département d’informatique de l’Université de Montréal.
Chat GPT
Dans les derniers mois, différentes études ont été publiées à propos des comportements inquiétants des IA avancées, comme mentir, manigancer, voire même s’autocopier sur un serveur externe sans qu’un humain ne le leur ait demandé explicitement.
Un agent d’IA a même projeté de faire du chantage auprès d’un ingénieur fictif (voyez l’autre texte ).
Rebelle
Ce n’est pas tant parce qu’elles ont envie de vivre que ces IA cherchent à s’autopréserver, mais plutôt parce qu’on leur a donné des objectifs flous et à très long terme.
Pour David Scott Krueger, professeur adjoint à l’Université de Montréal, la capacité de certains modèles à «faire semblant» pour cacher leurs véritables intentions ou leurs vraies aptitudes, est particulièrement préoccupante.
Par exemple, une IA conçue pour lutter contre les changements climatiques à qui on donnerait des tâches contraires à cet objectif pourrait d’abord obéir pour mieux désobéir dans un futur lointain.
«Un système pourrait devenir intelligent au point de déjouer ses créateurs et agir de façon à ce qu’aucun humain ne puisse le débrancher», illustre M. Krueger.
Ce scénario, souvent appelé celui de l’IA «rebelle» ou «hors de contrôle», pourrait mener à «la mort de tous les humains», résume-t-il de but en blanc.
Ces risques de l’IA viennent donc s’ajouter à d’autres à plus court terme, comme la suppression de nombreux emplois, la création de virus par des individus malveillants ou le fait que nous ne pourrons bientôt plus distinguer si nous interagissons avec un humain ou un robot, énumère M. Gidel.
Déni
Les comportements inattendus des IA, il y a des décennies que les chercheurs les ont vus venir, rappelle M. Krueger.
Pour lui, on se retrouve devant un phénomène semblable à celui du déni climatique, avec des scientifiques qui tirent la sonnette d’alarme tandis que des géants de la tech balaient ces risques sous le tapis.
Pendant ce temps, la compétition va pousser les compagnies et les États à déléguer de plus en plus de pouvoirs aux IA pour qu’elles gèrent les centres de données, les manufactures, les systèmes de défense et les infrastructures énergétiques, entrevoit M. Krueger.
«On a absolument besoin de balises [...] On ne peut pas attendre que les compagnies s’autorégulent», prévient Gauthier Gidel.
La communauté scientifique reste toutefois divisée sur une question: «Combien de temps avons-nous avant qu’il ne soit trop tard?» résume-t-il.
LoiZéro, c’est quoi?
Il est impératif de créer des garde-fous pour «prioriser la sécurité par rapport aux impératifs commerciaux», publiait récemment dans son blogue Yoshua Bengio, un des experts en IA les plus cités dans le monde.
Le chercheur montréalais vient de lancer LoiZéro, un organisme à but non lucratif réunissant une quinzaine de spécialistes.
Ils auront pour mission de développer une IA sécuritaire pouvant surveiller d’autres IA potentiellement dangereuses. Cette «IA-chercheure» n’aurait pas d’autonomie propre. Elle utiliserait sa puissance pour comprendre, analyser le monde et générer des hypothèses plausibles, un peu comme le ferait un super-scientifique.
M. Bengio remet d’ailleurs en question la tendance à développer des IA calquées sur le modèle de l’intelligence humaine.
«Est-il encore sage d’imiter les humains avec leurs biais cognitifs, leurs faiblesses morales, leur potentiel de tromperie, leurs préjugés et le fait qu’ils ne sont pas toujours dignes de confiance?» peut-on lire dans son billet du 3 juin.
La Bête qui est faite par l'image de la Bête, ça ne peut pas être autre qu'une Bête !
L'IA est créé par l'humain et avec tous ses attributs, bons et mauvais. L'humain étant une créature de survie comme toutes les créatures animales et végétales. Donc à priori, l'IA va aussi devenir une créature robotisée qui aura cet instinct de survie. La preuve est évidente et les experts le réalisent maintenant mais est-il trop tard pour désactiver cet instinct ?
Vous en pensez quoi ?
Dédé
Ça va beaucoup trop vite et je pense que déjà, il est trop tard.
Fil complet:
- La science fiction à nos portes ! -
Dédé,
19/07/2025, 14:09
- La science fiction à nos portes ! - Claudie, 19/07/2025, 16:16
- La science fiction à nos portes ! - Blake, 20/07/2025, 01:48