Avatar

Demande d'un moratoire sur le développement de l’IA (Sciences & Paranormal)

par Blake, lundi 03 avril 2023, 19:47 (il y a 619 jours) @ Dédé

Source : Des sommités de la technologie demandent un moratoire sur le développement de l’IA

[image]


Dominique Degré
Publié le 29 mars 2023

Des centaines de grands noms du monde des technologies demandent dans une lettre ouverte de suspendre temporairement le développement de certains systèmes avancés d’intelligence artificielle (IA).

Les systèmes d’IA pouvant rivaliser avec l’intelligence humaine peuvent poser un grand risque pour l’humanité, plaident les quelque 1000 signataires de la lettre publiée par le Future of Life Institute, un organisme qui cherche à limiter les risques associés au développement des nouvelles technologies.

On compte parmi les signataires des spécialistes chevronnés comme le Montréalais Yoshua Bengio, ou encore des chefs d’entreprise comme Elon Musk et Steve Wozniak, cofondateur d’Apple.

Ils ne demandent pas à suspendre l’ensemble de la recherche sur l’intelligence artificielle, mais plutôt ce qui touche au développement des systèmes plus puissants que GPT-4 pendant au moins six mois. En très peu de temps, ChatGPT, développé par la firme OpenAI, a rapidement gagné en popularité grâce à ses capacités étonnantes… et ses ratés. Des recettes(Nouvelle fenêtre) aux travaux universitaires, le grand public a pu constater que ChatGPT est capable de comprendre des tâches qu’on croyait jusqu’ici être réservées au cerveau humain.

« Dans les derniers mois, les laboratoires d’intelligence artificielle se sont engagés dans une course effrénée pour développer et déployer des systèmes numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable. »

— Une citation de Extrait de la lettre ouverte

Selon le registre de la transparence de l’Union européenne, le Future of Life Institute est principalement financé par la Musk Foundation, mais également par le groupe Founders Pledge et par la Silicon Valley Community Foundation. Le Future of Life Institute est lié à un organisme adepte de l’approche à très long terme (longtermism en anglais).

Le moratoire temporaire exigé par les signataires devrait être utilisé pour élaborer des protocoles de sécurité pour la conception et le développement de l’intelligence artificielle, comme la création d’entités pour réguler l’IA, des systèmes pour distinguer clairement le vrai du synthétique et des mécanismes pour déterminer à qui revient la responsabilité dans des cas où l’IA causerait des méfaits ou du tort.

« Ça va prendre des années »
À l'occasion d'une conférence de presse mercredi, le scientifique Yoshua Bengio, chercheur et fondateur de l'Institut québécois en intelligence artificielle (IA) Mila, a affirmé qu'une législation à l'échelle internationale est nécessaire : Ça va prendre des années, mais vu la vitesse à laquelle la technologie évolue, il faut commencer le plus tôt possible.

« Il y a des risques, il y a des dangers. C’est vraiment important de ne pas laisser ça à l’autorégulation, ce n’est pas suffisant. [...] Il faut que les compagnies puissent jouer sur le même terrain de jeu et cela demande que les gouvernements mettent des balises, mettent en place des mécanismes de surveillance, etc. »

— Une citation de Yoshua Bengio, spécialiste de l'intelligence artificielle
Selon lui, le problème de l'IA est comparable à la lutte contre les changements climatiques : Ça peut avoir l’air décourageant des fois, mais on a un devoir de faire tout ce qu’on peut pour essayer de réduire les risques et faire bouger la société dans le bon sens.

Dave Anctil, chercheur en intelligence artificielle et professeur de philosophie au Collège Jean-de-Brébeuf, croit que la réglementation de ces outils ne relève pas de l'utopie, mais il faut commencer quelque part. Selon lui, une trêve est nécessaire, car la société n'est pas prête à utiliser ces outils [...] [alors] qu'il y a une absence de réglementation et de législation.

« Il faut qu’il y ait une prise de conscience collective [...] qu’on est à un moment vraiment révolutionnaire dans la technologie de l’IA, parce qu’on a développé des outils très puissants et ça demande une réponse proportionnelle à ces capacités. »

— Une citation de Dave Anctil, chercheur en intelligence artificielle

De tels mécanismes sont d’autant plus importants que c'est l'une des industries les plus concentrées dans le monde, soulignait la semaine dernière Kate Crawford, spécialiste des implications sociales et politiques de l'intelligence artificielle, à l'occasion du lancement d’un livre intitulé Angles morts de la gouvernance de l'intelligence artificielle, publié conjointement par l'UNESCO et le Mila.

Selon Mme Crawford, six entreprises se partagent la vaste majorité de ce secteur.

À cela s’ajoutent les nombreuses questions éthiques soulevées par les logiciels d'hypertrucage (deep fakes), les systèmes qui génèrent des œuvres d’art en synthétisant des informations à partir d’œuvres existantes, les biais implicites (notamment raciaux) que peuvent assimiler les IA et les systèmes militaires pouvant localiser des cibles de manière autonome.
___________________________

Il y a évidemment un danger qu'il ne faut surtout pas écarter, c'est bien le dépassement de l'IA versus l'intelligence humaine. Le premier danger est sans contredit l'émotion puisqu'une machine, n'a aucune émotion pour l'instant. De plus, il ne faut pas non plus écarter la défaillance car cela demeure une invention humain et vu qu'il n'y a rien de parfait, il va falloir contrer ces défaillances surtout si ces robots intelligents ont une arme en portée de main !

Personnellement, je ne suis pas contre l'IA mais pour une seule raison scientifique, soit pour l'exploration spatiale. Si un jour l'humain trouve le moyen de pouvoir voyager dans l'espace avec la vitesse hyperespace, un robot pourrait facilement ne pas être défaillant avec une telle vitesse mais qui pour l'humain, pourrait être un danger imminent pour sa vie. Sans compter les autres dangers qui pourraient être encourus pour de telle exploration lointaine, comme par exemple, des représailles extraterrestres qui ne veulent pas se faire voir. :D

L'IA pourrait aussi servir pour terraformer une planète en créant un environnement potable pour l'humain dans l'éventualité où il faudra nécessairement avoir des colons sidéraux. Le surpeuplement de notre planète par l'humain, ne devra pas être contrôlé par des psychopathes avec des guerres et des fratricides incessants. Tôt ou tard, il faudra coloniser une autre planète que de mourir étouffer par le surpeuplement.

L'IA devra être un outil pour l'humain et non contre l'humain !

Dédé


L'humain étant ce qu'il est, s'il y a moratoire, ça va faire comme la Corée du Nord avec le nucléaire et ils travailleront sur l'IA en cachette.

___________________

Malheureusement, je suis bien d'accord avec cette assertion. :gnagna:

On va tous mouru encore une autre fois ! :mdr:

:mdr:


Fil complet:

 Fil RSS du sujet

powered by my little forum