Avatar

L'IA, une menace viable pour l'humanité. (Sciences & Paranormal)

par Blake, samedi 02 mars 2024, 01:37 (il y a 56 jours) @ Dédé

Source : Une pandémie puissance 10? L’intelligence artificielle menacerait l’humanité, selon un expert

AGENCE QMI
Jeudi, 29 février 2024 16:36

MISE À JOUR Jeudi, 29 février 2024 16:36

LES PROGRÈS RAPIDES RÉALISÉS DANS LE DOMAINE DE L’INTELLIGENCE ARTIFICIELLE, ET SURTOUT SON MANQUE DE RÉGLEMENTATION, INQUIÈTENT UN EXPERT DANS LE DOMAINE QUI MET EN GARDE CONTRE TOUTE L’INCERTITUDE AUTOUR DE CETTE TECHNOLOGIE.

Le fondateur et directeur scientifique de l’Institut québécois d’intelligence artificielle craint notamment que l’IA puisse créer des armes biologiques, une fois qu’elle pourra agir à travers des robots.

«Imaginez une pandémie à la puissance 10 avec des virus qui ont été créés par l’intelligence artificielle pour être très virulents et contagieux, ça pourrait mettre à terre l’humanité», a illustré Yoshua Bengio en entrevue à LCN, jeudi.

Selon lui, il n’existe pas encore assez de règles qui permettraient de contenir une intelligence artificielle qui pourrait se retourner contre les humains à l’avenir.

«Il y a beaucoup d’incertitude, les chercheurs sont en désaccord sur les scénarios possibles. Étant donné l’ampleur du dégât possible, il faut s’en occuper et s’assurer qu’on ne se rend pas jusque-là», a-t-il soutenu.

Un grizzly difficile à contenir

Pour mieux comprendre ses craintes, il a comparé l’entraînement de l’intelligence artificielle à celui d’un animal que l’on essaye d’éduquer en lui donnant des récompenses.

«Si c’est un animal plus puissant que vous [que vous entraînez] comme un grizzly, vous aimeriez être sûrs que ça va bien se passer», a expliqué M. Bengio.

«Les compagnies essayent de mettre des protections, on peut voir ça comme la cage du grizzly, mais aujourd’hui on ne sait pas construire une cage qui est vraiment sécuritaire», a-t-il ajouté.

Il espère ainsi une meilleure coopération internationale et un financement de la recherche pour prévenir un avenir aussi funeste.
_______________

Je me répète encore, l'IA a des propriétés non-négligeables pour l'avancement humain dans plusieurs paliers existentiels qui permettent une aide particulière. Pour aider l'humain, je n'ai aucun problème avec ça, en autant qu'il y ait des crans de sécurité rattacher avec cette nouvelle science. La raison simple est que c'est une matière créée par l'humain à partir de sa propre intelligence et qu'en définitive, il y a trop de carence cognitive pour rivaliser avec l'IA qui se rendra dans son évolution optimale. Je fais ici un référencement à partir du site Futura d'un de leur article concernant un drone bien armé, muni d'une intelligence articielle pourrait faire en devenant parfaitement autonome :

L'IA d'un drone de combat prend une décision inquiétante

[image]

Vous imaginez un robot avec l'IA, bien armé et programmé pour tuer, sans cran de sécurité afin de l'empêcher de devenir autonome durant l'action d'une offensive quelconque, le carnage que cela ferait en ne reconnaissant plus les gradés qui s'opposeraient à la continuité de l'offensive. Une propre armée qui s'entre-tue. Ça serait lette en calvaire. :boss:

Il y a des limites à observer et pas besoin de créer des Frankenstein qui vont perdre la tête incessamment, comme un vrai humain !

Dédé

Tout à fait d'accord avec ton analyse.


Fil complet:

 Fil RSS du sujet

powered by my little forum