Avatar

Des pères fondateurs de l’IA redoutent leur création (Sciences & Paranormal)

par Dédé, jeudi 26 septembre 2024, 14:26 (il y a 56 jours)

Source : Des pères fondateurs de l’intelligence artificielle redoutent que leur création échappe à tout contrôle

[image]

[image] par Edward Back

Journaliste hi-tech
le 24 septembre 2024

Un groupe de spécialistes, dont deux des pères fondateurs de l’intelligence artificielle, se sont réunis pour échanger sur les « risques catastrophiques » de l’IA. Pour éviter un scénario où elle échappe au contrôle humain, ils proposent un cadre réglementaire, avec les modèles inscrits sur un registre.

Les risques inhérents à l'intelligence artificielle continuent à diviser les spécialistes du domaine. Tandis que certains n'y voient qu'un outil relativement inoffensif, d'autres s'inquiètent qu'il pourrait échapper au contrôle des humains. C'est le cas notamment de Geoffrey Hinton et Yoshua Bengio, considérés comme deux des pères fondateurs de l'IA, ayant reçu le prix Turing en 2018 pour leurs travaux sur l'apprentissage profond, avec le français Yann LeCun.

Les deux hommes étaient récemment à la troisième rencontre Idais (Dialogues internationaux sur la sécurité de l'IA) qui s'est tenue à Venise et qui a réuni différents spécialistes du secteur. Le groupe a publié un communiqué soulignant les risques liés à l’arrivée imminente - ou au plus tard, d'ici quelques décennies - d'une IA capable de dépasser l'intelligence humaine.

Un cadre réglementaire en trois points

Également signé par des noms comme Zhang Ya-Qin, ancien président du géant chinois Baidu, ou encore Stuart Russell, le communiqué met en avant trois propositions pour éviter des scénarios catastrophiques. Tout d'abord, la communauté internationale devrait mettre en place des accords et institutions pour permettre d'inscrire les modèles d'IA sur un registre et de communiquer tout incident. Ensuite, les développeurs devraient être tenus de démontrer la sûreté de leurs modèles si leurs capacités dépassent certains seuils. Enfin, il faudrait une recherche mondiale indépendante sur la sécurité de l'IA qui peut vérifier la validité des affirmations en matière de sécurité formulées par les développeurs.

Cependant, le communiqué ne donne pas de pistes sur ce qui pourrait constituer un risque, ni quels seuils devraient être mis en place. Ce n'est pas la première fois que Geoffrey Hinton s'exprime sur ce sujet. Il avait notamment démissionné de chez Google en 2023 pour être libre de partager ses inquiétudes sur le développement de l'intelligence artificielle.
___________________

Ben non, ben non, le Terminator n'est qu'un film de science-fiction ! :D

Pourtant, nous sommes à l'entrée de cette porte s'il y a ces créateurs qui s'en inquiètent. Par contre ce qui est cité dans cet article concernant la possibilité que l'IA dépasse largement l'intelligence de l'humain, est une fausse réalité puisque maintenant IA le dépasse largement. Il va falloir suivre cette nouvelle intelligence si l'humain ne veut pas finir en Cyborg ! :D

Ça semble insignifiant actuellement l'IA mais attention, la tare intelligible de l'humain peut se retrouver dans cette intelligence artificielle, surtout pour les armes de combat.

Tout cas, je ne vivrai pas assez vieux pour voir le déraillement de l'IA.

Dédé

Avatar

Des pères fondateurs de l’IA redoutent leur création

par Blake, jeudi 26 septembre 2024, 16:14 (il y a 56 jours) @ Dédé

Source : Des pères fondateurs de l’intelligence artificielle redoutent que leur création échappe à tout contrôle

[image]

[image] par Edward Back

Journaliste hi-tech
le 24 septembre 2024

Un groupe de spécialistes, dont deux des pères fondateurs de l’intelligence artificielle, se sont réunis pour échanger sur les « risques catastrophiques » de l’IA. Pour éviter un scénario où elle échappe au contrôle humain, ils proposent un cadre réglementaire, avec les modèles inscrits sur un registre.

Les risques inhérents à l'intelligence artificielle continuent à diviser les spécialistes du domaine. Tandis que certains n'y voient qu'un outil relativement inoffensif, d'autres s'inquiètent qu'il pourrait échapper au contrôle des humains. C'est le cas notamment de Geoffrey Hinton et Yoshua Bengio, considérés comme deux des pères fondateurs de l'IA, ayant reçu le prix Turing en 2018 pour leurs travaux sur l'apprentissage profond, avec le français Yann LeCun.

Les deux hommes étaient récemment à la troisième rencontre Idais (Dialogues internationaux sur la sécurité de l'IA) qui s'est tenue à Venise et qui a réuni différents spécialistes du secteur. Le groupe a publié un communiqué soulignant les risques liés à l’arrivée imminente - ou au plus tard, d'ici quelques décennies - d'une IA capable de dépasser l'intelligence humaine.

Un cadre réglementaire en trois points

Également signé par des noms comme Zhang Ya-Qin, ancien président du géant chinois Baidu, ou encore Stuart Russell, le communiqué met en avant trois propositions pour éviter des scénarios catastrophiques. Tout d'abord, la communauté internationale devrait mettre en place des accords et institutions pour permettre d'inscrire les modèles d'IA sur un registre et de communiquer tout incident. Ensuite, les développeurs devraient être tenus de démontrer la sûreté de leurs modèles si leurs capacités dépassent certains seuils. Enfin, il faudrait une recherche mondiale indépendante sur la sécurité de l'IA qui peut vérifier la validité des affirmations en matière de sécurité formulées par les développeurs.

Cependant, le communiqué ne donne pas de pistes sur ce qui pourrait constituer un risque, ni quels seuils devraient être mis en place. Ce n'est pas la première fois que Geoffrey Hinton s'exprime sur ce sujet. Il avait notamment démissionné de chez Google en 2023 pour être libre de partager ses inquiétudes sur le développement de l'intelligence artificielle.
___________________

Ben non, ben non, le Terminator n'est qu'un film de science-fiction ! :D

Pourtant, nous sommes à l'entrée de cette porte s'il y a ces créateurs qui s'en inquiètent. Par contre ce qui est cité dans cet article concernant la possibilité que l'IA dépasse largement l'intelligence de l'humain, est une fausse réalité puisque maintenant IA le dépasse largement. Il va falloir suivre cette nouvelle intelligence si l'humain ne veut pas finir en Cyborg ! :D

Ça semble insignifiant actuellement l'IA mais attention, la tare intelligible de l'humain peut se retrouver dans cette intelligence artificielle, surtout pour les armes de combat.

Tout cas, je ne vivrai pas assez vieux pour voir le déraillement de l'IA.

Dédé

Oh que oui, tu vas vivre assez vieux. Regarde bien ça aller. Ça va plus que vite.

Avatar

Des pères fondateurs de l’IA redoutent leur création

par Dédé, jeudi 26 septembre 2024, 16:47 (il y a 56 jours) @ Blake

Source : Des pères fondateurs de l’intelligence artificielle redoutent que leur création échappe à tout contrôle

[image]

[image] par Edward Back

Journaliste hi-tech
le 24 septembre 2024

Un groupe de spécialistes, dont deux des pères fondateurs de l’intelligence artificielle, se sont réunis pour échanger sur les « risques catastrophiques » de l’IA. Pour éviter un scénario où elle échappe au contrôle humain, ils proposent un cadre réglementaire, avec les modèles inscrits sur un registre.

Les risques inhérents à l'intelligence artificielle continuent à diviser les spécialistes du domaine. Tandis que certains n'y voient qu'un outil relativement inoffensif, d'autres s'inquiètent qu'il pourrait échapper au contrôle des humains. C'est le cas notamment de Geoffrey Hinton et Yoshua Bengio, considérés comme deux des pères fondateurs de l'IA, ayant reçu le prix Turing en 2018 pour leurs travaux sur l'apprentissage profond, avec le français Yann LeCun.

Les deux hommes étaient récemment à la troisième rencontre Idais (Dialogues internationaux sur la sécurité de l'IA) qui s'est tenue à Venise et qui a réuni différents spécialistes du secteur. Le groupe a publié un communiqué soulignant les risques liés à l’arrivée imminente - ou au plus tard, d'ici quelques décennies - d'une IA capable de dépasser l'intelligence humaine.

Un cadre réglementaire en trois points

Également signé par des noms comme Zhang Ya-Qin, ancien président du géant chinois Baidu, ou encore Stuart Russell, le communiqué met en avant trois propositions pour éviter des scénarios catastrophiques. Tout d'abord, la communauté internationale devrait mettre en place des accords et institutions pour permettre d'inscrire les modèles d'IA sur un registre et de communiquer tout incident. Ensuite, les développeurs devraient être tenus de démontrer la sûreté de leurs modèles si leurs capacités dépassent certains seuils. Enfin, il faudrait une recherche mondiale indépendante sur la sécurité de l'IA qui peut vérifier la validité des affirmations en matière de sécurité formulées par les développeurs.

Cependant, le communiqué ne donne pas de pistes sur ce qui pourrait constituer un risque, ni quels seuils devraient être mis en place. Ce n'est pas la première fois que Geoffrey Hinton s'exprime sur ce sujet. Il avait notamment démissionné de chez Google en 2023 pour être libre de partager ses inquiétudes sur le développement de l'intelligence artificielle.
___________________

Ben non, ben non, le Terminator n'est qu'un film de science-fiction ! :D

Pourtant, nous sommes à l'entrée de cette porte s'il y a ces créateurs qui s'en inquiètent. Par contre ce qui est cité dans cet article concernant la possibilité que l'IA dépasse largement l'intelligence de l'humain, est une fausse réalité puisque maintenant IA le dépasse largement. Il va falloir suivre cette nouvelle intelligence si l'humain ne veut pas finir en Cyborg ! :D

Ça semble insignifiant actuellement l'IA mais attention, la tare intelligible de l'humain peut se retrouver dans cette intelligence artificielle, surtout pour les armes de combat.

Tout cas, je ne vivrai pas assez vieux pour voir le déraillement de l'IA.

Dédé


Oh que oui, tu vas vivre assez vieux. Regarde bien ça aller. Ça va plus que vite.

________________

Mon corps est tellement usé qu'il ne sera même pas bon pour créer un cyborg ! :mdr:

Je ne pense pas que je vais voir ce déraillement, ma santé chancelle.

Terminator...Armes et des Roses

par Jéromec, jeudi 26 septembre 2024, 18:06 (il y a 56 jours) @ Dédé

trame sonore, exceptionnelle bande annonce de Terminator 2 avec Guns and Roses...

Guns N' Roses - You Could Be Mine

https://www.youtube.com/watch?v=MXx9S2nDouY

ça n'existe plus de telle bande annonce..

Maintenant c'Est la réalité qui l'emporte
mais rassurez vous, Lucky Caire veille au grain donc..

:-D :mdr:

Avatar

Des pères fondateurs de l’IA redoutent leur création

par Blake, jeudi 26 septembre 2024, 19:19 (il y a 56 jours) @ Dédé

Source : Des pères fondateurs de l’intelligence artificielle redoutent que leur création échappe à tout contrôle

[image]

[image] par Edward Back

Journaliste hi-tech
le 24 septembre 2024

Un groupe de spécialistes, dont deux des pères fondateurs de l’intelligence artificielle, se sont réunis pour échanger sur les « risques catastrophiques » de l’IA. Pour éviter un scénario où elle échappe au contrôle humain, ils proposent un cadre réglementaire, avec les modèles inscrits sur un registre.

Les risques inhérents à l'intelligence artificielle continuent à diviser les spécialistes du domaine. Tandis que certains n'y voient qu'un outil relativement inoffensif, d'autres s'inquiètent qu'il pourrait échapper au contrôle des humains. C'est le cas notamment de Geoffrey Hinton et Yoshua Bengio, considérés comme deux des pères fondateurs de l'IA, ayant reçu le prix Turing en 2018 pour leurs travaux sur l'apprentissage profond, avec le français Yann LeCun.

Les deux hommes étaient récemment à la troisième rencontre Idais (Dialogues internationaux sur la sécurité de l'IA) qui s'est tenue à Venise et qui a réuni différents spécialistes du secteur. Le groupe a publié un communiqué soulignant les risques liés à l’arrivée imminente - ou au plus tard, d'ici quelques décennies - d'une IA capable de dépasser l'intelligence humaine.

Un cadre réglementaire en trois points

Également signé par des noms comme Zhang Ya-Qin, ancien président du géant chinois Baidu, ou encore Stuart Russell, le communiqué met en avant trois propositions pour éviter des scénarios catastrophiques. Tout d'abord, la communauté internationale devrait mettre en place des accords et institutions pour permettre d'inscrire les modèles d'IA sur un registre et de communiquer tout incident. Ensuite, les développeurs devraient être tenus de démontrer la sûreté de leurs modèles si leurs capacités dépassent certains seuils. Enfin, il faudrait une recherche mondiale indépendante sur la sécurité de l'IA qui peut vérifier la validité des affirmations en matière de sécurité formulées par les développeurs.

Cependant, le communiqué ne donne pas de pistes sur ce qui pourrait constituer un risque, ni quels seuils devraient être mis en place. Ce n'est pas la première fois que Geoffrey Hinton s'exprime sur ce sujet. Il avait notamment démissionné de chez Google en 2023 pour être libre de partager ses inquiétudes sur le développement de l'intelligence artificielle.
___________________

Ben non, ben non, le Terminator n'est qu'un film de science-fiction ! :D

Pourtant, nous sommes à l'entrée de cette porte s'il y a ces créateurs qui s'en inquiètent. Par contre ce qui est cité dans cet article concernant la possibilité que l'IA dépasse largement l'intelligence de l'humain, est une fausse réalité puisque maintenant IA le dépasse largement. Il va falloir suivre cette nouvelle intelligence si l'humain ne veut pas finir en Cyborg ! :D

Ça semble insignifiant actuellement l'IA mais attention, la tare intelligible de l'humain peut se retrouver dans cette intelligence artificielle, surtout pour les armes de combat.

Tout cas, je ne vivrai pas assez vieux pour voir le déraillement de l'IA.

Dédé


Oh que oui, tu vas vivre assez vieux. Regarde bien ça aller. Ça va plus que vite.

________________

Mon corps est tellement usé qu'il ne sera même pas bon pour créer un cyborg ! :mdr:

Je ne pense pas que je vais voir ce déraillement, ma santé chancelle.

:mdr:

Fil RSS du sujet
powered by my little forum