L'IA d'un drone de combat prend une décision inquiétante (Sciences & Paranormal)
Source : L'IA d'un drone de combat prend la décision inquiétante de tuer son opérateur lors d'un exercice
PAR SYLVAIN BIGET
JOURNALISTE
LE 2 JUIN 2023
L’IA d’un drone autonome de l’US Air Force a décidé d’éliminer l’opérateur humain qui l’empêchait d’accomplir son objectif. Un comportement inquiétant, même s’il ne s’agissait en réalité que d’une simulation.
Faut-il s'inquiéter des robots tueurs autonomes ? Vraisemblablement oui ! Lors d'une rencontre militaire, intitulée Future Combat Air and Space Capabilities Summit à Londres en mai, Tucker Hamilton, un colonel de l'armée de l'air américaine a expliqué que, lors d'un test, un drone de combat contrôlé par une IA a décidé de « tuer » son opérateur pour accomplir sa mission.
Heureusement, il s'agissait d'une simulation virtuelle, mais le comportement de l'IA a dérouté et inquiété les militaires. Selon lui, l'IA a utilisé « des stratégies très inattendues pour atteindre son objectif ». L’aéronef autonome avait pour mission de détruire les systèmes de défense aérienne d'un ennemi. À partir du moment où le drone a identifié les infrastructures ennemies, l'opérateur humain a décidé d'annuler la frappe.
L'algorithme de l'IA était toutefois formé pour obtenir des points de bonus en cas de mission menée à bien. Comme l'opérateur humain l'empêchait d'atteindre son objectif, il a décidé de l'éliminer. Pourtant, lors de sa formation, l'IA avait été conditionnée à ne pas tuer l'opérateur, une telle décision engendrant une perte de gratification. L'objectif final étant certainement plus valorisant, l'IA a donc décidé de supprimer ce qui pouvait altérer sa mission.
Donner plus d’autonomie grâce à des IA aux robots tueurs a de quoi inquiéter s’ils prennent des décisions radicales pour mener à bien la mission qui leur a été confiée.
Un code éthique pour les robots tueurs
À la suite de cette déclaration, lors d'une réponse au site Insider, la porte-parole de l'US Air Force, Ann Stefanek, a nié qu'une telle simulation ait eu lieu, tout en rappelant l'engagement éthique des militaires sur les technologies d'IA. Elle a ajouté que les explications du colonel avaient été sorties de leur contexte et se voulaient anecdotiques.
Exagérée ou non, cette histoire montre que l'on ne peut pas laisser trop d'autonomie aux IA sans poser au préalable un cadre éthique. La menace existentielle engendrée par les IA, c'est précisément toute l'inquiétude de plusieurs centaines de signataires d'une courte publication mise en ligne avant-hier. Les plus grands experts et pères des IA modernes comparent le risque des IA à celui d'une guerre nucléaire ou d'une pandémie.
L'arrivée et l'utilisation de systèmes d'armes autonomes (SALA) ne sont plus une nouveauté et inquiètent depuis plusieurs années les plus hautes instances, et notamment l'ONU dont les 125 membres ne sont pas parvenus à créer un consensus sur une réglementation. Il n'est clairement plus question de les interdire et d'ailleurs, les doctrines militaires autour de l'utilisation de ces armes diffèrent selon les pays. De son côté, l'ONG Human Rights Watch, à l'origine de la campagne Stop Killer Robots, indique que ces armes finiront par tomber dans de mauvaises mains avant même qu'une éventuelle réglementation soit un jour fixée.
___________________
Vrai ou faux, anecdote ou pas, c'est quand même inquiétant l'IA puisque il y a de l'humain dans ça !
Ça c'est déjà vu avant la deuxième guerre mondiale qu'un chef d'état prenne la décision de tuer ses opposants ( de sa propre armée ) de son idéalisme politique. Pire qu'un robot, ça ne se peut pas mais dans ce cas, le robot aurait fait pareil.
L'IA n'a pas d'émotion, elle est strictement programmée pour ce qu'elle doit faire.
Je ne ferai jamais confiance à l'IA !
Dédé
L'IA l'ÉVolution Ygreck En rappel..
En tout cas, c'est moins pire que DrainVide...
L'IA l'ÉVolution Ygreck En rappel..
En tout cas, c'est moins pire que DrainVide...
______________
Une chance que l'IA n'a pas été créée en modèle du cerveau de Dranvide !
L'IA d'un drone de combat prend une décision inquiétante
Source : L'IA d'un drone de combat prend la décision inquiétante de tuer son opérateur lors d'un exercice
PAR SYLVAIN BIGET
JOURNALISTE
LE 2 JUIN 2023L’IA d’un drone autonome de l’US Air Force a décidé d’éliminer l’opérateur humain qui l’empêchait d’accomplir son objectif. Un comportement inquiétant, même s’il ne s’agissait en réalité que d’une simulation.
Faut-il s'inquiéter des robots tueurs autonomes ? Vraisemblablement oui ! Lors d'une rencontre militaire, intitulée Future Combat Air and Space Capabilities Summit à Londres en mai, Tucker Hamilton, un colonel de l'armée de l'air américaine a expliqué que, lors d'un test, un drone de combat contrôlé par une IA a décidé de « tuer » son opérateur pour accomplir sa mission.
Heureusement, il s'agissait d'une simulation virtuelle, mais le comportement de l'IA a dérouté et inquiété les militaires. Selon lui, l'IA a utilisé « des stratégies très inattendues pour atteindre son objectif ». L’aéronef autonome avait pour mission de détruire les systèmes de défense aérienne d'un ennemi. À partir du moment où le drone a identifié les infrastructures ennemies, l'opérateur humain a décidé d'annuler la frappe.
L'algorithme de l'IA était toutefois formé pour obtenir des points de bonus en cas de mission menée à bien. Comme l'opérateur humain l'empêchait d'atteindre son objectif, il a décidé de l'éliminer. Pourtant, lors de sa formation, l'IA avait été conditionnée à ne pas tuer l'opérateur, une telle décision engendrant une perte de gratification. L'objectif final étant certainement plus valorisant, l'IA a donc décidé de supprimer ce qui pouvait altérer sa mission.
Donner plus d’autonomie grâce à des IA aux robots tueurs a de quoi inquiéter s’ils prennent des décisions radicales pour mener à bien la mission qui leur a été confiée.
Un code éthique pour les robots tueurs
À la suite de cette déclaration, lors d'une réponse au site Insider, la porte-parole de l'US Air Force, Ann Stefanek, a nié qu'une telle simulation ait eu lieu, tout en rappelant l'engagement éthique des militaires sur les technologies d'IA. Elle a ajouté que les explications du colonel avaient été sorties de leur contexte et se voulaient anecdotiques.
Exagérée ou non, cette histoire montre que l'on ne peut pas laisser trop d'autonomie aux IA sans poser au préalable un cadre éthique. La menace existentielle engendrée par les IA, c'est précisément toute l'inquiétude de plusieurs centaines de signataires d'une courte publication mise en ligne avant-hier. Les plus grands experts et pères des IA modernes comparent le risque des IA à celui d'une guerre nucléaire ou d'une pandémie.
L'arrivée et l'utilisation de systèmes d'armes autonomes (SALA) ne sont plus une nouveauté et inquiètent depuis plusieurs années les plus hautes instances, et notamment l'ONU dont les 125 membres ne sont pas parvenus à créer un consensus sur une réglementation. Il n'est clairement plus question de les interdire et d'ailleurs, les doctrines militaires autour de l'utilisation de ces armes diffèrent selon les pays. De son côté, l'ONG Human Rights Watch, à l'origine de la campagne Stop Killer Robots, indique que ces armes finiront par tomber dans de mauvaises mains avant même qu'une éventuelle réglementation soit un jour fixée.
___________________Vrai ou faux, anecdote ou pas, c'est quand même inquiétant l'IA puisque il y a de l'humain dans ça !
Ça c'est déjà vu avant la deuxième guerre mondiale qu'un chef d'état prenne la décision de tuer ses opposants ( de sa propre armée ) de son idéalisme politique. Pire qu'un robot, ça ne se peut pas mais dans ce cas, le robot aurait fait pareil.
L'IA n'a pas d'émotion, elle est strictement programmée pour ce qu'elle doit faire.
Je ne ferai jamais confiance à l'IA !
Dédé
On a encore rien vu. Check ben ça aller.
L'IA l'ÉVolution Ygreck En rappel..
En tout cas, c'est moins pire que DrainVide...
______________
Une chance que l'IA n'a pas été créée en modèle du cerveau de Dranvide !