L’IA d’un drone autonome de l’US Air Force a décidé d’éliminer l’opérateur humain qui l’empêchait d’accomplir son objectif. Un comportement inquiétant, même s’il ne s’agissait en réalité que d’une simulation.
Faut-il s’inquiéter des robots tueurs autonomes ? Vraisemblablement oui ! Lors d’une rencontre militaire, intitulée Future Combat Air and Space Capabilities Summit à Londres en mai, Tucker Hamilton, un colonel de l’armée de l’air américaine a expliqué que, lors d’un test, un drone de combat contrôlé par une IA a décidé de « tuer » son opérateur pour accomplir sa mission.
Heureusement, il s’agissait d’une simulation virtuelle, mais le comportement de l’IA a dérouté et inquiété les militaires. Selon lui, l’IA a utilisé « des stratégies très inattendues pour atteindre son objectif ». L’aéronef autonome avait pour mission de détruire les systèmes de défense aérienne d’un ennemi. À partir du moment où le drone a identifié les infrastructures ennemies, l’opérateur humain a décidé d’annuler la frappe… (La Relève)