Publié le 13 juin 2024, modifié le 13 juin 2024 par Alexandre Duval

  • L'IA est utilisée dans les applications militaires pour des tâches techniques et tactiques ainsi que pour améliorer les processus de prise de décision.
  • Cependant, les ordonnances et procédures actuelles stipulent que l'utilisation de l'IA ne peut pas être impliquée dans des décisions de vie ou de mort sans implication humaine.
  • Les systèmes d'IA sont conçus pour soutenir les décideurs en leur fournissant des informations et des recommandations, mais ne peuvent pas remplacer les professionnels de la défense et du droit.
  • La mise en œuvre d'outils d'IA dans les systèmes militaires est complexe et nécessite une formation spécifique, mais il est important de souligner qu'il n'y a pas encore de prise de décision par l'IA dans ces contextes.

Récemment, de nombreux articles et références ont été publiés, pour la plupart contraires à la vérité, sur le rôle de l’intelligence artificielle (IA) dans les systèmes militaires. dans cet article, nous présenterons une partie de la réalité actuelle, dans les limites de la classification.

L’IA apparaît dans les applications militaires dans deux catégories principales :

  • Utilitaires (outils d'aide) dans les processus de travail techniques et tactiques (OCR, récupération, traduction automatique, extraction et construction d'informations, reconnaissance du locuteur, reconnaissance vocale et transformation parole en texte (STT), analyse de zone et détection de changements, traitement du Big Data, etc. )
  • Utilitaires (outils d'aide) pour améliorer les processus de prise de décision, mais pas dans la prise de décision réelle

Naturellement, l'essentiel de l'intérêt se porte sur l'utilisation de l'intelligence artificielle dans les processus décisionnels au sein de l'establishment de la défense et dans le travail quotidien, qui se sont considérablement développés ces dernières années, avec la révolution HPC (High Power Computing) et la capacité de traiter efficacement les « big data »

L’utilisation de l’IA dans les systèmes IDF s’accompagne de méthodologies opérationnelles très soignées et il est très important de maintenir cette approche. Intelligence artificielle (crédit : INGIMAGE)

Les ordonnances et procédures actuelles stipulent sans équivoque que les applications de l’intelligence artificielle ne seront pas utilisées dans des cas impliquant des questions de mort ou de vie, sans implication humaine.

En d’autres termes, la décision d’attaquer n’est pas prise et ne le sera probablement pas dans un avenir proche uniquement par des algorithmes basés sur l’IA. La décision sera prise uniquement par des entités humaines compétentes, bénéficiant d’un soutien juridique étroit, comme c’est le cas, par exemple, dans les applications de l’IA qui impliquent la vie humaine en médecine.

Les décideurs utilisent certainement l’IA pour extraire les meilleures informations et recommandations, notamment en présentant les précédents, afin de prendre la décision la plus éclairée, mais même si cela semble tentant, les systèmes d’IA ne sont pas conçus pour remplacer les professionnels de la défense et du droit.

Par exemple, dans le système « Lavender », exploité par Tsahal, devenu célèbre lors de « Iron Swords », la couche IA ajoute certaines considérations au filtre des informations de renseignement, mais ne prend pas de décisions.

Au-delà de la recherche scientifique, l’utilisation d’outils d’IA a conduit au développement de vastes méthodologies d’évaluation pour garantir la précision des produits par rapport au seuil de performance défini, afin que les systèmes puissent être utilisés de manière opérationnelle. Le processus comprend l’examen de la stabilité des algorithmes au fil du temps et dans différentes conditions, en créant des échantillons aléatoires et en développant de nombreux mécanismes et approbations réglementaires, avant que le système d’IA ne soit autorisé à présenter des recommandations pour une utilisation humaine.

La vérification et la décision qui aboutiraient à une attaque comprendraient en tout état de cause au moins deux indications distinctes provenant de sources indépendantes et seraient effectuées uniquement par un élément humain.

Un produit d'IA qui devient accessible au consommateur opérationnel subit également un processus « d'explicabilité » pour vérifier sa validité d'utilisation.

Les produits d'IA peuvent également être divisés en fonction de leur utilisation en matière de résolution. La première couche traite une « seule information » (en très grande quantité, et c'est l'un des principaux catalyseurs de l'IA) afin d'en extraire la plupart des composants d'information, pour une récupération future. Ce type d'usage a conduit à diverses spécialisations dans les éléments d'information (audio, image, texte, etc.).

La deuxième couche concerne « l’entité de renseignement », qui combine de nombreuses informations, et les algorithmes d’IA permettent d’en générer des informations globales.

La troisième couche (futuriste) traite des événements de grande envergure qui relient un grand nombre d'« entités de renseignement » afin de construire les capacités de prédire les événements auxquels les différentes entités pourraient participer dans le futur.

Le modèle à 3 couches convient aux systèmes de renseignement de défense, mais également à de nombreux systèmes civils dans les domaines de la médecine, de la science, des transports, de l'agriculture et bien plus encore.

Mise en œuvre de l'IA

La mise en œuvre d’outils d’IA dans les systèmes militaires, notamment dans un environnement qui affecte la vie humaine, est extrêmement complexe et difficile. C’est pourquoi seul le facteur humain est déclaré « expert du contenu », et les algorithmes des logiciels d’IA ne déterminent rien à eux seuls.

Dans les systèmes de prise de décision, les « experts en contenu » sont ceux qui prennent réellement les décisions, et jusqu'à ce que les recommandations du système d'IA obtiennent suffisamment de confiance pour faire partie du processus décisionnel des « experts en contenu », cela prend beaucoup de temps.

La formation des utilisateurs opérationnels qui utilisent des outils d'apprentissage automatique nécessite des connaissances particulières et du temps, et en tout cas il est important de le souligner encore une fois : dans les systèmes militaires offensifs, qui peuvent affecter des vies humaines, il n'y a pas de prise de décision par les systèmes d'IA. Nous sommes très loin de cette situation.

Dans les systèmes civils, vous pouvez trouver des applications dans lesquelles les systèmes d’IA peuvent décider de questions de vie ou de mort, certainement indirectement. C’est probablement l’une des principales raisons pour lesquelles les systèmes autonomes civils, tels que les véhicules autonomes, entrent dans notre vie à un rythme beaucoup plus lent que prévu, alors que d’autres types de systèmes d’IA sont omniprésents.

Brick. Général (res.) Le professeur Jacob Nagel est chercheur principal au FDD et professeur au Technion. Il était auparavant conseiller à la sécurité nationale de Netanyahu et chef du Conseil de sécurité nationale (par intérim). Av. Jacob Bardugo est un professionnel des médias qui s'occupe de technologie et a été commentateur principal pendant de nombreuses années à la radio, à la télévision et dans la presse.

FAQ

Quel est l'éthique de l'IA dans la guerre ?

L'éthique de l'IA dans la guerre est un sujet complexe qui soulève de nombreuses questions et débats. Certains pensent que l'utilisation de l'IA dans des situations de conflit peut être dangereuse et amoral car elle enlève le contrôle humain sur les décisions militaires et peut causer des dommages collatéraux imprévus.

D'autres soutiennent que son utilisation pourrait réduire le nombre de victimes humaines et augmenter l'efficacité des opérations militaires grâce à sa précision et sa rapidité d'action. Il est donc important de se poser des questions éthiques cruciales quant à son utilisation, telles que sa réglementation, ses limites et sa responsabilité en cas d'accident ou d'erreur.

Quelle est l'éthique de l'IA au sein du Département de la Défense (DoD) ?

Le DoD a pour priorité de développer une IA éthique qui respecte les valeurs et les lois en vigueur. Le département s'assure que l'utilisation de ces technologies soit responsable et transparente, dans le respect des droits de l'Homme et de la vie privée.

Une évaluation éthique est menée à chaque étape du développement d'un système d'IA afin d'éviter tout risque moral ou juridique. Enfin, le DoD collabore avec des experts en éthique pour promouvoir une utilisation responsable de l'IA dans le secteur militaire.

Quels sont les principes éthiques de l'IA du DoD ?

Le département de la Défense des États-Unis a établi trois principes éthiques pour guider l'utilisation de l'IA : responsabilité, intégrité et transparence. La responsabilité implique que les systèmes d'IA doivent être conçus et utilisés de manière à garantir la sécurité et le bien-être des personnes concernées. L'intégrité vise à éviter les préjugés ou discriminations dans les décisions prises par l'IA.

Enfin, la transparence exige que les processus et résultats de l'IA soient compréhensibles pour tous, afin de favoriser une utilisation responsable.

Qu'est-ce que l'éthique militaire ?

L'éthique militaire est l'ensemble des valeurs et des principes qui guident les actions et le comportement des soldats dans le service de leur pays. Elle inclut notamment le respect de la discipline, l'honneur, la loyauté envers ses supérieurs et ses camarades ainsi que le sens du devoir envers sa mission. Elle implique également une réflexion sur la légitimité et la moralité des ordres reçus et sur l'utilisation de la force dans un conflit.

Comment assurer un déploiement responsable et éthique de l'IA ?

Pour assurer un déploiement responsable et éthique de l'IA, il est important d'avoir une réglementation claire encadrant son utilisation. Les entreprises et les gouvernements doivent être transparents sur leurs données et leur utilisation de l'IA. Une formation adéquate doit également être dispensée aux professionnels travaillant avec l'IA pour qu'ils comprennent ses implications sociales et éthiques.

Enfin, une surveillance constante des systèmes d'IA devrait être mise en place pour détecter et corriger rapidement tout biais ou discrimination potentiels.

Categories: IA

Alexandre Duval

Alexandre Duval

S’abonner
Notification pour
guest

Commentaires
Commentaires en ligne
Afficher tous les commentaires
0
Nous aimerions avoir votre avis, veuillez laisser un commentaire.x