1
Défense
Intelligence artificielle : la défense américaine se penche sur les questions éthiques
Intelligence artificielle : la défense américaine se penche sur les questions éthiques
© DoD

| BOQUET Justine

Intelligence artificielle : la défense américaine se penche sur les questions éthiques

Le département à la défense américain soutient le développement de technologies à base d'IA à des fins militaires. Ces applications devront désormais suivre quelques principes éthiques, afin d'assurer un emploi responsable de ces systèmes.

Soutenir et encadrer l'émergence de l'intelligence artificielle.

Fin février, le département à la défense (DoD) américain a décidé de définir des principes éthiques qui devront être respectés lors du développement de technologies intégrant de l'intelligence artificielle. Des recommandations ont ainsi été publiées, faisant suite à des travaux conduits sur une période de 15 mois, mais également à la publication de la stratégie sur l'IA du DoD. Plus généralement, les Etats-Unis se sont dotés d'une stratégie IA à l'échelle nationale, visant à positionner le pays en tête sur ces questions et technologies.


Cinq domaines d'intérêt.

La définition de ces principes éthiques a été réalisée après l'organisation d'échanges entre les différents acteurs du domaine, à la fois industriels, académiciens, agences étatiques et plus généralement l'opinion publique. Cinq grands axes de réflexion ont ainsi été définis, afin d'encadrer les applications d'intelligence artificielle. On parle dès lors d'une intelligence artificielle responsable, mais dont la responsabilité reviendrait avant tout aux personnels du DoD, engagées aussi bien lors du développement, du déploiement et de l'emploi de systèmes intégrant de l'IA. Des solutions qui devront notamment être pensées au regard du droit américain et plus largement du droit international. Un concept d'équité est également rattaché à l'IA afin d'éviter que les algorithmes développés puissent être biaisés et que les solutions proposées par l'intelligence artificielle puissent être influencées. La question de la traçabilité de l'IA a également été mise sur la table, dans un objectif de compréhension de sa fonction, de la façon dont elle a été développée et en respect du type d'emploi pour lequel l'algorithme a été imaginé. La fiabilité figure également parmi les principes éthiques définis afin de garantir la sûreté et sécurité des systèmes qui intégreront de l'IA. Enfin, le DoD met par ailleurs le concept de gouvernance de l'intelligence artificielle au premier plan. L'homme doit ainsi rester dans la boucle afin de conserver la capacité « de désengager ou désactiver des systèmes déployés qui démontreraient une attitude inattendue », met en avant le DoD.


Une éthique devant aller de pair avec un emploi croissant.

« Les Etats-Unis, ensemble avec leurs partenaires, doivent accélérer l'adoption de l'intelligence artificielle (IA) et l'intégrer dans ses applications de sécurité nationale afin de maintenir notre position stratégique, nous imposer sur les futurs champs de bataille et protéger l'ordre international », a déclaré à cette occasion Mark Esper, secrétaire à la défense. Un discours qu'il a complété en mettant en avant l'importance de la prise en compte des questions éthiques dans l'emploi de l'IA. Un thème d'ailleurs récurrent lorsque l'on parle d'IA appliquée au secteur de la Défense, où la question des SALA (systèmes d'armes létales autonomes) est régulièrement remise sur la table. Si les Etats-Unis ont décidé de se doter de principes éthiques afin d'encadrer l'emploi de l'intelligence artificielle, ce ne sont pas pour autant les seuls. La France et certains industriels ont également travaillé sur ce sujet, afin de garantir la sécurité des systèmes.

Répondre à () :


Captcha
Elyo | 15/03/2020 19:16

Je me suis toujours demandé comment on peut employer le terme d' " éthique " dans le domaine militaire alors que les défenses de tous les pays sont totalement pragmatiques et prêtes à tout pour vaincre leur adversaire. Et surtout en tenant compte de la possibilité que vôtre ennemi ne tienne aucun compte de cette prétendue éthique. Ce n'est probablement que c'est du blablabla destiné à plus ou moins gagner une partie de l'opinion publique 《va t'en paix》. Ce que je pense donc comprendre c'est que les utilisateurs de ces armes ont peur qu'elles puissent se retourner contre eux dans certains cas, et donc que le complexe de Frankenstein a gagné plus ou moins le monde militaire . Du calme SVP c'est juste une petite provocation 😏

| | Connexion | Inscription