La manipulation des images «fausses profondes» constitue une menace pour la société et pas seulement militaire, prévient le général américain


HCependant, le processus n’est pas encore infaillible et beaucoup de ces fausses images laissent des signes visibles qu’elles sont fausses. Le flou ou le scintillement autour du visage d’une personne est un indicateur courant qu’une image a été trafiquée, en particulier lorsque le visage change d’angle rapidement.

Le Lt Gen Shanahan prévient qu’il est de plus en plus probable que la société soit influencée par de fausses images, à mesure que l’expertise des pirates et la sophistication de la technologie de l’IA augmentent.

«En probablement 30 minutes, vous pouvez vous connecter et commencer à développer des contrefaçons assez fidèles», a-t-il déclaré.

Le général a également cherché à rassurer que, à mesure que la capacité d’IA se développerait, l’armée américaine ne chercherait pas à développer des «robots tueurs» autonomes.

«Il y a des aspects de l’IA qui semblent différents – l’aspect boîte noire de l’apprentissage automatique – mais dans l’ensemble, nous avons le processus et les politiques en place pour nous assurer que nous respectons les lois de la guerre, les règles d’engagement et la proportionnalité.

«Nous ne violerons pas ces principes fondamentaux.

«Les humains seront tenus responsables. Ce ne sera pas quelque chose que nous dirons « la boîte noire l’a fait, personne ne sera tenu pour responsable ». Tout comme dans toute erreur qui s’est produite sur un champ de bataille de notre histoire, il y aura une responsabilité.

«Nous ne cherchons pas à aller vers cet avenir de robots tueurs: des systèmes non supervisés, indépendants et auto-ciblés.





Source