Des chercheurs belges ont montré comment ils parvenaient à déjouer l’attention d’une IA de surveillance avec une simple pancarte. Certains s’en inquiètent.

Les technologies de surveillance font naître de nombreuses angoisses, parfois à raison. Pour faire face à leur prolifération, des chercheurs ont développé des techniques. Grâce à des pancartes portées autour du cou, ils parviennent à déjouer l’attention des intelligences artificielles. Leurs idées risquent cependant de ne pas plaire à tout le monde.

UNE PANCARTE À LA MAIN POUR DÉJOUER L’ATTENTION

Un groupe d’ingénieurs de l’université belge KU Leuven a publié une vidéo sur YouTube le 20 mars. Ils montrent comment ils sont parvenus à déjouer l’attention de YOLOv2, un système de reconnaissance d’images. YOLOv2 est normalement capable de déterminer en temps réel ce qui est un objet et ce qui est un humain.

VIDEO

Image de prévisualisation YouTube

Les chercheurs montrent qu’il suffit de tenir une pancarte au niveau de son buste pour ne plus être reconnu comme un humain.

Sur la pancarte, on voit une photo de foule. L’IA est visiblement perturbée par cette nouvelle donnée : elle ne parvient plus à identifier les individus. Les chercheurs expliquent dans un article de recherche qu’ils pourraient créer un t-shirt qui remplisse le même rôle que la pancarte. « [Cela] rendrait une personne virtuellement invisible pour les caméras de surveillance automatisée », écrivent-ils.

UN DANGEREUX FANTASME ?

Le fait qu’une IA puisse être trompée avec des outils aussi simples qu’un t-shirt n’est pas nouveau. En 2013, un artiste américain avait imaginé une série de maquillages et coiffures. Ces looks futuristes suffisaient à tromper des technologies de reconnaissance d’images. Elles devenaient incapables d’identifier des visages.

Adam Harvey

Ces méthodes parfois un peu étranges sont développées pour faire face aux mauvais usages de la surveillance automatisée. Des États non-démocratiques peuvent utiliser de manière excessive de tels outils. La Chine par exemple, a des usages des IA parfois franchement angoissantes.

Cependant, comme toute technologie, les algorithmes ne sont pas mauvais en eux-mêmes : c’est l’usage qui en est fait ou la manière dont ils sont entraînés qui peut pervertir cet outil. Les technologies de surveillance que veulent déjouer les chercheurs belges sont similaires à des technologies utilisées pour de la vision machine, par exemple embarquée dans les véhicules. Pour éviter les piétons ou d’autres véhicules et de fait les accidents, elles sont nécessaires. Est-ce que ce genre de piège ferait douter une voiture autonome au moment de freiner ?

En mars, des chercheurs ont également fait part de leurs craintes pour le milieu médical. Si les humains parviennent à tromper des IA, pourraient-ils faire en sorte de se faire poser un faux diagnostic ? Cela faciliterait la fraude médicale.

On est encore loin de ces possibilités. La méthode des pancartes ou t-shirts ne fonctionne pour le moment qu’avec un seul logiciel. Elle ne peut rien contre les travaux de plus grosses entreprises comme Google, indiquent les chercheurs.

SOURCE

 

Charger d'autres articles liés
Charger d'autres écrits par axileo
Charger d'autres écrits dans News

Laisser un commentaire

Consulter aussi

Avec AlterEgo, parler dans sa tête peut être compris par des assistants

Il nous arrive à tous de « parler dans notre tête », pour se dire quelque chose à soi-même…