https://frosthead.com

La «performance visuelle» de la performance musicale révèle ce que l'intelligence artificielle «pense» à notre sujet

L'année dernière, Facebook a créé deux chatbots et leur a demandé de commencer à se parler, à mettre en pratique leurs compétences en négociation. Il s'est avéré que les robots étaient plutôt doués pour la négociation - mais ils l'ont fait en utilisant leur propre langage inventé qui était incompréhensible pour les humains.

Contenu connexe

  • Cet artiste vit dans le monde clandestin des secrets classés et de la surveillance

C'est là que va le monde. Les ordinateurs créent du contenu les uns pour les autres, pas pour nous. Les images sont prises par des ordinateurs, que d'autres ordinateurs peuvent visualiser et interpréter. Tout se passe tranquillement, souvent à notre insu et sans notre consentement.

Donc, apprendre à voir comme un ordinateur - en rendant ces communications machine à machine visibles - peut être la compétence la plus importante du XXIe siècle.

Le 25 octobre 2018, le Kronos Quartet - David Harrington, John Sherba, Hank Dutt et Sunny Yang - a donné un concert au Smithsonian American Art Museum. Ils ont été regardés par 400 humains et une douzaine d'algorithmes d'intelligence artificielle, ce dernier étant une gracieuseté de Trevor Paglen, l'artiste à l'origine de l'exposition "Sites Unseen", actuellement exposée au musée.

Pendant que les musiciens jouaient, un écran au-dessus d'eux nous montrait à l'homme ce que les ordinateurs voyaient.

Alors que Kronos parcourait une pièce lugubre originaire de l’Empire ottoman, des algorithmes au-dessus de l’écran détectaient le visage des musiciens, décrivant les lèvres, les yeux et le nez de chaque personne (et apercevaient parfois des visages "fantômes" là où il n’y en avait pas). Tondeuse à cheveux du fondateur de Kronos, Harrington). À mesure que les algorithmes devenaient plus avancés, le flux vidéo disparaissait jusqu'à ce qu'il ne reste plus que des lignes au néon sur un fond noir. Enfin, les contours du visage se sont estompés jusqu'à ce qu'un arrangement abstrait de lignes - vraisemblablement tout ce dont l'ordinateur avait besoin pour comprendre le "visage", mais complètement incompréhensible pour l'homme - était tout ce qui restait.

"Sight Machine", Trevor Paglen, Kronos Quartet (Bruce Guthrie) "Sight Machine", Trevor Paglen, Kronos Quartet (Bruce Guthrie) "Sight Machine", Trevor Paglen, Kronos Quartet (Bruce Guthrie) "Sight Machine", Trevor Paglen, Kronos Quartet (Bruce Guthrie) "Sight Machine", Trevor Paglen, Kronos Quartet (Bruce Guthrie) "Sight Machine", Trevor Paglen, Kronos Quartet (Bruce Guthrie) "Sight Machine", Trevor Paglen, Kronos Quartet (Bruce Guthrie) "Sight Machine", Trevor Paglen, Kronos Quartet (Bruce Guthrie) "Sight Machine", Trevor Paglen, Kronos Quartet (Bruce Guthrie) "Sight Machine", Trevor Paglen, Kronos Quartet (Bruce Guthrie) "Sight Machine", Trevor Paglen, Kronos Quartet

Les débuts de la performance sur la côte est intitulée "Sight Machine", à l'instar de l'autre œuvre de Paglen, ont demandé aux téléspectateurs et aux auditeurs d'apprendre à voir comme les ordinateurs et à réexaminer le rapport humain à la technologie: les téléphones dans nos poches et les yeux dans les yeux. le ciel et tout le reste.

Nous sommes en 2018 et l'idée que les téléphones portables nous observent ne ressemble plus à une théorie du complot posée par un blogueur de sous-sols portant un chapeau en étain. Google a été surpris plus tôt cette année en train de suivre les emplacements des utilisateurs de téléphones Android, même si ceux-ci avaient désactivé la fonctionnalité. De nombreuses personnes sont convaincues que nos téléphones nous écoutent afin de mieux diffuser les annonces. Facebook et d’autres sociétés nient ces accusations, bien que cela leur soit techniquement et légalement possible. Les journalistes techniques Alex Goldman et PJ Vogt ont enquêté et ont découvert la même chose: il n’ya aucune raison pour que nos téléphones n’écoutent pas, mais les annonceurs peuvent obtenir suffisamment d’informations sur nous par le biais d’autres méthodes dont ils n’ont tout simplement pas besoin. .

C'est dans ce contexte que "Sight Machine" a été réalisé. La douzaine de caméras qui regardaient Kronos Quartet ont envoyé une vidéo en direct de la performance à un bâti d’ordinateurs, qui utilise des algorithmes d’intelligence artificielle du commerce pour créer des images étranges. Les algorithmes sont les mêmes que ceux utilisés dans nos téléphones pour nous aider à prendre de meilleurs selfies, ceux utilisés par des voitures autonomes pour éviter les obstacles, et ceux utilisés par les forces de l'ordre et les armes. Ainsi, alors que les résultats à l’écran étaient parfois beaux, voire drôles, il y avait un courant sous-jacent d’horreur.

"Ce qui me surprend dans ce travail, c'est qu'il nous montre quelque chose qui est - et cela est vrai pour tout son travail - il nous montre quelque chose qui dérange et qu'il le fait en utilisant des astuces", dit John Jacob, conservateur du musée. pour la photographie, qui a organisé "Sites Unseen."

"C'est un tour délibéré", dit-il, "et ça marche."

Plus tard, des algorithmes sophistiqués de reconnaissance faciale ont permis de juger les membres de Kronos et d'afficher leurs résultats sur un écran. "C’est John [Sherba]. John a entre 24 et 40 ans", a déclaré l’ordinateur. "Sunny [Yang] est une femme à 94, 4%. Sunny est à 80% en colère et à 10% neutre."

"Une des choses que j'espère que la performance montre, " explique Paglen, "explique en partie comment le type de perception des ordinateurs n'est pas neutre. Il est fortement biaisé ... avec toutes sortes d'hypothèses politiques et culturelles pas neutre. " Si le système de classification par sexe indique que Sunny Yang est composée à 94, 4% de femmes, cela signifie que quelqu'un est à 100% de femme. "Et qui a décidé ce qu'est 100% de femme? Barbie est-elle à 100%? Et pourquoi le genre est-il binaire?" Demande Paglen. "Voir cela se produire à un moment où le gouvernement fédéral essaie littéralement d'effacer les personnes de même sexe queer, c'est drôle, mais pour moi c'est aussi horrible."

Un algorithme ultérieur a supprimé les pourcentages et a été déplacé pour identifier simplement les objets dans la scène. "Microphone. Violon. Personne. Méduses. Perruque." (Les deux dernières sont clairement des erreurs; l'algorithme semble avoir confondu Hank Dutt pour une méduse et les vrais cheveux de Harrington pour un toupet.) Ensuite, les classifications sont devenues plus complexes. "Sunny tient une paire de ciseaux", dit la machine alors que la lumière brillait sur les cordes de son violoncelle. "John tient un couteau." Que se passerait-il si le classificateur transmettait cette information, incorrecte, à la police, nous ne le saurons jamais.

La plupart des utilisateurs finaux de plates-formes d'IA, qui ne sont pas des artistes, pourraient faire valoir que ces systèmes peuvent avoir leurs propres préjugés, mais qu'ils doivent toujours recevoir l'approbation finale d'un humain. Un algorithme fabriqué par Amazon, Rekognition, que la société vend à la police et peut-être à ICE, a mal reconnu 28 membres du Congrès comme des personnes inculpées d'un crime en comparant leurs visages à des photos d'identité dans une base de données accessible au public. À l'époque, Amazon avait fait valoir que l'ACLU, qui utilisait le système pour effectuer les correspondances, avait utilisé de manière incorrecte Rekognition. La société a déclaré que le paramètre par défaut du système pour les correspondances, appelé "seuil de confiance", était de 80% seulement. (En d’autres termes, l’algorithme n’était sûr que de 80% que John Lewis était un criminel.) Un porte-parole d'Amazon a déclaré qu'il recommandait aux services de police d'utiliser un seuil de confiance de 95% et que "Amazon Rekognition est presque exclusivement utilisé pour aider réduisez le champ et autorisez les humains à examiner et à examiner rapidement les options en utilisant leur jugement. »Les ordinateurs communiquent peut-être les uns avec les autres mais, pour le moment, ils demandent toujours aux humains de faire le dernier appel.

La musique, choisie par Paglen avec l’aide de Kronos, a également quelque chose à dire sur la technologie. L'un des morceaux, "Powerhouse" de Raymond Scott, est "probablement le plus célèbre pour son utilisation dans les dessins animés de scènes d'usine", a déclaré Paglen. "Si vous voyez un jour une usine sur-produire et devenir folle, c'est souvent la musique qui en parle. Pour moi, c'est une façon de penser à cette industrialisation presque caricaturale et de la situer dans un contexte technologique." Une autre pièce, "Different Trains" de Steve Reich, a clôturé le tournage. Kronos ne joue que le premier mouvement, qui parle de l'enfance de Reich dans les années 30 et 40; Paglen dit qu'il pense que cette pièce célèbre "un sentiment d'exubérance et de progrès que les trains facilitent" *

Il était associé à des images d'une base de données accessible au public appelée ImageNet, qui sont utilisées pour enseigner aux ordinateurs ce que sont des choses. (Également appelé «données d'entraînement», alors oui, c'est un peu un jeu de mots.) L'écran affichait des images incroyablement rapides, montrant des exemples de fruits, de fleurs, d'oiseaux, de chapeaux, de gens debout, de gens marchant, de gens sautant et des individus comme Arnold Schwarzenegger. Si vous vouliez apprendre à un ordinateur à reconnaître une personne, comme Schwarzenegger, une maison ou le concept du "dîner", commencez par montrer ces milliers de photos à un ordinateur.

Il y avait aussi de courts clips vidéo de personnes s'embrassant, s'étreignant, riant et souriant. Peut-être un AI entraîné sur ces images serait-il bienveillant et amical.

Mais "Different Trains" n'est pas seulement une question d'optimisme; Les mouvements ultérieurs, que Kronos n'a pas joués jeudi mais qui sont "impliqués" par le premier, concernent la manière dont la promesse de voyager en train a été appropriée pour devenir un instrument de l'Holocauste. Les trains, qui semblaient être un progrès technologique, sont devenus des véhicules dans lesquels des dizaines de milliers de Juifs ont été transférés dans des camps de la mort. Ce qui semblait être une technologie bienveillante est devenu subverti pour le mal.

"C'est comme 'Qu'est-ce qui pourrait mal tourner?" Dit Paglen. "Nous collectons toutes les informations sur tous les peuples du monde."

Et en fait, à la fin de "Différents trains", l'attention s'est déplacée. L'écran ne montrait plus d'images de Kronos ni les données d'entraînement d'ImageNet; au lieu de cela, il a montré un flux vidéo en direct du public, les algorithmes de reconnaissance faciale sélectionnant les caractéristiques de chaque personne. En vérité, même lorsque nous pensons ne pas être surveillés, nous le sommes.

Dans un flux vidéo en direct du public, des algorithmes de reconnaissance faciale sélectionnaient les caractéristiques de chaque personne. Dans un flux vidéo en direct du public, des algorithmes de reconnaissance faciale ont sélectionné les caractéristiques de chaque personne. (Bruce Guthrie)

Pour raconter cette histoire, j'ai quitté ma maison et me suis dirigée vers la station de métro, où j'ai scanné une carte électronique liée à mon nom pour traverser le tourniquet, puis lorsque j'ai quitté le centre-ville. Au centre-ville, j'ai passé une demi-douzaine de caméras de sécurité avant d'entrer dans le musée, où j'ai repéré au moins deux autres (un porte-parole du Smithsonian a déclaré que le Smithsonian n'utilisait pas la technologie de reconnaissance faciale; le département de la police métropolitaine de Washington disait la même chose à propos de ses caméras).

J'ai enregistré des entretiens à l'aide de mon téléphone et transféré l'audio vers un service de transcription qui utilise l'IA pour comprendre ce que moi-même et mes sujets disons et qui peut ou non cibler la publicité à mon sujet en fonction du contenu des entretiens. J'ai envoyé des courriels à l'aide de Gmail, qui "lit" encore tout ce que j'envoie (bien que ce ne soit plus pour me servir d'annonces).

Pendant le processus de rapport, alors que je marchais dans la ville, je suis tombé sur - je ne l'invente pas - la voiture Google Street View. Deux fois. Ce n'est pas de la paranoïa s'ils vous surveillent vraiment, n'est-ce pas?

Alors que reste-t-il, dans ce monde où les ordinateurs voient et peuvent éventuellement porter un jugement sur nous? "Sight Machine" nous incite à apprendre à penser comme un ordinateur - mais cela nous rappelle également que certaines de nos parties sont, pour le moment, encore pleinement humaines.

La musique, dit Paglen, "n’est pas vraiment quantifiable. Lorsque vous regardez un système de vision par ordinateur qui interroge essentiellement des artistes interprètes, cela montre vraiment le fossé qui sépare notre perception de la culture, de nos émotions et de notre signification." .et toutes les façons dont celles-ci sont invisibles pour les systèmes autonomes. "

Ou, comme le dit Harrington, vous pouvez créer de la musique avec un violon en bois ou un violon créé sur une imprimante 3D. Vous pouvez utiliser un arc en fibre de carbone ou en bois de pernambouc. Mais, dit-il, il faut encore tirer l’arc à travers les ficelles. La musique "devient plus précieuse parce qu'elle est faite à la main".

Et pour l’instant, c’est quelque chose que nous ne pouvons faire que. Les machines peuvent ne plus avoir besoin de nous. Mais quand il s'agit du son solennel d'un archet sur une corde de violon et des cordes émotionnelles qui soulignent l'attaque, nous n'avons pas besoin des machines.

«Trevor Paglen: Sites Unseen», sous la direction de John Jacob, se poursuivra jusqu'au 6 janvier 2019 au Smithsonian American Art Museum de Washington, DC. Il est prévu qu'il se rende au Musée d'art contemporain de San Diego du 21 février au 2 juin 2019.

* Note de la rédaction, 2 novembre 2018: cette histoire a été modifiée pour clarifier le sens et l'histoire d'origine de la composition de "Steve, William Reich".

La «performance visuelle» de la performance musicale révèle ce que l'intelligence artificielle «pense» à notre sujet