https://frosthead.com

Comment comprendre les animaux peut nous aider à tirer le meilleur parti de l'intelligence artificielle

Chaque jour, d'innombrables gros titres émergent d'une multitude de sources à travers le monde, mettant en garde contre des conséquences désastreuses et un avenir utopique prometteur, le tout grâce à l'intelligence artificielle. L'IA «transforme le lieu de travail», écrit le Wall Street Journal, tandis que le magazine Fortune nous dit que nous sommes confrontés à une «révolution de l'IA» qui «changera nos vies». Mais nous ne comprenons pas vraiment à quoi ressemblera l'interaction avec l'IA. - ou ce que cela devrait être.

Cependant, il s'avère que nous avons déjà un concept que nous pouvons utiliser lorsque nous pensons à AI: C'est ainsi que nous pensons aux animaux. En tant qu'ancien dresseur d'animaux (bien que brièvement) qui étudie maintenant comment les gens utilisent l'IA, je sais que les animaux et leur dressage peuvent nous apprendre beaucoup de choses sur la manière dont nous devrions penser, approcher et interagir avec l'intelligence artificielle, à la fois maintenant et dans le monde. futur.

L'utilisation d'analogies animales peut aider les gens ordinaires à comprendre nombre des aspects complexes de l'intelligence artificielle. Cela peut également nous aider à réfléchir à la meilleure façon d'enseigner à ces systèmes de nouvelles compétences et, peut-être plus important encore, à bien concevoir leurs limites, même si nous célébrons les nouvelles possibilités offertes par l'IA.

Regarder les contraintes

Comme l'explique Maggie Boden, experte en intelligence artificielle, «L'intelligence artificielle cherche à faire en sorte que les ordinateurs fassent ce que l'esprit peut faire.» Les chercheurs en intelligence artificielle enseignent à l'ordinateur à raisonner, à percevoir, à planifier, à bouger et à créer des associations. L'intelligence artificielle peut voir des modèles dans de grands ensembles de données, prévoir la probabilité qu'un événement se produise, planifier un itinéraire, gérer le calendrier des réunions d'une personne et même jouer à des scénarios de jeu de guerre.

Beaucoup de ces capacités ne sont, en elles-mêmes, pas surprenantes: Bien sûr, un robot peut rouler dans un espace et ne pas entrer en collision avec quoi que ce soit. Mais de toute façon, l'IA semble plus magique quand l'ordinateur commence à rassembler ces compétences pour accomplir des tâches.

Prenons, par exemple, les voitures autonomes. La voiture sans conducteur trouve ses origines dans un projet de l'Agence de recherche avancée sur la défense des années 1980, appelé véhicule terrestre autonome. Les objectifs du projet étaient d'encourager la recherche sur la vision, la perception, la planification et le contrôle robotique par ordinateur. En 2004, l’effort ALV est devenu le premier grand défi des voitures autonomes. Aujourd'hui, plus de 30 ans après le début des efforts, nous sommes au bord du précipice des voitures autonomes ou autonomes sur le marché civil. Dans les premières années, peu de gens pensaient qu'un tel exploit était impossible: les ordinateurs ne pouvaient pas conduire!

Pourtant, comme nous l’avons vu, ils le peuvent. Les capacités des voitures autonomes sont relativement faciles à comprendre pour nous. Mais nous avons du mal à comprendre leurs limites. Après l'accident fatal de Tesla en 2015, où la fonction de pilote automatique de la voiture n'avait pas détecté le passage d'un tracteur semi-remorque dans sa voie, peu de gens semblent encore saisir la gravité de la limitation réelle du pilote automatique de Tesla. Bien que la société et son logiciel aient été blanchis par la National Highway Traffic Safety Administration, il n’est pas clair si les clients comprennent vraiment ce que la voiture peut ou ne peut pas faire.

Et si les propriétaires de Tesla n'étaient pas informés qu'ils conduisaient une version «bêta» d'un pilote automatique, mais plutôt une voiture semi-autonome avec l'équivalence mentale d'un ver? La soi-disant "intelligence" qui fournit la "capacité totale d'auto-conduite" est en réalité un ordinateur géant assez efficace pour détecter et éviter les objets, pour reconnaître les éléments dans les images et pour une planification limitée. Cela pourrait changer le point de vue des propriétaires sur ce que la voiture pourrait réellement faire sans intervention humaine ni surveillance.

Qu'Est-ce que c'est?

Les technologues essayent souvent d'expliquer l'IA en termes de construction. Prenons, par exemple, les progrès réalisés dans l’apprentissage en profondeur. Cette technique utilise des réseaux multicouches pour apprendre à effectuer une tâche. Les réseaux doivent traiter de grandes quantités d’informations. Mais en raison du volume des données dont ils ont besoin, de la complexité des associations et des algorithmes dans les réseaux, il est souvent difficile pour les humains de savoir comment ils apprennent ce qu’ils font. Ces systèmes peuvent devenir très efficaces dans certaines tâches, mais nous ne les comprenons pas vraiment.

Au lieu de penser à l'IA comme quelque chose de surhumain ou d'alien, il est plus facile de les assimiler à des animaux, des nonhumains intelligents que nous avons formés.

Par exemple, si j'utilisais le renforcement pour apprendre à entraîner un chien à s'asseoir, je le féliciterais et lui donnerais des friandises lorsqu'il serait assis sur ses ordres. Au fil du temps, il apprendrait à associer la commande au comportement associé à la friandise.

La formation d'un système d'IA peut être très similaire. Dans le cadre de l'apprentissage en profondeur par le renforcement, les concepteurs humains mettent en place un système, envisagent ce qu'ils veulent apprendre, lui donnent des informations, observent ses actions et lui transmettent des commentaires (tels que des éloges) lorsqu'ils voient ce qu'ils veulent. Essentiellement, nous pouvons traiter le système d'IA comme nous traitons les animaux que nous formons.

L'analogie fonctionne aussi à un niveau plus profond. Je ne m'attends pas à ce que le chien assis comprenne des concepts complexes tels que «amour» ou «bon». Je m'attends à ce qu'il apprenne un comportement. Tout comme nous pouvons obtenir que les chiens s'assoient, restent et se retournent, nous pouvons utiliser des systèmes d’IA pour déplacer les voitures sur les routes publiques. Mais il est trop difficile de s'attendre à ce que la voiture «résolve» les problèmes éthiques pouvant survenir en cas d'urgence.

Aider les chercheurs aussi

Penser à l'IA en tant qu'animal dressable n'est pas seulement utile pour l'expliquer au grand public. C'est également utile pour les chercheurs et les ingénieurs qui construisent la technologie. Si un spécialiste de l'IA essaye d'enseigner une nouvelle technique à un système, une réflexion sur le processus du point de vue d'un dresseur d'animaux pourrait aider à identifier les problèmes ou les complications potentiels.

Par exemple, si j'essaie d'entraîner mon chien à s'asseoir et que chaque fois que je dis «assieds-toi», l'avertisseur sonore se déclenche, mon chien commencera alors à associer la position assise non seulement avec ma commande, mais aussi avec le son du la sonnerie du four. Essentiellement, la sonnerie devient un autre signal invitant le chien à s'asseoir, ce qui s'appelle un «renforcement accidentel». Si nous recherchons des renforts accidentels ou des signaux dans des systèmes d'IA qui ne fonctionnent pas correctement, nous saurons mieux non seulement ce qui se passe. mal, mais aussi quelle formation spécifique sera la plus efficace.

Cela nécessite que nous comprenions les messages que nous transmettons pendant l'entraînement à l'IA, ainsi que ce que l'IA pourrait observer dans son environnement. La sonnerie du four est un exemple simple. dans le monde réel, ce sera beaucoup plus compliqué.

Avant de souhaiter la bienvenue à nos suzerains d'intelligence artificielle et de confier notre vie et notre travail à des robots, nous devons faire une pause et réfléchir au type d'intelligence que nous créons. Ils seront très doués pour effectuer des actions ou des tâches particulières, mais ils ne peuvent pas comprendre les concepts et ne savent rien. Donc, lorsque vous envisagez de dépenser des milliers de dollars pour une nouvelle voiture Tesla, rappelez-vous que sa fonction de pilote automatique est vraiment un ver très rapide et sexy. Voulez-vous vraiment donner le contrôle sur votre vie et celle de vos proches? Probablement pas, alors gardez vos mains sur le volant et ne vous endormez pas.


Cet article a été publié à l'origine sur The Conversation. La conversation

Heather Roff, chercheuse principale, département de politique et de relations internationales, Université d'Oxford; Chercheur scientifique, Global Security Initiative, Arizona State University

Comment comprendre les animaux peut nous aider à tirer le meilleur parti de l'intelligence artificielle