Comment rendre les robots éthiques en leur apprenant à dire non

apprendre aux robots IA comment dire non aux touffes de matthias scheutz Matthias Scheutz Kelvin Ma / Université Tufts Que ce soit votre smartphone qui garde la trace de vos restaurants à emporter préférés ou votre navigateur Web qui garde un œil sur les sites Web que vous visitez le plus souvent, il y a probablement une technologie dans votre maison qui apprend à vous connaître.

Au fur et à mesure que les ordinateurs passeront d'outils à assistants au cours des prochaines années, les besoins d'apprentissage de la technologie que nous utilisons au quotidien vont augmenter de manière exponentielle. Ces services seront plus sophistiqués et atteindront beaucoup plus loin qu'aujourd'hui, mais ils devront être beaucoup plus intelligents avant de le faire.

Les systèmes informatiques, l'intelligence artificielle et les robots auxiliaires devront être publiés sur une multitude de sujets - conversation humaine, normes culturelles, étiquette sociale, etc. Les scientifiques d'aujourd'hui enseignent à l'IA les leçons dont ils auront besoin pour aider les utilisateurs de demain, et le calendrier des cours n'est pas ce à quoi vous vous attendez.

Les premiers pas vers une IA plus intelligente

L'année dernière, dans les limites du laboratoire d'interaction homme-robot de l'Université Tufts de Boston, un petit robot s'est approché du bord d'une table. En atteignant ce précipice, le robot a remarqué que la surface sur laquelle il marchait avait pris fin et a dit à son opérateur: «Désolé, je ne peux pas faire ça.»

Ce faisant, la machine a confirmé que le travail réalisé par Matthias Scheutz et Gordon Briggs avait été un succès. Le couple avait décidé de donner à leur robot la possibilité de rejeter une demande présentée par un opérateur humain, l'acte d'auto-préservation de leur sujet de test étant une démonstration du système en action.

Le projet de Scheutz et Briggs fait partie d'une branche cruciale de la recherche sur l'intelligence artificielle. L'interaction homme-robot - parfois appelée HRI - est un élément essentiel de notre travail continu vers l'application pratique de l'IA. Il est facile d'oublier, les robots étant encore largement une préoccupation hypothétique pour la plupart, que ces machines devront un jour s'intégrer aux humains qu'elles sont censées aider.

Apprendre à marcher à un robot est une chose. Enseigner à ce même robot quand il est sécuritaire de traverser une route est assez différent. C'est le cœur du projet mené par Scheutz et Briggs. Ils voulaient donner à un robot la possibilité de rejeter les ordres qu'il a donnés, s'il semble que l'exécution de la tâche lui causerait du tort.

Pour un humain, cela peut sembler être un élément implicite de l'action de se déplacer. Mais les robots n'ont pas de «bon sens».

Importance du mot «non»

Apprendre à un robot à refuser un ordre qui l'envoie plonger dans sa perte est un avantage évident pour le robot, mais aussi pour celui qui le possède. Mais son importance va bien plus loin. Aider un robot à dire «non», c'est l'aider à apprendre à juger des implications de ses actions.

«De la même manière que nous ne voulons pas que les humains suivent aveuglément les instructions des autres humains, nous ne voulons pas que les robots instructeurs exécutent des ordres humains sans vérifier quels sont les effets», a déclaré Scheutz à Digital Trends.

Nous devons apprendre aux robots à désobéir aux commandes qui ne sont pas conformes à l'éthique.

«Les instructions peuvent être inappropriées dans une situation donnée pour de nombreuses raisons», a-t-il poursuivi, «mais surtout parce qu'elles pourraient causer des dommages aux humains ou endommager des biens, y compris le robot lui-même. En raisonnant sur les résultats possibles d'une action ordonnée, le robot pourrait être en mesure de détecter les violations potentielles des normes et les dommages potentiels résultant de l'action, et pourrait tenter de les atténuer. "

Essentiellement, lorsque le robot reçoit son instruction d'avancer, il vérifie cette demande par rapport aux informations dont il dispose. Si quelque chose semble louche, le robot peut alors faire part de ses préoccupations à l'opérateur humain, rejetant finalement la commande purement et simplement si l'instructeur n'a pas de données supplémentaires pour calmer ses craintes.

Le processus scientifique ne constitue pas un titre aussi accrocheur que la menace d'un soulèvement de robot pour nous, les humains. Des journaux tabloïds comme le Daily Mail ont rendu compte du travail de Scheutz avec un titre caricatural spéculant sur l'assujettissement imminent de notre espèce aux mains des seigneurs de robots. Chez DT, nous sommes également connus pour plaisanter sur l'apocalypse des robots. C'est généralement très amusant, mais dans des cas comme celui-ci, cela peut nuire à la capacité des chercheurs à faire passer leur message.

"Il y aura toujours des réponses qui sortent la recherche de son contexte et se concentrent sur ce qui nous semble inconfortable, comme l'idée de robots désobéissant à nos commandes", a déclaré Scheutz en réponse au rapport du Daily Mail. «Cependant, l'aspect clé de notre recherche que ces titres accrocheurs ignorent est d'apprendre au robot à rejeter les commandes qui ne sont pas éthiquement valables  - et seulement celles-là. Ne pas être désobéissant en général. "

Et si, par exemple, un petit garçon disait à un robot domestique de jeter du café chaud sur son petit frère comme une farce? S'assurer que cela ne puisse pas avoir lieu est essentiel au succès de toute entreprise produisant une telle technologie pour le marché grand public, et ce n'est possible que si le robot dispose d'une large base de données de normes sociales et éthiques à référencer en plus de sa capacité à dire «non. "

Ajouter des couches de complexité

Les humains savent qu'il faut arrêter de marcher à l'approche d'une forte pente ou pourquoi il est inapproprié de tremper un bébé dans du café chaud. Nos expériences nous ont dit ce qui est dangereux et ce qui est simplement méchant. Que nous ayons fait ou entendu quelque chose dans le passé, nous pouvons nous appuyer sur les informations que nous avons stockées pour informer notre comportement dans une nouvelle situation.

Les robots peuvent résoudre des problèmes sur la base du même principe. Mais nous n'avons pas encore produit un ordinateur capable d'apprendre comme un humain - et même dans ce cas, l'apprentissage de l'éthique est un processus qui prend des années. Les robots doivent disposer de toute une vie d'informations avant d'être diffusés dans le monde.

L'ampleur de ce travail est stupéfiante, bien au-delà de ce à quoi beaucoup pourraient s'attendre. En plus d'apprendre au robot comment accomplir toute tâche pour laquelle il est envoyé, il y a une couche supplémentaire de complexité offerte par les nombreuses subtilités de l'interaction homme-robot.

Andrew Moore est le doyen de la School of Computer Sciences de l'Université Carnegie Mellon. Dans ce rôle, il soutient un groupe de 2000 étudiants et membres du corps professoral, dont beaucoup travaillent dans des domaines liés à la robotique, à l'apprentissage automatique et à l'IA.

«Nous sommes chargés d'aider à comprendre à quoi ressemblera l'année 2040», m'a-t-il dit. «Nous sommes donc également responsables de faire en sorte que 2040 soit une très bonne année pour vivre.» Étant donné qu'il est probable que les robots auxiliaires joueront un rôle dans cette vision du futur, Moore a beaucoup d'expérience dans la relation entre la machine et l'utilisateur. Pour donner une idée de la façon dont ce lien va évoluer dans les années à venir, il utilise l'exemple familier de l'assistant smartphone.

Aujourd'hui, nous sommes nombreux à avoir un smartphone capable de répondre à des questions telles que «qui est l'actuel président des États-Unis?» et des requêtes plus complexes telles que «quelle est la taille des filles du président des États-Unis?» Bientôt, nous verrons les actions basées sur ces questions devenir monnaie courante. Vous pourriez demander à votre téléphone de commander un nouveau paquet de couches, par exemple.

Pour démontrer la prochaine étape du développement, Moore a proposé un exemple de question apparemment anodin. «Ai-je le temps d'aller prendre un café avant ma prochaine réunion?»

En savoir plus sur l'IA:  l'algorithme d'apprentissage automatique met les mots de George W. Bush dans la bouche de Barack Obama

«Sous le capot, il y a beaucoup de connaissances qui doivent parvenir à l'ordinateur pour que l'ordinateur réponde à la question», a déclaré Moore. Bien que la technologie actuelle puisse comprendre la question, le système a besoin de beaucoup de données pour y répondre. À quoi ressemble la file d'attente au café? Comment est le trafic? Quel type de boisson l'utilisateur commande-t-il habituellement? Donner à l'ordinateur l'accès à ces données présente ses propres défis.

Les systèmes d'IA auront besoin d'accéder à une énorme quantité d'informations - dont certaines sont gravées dans le marbre, dont certaines changent constamment - simplement pour exécuter les tâches complexes que nous attendons d'eux dans quelques années.

Moore illustre ce point en comparant le ton de voix qu'une personne peut prendre lorsqu'elle parle au patron de son patron ou à un vieil ami. Quelque part dans vos banques de données, il y a un noyau d'informations qui vous indique que le premier doit être traité avec certains signaux sociaux qui ne sont pas aussi nécessaires lorsque vous parlez au second.

Si vous demandez à Google de montrer des robes rouges et que l'un des résultats est un grille-pain, tout s'écroule.

C'est simple pour un humain, mais quelque chose qui doit être inculqué dans l'IA. Et plus la tâche est urgente, plus la précision devient importante. Demander à un assistant si vous prenez un café est une chose. Mais que se passerait-il si vous étiez blessé et que vous aviez besoin de savoir quel hôpital pourrait être atteint le plus rapidement - et que vous aviez peut-être besoin de l'aide d'un robot pour l'atteindre? Une erreur devient soudainement mortelle.

«Il est en fait assez facile d'écrire un programme d'apprentissage automatique où vous l'entraînez avec de nombreux exemples», a déclaré Moore. «Lorsque vous avez fait ce travail, vous vous retrouvez avec un modèle. Cela fonctionne plutôt bien, et lorsque nous construisons un système comme celui-là, nous parlons de «précision» et utilisons des expressions telles que «précision» et «rappel». Ce qui est intéressant, c'est qu'il est assez simple d'obtenir des choses qui sont correctes 19 fois sur 20. »

«Pour de nombreuses applications, c'est assez bien. Mais, dans de nombreuses autres applications, en particulier lorsque la sécurité est en jeu ou lorsque vous posez des questions très complexes, vous avez vraiment besoin que votre système ait une précision de 99,9%. »

La confiance des utilisateurs est également un problème. «[Si] vous demandez à Google 'montre-moi les 15 robes rouges les plus populaires' et que cela donne les résultats et qu'une seule d'entre elles est en fait un grille-pain, alors tout s'écroule. Les utilisateurs arrêtent de lui faire confiance. » Un utilisateur qui perd confiance en un robot est susceptible d'arrêter complètement de l'utiliser.

Enseigner les connaissances communes

Même sans tenir compte des tâches spécifiques que toute mise en œuvre individuelle est conçue pour accomplir, les robots et les IA auront besoin d'une énorme quantité de connaissances de base pour fonctionner dans la nature. Tout, des indices sociaux aux règles de sécurité, doit être imprimé sur le cerveau des machines pour assurer leur succès.

Heureusement, d'autres domaines donnent un coup de main à certains éléments de ce programme informatique. "Avec des choses comme la navigation et avec l'analyse des expressions faciales humaines, il existe une discipline scientifique existante qui contient en fait beaucoup de données réelles", a déclaré Moore. Les projets de recherche individuels peuvent souvent également être redéfinis.

«Les algorithmes sur lesquels nous travaillons sont généraux», m'a dit Matthias Scheutz, faisant référence à la recherche que lui et Gordon Briggs ont menée à l'Université Tufts. «Ils peuvent être appliqués dans n'importe quel domaine, à condition que le robot ait les représentations nécessaires des actions et des normes pour ce domaine.»

Les modules qui pourraient donner à un robot la capacité de reconnaître les expressions humaines ou de ne pas tomber d'une table ont certainement leur utilité. Cependant, chacun répondrait à une très petite partie des exigences de base d'une machine pour fonctionner sans surveillance. Un système d'exploitation généralisé pourrait présenter un niveau de base de connaissances communes qui pourrait être facilement partagé entre différentes implémentations.

«L'un des principaux bailleurs de fonds de ce type de travail est un groupe qui a financé de nombreuses autres choses qui se sont avérées importantes», a déclaré Moore. «C'est DARPA. Ils ont un certain nombre de grands projets en cours dans ce qu'ils appellent «des connaissances communes en robotique». »

Si les IA et les robots d'assistance vont devenir une réalité dans un avenir pas trop lointain, une version de cette plate-forme de `` connaissances communes pour la robotique '' est susceptible d'être un élément crucial. Cela pourrait même être la clé d'une adoption généralisée.

Il y a beaucoup de travail à faire avant de disposer d'une base de connaissances pouvant prendre en charge la première vague de robots grand public. Le produit final pourrait être dans des années, mais les fondements nécessaires pour faciliter sa création ne sont pas de la science-fiction.