Crédit image: groupe de coopération évolutive / MIT Media Lab. CC-By 4.0 International.

Étudier le comportement de l'IA

Un nouveau document encadre le domaine interdisciplinaire émergent du comportement des machines

Alors que notre interaction avec la technologie de "réflexion" augmente rapidement, un groupe dirigé par des chercheurs du MIT Media Lab réclame un nouveau champ de recherche - le comportement de la machine - qui ferait passer l'étude de l'intelligence artificielle bien au-delà de l'informatique et de l'ingénierie pour le transformer en biologie. économie, psychologie et autres sciences du comportement et sociales.

«Nous avons besoin d’enquêtes plus ouvertes, fiables et fiables sur l’impact des machines intelligentes sur la société. C’est pourquoi la recherche doit intégrer les compétences et les connaissances d’autres domaines que ceux qui l’étudient traditionnellement», a déclaré Iyad Rahwan, chef du groupe Scalable Cooperation. au Media Lab.

Rahwan, Manuel Cebrian et Nick Obradovich, ainsi que d’autres scientifiques du Media Lab, ont réuni des collègues des instituts Max Planck, de l’Université Stanford, de l’Université de Californie à San Diego et d’autres établissements d’enseignement, ainsi que de Google, Facebook et Microsoft, pour publier un article dans Nature, plaidant en faveur d'un vaste programme de recherche scientifique visant à comprendre le comportement des systèmes d'intelligence artificielle.

«Nous assistons à l’émergence de machines avec l’agence, des machines qui sont des acteurs qui prennent des décisions et agissent de manière autonome», a déclaré Rahwan. "Cela appelle un nouveau domaine d'études scientifiques qui les considère non seulement comme des produits de l'ingénierie et de l'informatique, mais aussi comme une nouvelle classe d'acteurs avec leurs propres modèles de comportement et leur propre écologie."

Ce n’est pas que les économistes et les politologues n’étudient pas le rôle de l’IA dans leurs domaines respectifs. Les économistes ouvriers, par exemple, examinent comment l'IA modifiera le marché du travail, tandis que les politologues étudieront l'influence des médias sociaux sur le processus politique. Mais ces recherches se déroulent principalement en silos.

Parallèlement à la publication de l'article, le groupe de coopération évolutive a publié une série d'entretiens avec plusieurs de ses auteurs. Il organise également des conférences pour réunir les personnes travaillant sur le comportement des machines dans divers domaines.

"Le Media Lab applique depuis longtemps un large éventail de compétences et de connaissances à ses recherches et à son étude des machines à penser", a déclaré Joi Ito, directeur du Media Lab. "Je suis ravi que tant d'autres aient adopté cette approche et que l'élan qui se cache derrière elle soit en train de se développer."

Algorithmes, confiance et secret

Nous interagissons plusieurs fois par jour avec des machines pensantes. Nous pouvons demander à Siri de trouver le nettoyeur à sec le plus proche de chez nous, demander à Alexa de commander du savon à vaisselle ou obtenir un diagnostic médical généré par un algorithme. Nombre de ces outils qui facilitent la vie sont en fait «penser» par eux-mêmes, acquérir des connaissances et les exploiter, voire communiquer avec d’autres machines à penser pour prendre des décisions et des jugements de plus en plus complexes - et de manière que même les programmeurs qui ont écrit leur le code peut expliquer complètement.

Imaginez, par exemple, un fil de nouvelles dirigé par un réseau de neurones profonds vous recommande un article d’un magazine de jardinage, même si vous n’êtes pas un jardinier. «Si je demandais à l'ingénieur qui a conçu l'algorithme, il ne serait pas en mesure de dire de manière complète et causale pourquoi cet algorithme a décidé de vous recommander cet article», a déclaré Nick Obradovich, chercheur du groupe Scalable Cooperation, et l'un des principaux auteurs du papier Nature.

Les parents pensent souvent que l’interaction de leurs enfants avec l’assistant personnel de la famille est charmante ou drôle. Mais que se passe-t-il lorsque l’assistant, riche en intelligence artificielle avant-gardiste, répond à la quatrième ou à la cinquième question d’un enfant sur T. Rex en suggérant: «Ne serait-il pas agréable que ce dinosaure soit un jouet?».

"Qu'est-ce qui motive cette recommandation?" Dit Rahwan. «L’appareil tente-t-il d’enrichir l’expérience de l’enfant - ou d’enrichir la société qui vend le dinosaure en jouet? C’est très difficile de répondre à cette question.

Jusqu'à présent, personne n'a trouvé le moyen infaillible d'examiner toutes les conséquences potentielles importantes des décisions algorithmiques sur nos vies. Cela signifie que nous n'avons aucun moyen d'évaluer si les choix que l'IA fait pour nous sont meilleurs que les décisions prises par des humains, lorsque nous sortons des objectifs spécifiques et restreints que les ingénieurs optimisent.

Crédit image: groupe de coopération évolutive / MIT Media Lab. CC-By 4.0 International.

Les chercheurs souhaitant étudier les processus de prise de décision à l'aide de machines sont souvent contrariés par le secret industriel et les protections juridiques et de propriété intellectuelle. Les codes source et les structures de modèle pour les algorithmes les plus répandus dans la société sont propriétaires, de même que les données utilisées pour les «former», de sorte que seuls les intrants et les extrants pouvant être examinés sont examinés. "Supposons que nous souhaitons étudier la tarification d'Amazon, ce qui pourrait nécessiter la création de faux personnages qui consultent le site à des fins d'achat", a déclaré Rahwan. "En faisant cela, vous enfreignez peut-être les conditions de service et cela pourrait être un crime."

Alan Mislove de la Northeastern University, co-auteur de l'article, fait partie d'un groupe de plaignants universitaires et de médias qui ont plaidé dans une action en justice mettant en cause la constitutionnalité d'une disposition de la Computer Fraud and Abuse Act qui rend criminelle toute recherche visant à déterminer si les algorithmes produisent une discrimination illégale dans des domaines tels que le logement et l'emploi.

Mais même si les grandes entreprises de technologie décidaient de partager des informations sur leurs algorithmes et d’autoriser davantage de chercheurs à y accéder, il existait un obstacle encore plus important à la recherche et à l’investigation: les agents d’IA peuvent acquérir de nouveaux comportements lorsqu’ils interagissent avec le monde qui les entoure. et avec d'autres agents. Les comportements appris de telles interactions sont pratiquement impossibles à prévoir et, même lorsque des solutions peuvent être décrites mathématiquement, ils peuvent être «suffisamment longs et complexes pour être indéchiffrables», selon le document.

Il en va de même pour certaines des questions soulevées concernant la raison pour laquelle AI prend des décisions, et pourquoi.

Supposons, par exemple, qu'une voiture autonome hypothétique soit vendue comme étant la plus sûre du marché. L'un des facteurs qui le rend plus sûr est qu'il "sait" quand un gros camion s'arrête le long de son côté gauche et se déplace automatiquement de trois pouces vers la droite tout en restant dans sa propre voie. Mais que se passe-t-il si un cycliste ou une moto s’arrête en même temps sur la droite et est donc tué à cause de cette caractéristique de sécurité?

«Si vous pouviez consulter les statistiques et le comportement de la voiture dans son ensemble, cela pourrait tuer trois fois plus de cyclistes que plus d'un autre modèle», a déclaré Rahwan. «En tant qu’informaticien, comment allez-vous programmer le choix entre la sécurité des occupants de la voiture et celle des personnes à l’extérieur de la voiture? Vous ne pouvez pas simplement faire en sorte que la voiture soit "sûre" pour qui? "

Cultiver un champ

L'objectif de cet article n'est pas de créer un nouveau champ à partir de rien, mais plutôt de réunir des spécialistes du comportement de la machine sous une bannière unique afin de reconnaître les objectifs communs et les complémentarités. Ce genre de chose arrive tout le temps en science. Un article paru en 1963 par le biologiste néerlandais Nikolaas Tinbergen, lauréat du prix Nobel, par exemple, soulevait des questions et examinait des questions ayant conduit à la mise en place du domaine du comportement animal.

Rahwan et les coauteurs espèrent qu'en nommant et en analysant le champ naissant du comportement des machines, ils pourront fournir un cadre de travail sur lequel pourront s'appuyer d'autres chercheurs, issus de tous les domaines de recherche. Réunir des perspectives interdisciplinaires variées est essentiel pour comprendre comment mieux étudier et, au final, vivre avec ces nouvelles technologies intelligentes.

Cet article a été publié à l'origine sur le site Web du Media Lab.