Crédit d'image: Nick Philip

Ouvrir un avenir avec des systèmes autonomes et intelligents

Par Joi Ito, directeur du MIT Media Lab

J'ai rencontré John Havens pour la première fois à une table ronde de l'Institut Aspen pour discuter de l'avenir de l'intelligence artificielle. J'avais toujours imaginé l'IEEE comme un endroit où les ingénieurs élaboraient des normes techniques pratiques et publiaient des revues scientifiques rigoureuses. Je fus donc surpris - et ravi - de le trouver prônant l'importance de l'éthique dans les systèmes autonomes et intelligents de manière aussi nuancée et inclusive. Bientôt, nous avions rédigé le début du Conseil mondial sur l’intelligence étendue (CXI) et son mandat: veiller à ce que ces outils profitent aux gens et à la planète, rendent nos systèmes plus robustes et résilients et ne renforcent pas les biais systémiques négatifs.

Le MIT Media Lab a une longue histoire dans la discipline de l'apprentissage automatique et de l'IA, à commencer par le travail du membre fondateur du corps professoral, Marvin Minsky. Mais nous sommes loin de 1985 et des idéaux et de l’optimisme qui prévalaient autrefois sur le terrain. À mesure que le temps passait et que les interfaces entre humains et machines ouvraient la voie à de célèbres jouets technologiques et à des commodités importantes, les ramifications de ce travail et les divisions qu’il créait devenaient de plus en plus évidentes.

Dans les ateliers du Media Lab, vous verrez les étudiants et les professeurs s’attaquer à ces nouvelles questions: Joyce Buolamwini, doctorante, travaille à l’amélioration du logiciel de reconnaissance faciale, où des ensembles de données biaisées compliquent l’identification des femmes et des personnes à la peau foncée; Le professeur Iyad Rahwan et ses étudiants évaluent l’avenir du travail et des travailleurs dans un monde de plus en plus automatisé. et notre cours avec le Harvard Berkman Klein Centre traite de l'éthique et de la gouvernance de l'IA.

C’est la raison pour laquelle cette collaboration est si importante pour moi et, à mon avis, différente des autres groupes qui s’occupent actuellement de l’avenir de l’IA. Bien que les ingénieurs et les technologues prennent très au sérieux les problèmes éthiques et sociaux de l’apprentissage automatique, beaucoup ne pensent tout simplement pas que c’est leur travail de s’attaquer à ces problèmes. Avec une centrale comme l’Institut de normalisation des ingénieurs électriciens et électroniciens (IEEE-SA) impliqué - le groupe même qui représente les ingénieurs et leurs intérêts - cela change le paradigme. L'éthique, les valeurs feront partie de la conversation d'ingénierie.

Ensemble, nous tenterons de donner aux gens des outils leur permettant de vivre avec une intelligence artificielle et étendue, au lieu de penser qu’ils vont être remplacés ou détruits par des machines. C'est aussi reconnaître que nous ne pouvons pas continuer à mesurer le succès en termes purement économiques, ou à chercher des solutions uniques - nous devons nous rappeler que nous faisons partie d'un réseau de systèmes complexes, auto-adaptatifs, qui comprend également les outils que nous utilisons et les environnements dans lesquels nous vivons.

À ce jour, plus de 50 chercheurs et professeurs ont adhéré à CXI, dont Jeffrey Sachs de l’Université Columbia, Martha Minow, ancienne doyenne de la faculté de droit de Harvard, Jonathan Zittrain du Berkman Klein Center et Paul Nemitz de la Commission européenne. Nous prévoyons de mettre en œuvre immédiatement trois projets: introduire des informations étendues et une conception participative auprès des décideurs et du grand public; créer un modèle de politique de données pour les gouvernements et les organisations afin d’aider les citoyens à garder le contrôle de leurs identités numériques; et créer un modèle d'indicateur de bien-être permettant aux gouvernements et aux organisations de redéfinir la «prospérité» d'une manière qui valorise les écosystèmes naturels et florissants de l'homme.

Et bien que ces idées continuent à évoluer, l’objectif ultime est d’encourager la conversation et la collaboration - nous ne pouvons pas répondre aux questions soulevées par ces nouvelles technologies sans l’apport et la rétroaction de tous ceux qui les développent, les utilisent ou en seront affectées.