Concept de haut-parleur intelligent montrant la reconnaissance vocale, crédit: Shutterstock / metamorworks.

Qui stocke vos conversations?

Les données collectées par votre Echo appartiennent à Amazon et non à vous.

Discuter avec Alexa et Siri peut sembler plutôt anodin, mais il peut être déconcertant de savoir que vos conversations sont stockées hors de votre contrôle. Une équipe de recherche du département d’informatique étudie comment rendre les assistants virtuels plus respectueux grâce à une combinaison de techniques techniques et sociales. William Seymour, étudiant à la maîtrise, explique.

Il existe de nombreux ouvrages sur les interactions homme-machine qui décrivent les dangers potentiels liés au traitement d’une machine comme si elle était humaine. Parallèlement, au fil des ans, les gens ont tout anthropomorphisé, des appareils de cuisine aux Roombas. Bien que ce comportement soit pour la plupart inoffensif, la nouvelle technologie menace de changer cela.

Les assistants virtuels tels que Siri et Alexa nous offrent un moyen d'automatiser des tâches simples et banales. Mais plus encore que les appareils qui les ont précédés, ils nous invitent à les personnifier. Ils ont des noms, parlent à voix humaine et peuvent, dans une mesure limitée, converser avec nous et raconter des blagues. Donc quel est le problème? Ce comportement nous incite à attendre de notre technologie qu’elle se comporte de manière humaine.

Combinées à des méthodes d'interaction distinctement humaines (telles que la parole), nous pouvons nous attendre à ce que notre technologie se comporte d'une manière qui serait évidente pour un humain, mais qui dépasse tout simplement les capacités actuelles des machines.

Dans un procès pour meurtre en 2017 en Arkansas, les enregistrements d'un Alexa appartenant à l'accusé ont été remis à l'accusation comme preuve

De plus, les relations que nous entretenons avec ces appareils reposent désormais sur des bases très différentes de celles du passé. Bien que Cortana puisse vous dire qu’elle vous apprécie, l’accord légal qui existe entre vous et la société qui a créé le logiciel de votre assistant virtuel ne contient pas de clause les obligeant à vous aimer ou à vous respecter (et à quelle date avez-vous lu des termes et conditions?). conditions?) Normalement, ce n’est pas quelque chose que nous remarquons, mais lorsque le fossé s’est effondré, il peut en résulter un comportement inquiétant et un sentiment de trahison. Lors d'un procès pour meurtre en 2017 en Arkansas, des enregistrements d'un Alexa appartenant à l'accusé ont été remis à l'accusation à titre de preuve. Ce n'est pas quelque chose que l'on attend d'un gadget principalement utilisé pour jouer de la musique. Nous espérons pouvoir jouir de la vie privée chez nous, mais cela est finalement incompatible avec le fait que les données collectées par votre Echo appartiennent à Amazon et non à vous.

La solution est-elle pour commencer à lire les politiques de confidentialité? Une analyse de 184 000 politiques de confidentialité révèle que la compréhension en lecture nécessaire pour comprendre la politique de confidentialité moyenne est à peu près identique à celle requise pour lire un article dans Nature. Simplifier les règles peut aider, mais seulement si elles sont réellement lues. Afin de trouver une solution à long terme, le professeur Max Van Kleek, Reuben Binns et moi-même avons demandé à quoi pourrait ressembler un assistant virtuel respectueux, dans le cadre du projet ReitPS (Respectful Things In Private Spaces) financé par EPSRC (goo.gl / VkDyoW).

Peut-être un assistant respectueux stockera-t-il et traitera-t-il les données collectées localement, de manière à ce qu'il ne quitte jamais votre domicile, ou proposera différentes options de reconnaissance vocale afin que les utilisateurs puissent échanger la précision des modèles basés sur le cloud contre la confidentialité des modèles locaux. Nous pensons également que les appareils les plus respectueux incorporeront des outils qui aideront les utilisateurs à rendre leurs autres appareils plus respectueux s’ils ne peuvent le faire eux-mêmes.

Dans le même esprit, nous élaborons également une version «honnête» d’Amazon Echo. Lorsqu’ils utilisent une base de données Alexa modifiée, les utilisateurs sont informés lorsqu’ils demandent comment l’utilisation de ces informations: leur destination, leur profil, et les tiers qui y auront accès. En faisant cela, nous espérons examiner comment les gens utilisent ces informations pour prendre des décisions concernant les dispositifs installés chez eux, et en particulier comment ils modifient leur comportement après avoir interagi avec nos prototypes de laboratoire spéculatifs.

Ainsi, si les assistants virtuels eux-mêmes ne sont pas intrinsèquement problématiques, ils mettent en avant nombre des problèmes qui se sont posés autour de notre utilisation de services centralisés pilotés par les données, en particulier pour les dispositifs Internet de l'Internet des objets domestiques. Nous pensons que l'utilisation de la notion de respect lors de la réflexion sur les appareils intelligents, sans pour autant résoudre tous les problèmes identifiés ci-dessus, contribuera à faire de la maison intelligente du futur un meilleur lieu de vie.

Amazon Echo, crédit: Shutterstock / amedley.

Et ensuite?

Suivez-nous ici sur Medium où nous publions régulièrement.

Si vous avez aimé cet article, applaudissez-le pour passer le mot et aider les autres à le trouver.

Voulez-vous lire plus? Essayez nos articles sur la Journée de célébration de la participation internationale des femmes dans l’ingénierie, une exposition présentant des œuvres d’art moderniste est un cadeau pour une designer, et L’avenir du travail.

Êtes-vous un membre de l'Université qui veut écrire pour nous sur Medium? Contactez-nous ici avec vos idées: digicomms@admin.ox.ac.uk.