Lancement aujourd'hui: nouvelle étude collaborative visant à réduire les abus sur Twitter

Avec de multiples méthodes, les abus en ligne peuvent être considérablement réduits - si nous découvrons également quelles méthodes fonctionnent réellement dans quelles situations.

par Susan Benesch et J. Nathan Matias

Les abus en ligne sont devenus tellement répandus et envahissants qu'ils constituent un sérieux défi pour le bien-être public dans le monde entier. Comme d’autres problèmes sociaux complexes, il nécessite une recherche de solutions rigoureuse et multiple. Il ne peut être résolu simplement en essayant de supprimer tout le contenu préjudiciable en ligne (même s’il est techniquement possible de le réaliser), car même de telles politiques draconiennes n’empêcheraient pas plus de contenu de causer un préjudice. C’est comme rappeler des aliments insalubres sans empêcher la contamination et la vente d’aliments nouveaux - ou remorquer des voitures écrasées sans essayer de les rendre plus sûres. Les abus ne peuvent pas être résolus par une méthode unique, car ils sont affichés sous de nombreuses formes, par une grande variété de personnes et pour de nombreuses raisons.

Avec de multiples méthodes, les abus en ligne peuvent être considérablement réduits - si nous découvrons également quelles méthodes fonctionnent réellement dans quelles situations. De nombreuses idées prometteuses ont été émises au cours des 35 années d’internet, mais la plupart d’entre elles n’ont jamais été systématiquement testées. Faute de preuves, les entreprises de haute technologie peuvent persister dans des pratiques qui aggravent les abus et négliger des idées simples qui pourraient aider des millions de personnes.

Des recherches ont montré que lorsque les institutions publient des règles clairement, les gens sont plus susceptibles de les suivre.

Aujourd’hui, Twitter commencera à tester une telle idée: montrer aux utilisateurs les règles d’une plate-forme Internet améliorera le comportement sur cette plate-forme. Les normes sociales, qui sont la croyance des gens sur ce que les institutions et d’autres considèrent comme un comportement acceptable, ont une influence déterminante sur ce que les gens font et ne font pas. Des recherches ont montré que lorsque les institutions publient des règles clairement, les gens sont plus susceptibles de les suivre. Les recherches de Nathan auprès des communautés reddit montrent déjà très tôt que rendre les politiques visibles peut améliorer le comportement en ligne. Dans une expérience qui commence aujourd'hui, Twitter publie ses règles afin de vérifier si cela améliore la civilité.

Nous avons proposé cette idée à Twitter et conçu une expérience pour l’évaluer. Ce projet propose également une approche ouverte, fondée sur des preuves, pour améliorer les expériences des personnes en ligne, tout en protégeant leur vie privée. Les chercheurs de l'industrie et des universités ont déjà travaillé ensemble. Ce qui rend cet effort unique, c’est que nous avons choisi de le mener sous la forme d’une collaboration ouverte soumise à un ensemble de contraintes juridiques, éthiques et scientifiques. Cela protégera les utilisateurs de Twitter, garantira la crédibilité de notre travail et garantira que les connaissances ainsi obtenues seront disponibles pour quiconque, même les autres sociétés Internet.

Ce projet propose également une approche ouverte, fondée sur des preuves, pour améliorer les expériences des personnes en ligne, tout en protégeant leur vie privée.

Nous espérons que ce projet fournira des connaissances pratiques sur la prévention des abus en ligne et que notre processus inspirera d'autres évaluations transparentes et indépendantes de nombreuses autres idées visant à réduire les abus en ligne.

Processus de recherche

Alors que nous testons des idées de prévention des abus, notre équipe de recherche teste également un processus d’évaluation externe et indépendante de la politique et des interventions de conception des entreprises de technologie. Voilà comment cela fonctionne.

Indépendance

Notre indépendance par rapport à Twitter est la base de ce processus. Nous sommes des chercheurs universitaires, nous ne travaillons pas pour Twitter et nous n’avons ni demandé ni reçu d’argent de Twitter pour ce projet. Nous établissons deux conditions pour mener à bien le projet en collaboration avec l'entreprise: partager les informations dont nous avons besoin pour analyser les résultats et conserver la liberté de les publier dans une revue universitaire à comité de lecture. Nous avons négocié et signé des accords légaux dans lesquels Twitter a accepté ces conditions et nous avons convenu de protéger les secrets commerciaux sur des questions techniques sans rapport avec nos questions principales.

Confidentialité de l'utilisateur

Pour protéger la confidentialité, la société ne nous fournira que des informations agrégées et anonymisées. Étant donné que nous ne recevrons aucune information d'identification concernant une personne ou un compte Twitter, nous ne pouvons pas et ne mentionnerons personne ni leurs Tweets dans nos publications.

La confidentialité est au cœur de notre processus. Elle limite donc les données avec lesquelles nous travaillons, protège les données lorsque nous effectuons une analyse et restreint l’utilisation des données uniquement pour cette étude. Nous avons conçu l’étude avec Twitter de manière à nous permettre d’évaluer l’expérience sans avoir à connaître le nom ou d’autres informations personnelles d’un compte. Une fois l’étude terminée, Twitter préparera un ensemble de données agrégées pour notre analyse. Les données de Twitter resteront dans notre système crypté où nous effectuerons notre analyse, et nous ne partagerons pas les données au-delà de ce système. Après confirmation de l'intégrité des données que nous recevons, nous suivrons le plan convenu pour analyser les résultats. Étant donné que l'examen par les pairs peut prendre du temps et que d'autres chercheurs peuvent nous demander de revérifier les détails, nous conserverons les données et les sauvegardes pendant deux ans après la fin de l'étude, puis nous les effacerons toutes.

Transparence et responsabilité

Pour être aussi transparent que possible, nous annonçons publiquement l'étude avant qu'elle ne commence. Comme nous ne pouvons pas le décrire en détail maintenant sans compromettre l'intégrité des résultats, nous avons trouvé deux alternatives. Premièrement, la conception complète de l'étude a été approuvée par deux comités d'éthique universitaires (dont la tâche est de s'assurer que les chercheurs se conforment aux règles protégeant les personnes susceptibles d'être affectées par la recherche). Deuxièmement, nous avons déposé notre plan d'analyse - une description détaillée de la manière dont l'étude sera réalisée - avec une tierce partie neutre appelée Open Science Framework. Cela garantit que nous, et Twitter, pouvons être tenus pour responsables de ce que nous faisons exactement.

Cette pratique consistant à déposer le plan auprès d'une tierce partie neutre est appelée pré-enregistrement. Elle signifie que nous avons décrit en détail nos hypothèses, la manière dont Twitter effectuerait l'intervention, les résultats que nous observerions et les méthodes statistiques utilisées. utiliserait pour analyser les résultats - tout cela avant le début de l’étude. Cela garantit que nous effectuons l'analyse exactement comme nous l'avions prévu avant de voir les résultats, même si cette analyse produit des résultats décevants. La pré-inscription, une pratique exemplaire en science ouverte, protège la crédibilité de la recherche de notre équipe et de la participation de Twitter. Nous avons téléchargé notre plan d'analyse dans Open Science Framework - la tierce partie neutre. Lorsque l'étude sera terminée et que nous serons prêts à publier nos résultats, nous rendrons le plan public sur OSF afin que d'autres puissent confirmer que nous avons suivi le plan et, ce qui est tout aussi important, reproduire notre étude.

Nous mettrons nos résultats à la disposition de tous, afin qu'ils puissent être utilisés librement. Nous soumettrons notre recherche à un examen par des pairs universitaires et la publierons dans une revue spécialisée.

Éthique

Notre processus est également conforme aux pratiques universitaires en matière d’éthique de la recherche. Ce projet a été examiné et approuvé par tous nos comités d’éthique: le MIT COUHES et le CER de l’Université McGill, en coordination avec le comité d’éthique de l’Université de Bath.

Lors de la conception de cette étude, nous avons envisagé de demander à chaque personne son consentement à l'avance ou, au contraire, d'avertir les personnes après la fin de l'étude de leur implication éventuelle. Dans cette recherche, demander aux gens de s’inscrire pourrait mener à des conclusions biaisées. La notification post-étude via Twitter était également peu pratique, car Twitter ne pourrait pas atteindre les personnes ayant quitté la plate-forme et notre équipe de recherche ne pourrait joindre personne, car nous n'aurions aucun nom de compte ni aucune information de contact. . Dans ces conditions, les politiques américaines en matière d’éthique de la recherche requièrent que les expériences répondent aux normes de risque minimal. Nous pensons que les messages que nous testons respectent cette norme et que les comités d'éthique du MIT et de McGill ont approuvé cette étude. Parce que la question du consentement est si importante, certains membres de notre équipe conçoivent de nouvelles façons de coordonner le consentement et la responsabilité de la recherche à grande échelle. Si vous avez des questions sur l'éthique de cette recherche, veuillez contacter J. Nathan Matias à l'adresse jnmatias@mit.edu.

Remerciements

Nous sommes profondément reconnaissants à d’excellents collègues qui ont contribué à ce projet. Lindsay Blackwell a rédigé une enquête sur les recherches pertinentes en sciences sociales, qui a guidé notre réflexion lors de la conception de l'expérience. Marc Brackett a également fourni des conseils précoces. Andrew Sellars de la clinique BU / MIT Technology & Cyberlaw a participé à la rédaction et à la négociation des accords de collaboration. Nous sommes également reconnaissants à de nombreuses personnes sur Twitter qui ont œuvré pour rendre ce projet possible.

À propos des chercheurs

Ce projet est dirigé par Susan Benesch et J. Nathan Matias. Les journalistes qui ont des questions sur le projet doivent nous contacter à (susan@dangerousspeech.org et jnmatias@mit.edu).

Susan Benesch (@susanbenesch) est associée au corps professoral du Centre Berkman Klein pour l'Internet et la société de l'Université Harvard. Elle a fondé et dirigé le projet Dangerous Speech, qui étudie les discours pouvant inspirer la violence - et les moyens de prévenir de tels dommages, sans porter atteinte à la liberté d'expression. Cela comprend un travail approfondi sur la communication en ligne et le projet Dangerous Speech fait partie du Twitter Trust and Safety Council.

J. Nathan Matias (@natematias) est attaché de recherche postdoctoral aux départements de psychologie, de centre de politique de l'information et de sociologie de l'Université de Princeton. Il est chercheur invité au MIT Media Lab Centre pour Civic Media et fondateur de CivilServant, qui organise la science du comportement des citoyens pour un Internet plus juste, plus sûr et plus compréhensif. CivilServant a travaillé directement avec des communautés de dizaines de millions de personnes afin de découvrir des idées efficaces pour améliorer la vie en ligne et d'évaluer l'impact des technologies sociales.

Derek Ruths est professeur agrégé à la School of Computer Science de l'Université McGill où il dirige le laboratoire de dynamique de réseau. Dans ses recherches, Derek étudie différentes manières d'utiliser les données pour mesurer et prédire le comportement humain à grande échelle.

Adam Joinson (@joinson) est professeur de systèmes d’information à l’Université de Bath. Il y mène des recherches sur les liens entre technologie et comportement.