Que faut-il pour établir une nouvelle pratique de recherche UX?

Déballer le travail fondamental que j'ai effectué pour A + E

L'année dernière, j'ai été le premier chercheur UX pour les réseaux A + E à New York. J'ai vraiment aimé aider la société à intégrer ses pratiques UX à la recherche, à améliorer ses produits et à travailler en équipe. Cet article est un aperçu et une rétrospective des projets de recherche que j’ai mis en pratique et un aperçu de ce qui nous attend. Je suis optimiste sur le fait que la société les maintiendra et avec le temps, développera les initiatives de recherche et les intégrera davantage dans leur processus de création.

Pour vous donner un aperçu de la société, A + E est une société de médias établie de longue date qui regroupe un grand nombre de marques et d’émissions de télévision. Compte tenu de sa taille et de son histoire, il a adopté une approche simplifiée de la création de contenu au fil des décennies, mais il est beaucoup plus récent que la technologie et n’a examiné que récemment son approche de la distribution de contenu numérique.

Une partie de cela était en concurrence avec les applications de streaming vidéo qui ont gagné en popularité sur la télévision par câble comme Hulu et HBO Now. Mon équipe était l'une des 2 équipes de produits numériques. Nous avons été chargés de la maintenance et de la croissance de 2 applications de streaming de vidéos à la demande (accessibles par abonnement) spécifiques aux marques d’A + E sur 6 plates-formes, dont l’une a été entièrement conçue de nouveau pendant mon séjour.

L’équipe UX a été créée il y a environ 4 ans et l’équipe de sprint effectue des courses standard toutes les deux semaines. Les concepteurs et les développeurs avaient en fait des sprints distincts et leurs propres tableaux Jira lorsque j'ai commencé, mais des initiatives ont été lancées par la suite pour fusionner l'équipe d'environ une douzaine. J'ai principalement travaillé avec d'autres concepteurs UX et UI de mon équipe, mais également avec des produits, des développeurs et des responsables de l'assurance qualité. Je relevais du responsable du design, mais j'avais un lien oblique avec le responsable du développement, des produits, des responsables numériques généraux et du service juridique.

En termes de culture, A + E a fait de son mieux pour répondre aux demandes de ses dirigeants en déployant très rapidement les deux produits pour les utilisateurs. La philosophie était en accord avec l'idée d'un MVP qui s'améliore avec le temps - faire est meilleur que parfait, après tout. Au fil des ans, lorsque la conception était nécessaire, elle était effectuée rapidement, avec des recherches et des itérations limitées, et des déploiements étaient effectués selon les besoins sur les multiples plates-formes. L'avantage est que le produit a été lancé et que l'équipe a pu commencer à observer les numéros d'utilisation et à dresser une liste de fonctionnalités et d'idées. Les atouts de la société résident dans les éléments intermédiaires de la conception, de l’idéation et du prototypage et de la conception de l’interface utilisateur. Leurs faiblesses relatives étaient la recherche et la convivialité.

Bien que maigre et économique, l'approche n'a pas toujours été cohérente. Les délais pour chaque produit et plate-forme étaient différents, et les produits divergeaient lentement sur chaque plate-forme et les uns des autres. Parce que la prise de décision était rapide, elle était parfois entachée de réflexions partisanes plutôt que d’informations éclairées par les utilisateurs, où les opinions occultaient les preuves. Il n’existait pas toujours des possibilités de revoir les conceptions après le lancement, de sorte que des solutions rapides persistaient parfois sur des solutions à long terme. Globalement, le processus UX était un peu chaotique - un peu au hasard, pas toujours scientifique. Dans l’ensemble de la société, l’accent était mis davantage sur le travail des développeurs que sur les concepteurs, ce qui a conduit à une culture de développement où le design devait parfois faire l’objet de compromis.

Mon mandat consistait essentiellement à aider l'équipe à corriger le cap sur ces points faibles en intégrant davantage de recherches sur les utilisateurs. Cela informerait mieux la conception et le produit, et repousserait si nécessaire sur dev. J'ai établi des pratiques qualitatives et maintenu / développé des pratiques quantitatives, englobant à la fois des méthodes génératives (début du cycle de conception) et d'évaluation (fin du cycle de conception). De plus, j’ai travaillé sur le design UX, qui représentait environ 30 à 40% de ma charge de travail totale. Enfin, bien sûr, j'ai fait le nécessaire pour promouvoir la recherche et l'expérience UX ainsi que la communication et l'évangélisation en interne.

Ce rôle englobait heureusement beaucoup de collaboration et d’autonomie. J'ai apprécié la capacité de façonner leur programme de recherche, de montrer aux autres membres de l'équipe comment comprendre les résultats de la recherche et de les utiliser pour façonner le design. Bien sûr, être un fondateur est toujours source de défis, et il y avait des obstacles sur la route avec des délais, des tracasseries administratives, des accrochages juridiques et une confusion sur la meilleure façon de collaborer, entre autres problèmes de croissance. Mais dans l’ensemble, je pense que l’équipe et les produits sont bien servis par l’ajout de la recherche et qu’ils continueront à en bénéficier proportionnellement à leur investissement.

***

Ceci dit, je vais passer en revue les principaux outils de recherche et projets que j’ai ajoutés et organisés:

Outils existants: SurveyMonkey, Amplitude

Dans le passé, l’équipe avait utilisé SurveyMonkey pour repousser les enquêtes auprès des utilisateurs pour les agents de contrôle. J'ai ajouté quelques enquêtes similaires et utilisé le service pour la collecte d'informations sur les utilisateurs. Il est facile d’interpréter les résultats, mais j’ai créé des visualisations supplémentaires lorsque cela était nécessaire.

Amplitude a été utilisé comme un outil quantitatif d’entreposage et d’analyse de données. Avec la possibilité de voir la conversion et la rétention, de segmenter les actions des utilisateurs ou leurs données démographiques, d'exécuter des analyses d'entonnoir, d'afficher les résultats des tests A / B, de voir les chemins empruntés par les utilisateurs et d'autres fonctionnalités, c'était un bon outil pour gérer les ensembles de données de taille moyenne. généré par les deux produits. Il existe également un moyen de faire des requêtes SQL personnalisées, ce qui est excellent. Avant de l’utiliser, l’équipe produit devait contacter l’équipe d’analyse des données interne pour des questions spécifiques, qui pouvaient prendre beaucoup de temps, s’ouvrir à une mauvaise communication et devenir fastidieuses. Avec Amplitude, il existait un moyen de visualiser les analyses en direct et de répondre rapidement aux questions, en les épinglant dans des tableaux de bord lorsque cela était utile. L'amplitude était très nouvelle chez A + E quand j'ai commencé et le détenteur principal des clés était le propriétaire du produit. Au fur et à mesure que je grandissais dans ce rôle, j'ai repris la recherche quantitative et créé de nouveaux tirets spécifiques à l'équipe UX et exporté des visualisations pour des démonstrations et des présentations.

Nouveaux outils: UserTesting, Optimal Workshop, AirTable, Calendly

UserTesting était l'outil le plus puissant ajouté à l'arsenal. Avant son introduction, l’équipe avait très peu testé la convivialité en raison de contraintes de temps, de ressources et de connaissances. Dans de rares cas, l'équipe effectuait des tests d'utilisabilité en personne limités, souvent avec des mandataires, et non avec des utilisateurs réels. Avec UserTesting, qui exécute des tests à distance numériques, notamment ceux qui sont enregistrés sur la plate-forme pendant le temps libre des utilisateurs, un traitement par lots ne prend généralement pas plus de quelques heures. Un autre avantage est sa grande base de testeurs, assez grande pour trouver immédiatement des mandataires appropriés basés sur la segmentation, et assez grande pour trouver des utilisateurs réels avec un peu plus de temps. Avec l’ajout de tests en personne effectués dans un laboratoire d’utilisabilité de fortune (un bureau reconverti), nous disposions d’une ressource de recherche beaucoup plus robuste. UserTesting était principalement utilisé pour les tests d'évaluation de l'utilisabilité basés sur les tâches, mais l'outil est flexible et je l'ai également utilisé pour des entretiens génératifs avec des utilisateurs, modérés et enregistrés. Il a quelques faiblesses, en particulier la qualité variable de ses testeurs, et bien sûr, avec les tests non modérés, vous ne pouvez pas clarifier ou réinitialiser un prototype si un utilisateur se perd, mais au final, UT a considérablement simplifié la recherche et environnement de test, ce qui m’a permis d’en insérer beaucoup plus facilement. En général, j’exécutais au moins 2 à 3 tours par fonction et par modèle, en fonction des besoins. Enfin, UT facilite l’interprétation des résultats avec des notes et des bobines, que j’utiliserais pour partager les résultats avec l’équipe.

L'atelier optimal était l'autre outil de recherche que j'ai ajouté. Je l’ai trouvé très utile pour sa fonction de tri de cartes, Optimal Sort. Il dispose également d'autres outils tels que le test d'arborescence (tri inversé) et le test du premier clic. Semblable à UserTesting, il est facile de configurer et de recruter des utilisateurs. Nous l'avons utilisé pour gérer des contenus numériques, en recherchant des moyens de classer les vidéos par les utilisateurs. Comme le tri des cartes n’avait pas encore été fait, il était éclairant de glaner ces connaissances, et d’autres sont définitivement destinées à l’avenir. Les résultats s'affichent également de manière utile, m'empêchant de calculer manuellement les fréquences des cartes triées ensemble. C'était vraiment amusant de présenter à des niveaux plus élevés.

AirTable était un outil ajouté pour gérer les listes et les ensembles de données générés à partir d'enquêtes internes et d'exporter à partir de SuveyMonkey. Dans sa forme la plus élémentaire, il s’agit d’une feuille de calcul joliment décorée, mais elle offre également un certain nombre d’autres vues utiles, telles que calendrier, galerie et kanban. J'ai fini par être le principal utilisateur, mais l'un de ses avantages est la facilité de collaboration. Il est donc idéal pour le travail d'équipe.

Calendly était un outil de liste de souhaits pour la planification d'entretiens et de tests d'utilisabilité qui se prêtait volontiers à une utilisation.

Projets existants: produit Survey for LMC (Lifetime Movie Club), premières interviews d'utilisateurs pour LMC

Avant mon arrivée, l’équipe avait effectué quelques sondages et entretiens avec les utilisateurs de l’un des deux produits. Comme il n’y avait pas d’employé dédié ni de points de sprint réservés à la recherche, il a souvent été mis en veilleuse et a pris beaucoup de temps pour un petit set.

Nouveaux projets: sondages pour le produit HV (History Vault), entretiens initiaux des utilisateurs pour le HV, entretiens ciblés des utilisateurs pour le HV, tableaux de bord de données, tri des cartes pour le HV, tests d'utilisabilité en personne, tests d'usabilité à distance

Ma tâche la plus importante était de ménager du temps et de l'espace pour la recherche qualitative, en commençant par lancer des enquêtes et des entretiens pour l'autre produit et en développant des entretiens avec le premier produit. J'ai mis en place des filtres sur SurveyMonkey et mené des entretiens via UserTesting. À l'instar de ce qui avait été fait auparavant, j'ai commencé par une série de questions générales visant à déterminer les principales motivations des utilisateurs qui se tournaient vers le produit et, le cas échéant, le respectaient. Le script a ensuite abordé des questions relatives à l'utilisation et aux préférences individuelles, aux difficultés et aux parcours. En approfondissant davantage, j'ai posé des questions sur les détails, les fonctionnalités, le contenu, l'organisation et la navigation. Pour terminer, j'ai terminé avec des séries de questions comparatives sur les concurrents, l'expérience générale, la valeur et d'autres sujets généraux pertinents. La synthèse de ces entretiens permettrait de mieux comprendre les préférences et les comportements des utilisateurs, en rapprochant les concepteurs du public visé.

À ces séries d'entretiens généraux, j'ai complété par des entretiens ciblés pour des initiatives de conception spécifiques. Ces entretiens étaient plus courts et visaient spécifiquement à rassembler des informations utiles à la fonctionnalité en cours de création. De cette façon, nous disposions d’une intelligence globale et d’une attention particulière aux besoins et aux désirs de nos utilisateurs.

Comme mentionné précédemment, j'ai couplé les recherches des utilisateurs issues d'enquêtes et d'entretiens, ainsi que des analyses concurrentielles et comparatives, avec des informations quantitatives générées et recueillies à partir d'Amplitude.

Pour certains projets, y compris une nouvelle fonctionnalité pour HV, j'ai introduit le tri par carte pour mieux comprendre les regroupements générés par les utilisateurs. Voir mon article sur le projet ici.

Du côté de l'évaluation, j'ai dirigé le laboratoire d'utilisabilité, comprenant à la fois des tests en direct (en laboratoire) et à distance (sur UserTesting). Pour les structures filaires et les prototypes Low-Fi, je trouve qu'il est utile d'obtenir des commentaires rapides et informels. C'est pourquoi j'ai souvent utilisé des testeurs en laboratoire sur des prototypes numériques sur papier ou en niveaux de gris. La fidélité croissante s'accompagne de tâches plus complexes et de questions pointues visant à déceler les faiblesses, à ce stade, le passage à l'UT. À mesure que les tests reviennent plus propres que les prototypes progressifs et que nous passons à la validation, les tâches peuvent à nouveau être simplifiées. Ces différentes séries d'essais, chacune adaptée au projet et au prototype, me semblent vraiment utiles pour évaluer efficacement une conception en fonction de ses avantages et inconvénients. En plus des tests de convivialité, je me suis toujours retrouvé avec une poignée d’idées génératives pouvant être appliquées aux projets futurs, en relançant le cycle de conception.

Projets futurs: types de cartes pour le contenu existant LMC, types supplémentaires de cartes pour le contenu existant HT, types de cartes pour les futurs contenus LMC et HV, enquêtes supplémentaires pour LMC et HV, entretiens supplémentaires pour LMC et HV, enquête contextuelle pour LMC et HV, groupes de discussion pour LMC et HV, évaluations heuristiques pour LMC et HV

Je vous ai proposé de nombreuses possibilités pour les projets de recherche futurs, le plus urgent étant plusieurs types de cartes pour le contenu vidéo existant et futur. La société augmentera massivement son offre de contenu pour les deux applications. C’est donc le moment idéal pour se plonger dans les questions d’architecture de l’information.

En outre, il restera nécessaire de procéder à des enquêtes et à des entretiens à mesure que de nouvelles fonctionnalités sont ajoutées et que les anciennes sont modifiées.

Enfin, je vois une opportunité de mener d’autres méthodes de recherche qualitative qui n’ont jamais été essayées, comme la recherche contextuelle et les groupes de discussion. Au fur et à mesure que la société développe et rationalise son flux de travail UX, les analyses heuristiques peuvent également jouer un rôle pour rester sur la bonne voie.

***

Avec cet ensemble élargi d’outils et de pratiques de recherche, A + E est en passe de compléter son processus de conception. Je suis satisfait des progrès réalisés et je vois vraiment l’arc de développement qui favorise une meilleure conception orientée utilisateur. J'attends avec impatience le succès continu de leurs produits!