Article

Un design inclusif pour un monde numérique sain

Même les machines et les algorithmes peuvent être biaisés. Qu’on pense au logiciel de recrutement sexiste d’Amazon (maintenant abandonné), à l’algorithme de diffusion publicitaire de Facebook ethniquement discriminatoire (aussi abandonné), ou au logiciel de triage raciste développé par Optum pour les hôpitaux (grandement amélioré depuis son lancement), nous avons pu être témoins de la facilité avec laquelle des préjugés humains peuvent être implantés dans la conception de logiciels.

Il est de notre responsabilité d’adopter une approche créative qui favorise l’inclusivité, donne une sensibilité humaine à l’intelligence artificielle et façonne des expériences numériques modernes où tout le monde se sent soutenu.

L’une des dernières réalisations de nos équipes de Citoyen en est un bon exemple. Si vous êtes de descendance asiatique, vous avez probablement remarqué que les noms asiatiques sont considérés comme des « erreurs » et soulignés en rouge dans les programmes de traitement de texte. Cette ligne rouge ondulée est une microagression, et peut être évitée grâce à un fichier .dic qui rend les lexiques plus inclusifs.

Récemment, nos collègues de Citoyen ont collaboré avec Elimin8hate au lancement d’une importante campagne – Nameclaim.ca – pour aider à créer un dictionnaire plus inclusif pour les noms asiatiques. Ce dernier a même fait son chemin jusqu’à Microsoft, qui souhaite normaliser les noms non anglais et non français.

Incidemment, Satya Nadelle, PDG de Microsoft, a défini six principes et objectifs qui, selon lui, devraient guider la recherche en IA afin que la société demeure sécuritaire, et deux d’entre eux concernent l’inclusivité. Le premier est qu’il doit y avoir une responsabilité algorithmique dans l’IA, afin que les humains puissent réparer des préjudices involontaires – exactement ce que nous avons fait avec nameclaim.ca. Le second est que l’IA doit éviter les préjugés, en effectuant une recherche appropriée et représentative afin de s’assurer que l’IA ne soit pas discriminatoire envers les gens, comme le sont les êtres humains.

Récemment, notre équipe de Mekanism a été mandatée par Civic Nation pour créer une campagne visant à promouvoir la vaccination contre la COVID aux États-Unis, alors que 40 % de la population américaine était hésitante à recevoir sa première dose lorsque les vaccins sont devenus disponibles. Une recherche menée par la National Health Library a révélé que les personnes afro-américaines et hispano-américaines étaient les plus réticentes, ce qui signifiait que des messages de masse généralisés n’allaient pas les convaincre. Nous avons créé une campagne intitulée Made to Save, en utilisant du matériel numérique en anglais et en espagnol afin de joindre des publics cibles distincts. Nous avons formé 9 000 ambassadeurs de vaccination, généré 625 000 conversations, traduit du matériel dans plus d’une vingtaine de langues et activé plus de 1 600 partenaires de vaccination.

Comportement éthique

Alors que les réseaux sociaux évoluent, que les médias se battent contre les fausses nouvelles et que la génération Z se tourne plus souvent vers TikTok que Google pour effectuer des recherches, la manière dont les spécialistes du marketing se comportent est importante. Qu’il s’agisse de définir des lignes directrices pour créer un espace sûr pour des campagnes sur le web ou de planifier l’achat média plus éthiquement, il nous incombe de trouver l’équilibre entre les résultats et l’éthique dans un monde du web 3.0 en constante évolution.

En 2020, les gens ont commencé à porter plus d’attention aux médias ayant fait de l’argent en acceptant les messages haineux, extrémistes et de désinformation sur leurs sites et dans leurs cycles de nouvelles. L’argent publicitaire qui a involontairement appuyé des sites de « fausses nouvelles », en raison des dépenses programmatiques, a contribué à ce problème.

Notre client Sun Life et ses partenaires à Cossette Media ont collaboré avec NOBL, une plateforme qui utilise l’IA pour analyser des contenus en fonction de 30 indicateurs de comportement éthique. Le but est d’aider les acheteurs à soutenir des sites de meilleure qualité, plus particulièrement les sites locaux de nouvelles, qui disposeraient d’un capital de confiance beaucoup plus élevé auprès de leurs publics que les grands réseaux de nouvelles. Les résultats ont été impressionnants. Cossette a observé une augmentation de 104 % du taux de clic; une diminution de 37 % du coût par clic; et une diminution de 29 % du coût par engagement, des données qui se rapprochent énormément de celles présentées par NOBL.

S’appuyant sur cette campagne couronnée de succès, Cossette a discuté de l’outil avec d’autres clients, qui ont démontré de l’intérêt à l’utiliser pour leurs campagnes. Il faut croire qu’une bonne éthique se traduit par de bonnes affaires.

Un autre client de Cossette, TELUS, l’une des plus importantes entreprises de télécommunications au Canada, met tout en œuvre pour que ses technologies ne favorisent pas les comportements préjudiciables en ligne. Mais il n’en demeure pas moins que chaque mois un million d’enfants au Canada sont victimes de cyberintimidation. Pour combattre ce fléau, nous avons collaboré avec TELUS pour créer un message de 30 secondes mettant en scène des enfants qui en ont été victimes afin de montrer l’ampleur des répercussions de tels comportements. Nous avons mis en place un réseau Wi-Fi #ZéroIntimidation dans des lieux publics, en demandant aux utilisateurs de s’engager à avoir une bonne conduite en ligne. Nous avons fait appel au rappeur SonReal pour créer un hymne qui rassemblerait les jeunes. L’artiste a lancé la chanson sur ses réseaux sociaux et l’a chantée lors de la Journée UNIS. Résultat? Plus de 2,5 millions d’écoutes en ligne, plus de 2 millions d’engagements de bonne conduite en ligne, et une augmentation de 112 % des téléchargements des ressources créées par TELUS pour prévenir la cyberintimidation.

Se protéger contre nos pires instincts

Marshall McLuhan est célèbre pour avoir affirmé que la technologie est une extension de nous-mêmes. Le fait que nos meilleures intentions et nos pires instincts soient encodés dans des algorithmes conçus pour tirer profit de notre comportement en ligne confirme l’idée de McLuhan. L’exploitation de ce comportement pour établir les signaux prédictifs utilisés pour nous vendre de plus en plus de choses est presque garante d’un abus numérique.

Pour créer un Internet moins dangereux, nous devons insuffler à l’intelligence artificielle une sensibilité humaine. En tant que professionnels de la communication, nous avons le pouvoir, mais aussi la responsabilité de le faire. Il est tout aussi important pour nous de gérer le médium – dans ce cas, l’Internet – que le message.