Avec la résurgence du mouvement Black Lives Matter sur les médias sociaux, de nombreux spécialistes du marketing prennent de nouvelles notes des problèmes dont BIPOC (acronyme qui signifie noir, indigène et personnes de couleur) et leurs alliés parlent depuis des années.
Le plus notable d’entre eux est la façon dont les données – que nous considérons traditionnellement comme impartiales et «juste les chiffres» – sont en fait très influencées par les préjugés des ingénieurs, des spécialistes du marketing, des développeurs et des scientifiques des données qui programment, saisissent et manipulent ces données. Les données.
Alors que certains peuvent juste remarquer ce phénomène, ce n’est en fait rien de nouveau.
Dans cette pièce, nous parlerons de:
- Quel biais implicite est.
- Comment cela affecte les données et la technologie marketing.
- Pourquoi il est important de le reconnaître dans notre référencement et notre marketing.
- Ce que les spécialistes du marketing peuvent faire.
Qu’est-ce qu’un biais implicite?
Pour vraiment comprendre comment ces modèles codent le biais, il est important de comprendre comment fonctionne le biais implicite.
Selon des recherches de l’Ohio State University:
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
« [I]Le parti pris implicite fait référence aux attitudes ou stéréotypes qui affectent notre compréhension, nos actions et nos décisions de manière inconsciente. Ces préjugés, qui englobent à la fois des évaluations favorables et défavorables, sont activés involontairement et sans que l’individu ne soit conscient ou contrôle intentionnel. »
Pour paraphraser, le parti pris implicite est essentiellement la pensée des gens que vous ne connaissiez pas.
Ces préjugés peuvent provenir de la façon dont nous avons été élevés, des valeurs que nos familles détiennent, des expériences individuelles, etc.
Et ils ne sont pas toujours mauvais les stéréotypes, mais nous savons tout de même que les individus sont des individus et les stéréotypes sont des généralisations larges et radicales – qui n’appartiennent pas à l’apprentissage automatique et aux statistiques supposées impartiales.
Pensez-vous que vous êtes immunisé contre les biais implicites?
Consultez l’un des tests d’association implicite (IAT) de Harvard pour voir où se trouvent vos propres biais implicites.
N’oubliez pas que les préjugés implicites ne font pas de vous une mauvaise personne. C’est quelque chose que la majorité des gens ont.
C’est notre façon de réagir qui compte!
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Comment le biais implicite affecte-t-il les algorithmes et les données marketing?
Les algorithmes et l’apprentissage automatique sont aussi bons que les informations que nous alimentons ces modèles.
Comme le disent souvent les ingénieurs: «ordures à l’intérieur, ordures à la sortie».
Il y a quelques années à MozCon, Britney Muller a démontré comment elle a créé un algorithme d’apprentissage automatique facile pour distinguer les photos de son serpent, Pumpkin, des photos du fondateur de Moz, Rand Fishkin.
La clé pour développer son programme ML était de soumettre des photos de son serpent et de les marquer manuellement comme « Pumpkin » et de faire de même pour Fishkin.
Finalement, le programme a pu distinguer le reptile du PDG.
À partir de cela, vous pouvez voir où l’aspect manuel de l’apprentissage automatique entre en jeu – et où les préjugés humains (implicites ou explicites) peuvent affecter les données que nous recevons.
Essentiellement, l’humain fournissant les entrées choisit la façon dont l’algorithme apprend.
Si elle échangeait les photos de serpents avec des photos de Fishkin, l’algorithme «impartial» appellerait Fishkin le serpent et le serpent un PDG.
Sites de photos
Une étude intitulée Being Black in Corporate America a révélé que «seulement 8% des personnes employées dans des professions de cols blancs sont des Noirs, et la proportion diminue fortement aux échelons supérieurs de l’échelle de l’entreprise, en particulier lors du passage de la direction intermédiaire au niveau exécutif».
Et cela malgré le fait que «les professionnels noirs sont plus susceptibles que leurs homologues blancs d’être ambitieux dans leur carrière et d’aspirer à un poste de haut niveau».
En tant que spécialistes du marketing, il est important de nous demander comment les données que nous étiquetons et publions sur nos sites Web affectent-elles ce qui se passe dans la vie réelle?
Il peut s’agir du poulet et de l’œuf – la représentation doit-elle suivre les statistiques réelles du lieu de travail ou les statistiques du lieu de travail peuvent-elles être affectées par la représentation même dans des endroits «inoffensifs» comme les sites Web de photos?
Même anecdotique, ce dernier se révèle vrai.
En discutant avec des amis des RH, ils ont confirmé à maintes reprises que les candidats aux entretiens d’embauche sont plus susceptibles de prendre position lorsqu’ils voient des personnes qui leur ressemblent dans l’entreprise, à des postes de direction et dans l’équipe d’entrevue.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
La représentation a toujours été un problème sur les sites Web de photographie de stock, à tel point que des sites de photos spécialisés ont récemment surgi en réponse, mettant en vedette exclusivement le BIPOC, des personnes handicapées et des personnes appartenant à de plus grands organismes.
Même maintenant (fin juin 2020), une recherche de «femme travaillant» sur un site de photos populaire donne plus de 100 images sur leur recherche de première page. De ces 100+ photos…
- 10 présentent des individus apparaissant au BIPOC en arrière-plan ou en groupe.
- 11 se concentrer uniquement sur BIPOC en tant que personne principale.
- 4 images montrent des personnes âgées dans un lieu de travail professionnel.
- 0 images montrent des personnes dans des corps plus grands.
- 0 images montrent des personnes handicapées.
Ces données sont basées uniquement sur une recherche rapide et un décompte approximatif, mais elles montrent que la représentation fait défaut.
En tant que spécialistes du marketing, il est essentiel que nous utilisions et demandions des images diversifiées et inclusives.
Si la photographie de votre site Web est réservée aux Blancs, il est temps de changer.
Google Data
Dans son livre, «Algorithms of Oppression», Safiya Noble, Ph.D. explique comment les personnes en qui nous avons confiance pour créer l’algorithme non biaisé et les modèles d’apprentissage automatique pour Google et les autres moteurs de recherche ne sont pas eux-mêmes impartiaux.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
En fait, il a été annoncé il y a quelques années qu’un employé de Google avait lancé une diatribe anti-diversité (qui avait reçu des centaines de votes positifs d’autres employés) et n’avait été licencié par la suite qu’après l’attention des médias.
Nous devons nous demander: «Combien d’autres personnes travaillant sur des algorithmes partagent des sentiments biaisés et anti-diversité similaires?»
Mais comment ce manque de conscience autour de ces biais connus et inconnus se joue-t-il réellement dans la recherche?
Mon conjoint adore cuisiner et récemment, nous cherchions plus de détails sur une recette pour laquelle nous n’avions pas tous les ingrédients.
Incrédule que nous devions faire un autre voyage à l’épicerie, je suis allé à Google pour demander: «Que voulez-vous réellement besoin de barres de citron? «
Dans ma hâte de faire mes preuves, j’ai appuyé trop tôt sur le bouton Entrée et je n’ai obtenu réellement n. «
À mon horreur et ma consternation absolue, voici ce que mon meilleur résultat a été:
En tant que spécialiste du marketing, ma pensée immédiate a été: « Ce qui dans mon historique de recherche indiquerait à Google que ce était le bon résultat pour moi? «
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Je ressentais de la honte et de la culpabilité et honnêtement, j’étais un terrible allié.
Et puis j’ai pensé à un enfant noir à la recherche d’une recette ou d’un projet d’école et à ce sujet – et à quel point cela pourrait être déchirant.
Lorsque je l’ai annoncé sur Twitter, j’ai été surpris du nombre de personnes qui défendaient le résultat.
Encore une fois, le même cri: « Ce ne sont que les données. »
Et, « il est logique d’obtenir ce résultat compte tenu de la requête. »
En tant que spécialistes du marketing, nous ne passons pas assez de temps à analyser les données d’entrée et les personnes qui ont formé les machines.
Nous supposons que les données sont impartiales et équitables – que Google est une méritocratie de résultats.
Quand c’est vraiment notre travail de s’assurer que ce n’est pas le cas.
Nous travaillons pour influencer les résultats de recherche dans les directions de nos entreprises et de nos clients – pour leur propre profit et gain économique.
Pourquoi est-il logique que Google renvoie ce résultat – le fait que la lettre «n» justifie à elle seule ce résultat de recherche dans n’importe quel contexte?
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
(Pourquoi Google n’affiche-t-il pas d’informations sur l’azote – le gaz représenté par N sur le tableau périodique?)
La raison en est les données, toutes les données dont elles disposent sur cette lettre leur ont dit que c’était le plus pertinent pour les chercheurs.
Comme le dit Jonathan Wilson:
«Cela a également du sens en raison de la recherche sémantique. Au fil du temps, Google a vu que les (blancs) disent, comme dans cet article, « le n-mot » [instead of the full expletive]. C’est la même chose que l’utilisation de «pop» de manière interchangeable avec «soda». C’est plus un foyer du vaste racisme en Amérique qu’un algorithme dans ce cas, bien que quelqu’un [at Google] pourrait remplacer manuellement le résultat. «
Algorithmes publicitaires Facebook
Au printemps 2019, le ministère américain du Logement et du Développement urbain a poursuivi Facebook pour avoir autorisé les annonceurs à cibler des annonces en fonction de la race, du sexe et de la religion (ce sont toutes des classes protégées en vertu de la loi américaine).
Facebook a prétendu s’être débarrassé de cette option manuelle pour que les annonceurs puissent discriminer, mais les données ont prouvé que leurs algorithmes ont repris là où la discrimination manuelle s’était arrêtée.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
L’étude a révélé que les offres d’emploi pour les concierges et les chauffeurs de taxi sont présentées à une fraction plus élevée des minorités et les offres d’emploi pour les infirmières et les secrétaires sont présentées à une fraction plus élevée des femmes.
Selon Karen Hao de la MIT Technology Review:
«Le biais se produit lors de la collecte de données lorsque les données de formation reflètent les préjugés existants. L’outil publicitaire de Facebook base ses décisions d’optimisation sur les préférences historiques que les gens ont démontrées. Si plus de minorités se sont engagées avec des annonces de location dans le passé, le modèle d’apprentissage automatique identifiera ce modèle et le réappliquera à perpétuité. Encore une fois, il… s’engagera sur la voie de la discrimination en matière d’emploi et de logement – sans qu’on lui dise expressément de le faire. »
Modèles de reconnaissance faciale
Un récent article de NYTimes montre comment la reconnaissance faciale est également insuffisante sur la base des données introduites dans le modèle.
Robert Julian-Borchak Williams a été arrêté à tort en raison de ce manque de diversité dans la façon dont ces modèles sont entraînés (repensez à Pumpkin the snake vs Fishkin):
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
«En 2019, des algorithmes des deux sociétés ont été inclus dans une étude fédérale portant sur plus de 100 systèmes de reconnaissance faciale qui ont révélé qu’ils étaient biaisés, identifiant à tort 10 à 100 fois plus de visages afro-américains et asiatiques que des visages caucasiens.»
Des études montrent que «bien que la technologie fonctionne relativement bien sur les hommes blancs, les résultats sont moins précis pour d’autres données démographiques, en partie en raison d’un manque de diversité dans les images utilisées pour développer les bases de données sous-jacentes.»
Cela a été prouvé encore plus loin dans un récent message Twitter «pour le plaisir» sur la soumission d’une image basse résolution dans un programme et la création d’un modèle pour créer une image haute résolution et réaliste d’une personne à partir de cette image pixelisée initiale.
Lorsque plusieurs personnes ont soumis une image très connue du président Barack Obama, les résultats ont toujours été des hommes blancs (même si presque tout le monde pouvait reconnaître de qui était l’image pixélisée).
Encore une fois, il s’agit d’un autre échec des données d’entrée dans les modèles d’apprentissage automatique et d’un manque d’examen de nos biais implicites lors de l’ingénierie, de la programmation, du codage, de la définition d’objectifs exécutifs (s’il n’y a pas d’objectif d’améliorer la reconnaissance des noirs, il n’est jamais construit), de priorisation, assurance qualité et marketing.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Algorithmes Uber et Lyft
Pourtant, une autre étude montre que les algorithmes que nous programmons – que même nous pensons ne pourraient pas être affectés par le biais – le sont certainement.
Les données montrent que les applications d’accompagnement comme Uber et Lyft facturent de manière disproportionnée plus par mile pour les trajets vers et depuis la destination avec «un pourcentage plus élevé de résidents non blancs, de résidents à faible revenu ou de résidents de l’enseignement supérieur».
Les auteurs de l’étude ont expliqué que:
«Contrairement aux services de taxi traditionnels, les prix des services de transport en voiture sont dynamiques, calculés à la fois en fonction de la durée du trajet demandé et de la demande de services en voiture dans la région. Uber détermine la demande de trajets à l’aide de modèles d’apprentissage automatique, en utilisant des prévisions basées sur la demande antérieure pour déterminer les zones dont les conducteurs auront le plus besoin à un moment donné. Alors que l’utilisation de l’apprentissage automatique pour prévoir la demande peut améliorer la capacité des applications de covoiturage à fournir des services à leurs utilisateurs, les méthodes d’apprentissage automatique sont connues pour adopter des politiques qui affichent des disparités démographiques dans le recrutement en ligne, les publicités en ligne et la prévision de la récidive. »
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Ce n’est pas la première fois, cependant.
En 2016, les données ont montré que les personnes portant des noms à consonance noire étaient plus susceptibles de voir leurs cavaliers annuler, les passagers noirs attendaient plus longtemps que les cavaliers blancs et les femmes conduisaient inutilement plus loin que les hommes.
Non seulement cela affecte la vie quotidienne des gens, mais l’effet de compilation des données signifie que ces préjugés s’aggravent continuellement les uns les autres – se prouvant et se réprouvant – pour se solidifier dans notre subconscient en tant qu’êtres humains et continuer à affirmer (ou même à créer davantage) des biais implicites.
Un résultat supplémentaire apparaît comme une nouvelle réponse où les humains «passent le blâme» car la perception est que nous ne sommes pas responsables, ce sont les données.
Cela affecte la façon dont nous gérons nos entreprises, vivons nos vies, commercialisons nos produits et services, etc. C’est dans le tissu de notre société – et les algorithmes ne font qu’intensifier cet effet.
Conférences et panels marketing
Il n’y a pas de moyen plus facile de voir les ramifications des biais implicites dans notre vie quotidienne en tant que spécialistes du marketing que de regarder les leaders de l’industrie, les conférenciers de référence, les listes d’experts, etc.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Bien que nous soyons tous aujourd’hui très hyper-conscients de la blancheur (et souvent de la masculinité) de la plupart des panels ou listes d’experts, il semble que peu de pression soit exercée sur les organisations pour qu’elles diversifient leurs files d’attente.
Et, s’il y a de la pression, certains événements semblent toujours croire qu’il n’y a pas de conférenciers, d’experts ou de panélistes du BIPOC faciles à trouver.
Ce n’est évidemment pas vrai et c’est un autre exemple de notre propre confirmation et de nos biais implicites.
Un article de CNN de 2015 parle de moyens rapides pour déterminer si vous affichez des biais cachés dans la vie quotidienne.
La première façon d’introspection à ce sujet est de regarder votre cercle intérieur – tout le monde a-t-il la même apparence?
Il en va de même pour les conférences et les organisateurs d’événements.
Si votre bassin de candidats conférenciers et experts est toujours le même, c’est un tu problème – pas celui de quelqu’un d’autre.
Si votre conférence a le même haut-parleur noir chaque année, il est essentiel que nous fassions le travail pour trouver des experts non blancs dans chaque domaine.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Comment pouvons-nous obtenir les plus jeunes opportunités BIPOC pour construire leur métier? Ils existent.
Ils n’existent peut-être pas dans votre cercle.
Pourquoi est-ce important pour le référencement et le marketing?
Connaître le biais implicite des données et des algorithmes est essentiel – maintenant plus que jamais – car de plus en plus de gens utilisent des technologies comme la recherche Google et les médias sociaux comme principaux outils de collecte d’informations.
Nous ne nous rendons plus dans les bibliothèques et autres sources d’information gratuites pour être guidés par un professionnel diplômé en sciences de l’information.
(Bien que même ces professionnels aient leurs propres préjugés qui ont servi de mécanismes de contrôle de l’information – c’est pourquoi tant d’Américains apprennent à propos de Juneteenth en 2020.)
Au lieu de cela, la plupart des gens comptent sur Internet pour leur fournir le même type de processus de recherche.
Non seulement Internet est une source vaste et non réglementée, mais la base de l’optimisation des moteurs de recherche et de la publicité payante signifie que de nombreux chercheurs et internautes ne savent pas comment dire la vérité des opinions des amateurs.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Et avec l’avènement des actualités sur les réseaux sociaux, n’importe qui peut devenir une «source d’actualités» et les utilisateurs ne sont pas souvent habitués à les examiner dans le contexte des réseaux sociaux.
Dans «Algorithms of Oppression», Safiya Noble, Ph.D., souligne également que:
« Google fausse la recherche à ses propres intérêts économiques pour sa rentabilité et pour renforcer sa domination du marché à tout prix. »
Cela signifie que ces géants de la technologie ne fonctionnent pas dans le meilleur intérêt des personnes qui utilisent ces plateformes mais dans leur propre intérêt commercial.
Si Google et Facebook (et d’autres géants des technologies de l’information) vont gagner de l’argent en corroborant continuellement nos propres biais de confirmation (c’est-à-dire en nous disant ce que nous voulons entendre et en nous gardant dans nos propres chambres d’écho), alors nous sommes coincé dans un cycle d’être au gré de l’algorithmique et de nos propres préjugés personnels.
Que peuvent faire les marketeurs?
Les moteurs de recherche ne sont pas seulement programmés par des ingénieurs chez Google ou Bing – ils s’appuient sur les pages et les données que les propriétaires de sites Web, les référenceurs et les spécialistes du marketing mettent sur les sites Web.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Un exemple populaire comprend la recherche «coiffures professionnelles pour hommes» et «coiffures non professionnelles pour hommes».
Google affirme que la responsabilité ne repose pas sur leur modèle, mais sur le site Web et les données de texte alternatif que les développeurs de sites et les référenceurs utilisent pour ces images.
Lorsque vous cliquez sur le premier résultat dans la deuxième image, cela vous amène à un article qui appelle Google pour cet acte exact, qui réinjecte les mêmes images à Google pour des coiffures non professionnelles.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
En tant que spécialistes du marketing, nous devons reconnaître que cela fait partie du problème!
Google est connu pour ne pas prendre la responsabilité des biais dans la recherche, alors comment pouvons-nous nous positionner en tant que spécialistes du marketing?
Nous pouvons contrôler le texte alternatif, la façon dont les fichiers sont nommés, la langue entourant les fichiers sur les sites, etc.
Protéger les données des utilisateurs
Le marketing numérique moderne est basé sur les données des personnes.
Les algorithmes et les modèles d’apprentissage automatique tirent parti de ces données pour affirmer en permanence les biais sur lesquels ils reposent.
S’il existe des moyens raisonnables de protéger les données de votre public cible, nous devrions y travailler.
Une table ronde du Brookings Institute a révélé que les gens croient que «les opérateurs d’algorithmes doivent être plus transparents dans leur traitement des informations sensibles» et que s’il existe des moyens d’utiliser ces données pour des résultats positifs – les modèles d’apprentissage automatique devraient les prendre en compte (là où légaux et applicable):
« Il a également été question que l’utilisation d’attributs sensibles dans le cadre d’un algorithme pourrait être une stratégie pour détecter et éventuellement guérir les biais voulus et involontaires. »
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Avoir ces discussions et travailler à une solution pour les données privées et protégées des personnes est la première étape.
Si ces informations d’identification personnelle ne font pas partie de l’algorithme ou du processus d’apprentissage automatique, elles ont la possibilité d’empêcher ces données d’être utilisées de manière biaisée.
Diversifiez votre équipe marketing et votre leadership
Le marketing en tant qu’industrie est encore très blanc et masculin tandis que nos publics cibles sont très diversifiés dans d’innombrables aspects.
C’est une erreur de penser qu’un seul type de point de vue peut couvrir et comprendre les expériences de tous.
En diversifiant notre personnel marketing et en particulier notre leadership, nous pouvons voir où nos propres biais implicites entrent en jeu dans la façon dont nous commercialisons nos produits et services.
Les moyens d’y parvenir comprennent:
- Suppression de noms des CV.
- Faire des entretiens téléphoniques avant le face à face ou une vidéo pour réduire les biais.
- Ayez plus de diversité dans votre équipe d’entrevue.
- Offrir des opportunités de mentorat aux nouvelles recrues.
- Assurez-vous que vous examinez les biais dans les examens annuels.
- Favorisez la transparence des salaires dans votre organisation.
- Soutenez une classe de stagiaire.
- Affichez les emplois dans des endroits plus diversifiés.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Écoutez sans défense
Celui-ci est difficile, surtout en ce moment.
Mais c’est une clé pour comprendre comment notre marketing affecte les autres au-delà de nous-mêmes.
Écoutez quand vos collègues du BIPOC vous disent que quelque chose dans votre marketing les met mal à l’aise ou n’est pas sensible aux expériences des autres.
Une fois, j’étais à une conférence où une femme s’est levée pour partager son expérience de travail au sein d’une équipe marketing entièrement blanche pour une campagne.
Pendant tout ce temps, elle s’est sentie mal à l’aise avec la diversité de la vidéo sur laquelle l’équipe a travaillé – l’ensemble du casting était blanc.
Elle en a parlé avec désinvolture ici et là, mais tout le monde dans l’équipe l’a ignorée.
Enfin, lorsque la vidéo a été présentée au PDG, un Indien, son premier commentaire a été: «Pourquoi tout le monde dans la vidéo est-il blanc?»
Il est essentiel que nous écoutions les expériences des autres ouvertement et sans défense sur nos propres biais et erreurs implicites – cela fait de nous de meilleures personnes et de meilleurs dans notre travail aussi.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Soulevez les autres au-dessus de vous quand vous le pouvez
C’est probablement le plus difficile.
Souvent, nous sentons que nous travaillons très dur pour arriver où nous en sommes et voulons recevoir nos justes avantages pour tout ce que nous avons investi.
Cependant, il arrive un moment où notre privilège en tant que spécialistes du marketing blanc ainsi que l’effet cumulatif de la popularité et des moyens suivants peuvent se présenter pour nous que d’autres peuvent ne pas avoir.
Un exemple de cela serait d’arriver à un point où vous n’avez plus à vous présenter comme conférencier lors de conférences et d’événements marketing, mais qui sont invités ou peuvent simplement demander à être conférenciers.
Pendant ce temps, d’autres doivent encore naviguer dans le processus de pitch et sont au gré des organisateurs d’événements.
Amener les autres dans cette situation comprendrait:
- S’assurer que les événements prévoient d’avoir une liste de conférenciers diversifiée et équitable avant d’accepter de parler.
- S’assurer que le BIPOC et les femmes enceintes sont rémunérées pour leurs apparitions.
- Offrez même votre place à un expert sous-représenté dans le même espace.
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Il n’est pas facile de renoncer à quelque chose pour lequel on a l’impression d’avoir travaillé dur, mais cela montre que nous comprenons la charge supplémentaire que les experts du BIPOC dans le même espace doivent supporter pour obtenir les mêmes résultats que nous avons atteints.
Crier et limiter vos propres biais implicites est difficile.
Et c’est encore plus difficile lorsque les algorithmes, la modélisation des données, l’apprentissage automatique et la technologie sont aggravés contre nous et renforcent nos biais.
Mais à long terme, c’est une façon pour les spécialistes du marketing de travailler ensemble pour faire de notre espace un espace plus équitable, inclusif et représentatif pour tout le monde.
Remerciement spécial
Remerciements spéciaux et astuce chapeau SEO / marketing à Jonathan Wilson, Krystal Taing, Rohan Jha, et Jamar Ramos pour l’édition du support, l’envoi de liens vers des sources / données d’actualités supplémentaires et des instructions sur cette pièce.
Plus de ressources:
PUBLICITÉ
CONTINUER À LIRE CI-DESSOUS
Crédits d’image
Toutes les captures d’écran prises par l’auteur, juin 2020