Quand les algo rythment l’information

Margaux Vulliet
Margaux Vulliet

Faire vivre son média sur Face­book et Insta­gram néces­site une con­nais­sance de ces out­ils pour gag­n­er en vis­i­bil­ité ou moné­tis­er son con­tenu. Face au flou imposé par les algo­rithmes, cer­tain·es par­lent de « cen­sure » de pub­li­ca­tions ou de « perte de la ligne édi­to­ri­ale ». Pour Médi­anes, la Revue Far Ouest, Clit Révo­lu­tion, la revue Gaze et Loop­sider témoignent de leur présence sur les réseaux sociaux.

« Face­book était comme mon deal­er », assène Flo Laval, co-fon­da­teur de la Revue Far Ouest, un média indépen­dant qui cou­vre la région Nou­velle-Aquitaine. La métaphore de la drogue, il la file tout au long de notre échange. Lorsqu’un nou­veau média se lance, la présence sur les réseaux soci­aux est presque inévitable. Et pour l’équipe de la revue lancée en 2017, il a fal­lu appréhen­der ces usages.

Entre 2016 et 2019 c’est l’extase : le média, présent égale­ment en vidéo sur Face­book, vient de créer sa page dans le but de gag­n­er en vis­i­bil­ité. « On a réus­si à tripler notre com­mu­nauté au fil des mois. On a bien vu que per­son­ne n’allait sur le site Inter­net. Donc on a émergé aus­si grâce à ça », recon­naît Flo. Pour émerg­er sur le réseau social, la revue se plie alors aux recom­man­da­tions de la plate­forme « il fal­lait pub­li­er du con­tenu des vidéos d’environ 5 min­utes. On abor­dait des sujets comme les gilets jaunes, le fémin­isme, l’environnement, qui plaisent aux algo­rithmes de Face­book donc cela générait de l’engagement ». La vidéo avec Cyril Dion cumule 180 000 vues et d’autres atteignent les 675 000 vues.

Flo Laval - La Revue Far Ouest
Flo Laval — Revue Far Ouest

À en perdre la ligne éditoriale

Mais Flo se rend vite compte que Face­book « demande de pro­duire tou­jours plus. Puis il nous mon­tre com­ment pay­er encore plus pour gag­n­er davan­tage en vis­i­bil­ité ». Et du jour au lende­main, tout s’arrête. La plate­forme exige des vidéos plus cour­tes. Far Ouest perd son audi­ence alors même que Face­book est devenu son prin­ci­pal canal de com­mu­ni­ca­tion. L’équipe a con­science qu’elle s’est enfer­mée dans un for­mat, au point de s’éloign­er de sa ligne édi­to­ri­ale ini­tiale : pren­dre le temps, ren­con­tr­er les acteur·ices de l’environnement, racon­ter la région Nou­velle-Aquitaine. « Nous pro­dui­sions du con­tenu pour faire plaisir à l’algorithme, per­son­nelle­ment j’étais dépen­dant d’un truc que je ne maîtri­sais plus ».

Et ce truc, c’est l’algorithme. « Aujourd’hui, plus c’est court, plus ça marche. Sauf que la revue va au fond des choses. Donc avec les algo­rithmes, ça n’al­lait plus ». En effet, en 2018, Face­book a changé son algo­rithme, ce qui a par­ti­c­ulière­ment impacté les médias. Aus­si, à ce moment-là, Face­book mise tout sur la vidéo et recom­mande des durées pré­cis­es pour gag­n­er en vis­i­bil­ité : entre 1 et 5 minutes. Par ailleurs, Face­book s’est doté d’un out­il en 2014 : Face­book for media. Un site à des­ti­na­tion des médias, conçu comme un kit ou comme un guide sur les bonnes pra­tiques afin d’être vis­i­ble sur la plate­forme. « Les invi­ta­tions que lance Face­book à pro­duire plus de vidéos sont néan­moins égale­ment assor­ties de con­seils de nature à influer sur leur con­tenu », assure le chercheur Tris­tan Mat­te­lart dans son arti­cle « Com­pren­dre la stratégie de Face­book à l’égard des médias d’information ».

Alors jeune média, l’équipe de la Revue Far Ouest a testé sa présence sur les réseaux soci­aux de manière empirique. « Il faut rester mod­este quand on débute : tu essayes, tu fais une erreur, tu changes. Il y a un écart entre la bonne manière de faire, et les moyens dont on dis­pose pour tra­vailler ».

« La censure devient politique »

Ne plus com­pren­dre le fonc­tion­nement de son prin­ci­pal out­il de tra­vail, Elvire Duvelle-Charles le subit avec Insta­gram à tra­vers son compte Clit Révo­lu­tion. Son livre Fémin­isme et réseaux soci­aux : une his­toire d’amour et de haine est sor­ti aux édi­tions Hors d’atteinte en févri­er 2022. La veille de notre échange, elle était dans une librairie à la ren­con­tre de ses lecteur·rices : « c’était une bouf­fée d’air que de ren­con­tr­er sa com­mu­nauté hors ligne ». Cela en dit long sur le tour­nant qu’elle est en train de pren­dre con­cer­nant les réseaux soci­aux. Au cours des ren­con­tres, « la ques­tion du “shad­ow ban” et de la cen­sure à l’encontre des con­tenus fémin­istes revient sou­vent. Ma com­mu­nauté com­mence à avoir con­science de ces prob­lé­ma­tiques ». Le shad­ow ban est l’invisibilisation d’un compte dans le fil de celles et ceux qui nous suiv­ent. « Lorsqu’on est invis­i­bil­isé·e dans les algo­rithmes, on est moins mis en avant, sans savoir pourquoi. La cen­sure c’est plus rare, mais plus explicite ». Mais alors pourquoi des comptes fémin­istes seraient invis­i­bil­isés ? « Ma théorie, qui n’engage que moi, pour­suit Elvire Duvelle-Charles, soupçonne les sig­nale­ments en masse de nos comptes : celles et ceux qui ne sup­por­t­ent pas les fémin­istes font en sorte que nous soyons régulière­ment restreint·es ».

Elvire Duvelle-Charles Crédits : Maya Mihindou
Elvire Duvelle-Charles — Crédits : Maya Mihindou

L’ambivalence se trou­ve dans le fait que le cyber-­har­cèle­ment est « bon pour l’algorithme » puisque la valeur d’un post est cal­culée en fonc­tion du taux d’en­gage­ment que génère ce con­tenu. Ain­si, un post fémin­iste sur les réseaux soci­aux qui subi­rait un har­cèle­ment via une avalanche de com­men­taires haineux pour­rait « plaire » à l’al­go­rithme de la plate­forme. Mal­heureuse­ment, la cul­ture du clash provoque la mise en avant des con­tenus. Alors que le mil­i­tan­tisme s’ex­prime aujour­d’hui aus­si par le clic, des comptes fémin­istes exis­tent depuis plusieurs années et Meta (mai­son mère de Face­book, Insta­gram et What­sApp) a plutôt ten­dance à appréci­er la nou­veauté. Après cinq années d’existence, la vis­i­bil­ité baisse dras­tique­ment, « par­fois nous avons 78 likes pour 120 000 abonné·es. Le compte n’est plus mis en avant comme un nou­veau peut l’être ».

Selon Elvire Duvelle-Charles, Meta ne com­mu­nique pas sur ses pra­tiques de blocage de cer­tains con­tenus : « on les décou­vre en postant ».  Elle cite en exem­ple la Une de Téléra­ma avec l’ac­tiviste et mod­èle Leslie Bar­bara Butch posant nue. Le partage de la pho­to a été blo­qué sur les réseaux soci­aux pen­dant plusieurs heures. De son côté, Insta­gram partage ses pré­con­i­sa­tions pour gag­n­er en vis­i­bil­ité : la régu­lar­ité des posts, la pro­duc­tion de plusieurs con­tenus par jour, la pub­li­ca­tion de Reels est égale­ment recom­mandée. Meta veut rat­trap­er son retard sur l’in­stan­ta­néité de Tik­Tok, mais pour Elvire c’est surtout « pro­duire tou­jours plus, et c’est de la fatigue. Tenir le rythme devient infais­able et il y a le risque de per­dre sa ligne édi­to­ri­ale. Alors même que cer­tain·es suiv­ent ces recom­man­da­tions, leurs con­tenus sont blo­qués, la cen­sure devient poli­tique ».

En passer par la case justice

Sa manière d’appréhender les réseaux soci­aux a changé. « J’ai une rela­tion ambiguë avec les réseaux soci­aux. D’un côté, je ressens un dégoût et de l’autre je con­tin­ue à les utilis­er ». Il y a dix ans, Elvire était chargée des réseaux soci­aux dans le col­lec­tif des Femen. « Nous con­nais­sions mieux le fonc­tion­nement des algo­rithmes : le taux d’engagement du pub­lic dans les heures qui suiv­ent la pub­li­ca­tion. Nous étions blo­quées pen­dant un temps, car nous mon­tri­ons des pho­tos avec des tétons appar­ents puis la pub­li­ca­tion reve­nait. Main­tenant, c’est une cen­sure algo­rith­mique ».

Pour dénon­cer ces abus, Elvire Duvelle-Charles est co-sig­nataire, avec d’autres comptes fémin­istes, d’une tri­bune pub­liée dans Medi­a­part. Dans ce texte, ils et elles dénon­cent « la cen­sure gran­dis­sante de groupes mil­i­tants sur les réseaux soci­aux et l’ab­sence totale de mod­éra­tion des con­tenus sex­istes, racistes, appelant au cyber-­har­cèle­ment, et une silen­ci­a­tion per­ma­nente de nos pro­pos » et deman­dent notam­ment « une mod­i­fi­ca­tion de l’algorithme pour une meilleure représen­ta­tion et vis­i­bil­ité des corps des minorités et la créa­tion d’un obser­va­toire indépen­dant des réseaux soci­aux, cofi­nancé par l’État et les plate­formes ».

Tout est par­ti de la sup­pres­sion d’une pub­li­ca­tion, de la mil­i­tante fémin­iste et antiraciste Mélu­sine qui posait la ques­tion : « com­ment fait-on pour que les hommes cessent de vio­l­er ? ». Elvire Duvelle-Charles pré­cise que c’est aus­si le point de départ d’une assig­na­tion en référée portée con­tre Face­book par un col­lec­tif de 14 comptes fémin­istes dont Clit Révo­lu­tion. Le col­lec­tif s’est entouré des avo­cates Valen­tine Rebéri­oux et Louise Bouchain. L’objectif de cette assig­na­tion est d’avoir une solu­tion immé­di­ate pro­posée. Elles deman­dent à ce que Face­book soit plus trans­par­ent en ce qui con­cerne leurs algo­rithmes et leur poli­tique de modération.

___________________________________________________________________________

Nikos Smyr­naios est maître de con­férences en Sci­ences de l’in­for­ma­tion et de la com­mu­ni­ca­tion à l’Université de Toulouse et auteur de Les GAFAM con­tre l’Internet, une économie poli­tique du numérique (INA, 2020).

Le mot « cen­sure » revient à plusieurs repris­es dans les témoignages recueil­lis, ce terme vous paraît-il adapté ?

Pour moi, le mot cen­sure est de nature poli­tique et mil­i­taire. Je par­lerais plutôt de réduc­tion de vis­i­bil­ité et de posts sus­pendus ou de mise en invis­i­bil­i­sa­tion. Lorsque Face­book retire des pub­li­ca­tions, il y a tout un tas de raisons invo­quées, mais cela peut relever d’une infrac­tion aux con­di­tions d’utilisation. Lorsqu’un média poste du con­tenu, il accepte toutes les con­di­tions que pose le réseau, donc il doit se pli­er aux règles imposées. Mais il y a égale­ment l’enjeu de la mod­éra­tion. La mis­sion est en par­tie assurée par des sous-trai­tants à l’étranger. Le con­texte cul­turel et poli­tique des mod­éra­teurs n’est pas le même con­cer­nant la mod­éra­tion. Ain­si, Face­book invoque la rai­son de l’erreur après coup, et la faute repose sur la sous-trai­tance. Une bonne manière pour Face­book de ne pas avoir à se justifier.

Des actions en jus­tice comme cette assig­na­tion en référé de Face­book par 14 comptes fémin­istes en 2021, peu­vent-elles faire bouger les lignes ?

Je suis scep­tique. C’est une bonne ini­tia­tive que des médias enga­gent ces procé­dures, mais je ne suis pas cer­tain de l’aboutissement. Il faut plutôt miser sur une solu­tion poli­tique comme le Dig­i­tal Ser­vices Act engagé par l’Union européenne. Les plate­formes devront notam­ment ren­dre leurs algo­rithmes publics. L’accès aux solu­tions est asymétrique : on a bien vu que les droits voisins et les accords passés entre les édi­teurs et les plate­formes ont con­cerné unique­ment les grands médias tra­di­tion­nels. Face­book News va met­tre en avant ces médias et la con­cen­tra­tion sera encore plus forte. Les médias émer­gents sont con­traints de se pli­er à ces règles et doivent miser sur des solu­tions alter­na­tives, compter sur leur com­mu­nauté engagée.

L’affaire des Face­book Files, pose la ques­tion : Face­book a‑t-il encore la main sur ses algorithmes ?

Face­book con­trôle ses algo­rithmes. Ce qu’il ne con­trôle pas, ce sont les effets indi­rects. Pour la mod­éra­tion, des mots-clés sont spé­ci­fique­ment choi­sis alors que le dis­cours humain est com­plexe et les algo­rithmes ne com­pren­nent pas la satire. On observe que les GAFAM [Google, Apple, Face­book, Ama­zon et Microsoft] et Tik­Tok met­tent la main sur l’évolution de l’usage de l’information. Par exem­ple, Face­book a changé son algo­rithme après l’élection améri­caine. De son côté, Google a longtemps mon­tré qu’il avait la main en Espagne.

___________________________________________________________________________

« Je n’ai aucune visibilité »

Être vis­i­ble sur les réseaux soci­aux, c’est aus­si assur­er une par­tie de ses revenus. Gaze, une revue fémin­iste indépen­dante qui célèbre la mul­ti­plic­ité des regards féminins en est un bon exem­ple. Pour met­tre en avant leur média et com­mu­ni­quer sur leur revue papi­er, l’équipe a recours à de la pub­lic­ité (spon­sori­sa­tion) sur Insta­gram et Face­book, via l’outil pub­lic­i­taire de la plate­forme : Busi­ness Man­ag­er. Prob­lème : ce compte est actuelle­ment blo­qué. « Là, je n’ai aucune vis­i­bil­ité con­cer­nant notre présence sur les réseaux soci­aux puisque nous sommes lit­térale­ment blo­quées, témoigne Clarence Edgard-Rosa la fon­da­trice, nos posts non pub­lic­i­taires con­tin­u­ent d’être pub­liés, mais on ne se sait jamais à quel moment on peut être cen­suré·es ». En clair, impos­si­ble de savoir ce qu’ac­ceptent ou non les algo­rithmes de Meta, impos­si­ble de spon­soris­er leurs con­tenus et d’assurer la vente de leur revue.

Clarence Edgard-Rosa
Clarence Edgard-Rosa

Les blocages sont directe­ment liés à la ligne édi­to­ri­ale. Dans son troisième numéro, Gaze a vu plusieurs de ses con­tenus ban­nis sur Face­book. La cou­ver­ture représente une femme por­tant une robe couleur chair, prise de dos, en train de se regarder dans le miroir. « Les algo­rithmes de Face­book croient que l’on pub­lie du con­tenu inter­dit. Ce qui me met le plus en colère c’est que l’on me dise que la Une de ma revue est pornographique. Même la per­son­ne du ser­vice mar­ket­ing de Face­book que nous avons eue au télé­phone nous a dit que “oui objec­tive­ment il n’y avait rien de porno là- dedans”. Il faudrait presque deman­der à Meta sa val­i­da­tion pour savoir s’ils acceptent ou non notre prochaine cou­ver­ture ».

Un ton cynique qui ne cache pas un ras-le-bol alors que c’est une énergie qui pour­rait être davan­tage con­sacrée à la ges­tion du mag­a­zine. À chaque sup­pres­sion de con­tenu, l’équipe tient à con­naître les raisons : essay­er de con­naître les argu­ments, atten­dre des ren­dez-vous télé­phoniques avec Meta et faire appel des blocages.

« Des situations ubuesques »

Gaze en viendrait à con­tourn­er la « cen­sure » par l’autocensure.  « On est là-dedans. La créa­tion des posts se fait totale­ment en fonc­tion des algo­rithmes et des pos­si­bil­ités d’être cen­surés. Dans tous les cas, nous n’avons aucune idée de quel type de con­tenu peut être blo­qué. On garde notre lib­erté de ton et de con­tenu pour la revue ». En réponse, Face­book apporterait deux expli­ca­tions dif­férentes : celle d’une erreur ou bien la plate­forme recon­naît que ces pub­li­ca­tions n’ont rien de déplacé, mais il faut les sup­primer, car cela ne coïn­cide pas avec les algorithmes.

Pour la revue, le prob­lème devient aus­si économique : « si on ne com­mu­nique pas, il y aura des réper­cus­sions sur le nom­bre de ventes ». C’est tout un tas de sanc­tions que subit Gaze assure Clarence : du con­tenu qui saute, des per­son­nes qui reparta­gent, les pub­li­ca­tions per­dent de la vis­i­bil­ité, des fonc­tion­nal­ités qui dis­parais­sent. Lors du lance­ment de son pre­mier numéro, Gaze a organ­isé un live sur Insta­gram et Face­book. « C’était durant le pre­mier con­fine­ment, nous n’avions pas vrai­ment d’autres choix, mais nous voulions faire quelque chose de qual­ité. Deux jours avant, on fait des essais et l’on décou­vre que l’accès à la fonc­tion­nal­ité live était coupé. Des sit­u­a­tions ubuesques et des anec­dotes comme celle-ci j’en ai mal­heureuse­ment beau­coup en stock ».

Ligne édi­to­ri­ale, réper­cus­sions économiques, Clarence Edgard-Rosa souligne aus­si la ques­tion poli­tique. « C’est un prob­lème de vision. Je ne sais même pas com­ment on a atteint 30 000 abonné·es sur Insta­gram avec tous ces obsta­cles ». Elle entend le fait que l’on puisse être lim­ité sur une plate­forme ouverte à toutes et tous, mais « par exem­ple, nous avons dû couper un por­trait dans notre pre­mier numéro, cela devient de l’autocensure. C’est un souci en par­ti­c­uli­er pour les artistes à qui nous faisons beau­coup appel. Finale­ment, la cen­sure accom­pa­gne notre démarche et notre engage­ment ».

La non-réponse de Facebook

À la suite de ces témoignages, nous avons con­tac­té Meta. Nous avons reçu cette réponse par mail : « Mal­heureuse­ment, nous n’avons actuelle­ment pas de porte-parole ou d’éléments autres que ceux pub­liés à vous partager sur ce sujet spé­ci­fique ». Edouard Braud, le respon­s­able des parte­nar­i­ats médias pour Méta en France, n’a pas souhaité répon­dre à nos ques­tions sans l’aval de sa direc­tion. Le géant entend con­naître les prob­lé­ma­tiques de ces comptes vic­times de blocages de con­tenus. Pour cela, Meta a notam­ment sol­lic­ité des ONG qui défend­ent des caus­es publiques. Ces organ­i­sa­tions sont aus­si amenées à pub­li­er du con­tenu qui a pour but de sen­si­bilis­er le pub­lic à des sujets comme la sex­u­al­ité ou la drogue, com­pa­ra­bles à celles des médias cités plus hauts. Pour­tant, ce con­tenu aus­si peut être blo­qué par l’al­go­rithme. En cause tou­jours, des images ou des mots qui ne peu­vent pas être util­isés. En 2020, soucieux ou par sim­ple com­mu­ni­ca­tion poli­tique, Meta a con­tac­té ces ONG. Le but : leur partager les bonnes pra­tiques afin de ne pas être blo­qués par Face­book et les autres plate­formes. Selon une source qui a assisté à l’une de ces ren­con­tres en visio­con­férence, « il s’agis­sait de sortes de for­ma­tions sur ce que l’on pou­vait pub­li­er ou non. Depuis, aucune réponse con­crète n’a été apportée au blocage de con­tenus visant à sen­si­bilis­er le pub­lic. Et c’est comme cela que des cam­pagnes entières de sen­si­bil­i­sa­tion ont été freinées ».

La fatigue et des solutions

« J’ai choisi la puni­tion, je ne veux pas faire du poli­tique­ment cor­rect, j’ai donc fait le deuil de la vis­i­bil­ité », con­fie Elvire Duvelle-Charles. Depuis un an, elle est présente sur la plate­forme Patre­on sur laque­lle elle partage les couliss­es de son éman­ci­pa­tion d’Instagram, des con­tenus bonus, « mais surtout il y a de la bien­veil­lance et de l’adhésion. J’ai 200 abonné·es. À présent, je mets un point d’honneur à ren­con­tr­er ma com­mu­nauté hors ligne, à dis­cuter avec elle et à organ­is­er des ren­con­tres ». Sans pour autant délaiss­er Insta­gram où elle con­tin­ue de poster du con­tenu informatif.

Comme Elvire, d’autres créateur·ices de con­tenus et de médias se lassent de la cadence et des vio­lences en ligne. Des alter­na­tives se dévelop­pent de plus en plus sur Dis­cord, Patre­on, Telegram ou encore dans la créa­tion d’une newslet­ter. « La ques­tion est aus­si finan­cière. Lorsque l’on fait des parte­nar­i­ats rémunérés sur Insta­gram, il faut savoir appréhen­der ce change­ment grâce à la diver­si­fi­ca­tion ». Et cela, elle l’entreprend à tra­vers le doc­u­men­taire Clit Révo­lu­tion sur FranceTV Slash, la sor­tie de son livre et le pod­cast Hot Line pro­duit par Nou­velles Écoutes. « On trou­ve des alter­na­tives, je veux main­tenant met­tre ma vis­i­bil­ité au ser­vice des autres ».

De son côté, la Revue Far Ouest a choisi de faire une pause sur les réseaux soci­aux. « En ce moment, nous réfléchissons à une nou­velle stratégie de notre présence sur les plate­formes et cela créer du débat au sein de l’équipe », avance Flo Laval. Pour le moment, le média se recen­tre sur la for­mule papi­er et sur la newslet­ter. En effet, la revue peut compter sur sa com­mu­nauté plus restreinte, mais engagée, avec qui l’équipe peut avoir un lien direct et des retours sur le tra­vail journalistique.

Loopsider, aller là où va le public

Cepen­dant, tous les médias ne sont pas en con­fronta­tion avec les plate­formes et cer­tains mis­ent même sur eux. C’est le cas de Loop­sider qui, dès son lance­ment en 2018, a par­ié sur une vis­i­bil­ité 100 % réseaux soci­aux et qui compte 2 mil­lions d’abonné·es sur sa page Face­book. Lancé notam­ment par Johan Huf­nagel avec qua­tre autres associé·es, le média entend aller là où va le pub­lic sur des sujets qui par­lent aux jeunes. « Notre mod­èle repose sur les réseaux soci­aux et du brand con­tent », explique Harold Grand, chef d’édition à Loop­sider.

Le média revendique qu’il n’y a pas de lien entre la plate­forme et la ligne édi­to­ri­ale. « On cherche à racon­ter de nou­veaux réc­its dans des vidéos cour­tes de 3 minutes et sur Face­book on peut moné­tis­er avec des vidéos de cette durée ». Con­stru­ire son mod­èle de média sur une plate­forme c’est aus­si con­stru­ire son audi­ence selon les algo­rithmes de Face­book. Mais alors, com­ment savoir si une vidéo va fonc­tion­ner ou non ? « Une fois pub­liée, on ne sait pas si une vidéo va fonc­tion­ner. Par exem­ple, un témoignage face caméra ou l’at­ter­ris­sage spec­tac­u­laire d’un avion ont car­ton­né. À l’in­verse, quand on se dit que tel sujet va trou­ver l’audience, cela peut ne pas être le cas et par­fois on a des sur­pris­es », pour­suit Harold Grand.

Loop­sider, égale­ment aux manettes de Peri­od, a lancé il y a quelques semaines une série sur l’éducation, l’artisanat et le loge­ment. Des sujets qui par­lent à leur audi­ence puisque « le pub­lic est au ren­dez-vous ». Con­traire­ment aux précé­dents témoignages, Loop­sider n’a con­nu que très peu de blocages de leurs con­tenus. « Ça peut arriv­er et dans ces cas-là on ne com­prend pas pourquoi. On ne met jamais de nudité ou de con­tenus vio­lents donc nous n’avons pas voca­tion à être blo­qués. Pour les images vio­lentes, on floute ce qui doit l’être et on met un badge de préven­tion ». Comme il n’y a pas d’abonné·es au sens pro­pre du terme, le média béné­fi­cie d’une équipe dédiée qui tra­vaille sur l’audience. Elle est chargée de regarder les chiffres des vidéos image par image, sec­onde par sec­onde. « Dans tous les cas, un média qui mise sur les réseaux soci­aux est en per­pétuel mou­ve­ment, nous devons tester de nou­velles choses. Actuelle­ment, nous essayons des for­mats sur Tik­Tok ».

Tik­Tok devient le nou­veau ter­rain de jeu des médias qui ten­tent de séduire les plus jeunes, que 7 % des moins de 35 ans utilisent pour s’in­former (selon le Dig­i­tal News Reports 2021). Mais tout comme Meta, le réseau social est accusé de blo­quer cer­tains con­tenus LBGT ou  ceux com­por­tant le hash­tag Black Lives Mat­ter. Un cer­cle vicieux des réseaux soci­aux que com­bat­tent des médias engagés.

NDLR : Médi­anes, le stu­dio, a col­laboré avec la Revue Far Ouest pour l’or­gan­i­sa­tion du Fes­ti­val Imprimé et les accom­pa­gne dans leur posi­tion­nement stratégique.

________________________________________________________________

Aller plus loin :

StratégiealgorithmesFacebookMeta

Margaux Vulliet Twitter

Journaliste médias et tech, Margaux a effectué son alternance chez Médianes. Après un an au service Tech&Co de BFMTV, elle est actuellement aux États-Unis pour explorer les initiatives des médias.