Catégorie : Technologie

  • Comment Upscrolled s’est tiré une balle dans le pied ?

    Comment Upscrolled s’est tiré une balle dans le pied ?

    (En faisant exactement comme il ne faut pas faire.)

    D’aucuns pourraient se dire qu’après 24 ans de Skyblog, 22 ans de Facebook, 20 ans de Twitter et de Youtube, etc… on aurait suffisamment de recul sur la modération des réseaux sociaux pour ne pas faire les mêmes erreurs. Sauf qu’un réseau social décida de tout ignorer, ne mettre en place aucun garde-fou, et laisser pulluler absolument du contenu néfaste par négligence des leçons du passé.

    Alors, que s’est-il passé, justement ?

    Quand Upscrolled est débordé, déborde puis se saborde.

    Une vague massive d’utilisateur·ices est arrivée sur la plateforme. De 400 000, elle dépasse le million, et se retrouve donc prise d’assaut. Cette arrivée massive corrélée à un exode d’autres plateformes a été une énième réaction au fait que, notamment, des décisions de modérations de plateformes massives cassent toute possibilité d’une communication ouverte à propos de sujets sensibles comme les génocides, les guerres, les révoltes civiles, les droits des minorités, etc… et que la plateforme est tenue par une personne non-milliardaire pro-palestine, ce qui a suscité engouement et espoir.

    Avec cette vague est aussi très vite arrivé un problème : les « bad actors » étaient en embuscade. Les comptes nazis et antisémites ont pullulé, et rien que leur présence posait problème. De tels contenus peuvent aujourd’hui être rapportés automatiquements par, entre autres, un algorithme de veille qui peut être facilement intégré. Il n’y avait aucun filtre sur la création de pseudonymes offensants et la veille était trop faible pour le voir.

    Débordée, la modération a été alors renforcée. Pour faire face aux contenus qui ne sont pas conformes à la plateforme, ce qui a eu pour effet de… ne pas toucher aux contenus offensants et d’exclure moults comptes de personnes transgenres.

    Aïe.

    Que s’est-il passé pour que des comptes hitleriens restent et que des adelphes soient exclu·es ? Nous n’aurons pas de réponse d’Upscrolled. Nous aurons une réponse qui sonne comme un aveu de la part d’un financeur de la plateforme qui expliquera que les nouvelleaux modérateur·ices recrutés n’étaient pas suffisamment formés. On pourrait comprendre que ces personnes trans aient été ejectées à dessein.

    Re-Aïe.

    Puis c’est au tour de la plateforme, qui pourtant dans son postulat de base, déclare entre autres « défendre toujours ce qui est juste et veiller à la responsabilité sociale », de communiquer sur les « bad actors » qui viennent noyer la plateforme sous du contenu illégal et méchant. J’admets qu’effectivement, les gens à leur tête n’ont pas l’air d’être spécialistes de la communication, car à les entendre je croierais que les gérants ne sont que victime d’un sabotage quand ils se sont rendus coupables par maladresse (au mieux!) de plusieurs méfaits dont au moins un, l’exclusion des adelphes trans, leur est directement imputable.

    Comment aurait-on pu éviter la catastrophe ?

    La vague d’utilisateur·ices massive qui est arrivée n’était pas gérable. On ne sait jamais quand le succès nous atteint, quand il nous tombe dessus soudainement, et je ne reprocherai jamais à une plateforme de ne pas avoir géré l’afflux massif d’utilisateurs – et ce à plus d’un titre, car plus d’utilisateurs nécessite également plus de ressources matérielles et logicielles et tant qu’on ne sait pas à quel point ça augmentera, difficile de le prévoir.

    Par contre, je reprocherai toujours volontiers à une plateforme de réseau social de ne pas avoir appris de ce que désormais des décennies d’Internet nous ont inculqué sur la modération.

    Il aurait été très facile de mettre des filtres sur les noms d’utilisateur·ices, par exemple, ça nous aurait évité des Adolf Hitler. Il aurait aussi été très facile de voir qu’il n’y a pas tout à jeter dans les algorithmes de modération et qu’il peut être utile de s’inspirer des algorithmes d’analyse des contenus. Il aurait aussi été très facile de former les modérateur·ices d’une plateforme pour leur dire que les personnes transgenres ne sont pas des gens à bannir de manière sélective pour ce qu’iels sont.

    Peut-être un problème structurel ?

    « Unfiltered by design« . C’est peut-être là où il faut regarder.

    Car derrière les promesses louables d’une plateforme qui veut permettre la libre parole pour toustes, il y a une question de quelle liberté il faut donner à trancher, et le site semblait avoir fait le choix d’une liberté d’expression (c’est-à-dire d’exprimer des opinions tant que celles-ci ne portent pas d’intérêt grave à l’intégrité d’autrui) plutôt qu’une liberté de discours (c’est-à-dire une expression totalement libre où la parole n’a aucune conséquence).

    Upscrolled revendique le fait de ne pas censurer ni d’ombrager (« shadowban ») de contenu, avec un réseau qui appartient à ses utilisateur·ices, et non des algorithmes cachés ou agendas extérieurs. C’est louable, sauf quand ça signifie ignorer que les agendas extérieurs peuvent entrer à l’intérieur de la plateforme sans en être les pilotes, et influencer les résultats par le nombre pur de contenus.

    Cependant, puisque l’entrée à la plateforme (comme toutes les entrées de toutes les plateformes de RS à inscription automatique) est libre et que la limitation de publication quotidienne est absente, le risque d’infection et de propagation de contenu néfaste est majeur, surtout sans algorithme de tri empêchant cette dispersion. Et bien que les effets peuvent être limités, nous sommes malheureusement face à quelque chose sur lequel rien ne peut être fait, à moins d’un changement de paradigme.

    Bluesky avait fait le choix à ses débuts d’ouvrir au bêta-test de sa plateforme par distribution de clefs. Cela a pu consolider son fonctionnement avant que les utilisateur·ices arrivent par volumes massifs en vagues successives, mais avec une maîtrise des algorithmes, permettant entre autres de mieux consolider sa modération. Peut-être une piste à creuser, mais peut-être aussi une piste à ne pas abandonner pour la suite : en finir avec l’inscription libre, et promouvoir un système d’invitation/cooptation.

    Pour conclure

    Des problèmes auraient pu trouver une solution simple si les choses n’avaient pas été négligées et qu’Upscrolled avait compris que ce n’est pas parce que l’eau du bain est sale qu’il faut jeter le bébé avec.

    Il faut souligner que je n’ai pas titré l’article avec « pourquoi fuir Upscrolled à tout prix ? » car mon intention est de relever ce qui n’a pas été pour que les choses s’améliorent. Upscrolled l’a bien compris, des leçons ont été apprises et des solutions sont en cours d’application chez eux. Dommage qu’il ait fallu attendre que le feu soit sur leurs bras pour constater que le feu brûle plutôt que d’avoir prévu le pare-feu avant.

    Aussi, une chose qui pourrait être faite, au-delà de la modération, est de faire un effort sur la communication. Tout remettre sur les causes externes (les « bad actors », les modérateur·ices) ne doit pas cacher les causes internes (le manque de préparation, le manque de filtrage et de formation). On vous voit, en fait.

    Mais peut-être aussi que le problème vient de comment les réseaux sont faits. Est-ce que l’accès libre sans filtre préalable est une norme à dépasser ? Est-ce que le futur des réseaux sociaux ne passe pas par une maîtrise plus complète de sa base d’utilisateur·ices ? Est-ce que la modération ne pourrait pas être assurée par les pairs ?

    Notice de l’autrice : l’ensemble des propos tenus ici font partie d’une analyse personnelle qui ne reflète en rien une expertise et ne traduit que l’opinion de son autrice. Cet article ne doit pas être utilisé comme avis d’autorité sur le sujet abordé. N’en recommandez la lecture qu’après être conscient·e de son contenu.