Catégorie : Réseaux Sociaux

  • Nébuleuse sera un réseau social avec entrée par cooptation.

    Nébuleuse sera un réseau social avec entrée par cooptation.

    Dans un précédent article concernant UpScrolled et son lancement catastrophique, j’avais posé trois questions, l’une étant « est-ce que l’accès libre sans filtre préalable est une norme à dépasser ? » Je vais donc brièvement parler de ça aujourd’hui.

    L’individualisation de la responsabilité en problème de fond

    Je pense qu’il y a un véritable problème d’atomisation de la responsabilité. Si un acte ou un propos commis par une personne lui est propre, le cheminement menant à cet fin n’est pas individuel. Il résulte, toujours, à un moment donné, d’une influence collective*. Dans le cheminement qui a mené une personne à être ce qu’elle est au moment de l’impair, il ne faut pas négliger l’impact qu’a son entourage. Même si ladite personne jure avec son environnement, ce n’est pas un aspect à occulter.

    Je trouve ça très paradoxal dans notre monde, d’ailleurs, cette capacité que l’on a à poser la responsabilité totale des actes sur un individu. Cela nous amène à atomiser les choses, à ne plus prendre en compte le contexte dans lequel les choses arrivent. La construction d’une œuvre en fer de plus de 300 mètres à Paris est-elle due à l’unique talent de son architecte et ingénieur, Gustave Eiffel ? Les meurtres d’extrême-droite sont-ils l’œuvre de leurs seuls assassins ou aussi celle de la diffusion d’une idéologie nauséabonde par des centaines d’autres personnes ?

    J’ai pris des exemples extrêmes, mais vous saisissez l’idée. Si la finalité, positive ou négative, incombe à l’individu ou si l’Histoire retient un seul individu, le contexte menant à cette fin n’est jamais entièrement dû uniquement au dit individu. Ainsi, je pense que la responsabilité individuelle totale n’est pas un système viable, quel que soit le degré d’acte ou de propos, quel que soit la conséquence de l’acte ou du propos. On peut constater que les décisions sont la conséquence d’une vie en groupe, par exemple quand une personne commettant un acte ou un propos se retrouve isolée d’un ou plusieurs groupe·s social·aux car non-compatible avec le ou les dit·s groupe·s, ou à l’inverse invitée par ce·s groupe·s car adhérant à sa/leur dynamique.

    * ce que je dis est valable dans une société. S’il s’agit d’une personne qui n’a jamais consciemment fait société un jour de sa vie, on pourrait reconsidérer la responsabilité à titre individuel, mais ceci est très, très improbable.

    Revenons-en aux réseaux sociaux. Si la responsabilité individuelle existe, elle est aujourd’hui totale sur l’immense majorité des réseaux sociaux, sinon tous. Jamais, en aucun cas, les utilisateur·ices ne sont responsabilisés collectivement. Chaque personne est tenue responsable de ses actes ou propos, mais jamais de ceux des autres. Or, il me semble que tout fait partie d’une dynamique de groupe, et de ce point de vue, placer l’individu dans un cadre fermé est à moins paradoxal, au plus totalement erroné.

    Nous ne comptons plus le nombre de cas de gens qui se retrouvent influencés, radicalisés, excités par des contenus produits par des personnes qui, en plus de ne pas être inquiété·es par leur propos, ne portent souvent pas la responsabilité de l’influence qu’elles ont sur les autres.

    Aujourd’hui, l’entrée dans un réseau social est uniquement conditionnée à la confiance totale par défaut donnée à l’individu pour respecter les CGU. Principe honorable sur le papier : tant que tu n’enfreins pas les règles, tu restes, et si tu fautes, tu fais partie d’une liste d’exclusion. Ce système pour moi possède un défaut majeur : le contrat social n’est pas obligatoire. Autrement dit, il est possible pour n’importe qui de pénétrer dans une enceinte et de faire n’importe quoi, sans limites matérielles.

    Par exemple, si je voulais mettre le boxon dans un réseau social, il serait possible pour moi d’aller sur n’importe quel réseau, valider les CGU, accéder au lieu d’échange, et de complètement piétiner les principes en balançant des centaines d’insanités à tout va, sans être inquiétée de prime abord. Le temps d’être évacuée hors de la plateforme, j’aurai déjà tout sali, même si j’ai été prise par la patrouille. Puisque mon comportement n’aura pas fait l’objet d’un contrôle préalable ou d’une invitation explicite d’un·e autre individu·e, rien ne m’empêchera de recommencer la stricte même chose, au même endroit, à répétition, tant que je peux créer des adresses mails gratuitement et être couverte par l’anonymat.

    Je souhaite donc voir émerger l’inverse, à savoir un système de liste d’inclusion, où les nouvelleaux arrivant·es sont coopté·es.

    L’entrée par cooptation

    Le mécanisme est le suivant. Une personne souhaitant entrer dans le réseau social devra posséder un token de cooptation donné par avance par un·e utilisateur·ice déjà présent·e sur le réseau. Lae nouvelleau entrant·e obtiendra par la suite un token de cooptation tous les 24 heures, après 24 heures d’inscription, dans la limite de 5 tokens maximum. Chaque token utilisé par une personne cooptée libère une place pour un nouveau token. Cela aura pour effet premier de limiter les afflux massifs soudains. Cet effet n’est pas totalement efficace, nous y reviendrons plus loin, mais ça permet potentiellement l’ajout supplémentaire de la terre entière en l’espace de 50 jours à l’origine d’un·e seul utilisateur·ice.

    Chaque personne entrante sera donc liée à la personne cooptante. Un peu comme une chaîne, ou un arbre. Cela renforce la responsabilité de la personne cooptante, car le réseau social saura toujours déterminer par quel moyen une personne cooptée est entrée dans le réseau, et il sera facile de reconstituer la chaîne d’entrée.

    Pour renforcer encore plus cette responsabilité, la personne cooptante perdra son privilège de cooptation de manière temporaire s’il s’avère qu’un·e individu a été exclue du réseau social après un acte de modération. Cela permettra de dire à celleux qui s’inscrivent qu’iels doivent faire attention, car un réseau social est de fait un endroit privé, avec des règles et de la modération, et la confiance que l’on a en elleux pour inviter des personnes peut être rompue.

    Ce système souffrira du défaut inverse, à savoir que n’importe qui ne pourra pas rentrer dans le réseau social sans connaître une personne au préalable qui n’y soit déjà, à moins de proposer une validation par pair pour un individu inconnu qui entre dans le réseau et d’incomber la responsabilité de cooptation par la personne validante (et qui pourra refuser soit de coopter un individu en particulier, ou de refuser de coopter des inconnu·es).

    Il faudra aussi être très clair dès le début, dès l’inscription, que la cooptation est un privilège révocable, y compris définitivement, mais que la révocation de ce privilège ne constitue pas un blâme d’un point de vue modération. Reste à trouver un équilibre dans la limitation du privilège, mais je pense qu’en cas d’écart, baisser la limite de possession des tokens d’invitation de manière définitive en accompagnement d’une réinitialisation des tokens et d’un délai de 7 jours avant rajout progressif des tokens d’invitation après coup est un bon compromis limitant la propagation des profils maléfiques.

    L’efficacité est grande mais bien sûr imparfaite. On peut tout à fait imaginer qu’un profil cooptant fasse entrer un compte, qui lui-même fera entrer un autre compte, qui lui-même fera rentrer un autre compte etc. puis déclenche une « bombe ». Mais cela prendrait un temps non-nul, étalé sur des dizaines de jours, et à cause du lien d’origine, il sera possible de remonter la chaîne de cooptation jusqu’au·x profil·s d’origine, et soit déminer en prévention, soit nettoyer en correction.

    Cela ne résout pas tout…

    Nébuleuse, donc, futur réseau social que je souhaite établir par mes soins, basera son système d’entrée sur la cooptation. À mon avis, ce mode de fonctionnement accroît la responsabilité collective. Mais ce n’est pas une solution miracle qui fera disparaître tous les problèmes.

    Pour continuer de responsabiliser collectivement, il ne faut pas seulement restreindre l’entrée. Il faut pouvoir faire confiance à la communauté cooptée. Plutôt que de donner le privilège de modération à une équipe fermé avec des outils inaccessibles, je souhaite étendre ce privilège à des utilisateur·ices volontaires en proposant un outil de modération intuitif, accessible, qui permettra aux personnes le souhaitant d’effectuer une modération par pairs.

    Mais ça, ça sera pour plus tard.

  • Comment Upscrolled s’est tiré une balle dans le pied ?

    Comment Upscrolled s’est tiré une balle dans le pied ?

    (En faisant exactement comme il ne faut pas faire.)

    D’aucuns pourraient se dire qu’après 24 ans de Skyblog, 22 ans de Facebook, 20 ans de Twitter et de Youtube, etc… on aurait suffisamment de recul sur la modération des réseaux sociaux pour ne pas faire les mêmes erreurs. Sauf qu’un réseau social décida de tout ignorer, ne mettre en place aucun garde-fou, et laisser pulluler absolument du contenu néfaste par négligence des leçons du passé.

    Alors, que s’est-il passé, justement ?

    Quand Upscrolled est débordé, déborde puis se saborde.

    Une vague massive d’utilisateur·ices est arrivée sur la plateforme. De 400 000, elle dépasse le million, et se retrouve donc prise d’assaut. Cette arrivée massive corrélée à un exode d’autres plateformes a été une énième réaction au fait que, notamment, des décisions de modérations de plateformes massives cassent toute possibilité d’une communication ouverte à propos de sujets sensibles comme les génocides, les guerres, les révoltes civiles, les droits des minorités, etc… et que la plateforme est tenue par une personne non-milliardaire pro-palestine, ce qui a suscité engouement et espoir.

    Avec cette vague est aussi très vite arrivé un problème : les « bad actors » étaient en embuscade. Les comptes nazis et antisémites ont pullulé, et rien que leur présence posait problème. De tels contenus peuvent aujourd’hui être rapportés automatiquements par, entre autres, un algorithme de veille qui peut être facilement intégré. Il n’y avait aucun filtre sur la création de pseudonymes offensants et la veille était trop faible pour le voir.

    Débordée, la modération a été alors renforcée. Pour faire face aux contenus qui ne sont pas conformes à la plateforme, ce qui a eu pour effet de… ne pas toucher aux contenus offensants et d’exclure moults comptes de personnes transgenres.

    Aïe.

    Que s’est-il passé pour que des comptes hitleriens restent et que des adelphes soient exclu·es ? Nous n’aurons pas de réponse d’Upscrolled. Nous aurons une réponse qui sonne comme un aveu de la part d’un financeur de la plateforme qui expliquera que les nouvelleaux modérateur·ices recrutés n’étaient pas suffisamment formés. On pourrait comprendre que ces personnes trans aient été ejectées à dessein.

    Re-Aïe.

    Puis c’est au tour de la plateforme, qui pourtant dans son postulat de base, déclare entre autres « défendre toujours ce qui est juste et veiller à la responsabilité sociale », de communiquer sur les « bad actors » qui viennent noyer la plateforme sous du contenu illégal et méchant. J’admets qu’effectivement, les gens à leur tête n’ont pas l’air d’être spécialistes de la communication, car à les entendre je croierais que les gérants ne sont que victime d’un sabotage quand ils se sont rendus coupables par maladresse (au mieux!) de plusieurs méfaits dont au moins un, l’exclusion des adelphes trans, leur est directement imputable.

    Comment aurait-on pu éviter la catastrophe ?

    La vague d’utilisateur·ices massive qui est arrivée n’était pas gérable. On ne sait jamais quand le succès nous atteint, quand il nous tombe dessus soudainement, et je ne reprocherai jamais à une plateforme de ne pas avoir géré l’afflux massif d’utilisateurs – et ce à plus d’un titre, car plus d’utilisateurs nécessite également plus de ressources matérielles et logicielles et tant qu’on ne sait pas à quel point ça augmentera, difficile de le prévoir.

    Par contre, je reprocherai toujours volontiers à une plateforme de réseau social de ne pas avoir appris de ce que désormais des décennies d’Internet nous ont inculqué sur la modération.

    Il aurait été très facile de mettre des filtres sur les noms d’utilisateur·ices, par exemple, ça nous aurait évité des Adolf Hitler. Il aurait aussi été très facile de voir qu’il n’y a pas tout à jeter dans les algorithmes de modération et qu’il peut être utile de s’inspirer des algorithmes d’analyse des contenus. Il aurait aussi été très facile de former les modérateur·ices d’une plateforme pour leur dire que les personnes transgenres ne sont pas des gens à bannir de manière sélective pour ce qu’iels sont.

    Peut-être un problème structurel ?

    « Unfiltered by design« . C’est peut-être là où il faut regarder.

    Car derrière les promesses louables d’une plateforme qui veut permettre la libre parole pour toustes, il y a une question de quelle liberté il faut donner à trancher, et le site semblait avoir fait le choix d’une liberté d’expression (c’est-à-dire d’exprimer des opinions tant que celles-ci ne portent pas d’intérêt grave à l’intégrité d’autrui) plutôt qu’une liberté de discours (c’est-à-dire une expression totalement libre où la parole n’a aucune conséquence).

    Upscrolled revendique le fait de ne pas censurer ni d’ombrager (« shadowban ») de contenu, avec un réseau qui appartient à ses utilisateur·ices, et non des algorithmes cachés ou agendas extérieurs. C’est louable, sauf quand ça signifie ignorer que les agendas extérieurs peuvent entrer à l’intérieur de la plateforme sans en être les pilotes, et influencer les résultats par le nombre pur de contenus.

    Cependant, puisque l’entrée à la plateforme (comme toutes les entrées de toutes les plateformes de RS à inscription automatique) est libre et que la limitation de publication quotidienne est absente, le risque d’infection et de propagation de contenu néfaste est majeur, surtout sans algorithme de tri empêchant cette dispersion. Et bien que les effets peuvent être limités, nous sommes malheureusement face à quelque chose sur lequel rien ne peut être fait, à moins d’un changement de paradigme.

    Bluesky avait fait le choix à ses débuts d’ouvrir au bêta-test de sa plateforme par distribution de clefs. Cela a pu consolider son fonctionnement avant que les utilisateur·ices arrivent par volumes massifs en vagues successives, mais avec une maîtrise des algorithmes, permettant entre autres de mieux consolider sa modération. Peut-être une piste à creuser, mais peut-être aussi une piste à ne pas abandonner pour la suite : en finir avec l’inscription libre, et promouvoir un système d’invitation/cooptation.

    Pour conclure

    Des problèmes auraient pu trouver une solution simple si les choses n’avaient pas été négligées et qu’Upscrolled avait compris que ce n’est pas parce que l’eau du bain est sale qu’il faut jeter le bébé avec.

    Il faut souligner que je n’ai pas titré l’article avec « pourquoi fuir Upscrolled à tout prix ? » car mon intention est de relever ce qui n’a pas été pour que les choses s’améliorent. Upscrolled l’a bien compris, des leçons ont été apprises et des solutions sont en cours d’application chez eux. Dommage qu’il ait fallu attendre que le feu soit sur leurs bras pour constater que le feu brûle plutôt que d’avoir prévu le pare-feu avant.

    Aussi, une chose qui pourrait être faite, au-delà de la modération, est de faire un effort sur la communication. Tout remettre sur les causes externes (les « bad actors », les modérateur·ices) ne doit pas cacher les causes internes (le manque de préparation, le manque de filtrage et de formation). On vous voit, en fait.

    Mais peut-être aussi que le problème vient de comment les réseaux sont faits. Est-ce que l’accès libre sans filtre préalable est une norme à dépasser ? Est-ce que le futur des réseaux sociaux ne passe pas par une maîtrise plus complète de sa base d’utilisateur·ices ? Est-ce que la modération ne pourrait pas être assurée par les pairs ?

    Notice de l’autrice : l’ensemble des propos tenus ici font partie d’une analyse personnelle qui ne reflète en rien une expertise et ne traduit que l’opinion de son autrice. Cet article ne doit pas être utilisé comme avis d’autorité sur le sujet abordé. N’en recommandez la lecture qu’après être conscient·e de son contenu.