Catégorie : Technologie

  • OpenAI est une société défaillante et ChatGPT va disparaître.

    OpenAI est une société défaillante et ChatGPT va disparaître.

    (J’ai pas besoin d’IA pour faire des montages moches).

    Quand on me demande quel est mon sentiment sur l’IA, je réponds que je suis optimiste, parce que l’IA va mourir bientôt.

    Biais (parce que je ne pars pas neutre)

    Je suis ouvertement et violemment hostile à l’IA générative. Je considère que ce modèle d’intelligence artificielle est largement incapable de remplir son rôle d’améliorateur de société. Je considère également que l’impact écologique, éthique et moral de l’IA générative dépasse toute considération technologique et financier et qu’il n’y a pas besoin du reste pour arrêter de l’utiliser. Mais faut pas se leurrer, l’IA ne disparaîtra pas pour ces raisons, et je n’aborde pas ce sujet ici.

    Je considère que cela tue la créativité. Chaque fois que quelqu’un utilise une IA générative, quel que soit ce qui est généré, que ça soit du texte (pas merci pour les auteur·ices, les artistes du 5ème art), de l’image (pas merci pour les artistes du 3ème art), ou de la musique (pas merci pour les artistes du 4ème art), Dieu tue un chaton. Voilà, comme ça, vous avez le décor qui est planté et si vous voulez renier le reste de l’article, déroulez, ça me va de toute façon d’être qualifiée de paria.

    Bien que vous auriez tort ! Parce qu’aujourd’hui, on ne va pas parler morale, éthique, écologie, autant de sujets qui pourtant mériteraient à eux seuls d’interdire l’IA générative telle qu’elle. Là, on va parler de choses plus palpables.

    OpenAI fait face à un problème qui mène à sa perte et que les pragmatiques ont vu venir : la déroute à la fois technologique et financière. Car le pronostic vital d’OpenAI est engagé, et la question n’est pas de savoir si OpenAI tombera, mais quand.

    La déroute technologique

    La faim en données et l’autophagie

    Les IA génératives nécessitent de travailler avec des données compilées déjà existantes, et triées. Si le pool est massif, il n’est ni illimité, ni indépendant de la création humaine. Cela vaut, bien sûr, pour les textes. Cela vaut d’autant plus pour les photos. Cela vaut aussi pour les musiques. En réalité, absolument tout ce qui est généré par IA a besoin d’une source qui soit à la fois épurée, triée, et massive. Or, cette ressource n’est pas illimitée, au contraire.

    Je vais prendre pour exemple les LLM (Large Language Model, grand modèle de langue) pour illustrer mais considérez que le problème est en train de se produire sur les IA génératives, quelles qu’en soient leur nature, donc aussi sur la génération d’images.

    L’Université de Cornell, en 2019 (ça date un peu, prenez des pincettes) avertissait que les LLM atteindraient potentiellement la limite des données fraîches exploitables entre 2026 et 2032. On est plus proche de 2026 que de 2032. Maintenant, pour être totalement honnête, il faudrait plutôt voir les données exploitées comme une asymptote des données exploitables, mais la croissance des IA ne peut plus être exponentielle, si tant est qu’elles peuvent croître encore.

    Pourquoi pas les générer soi-même alors, ou attendre que les utilisateur·ices utilisent l’IA pour créer des monceaux de texte ? Terrible idée. Les IA exploitant les données générées sont vouées à être atteint d’une « maladie » nommée Désordre de Modèle Autophage. TL;DR : plus vous nourrissez l’IA avec ses propres données, moins elle est efficace. C’est pas comme si le système était hermétique : l’IA s’empoisonne, elle-même, sans même que ça soit une entreprise malicieuse, et ça devient un gros problème.

    Je passe volontairement sur le fait que les IA génératives ont tellement besoin de nouvelles données que leurs possesseurs ne s’embêtent même plus avec le consentement des auteur·ices de ces données, ce qui risque de les mener au tribunal bientôt – mais ça, ça sera pour quand on mangera sur le cadavre encore chaud d’OpenAI.

    Seule solution : gonfler les muscles.

    Sans rentrer dans le détail : les IA génératives fonctionnent entre autres, dans leur apprentissage, avec un réseau de neurones artificiels massif. Tellement massif qu’on parle désormais de tellement de paramètres qu’il faut construire des immenses centres pour exploiter ces neurones artificiels.

    Parce que les données d’entrée, déjà empoisonnées, ne sont pas illimitées, il faut pouvoir réfléchir plus dessus. Mais plus vite ! Sans quoi, les utilisateur·ices déserteront. Vous croyez qu’iels ont le temps d’attendre plutôt que de faire une requête sur un moteur de recherche ? Bah non, vous leur avez donné la rapidité, la presque immédiateté des réponses, maintenant il faut persister ! Vous justifierez comment de donner une réponse avec une chance non-négligeable d’erreur au bout de 10 minutes ?

    (Oui, parce que l’IA ment, ou pour être plus exact, n’a pas la notion de vérité. Elle veut simplement vous plaire. Mais c’est un problème pour un autre temps.)

    Donc, il faut augmenter la mémoire disponible, avec l’espoir que ça sort un meilleur résultat et qu’on pourra justifier ça auprès des créanciers. Je sais pas si vous réalisez : la stabilité d’OpenAI repose sur de l’espoir. Pas sur du palpable.

    Dans ce contexte de dépense sans compter, pour un gain très, très faible, je me demande comment une telle entreprise peut aboutir. Heureusement je ne suis pas la seule à m’être posée la question et après avoir entendu sonner le tocsin, c’est la marche funèbre qu’on entend désormais résonner à l’horizon à propos d’OpenAI.

    La déroute financière

    On vous a peut-être déjà bassiné avec la bulle de l’IA. Même si tous les signaux d’une économie circulaire à plusieurs milliers de milliards de dollars montrent qu’on est dans une bulle et que les rares personnes à nous rassurer sur la bulle sont ceux qui sont payés à la faire gonfler, même si ça a l’apparence d’une bulle, la forme d’une bulle, la consistance d’une bulle, les économistes ont du mal à se mouiller pour dire que c’est une bulle et qu’elle va éclater. Parce qu’il peut toujours y avoir un miracle technologique.

    Pour le moment, ça n’en prend pas le chemin, et à part rêver, rien ne nous dit que ça arrivera. Les entreprises restent frileuses, dubitatives et/ou incultes face à cette technologie, ne savent pas vraiment comment l’exploiter, et leurs données ne sont pas prêtes pour être utilisées par une IA mais pour générer des rapports. Donc qui achète ? En tout cas, pas assez de monde pour rentabiliser l’initiative, puisque les compagnies d’IA ont déjà commencé à contracter des prêts auprès des banques, et ce sans aucune garantie de remboursement. Et pour cause, ça ne sera jamais remboursé.

    Parce qu’il faudrait que tout le monde achète de l’IA. Sauf que l’IA, pour le grand public, c’est un gadget gratuit. Et un gadget même pas utile en plus – en même temps l’IA s’est vendue pour son côté divertissant avant de se vendre pour son côté pratique et productif, et ses applications commencent à peine à être observables et ce sont des applications non-rentables.

    Ah, si, pardon. OpenAI va ajouter de la pub dans son application maintenant. Pour essayer de rentabiliser les plans gratuits. Parce que trop peu de monde prend les plans payants. Je commence déjà à entendre des collègues qui ont profité du partage de compte (ça aussi, on pourrait en parler), qui n’ont pas vu d’améliorations significatives entre le plan gratuit, bientôt publicitaire, et payant, qui serait donc sans pubs. Sans avantage significatif, il sera difficile d’assurer les plans financiers.

    Une entreprise saine qui perd de l’argent a plusieurs options combinables:

    • Réduire la voilure, donc ralentir sur les innovations. Dans le cas d’OpenAI ça signifie avoir une IA stagnante technologiquement. On pourrait s’en satisfaire et se dire qu’on a atteint le plafond, et que ça ne sert pas à grand chose d’augmenter les capacités. Comment alors dire aux banques que leur investissement dans l’IA ne sert plus à l’innovation ?
    • Vendre ses solutions plus chères. Cela peut fonctionner si les compagnies vendeuses croulent sous la demande ou si l’offre est monopolistique, moins si les entreprises ne se poussent pas au portillon avec plusieurs concurrents sur le marché;
    • Revendre ses parts. Cela risque de faire baisser la valeur de l’entreprise en bourse, mais ça peut rapporter de l’argent à court terme.

    Sauf que ! rappelez-vous, on ne parle pas d’une entreprise saine financièrement. On parle d’une entreprise qui contracte des crédits astronomiques à des taux pharaoniques, et qui ne sera pas capable de les rembourser. C’est presque déjà acté. Maintenant, la question n’est pas de savoir si ça tombera, mais quand ça tombera. A en croire des sources concordantes, la chute financière est déjà actée.

    (Et quelle ne fut pas ma non-surprise de découvrir ce matin que la banqueroute est prévue pour 2027. Je pensais avoir du flair en disant deux ans d’instinct, je ne pensais pas avoir raison à ce point.)

    Et si ce n’était pas les seuls ?

    La vitesse à laquelle les fonds sont donnés pour cette technologie rappelle avec force et fracas deux précédentes crises financières qui ont démarré par les mêmes bulles qu’aujour’dhui : la crise du .com, et la crise des subprimes.

    Avec pourtant beaucoup moins de liquidités en jeu, la crise des subprimes a mené à la perte d’une banque qui était trop grosse pour couler (« too big to fail »), et à une crise financière majeure. Or, nous sommes déjà dans cette situation pour OpenAI, qui a engagé mille milliards d’euros et qui, comme je l’ai expliqué, est déjà en train de tomber.

    Sans OpenAI, des autres acteur·ices pourraient soit profiter du creux pour combler la demande qui existait avec OpenAI, soit tomber à leur tour. Et vu la circularité de l’économie de l’IA, tout porte à croire qu’OpenAI n’est pas tant l’immeuble qui s’effondre sur lui-même que le premier domino d’une chute inévitable des compagnies d’IA.

    Grok ? À moins que Musk ne mette le double de sa fortune dedans, j’y crois pas une seconde, sachant que visiblement sa priorité serait plutôt une nouvelle solution de colonisation spatiale. Les concurrents ? Pas plus. Une fois qu’OpenAI tombera, il sera difficile aux entreprises exclusivement basées sur cette technologie de subsister.

    Le dernier acteur debout pourrait être Google et Gemini, car ce sont les seuls qui ont la capacité de se nourrir de données de manière continue étant donné que la plupart de leurs services sont utilisés au quotidien par des centaines de millions de gens à travers le monde, n’ont pas que l’IA à vendre et ont les capacités financières de tenir. Même Meta me semble être perdu dans cette cavalcade, mais tout ça dépendra des réglementations sur les données personnelles.

    J’ai même un peu de mal à croire que la Chine avec ses solutions maison s’en sortira avec des dégâts mineurs, même si dans leur cas la question de la gestion du coût des infrastructures matérielles n’est pas à l’ordre du jour.

    Et l’impact pour nous ?

    Nous savons déjà que les entreprises d’IA sont tellement gourmandes en mémoire RAM que celle-ci est en train d’augmenter en prix à une vitesse exponentielle et qu’on n’a pas encore vu la fin de l’augmentation. Le plafond sera bientôt atteint, mais les prix n’auront pas de raisons de baisser. L’électronique grand public va donc connaître aussi une augmentation, et rien ne dit que celle-ci va baisser de sitôt : même avec une faillite des compagnies d’IA génératives, maintenir une tension sur la mémoire pour garder une demande supérieure à l’offre peut s’avérer rentable pour les producteurs de puces.

    L’effondrement de ces entreprises et des banques qui leur ont prêté va lourdement impacter la finance en règle générale et la crise financière qui s’annonce, entre l’éclatement de la bulle IA qui fait de plus en plus mal à mesure qu’elle gonfle, corrélée à la situation financière au Japon qui risque de mettre un coup de massue supplémentaire annonce encore une nouvelle phase de crise financière qui verra, sauf miracle anticapitaliste, une nouvelle augmentation globale des prix et nous ne saurons pas encore comment nous nous en remettrons (j’ai un optimisme béat à propos de la capacité d’adaptation de l’humanité).

    Par ailleurs, même si je m’exprime avec assurance, je me méfie de ma propre prédiction et mes biais jouent dans la balance. Mais si j’étais la seule à la formuler, je ne serais pas en train d’écrire un article. Je n’en ferais qu’un vœu pieux en brûlant des cierges et en marmonnant un pater et deux ave puis prierais n’importe quel saint de bien vouloir réaliser mon souhait. Non, là, je pense que le nombre de signaux au rouge concernant OpenAI sont tels qu’il faudrait des œillères pour ne pas les voir, et même par enthousiasme technologique, je ne vois aucun miracle se profiler à l’horizon.

    OpenAI est une société défaillante et ChatGPT va disparaître.

    Notice de l’autrice : l’ensemble des propos tenus ici font partie d’une analyse qui ne reflète en rien une expertise et ne traduit que l’opinion de son autrice. L’ensemble des sources utilisées pour appuyer celle-ci est disponible en cliquant sur les textes soulignés.

    Cet article ne doit pas être utilisé comme avis d’autorité sur le sujet abordé. N’en recommandez la lecture qu’après être conscient·e de son contenu.

  • Comment Upscrolled s’est tiré une balle dans le pied ?

    Comment Upscrolled s’est tiré une balle dans le pied ?

    (En faisant exactement comme il ne faut pas faire.)

    D’aucuns pourraient se dire qu’après 24 ans de Skyblog, 22 ans de Facebook, 20 ans de Twitter et de Youtube, etc… on aurait suffisamment de recul sur la modération des réseaux sociaux pour ne pas faire les mêmes erreurs. Sauf qu’un réseau social décida de tout ignorer, ne mettre en place aucun garde-fou, et laisser pulluler absolument du contenu néfaste par négligence des leçons du passé.

    Alors, que s’est-il passé, justement ?

    Quand Upscrolled est débordé, déborde puis se saborde.

    Une vague massive d’utilisateur·ices est arrivée sur la plateforme. De 400 000, elle dépasse le million, et se retrouve donc prise d’assaut. Cette arrivée massive corrélée à un exode d’autres plateformes a été une énième réaction au fait que, notamment, des décisions de modérations de plateformes massives cassent toute possibilité d’une communication ouverte à propos de sujets sensibles comme les génocides, les guerres, les révoltes civiles, les droits des minorités, etc… et que la plateforme est tenue par une personne non-milliardaire pro-palestine, ce qui a suscité engouement et espoir.

    Avec cette vague est aussi très vite arrivé un problème : les « bad actors » étaient en embuscade. Les comptes nazis et antisémites ont pullulé, et rien que leur présence posait problème. De tels contenus peuvent aujourd’hui être rapportés automatiquements par, entre autres, un algorithme de veille qui peut être facilement intégré. Il n’y avait aucun filtre sur la création de pseudonymes offensants et la veille était trop faible pour le voir.

    Débordée, la modération a été alors renforcée. Pour faire face aux contenus qui ne sont pas conformes à la plateforme, ce qui a eu pour effet de… ne pas toucher aux contenus offensants et d’exclure moults comptes de personnes transgenres.

    Aïe.

    Que s’est-il passé pour que des comptes hitleriens restent et que des adelphes soient exclu·es ? Nous n’aurons pas de réponse d’Upscrolled. Nous aurons une réponse qui sonne comme un aveu de la part d’un financeur de la plateforme qui expliquera que les nouvelleaux modérateur·ices recrutés n’étaient pas suffisamment formés. On pourrait comprendre que ces personnes trans aient été ejectées à dessein.

    Re-Aïe.

    Puis c’est au tour de la plateforme, qui pourtant dans son postulat de base, déclare entre autres « défendre toujours ce qui est juste et veiller à la responsabilité sociale », de communiquer sur les « bad actors » qui viennent noyer la plateforme sous du contenu illégal et méchant. J’admets qu’effectivement, les gens à leur tête n’ont pas l’air d’être spécialistes de la communication, car à les entendre je croierais que les gérants ne sont que victime d’un sabotage quand ils se sont rendus coupables par maladresse (au mieux!) de plusieurs méfaits dont au moins un, l’exclusion des adelphes trans, leur est directement imputable.

    Comment aurait-on pu éviter la catastrophe ?

    La vague d’utilisateur·ices massive qui est arrivée n’était pas gérable. On ne sait jamais quand le succès nous atteint, quand il nous tombe dessus soudainement, et je ne reprocherai jamais à une plateforme de ne pas avoir géré l’afflux massif d’utilisateurs – et ce à plus d’un titre, car plus d’utilisateurs nécessite également plus de ressources matérielles et logicielles et tant qu’on ne sait pas à quel point ça augmentera, difficile de le prévoir.

    Par contre, je reprocherai toujours volontiers à une plateforme de réseau social de ne pas avoir appris de ce que désormais des décennies d’Internet nous ont inculqué sur la modération.

    Il aurait été très facile de mettre des filtres sur les noms d’utilisateur·ices, par exemple, ça nous aurait évité des Adolf Hitler. Il aurait aussi été très facile de voir qu’il n’y a pas tout à jeter dans les algorithmes de modération et qu’il peut être utile de s’inspirer des algorithmes d’analyse des contenus. Il aurait aussi été très facile de former les modérateur·ices d’une plateforme pour leur dire que les personnes transgenres ne sont pas des gens à bannir de manière sélective pour ce qu’iels sont.

    Peut-être un problème structurel ?

    « Unfiltered by design« . C’est peut-être là où il faut regarder.

    Car derrière les promesses louables d’une plateforme qui veut permettre la libre parole pour toustes, il y a une question de quelle liberté il faut donner à trancher, et le site semblait avoir fait le choix d’une liberté d’expression (c’est-à-dire d’exprimer des opinions tant que celles-ci ne portent pas d’intérêt grave à l’intégrité d’autrui) plutôt qu’une liberté de discours (c’est-à-dire une expression totalement libre où la parole n’a aucune conséquence).

    Upscrolled revendique le fait de ne pas censurer ni d’ombrager (« shadowban ») de contenu, avec un réseau qui appartient à ses utilisateur·ices, et non des algorithmes cachés ou agendas extérieurs. C’est louable, sauf quand ça signifie ignorer que les agendas extérieurs peuvent entrer à l’intérieur de la plateforme sans en être les pilotes, et influencer les résultats par le nombre pur de contenus.

    Cependant, puisque l’entrée à la plateforme (comme toutes les entrées de toutes les plateformes de RS à inscription automatique) est libre et que la limitation de publication quotidienne est absente, le risque d’infection et de propagation de contenu néfaste est majeur, surtout sans algorithme de tri empêchant cette dispersion. Et bien que les effets peuvent être limités, nous sommes malheureusement face à quelque chose sur lequel rien ne peut être fait, à moins d’un changement de paradigme.

    Bluesky avait fait le choix à ses débuts d’ouvrir au bêta-test de sa plateforme par distribution de clefs. Cela a pu consolider son fonctionnement avant que les utilisateur·ices arrivent par volumes massifs en vagues successives, mais avec une maîtrise des algorithmes, permettant entre autres de mieux consolider sa modération. Peut-être une piste à creuser, mais peut-être aussi une piste à ne pas abandonner pour la suite : en finir avec l’inscription libre, et promouvoir un système d’invitation/cooptation.

    Pour conclure

    Des problèmes auraient pu trouver une solution simple si les choses n’avaient pas été négligées et qu’Upscrolled avait compris que ce n’est pas parce que l’eau du bain est sale qu’il faut jeter le bébé avec.

    Il faut souligner que je n’ai pas titré l’article avec « pourquoi fuir Upscrolled à tout prix ? » car mon intention est de relever ce qui n’a pas été pour que les choses s’améliorent. Upscrolled l’a bien compris, des leçons ont été apprises et des solutions sont en cours d’application chez eux. Dommage qu’il ait fallu attendre que le feu soit sur leurs bras pour constater que le feu brûle plutôt que d’avoir prévu le pare-feu avant.

    Aussi, une chose qui pourrait être faite, au-delà de la modération, est de faire un effort sur la communication. Tout remettre sur les causes externes (les « bad actors », les modérateur·ices) ne doit pas cacher les causes internes (le manque de préparation, le manque de filtrage et de formation). On vous voit, en fait.

    Mais peut-être aussi que le problème vient de comment les réseaux sont faits. Est-ce que l’accès libre sans filtre préalable est une norme à dépasser ? Est-ce que le futur des réseaux sociaux ne passe pas par une maîtrise plus complète de sa base d’utilisateur·ices ? Est-ce que la modération ne pourrait pas être assurée par les pairs ?

    Notice de l’autrice : l’ensemble des propos tenus ici font partie d’une analyse personnelle qui ne reflète en rien une expertise et ne traduit que l’opinion de son autrice. Cet article ne doit pas être utilisé comme avis d’autorité sur le sujet abordé. N’en recommandez la lecture qu’après être conscient·e de son contenu.