L'indignation fausse la réalité
Le Fedivers est un réseau social qui est construit avec la fédération comme pierre angulaire. Il consiste en de multiples serveurs avec différents logiciels qui peuvent parler entre eux. Tout cela afin qu'il n'y ait pas qu'une seule entité qui peut cesser son activité ou tout merdifier. Même si le Fedivers est composé d'une multitude de logiciels, il y a un qui est le plus vu et est basiquement la première chose à laquelle les personnes pensent quand on parle du Fedivers: Mastodon.
Mastodon a une structure similaire à Twitter, avec des publications de 500 caractères maximum (par défaut), des sondages, des images et plus. Malheureusement, Mastodon (et le Fedivers) n'ont pas uniquement copié les chouettes concepts de Twitter… Il a aussi copié des aspects plus négatifs. Le plus important pour cet article: comment le drama se forme — maintenant avec le piment du fediblock 🌶️
Le Fedivers est un endroit assez technique. Il y a une population disproportionnée d'informaticiens, d'utilisateurs de logiciels open-source, de furries, etc. Avec ce mélange, il y a des opinions qui dévient de la "norme". Tu te fais remarquer si tu utilises quelque chose qui n'adhère pas au standard de la communauté. Le contrecoup peut être brutal. Quelques personnes ont souligné d'être publiquement critiquées du fait de ne pas utiliser Linux, même si cela était complètement hors-sujet à leur publication originale.
Cependant, la méfiance des grandes entreprises est compréhensible. La publicité douteuse et l'implémentation d'IAs superflues ont joué un rôle dans la confusion et la haine, des fois ce n'est que le mauvais choix des mots qui fait surréagir les personnes. Cette surréaction peut se transformer en indignation et malentendus, surtout quand l'auteur exagère les problèmes – intentionnellement et inintentionnellement. Steffo et moi allons prendre le rôle d'avocats commis d'office et mettre en lumière comment VLC et Google ont été malmenés par la communauté.
Le drama de VLC sur l'IA
Tout a commencé avec VideoLAN (les créateurs du lecteur de média VLC) faisant une démonstration de la dernière fonctionnalité de VLC à la CES 2025: sous-titrage et traduction automatique par IA, le tout s'exécutant localement et hors-ligne en temps réel. Ils utilisent Whisper d'OpenAI pour la transcription et SeamlessM4T de Meta pour la traduction. Les deux modèles sont open-source et la démonstration a montré: ils marchent bien tous les deux !
Avec le sous-titrage par l'IA, les personnes malentendantes peuvent enfin aussi regarder des vidéos qui n'ont pas de sous-titrage correct. Même si je ne suis pas le groupe cible pour ça, je pense que je peux toujours dire… que c'est un grand pas pour une tech plus accessible !
Maintenant, cet article est à propos du Fedivers, un réseau social accessible focalisé sur la technologie… on dirait que cette nouvelle fonctionnalité devrait être accueillie à bras ouvert, non ?
C'était plutôt bien accueilli, mais en même temps, les retombées de l'utilisation du buzzword se font déjà ressentir.
Voyez, j'étais vraiment content de la démonstration. Utiliser du traitement local pour rendre du contenu plus accessible pour les autres est quelque chose de merveilleux. Les modèles de reconnaissance peuvent être une véritable prochaine étape vers l'inclusivité. Certes, ils ne sont pas 100% fiables, mais ils déchargent beaucoup les bénévoles qui créent et corrigent des sous-titres. L'implémentation peut encourager des meilleurs modèles avec moins de problèmes.
La technologie n'est pas exactement nouvelle. La même chose est utilisée sur de nombreux téléphones Android, par exemple le Google Pixel et les modèles Samsung. Un bouton sous les touches de réglage de volume activent les sous-titres en direct et le fait surprenamment bien. Adobe Premiere Pro fait également bien le travail de génération de sous-titres, comme vous le voyez dans des contenus au format court ("Shorts", "Reels", etc.). (Note: je ne parle pas du choix stylistique de montrer qu'un à trois mots par ligne.) Windows 11 a aussi un sous-titrage en direct sur l'ensemble de l'OS depuis 2023. Bien sûr, vous voyez les quelques dysfonctionnements, mais c'est un jeu d'enfant de corriger pour une personne qui recherche des erreurs.
Tandis qu'une grande partie du Fedivers a accueilli le changement pour l'inclusion, quelques autres ont tout simplement considéré VLC comme un acteur malveillant, désinstallé l'application et annoncé cela bruyamment. De nombreux autres ont suivi sans vraiment y penser quoi que ce soit.
Utiliser un buzzword a été la pire chose que VLC puisse avoir fait à ce moment. Les fonctionnalités indésirables, le mauvais marketing et la mauvaise utilisation du terme "IA" a conduit à des personnes à sauter aux conclusions sans une seule pensée à la véritable utilisation. Sur le Fedivers et de nombreuses communautés orientées FOSS1, on est arrivés au point où l'IA a la même connotation que l'amiante. Aussi innovante, sûre et bien pensée peut être ton utilisation des fibres funkys, tu auras de sérieuses difficultés à la vendre.
L'acquisition des données d'entraînement est un autre morceau. D'une part, comment peux-tu prouver que ces données sont acquises de manière éthique ? D'autres parts, peux-tu créer un modèle fiable dont les données de base ont été sourcées de manière éthique, avec des sources disposant d'une licence ouverte ? Rappelle-toi que – à part pour la traduction – il ne s'agit pas de génération ici, il s'agit de reconnaissance. La classification de données est quelque chose que le machine learning a excellé. Avec ça à l'esprit, le discours à propos de données sourcées éthiquement peut faire gratter quelques têtes.
J'ai personnellement essayé Whisper plusieurs fois et il a fonctionné sans problème pour moi. Certes, Whisper n'est pas le meilleur pour les conversations, mais les médias comme les vidéos ou films sont ce sur quoi il a été entraîné. Bien sûr, à la fin, il ne sera jamais fiable à 100% – comme Finnley l'a dit – mais je pense toujours que c'est mieux que rien.
N'oublie pas que VideoLAN peut toujours changer de modèle de transcription pour un qui a été entraîné sur des meilleures données, donc je pense que l'on devrait voir comment tout cela donne à la fin. Prétendre que VLC veut "détruire les sous-titres faits à la main" n'est absolument pas justifié et n'aide vraiment pas dans cette situation.
L'indignation en globalité n'est pas justifiée. On ne connaît rien de l'utilisation des ressources. On ne sait pas grand-chose sur l'implémentation globale ! Ils nous ont juste montré une démonstration de à quoi ça peut ressembler. Les personnes qui spéculent que pour montrer leurs "trouvailles" comme faits heurtent vraiment le débat. À la fin, personne n'en ressort gagnant. Ni VLC, ni les supporteurs, ni les détracteurs.
Le drama sur Android SafetyCore
Google a publié l'application "Android System SafetyCore" sur le Play Store le 22 janvier 2025 et (d'une manière ou d'une autre) l'a installée automatiquement sur plus d'un milliard d'appareils. Les informations sur le Play Store ne disaient pas grand-chose par elle-mêmes, ce qui est malheureusement typique pour les composants systèmes sur le Play Store.
Pour être juste, SafetyCore a une petite page de blog qui dit ce pour quoi il a été vraiment conçu et ce qu'il fait réellement. Il était juste… pas relié à la page du Play Store. La description réellement sur le Play Store n'était pas la meilleure non plus…
Android System SafetyCore est un service système qui met à disposition des fonctionnalités de sécurité pour les appareils Android.
La même remarque va avec les captures d'écran de l'application. Juste des images blanches dont l'une d'entre elles est le logo de l'application. Semble totalement professionnel et officiel, ouais, ouais.
À partir d'Android 10, Google a mis quelques composants systèmes importants sur le Play Store afin qu'ils puissent être mis à jour plus régulièrement que par des mises à jour systèmes complètes d'Android. (Project Mainline) C'est une bonne idée qui a échoué, car les gens n'ont pas aimé voir des applications qu'elles n'ont pas installées être mises à jour. (En temps normal, ça ressemblerait à un logiciel malveillant.)
Comme je l'ai dit, les composants systèmes n'ont pas souvent de bonnes descriptions de ce qu'ils font réellement – et Google étant Google, les gens ne faisaient pas du tout confiance en ces applications. La même chose est arrivée avec SafetyCore.
Mais hé, ce sont juste les gens qui n'ont pas une affinité technique… Je suis sûr que le Fedivers a bien mieux géré cela, non ? Je veux dire, le début avec les premiers composants systèmes s'est également bien passé, pourquoi ce serait différent avec ce composant système ?
Dans une des premières publications relatives à SafetyCore, Steffo a répondu avec quelque chose que je n'aurai pas mieux dit moi-même: FUD - Fear, Uncertainty, Doubt (peur, incertitude, doute). La nouvelle est arrivée des semaines avant (!), mais c'est uniquement après le déploiement du service – probablement avec une mise à jour – que ça a dégénéré.
Un rapide détour par le billet de blog de Google
Avant que j'analyse la réponse par la communauté, je veux aller sur une tangente rapidement et discuter le billet de blog de Google écrit par des ingénieurs crack, incluant un "chef de produit sénior Google Messages et Spam RCS et Abus" Alberto Pastor Nieto (quel titre de poste, ça ne rentre probablement pas sur LinkedIn).
Cet article est sur comment Google vise à améliorer la sécurité et le bien-être lors de l'utilisation de Google Messages qui est l'application standard pour les SMS et les RCS (Rich Communication Services). Leurs premiers points sont à propos de spam et de scam. Google veut protéger ses utilisateurs des messages frauduleux, tels que les faux avertissements de livraison de colis qui essayent de vous faire cliquer sur un lien. Google indique utiliser du machine learning localement pour classifier ces messages et les déplacer dans le dossier des messages indésirables. La même chose s'applique aux liens suspects par eux-mêmes. Les messages issus de numéros de téléphone internationaux inconnus peuvent aussi être bloqués, si vous le désirez. Jusque-là, rien d'extraordinaire.
La partie plus piquante se trouve à la quatrième puce: Google veut introduire l'utilisation du machine learning local pour classifier les images contenant de la nudité. Cela est utilisé soit pour flouter les images lors de leur réception ou pour avertir l'utilisateur qu'ils sont sur le point d'envoyer ou transférer une telle image. Cela fait office de "dos d'âne". Google indique spécifiquement que la classification se fait sur l'appareil et que les résultats ne seront pas transférés sauf si tu signales [le message]. Cette fonctionnalité est opt-in pour les adultes et opt-out pour les mineurs.
Avec ces nouveaux cas d'utilisation, des nouveaux modèles doivent être livrés et tenus à jour. C'est pour cela que le SafetyCore existe. Il met à disposition les modèles pour classifier les messages et images comme je l'ai expliqué ci-dessus. Au lieu d'envoyer des informations à un serveur, SafetyCore dispose de points d'entrée pour "parler" à la classification sur l'appareil et retourner des résultats.
La réaction du Fedivers
Cette fois, le Fedivers n'était pas si tendre. La nouvelle s'est répandue avec des airs de téléphone arabe. La simplification excessive a déformé la nouvelle de "Google utilise du machine learning local pour vous avertir avant d'ouvrir des nudes sur Messages" à "Google scanne toutes les images sur votre appareil". Quelques utilisateurs ont spéculé que ce sera également utilisé pour chaque photo prise, pendant que d'autres ont hurlé qu'ils sont en train de violer la loi européenne, spécifiquement le RGPD. Bien sûr, ces publications ont été republiées partout à cœur joie.
La situation était tellement bizarre que même GrapheneOS – vous savez, les gars avec la philosophie "OS téléphone, pas de Google" – ont dû intervenir et demander à tout le monde d'arrêter d'aboyer. Pour moi, c'est assez révélateur de l'état actuel de la communauté.
Quand tout ce qui n'est pas open-source ou d'une grande entreprise est considéré comme malveillant, qui peux-tu réellement croire ? La communauté libre et open-source n'est pas à l'abri cela non plus, prouvé par des attaques sur des dépôts de code variés tel que le cas en février 2024 quand une porte dérobée maligne a été introduite dans l'utilitaire XZ. Je sais qu'avoir une boîte noire en face de soi n'inspire pas exactement confiance, mais, à mon avis, une personne devrait au moins regarder de plus près et voir ce que cette boîte noire fait et ne fait pas, au lieu de la jeter dans le même océan, noyée avec d'autres débats.
La confiance est quelque chose que tu dois acquérir en travaillant dessus. La méfiance est quelque chose d'acquise par des mauvaises décisions. Google a eu une grande partie de méfiance, je ne vais pas le nier. Cette réaction de la communauté était, cependant, au mieux stupide. Les préjugés combinés à la propagation de fausses informations a créé une atmosphère dont on n'avait pas besoin. J'attendais mieux de cette communauté, et même si quelques auteurs ont édité leurs publications pour corriger ce qu'ils ont dit, les dégâts étaient déjà faits.
Conclusion
Alors, qu'est-ce que l'on a appris de ces deux situations ?
Je dirais: vérifiez avant de poster / republier. Certes, ce n'est pas toujours possible et certainement, republier peut être vu comme un bon geste, mais la propagation d'informations faussées est une des raisons principales pourquoi il y a tant de dramas sur le Fedivers. Si vous avez entendu quelque chose ou avez vu quelque chose de bizarre, regardez s'il n'y a pas des informations que vous ne connaissez pas. S'il y a une publication qui met en évidence quelque chose, vérifiez les sources ou recherchez (avec votre moteur de recherche favori) pour revérifier cette information. Republier de la mésinformation ou du rage-bait peut être dommageable au Fedivers.
Vous ne pouvez pas faire rentrer des sujets compliqués et débats dans un cadre standard de 500 caractères. Ce n'est toute simplement pas possible. Cet environnement polarisant est contre-productif pour tout le monde, avec le microblogging catalysant cette dynamique. C'est un problème hérité de Twitter et je pense qu'on devrait être mieux que ça. On devrait aller vers une communauté qui n'a pas besoin de fact-checkers ou de notes communautaires. Pensez avant d'agir.
Love with your heart, use your head for everything else – Capitaine Disillusion
-
Acronyme de "Free and Open-Source Software" pour "Logiciel gratuit et open-source" ↩︎