Résumé d'articles

Articles du site hubertguillaud.wordpress.com/

Dans la machine à suspicion : des limites des systèmes de scoring de l’aide sociale à Rotterdam

L'article discute des problèmes liés aux systèmes automatisés de détection de la fraude dans l'aide sociale. Les journalistes ont enquêté sur le système de scoring de l'aide sociale à Rotterdam et ont trouvé des problèmes de discrimination et d'imprécision. Parmi les exemples cités, on trouve l'impact négatif d'être une femme, avoir des enfants, être seul ou sortir d'une relation longue sur le classement. L'algorithme traite les personnes ayant des difficultés avec le néerlandais et les personnes vulnérables de manière discriminatoire. Les journalistes soulignent également que les évaluations subjectives des travailleurs sociaux sont utilisées de manière problématique par le système. Les systèmes de détection de fraude sociale automatisés qui ont été déployés dans plusieurs pays pour rendre l'administration publique plus efficace sont souvent opaques, surpayés et sous-supervisés. Les entreprises privées qui les développent protègent leur code en tant que propriété intellectuelle, rendant difficile l'accès aux informations pour les administrés. D'autres exemples sont mentionnés, comme au Danemark où un système de surveillance intrusive a été critiqué pour ses atteintes à la vie privée. D'autres cas incluent des problèmes de discrimination envers les personnes handicapées au Royaume-Uni et des familles roms en Serbie. Ces systèmes sont souvent développés et déployés par de grandes entreprises informatiques et cabinets de conseil, qui profitent de l'incapacité des gouvernements à superviser et contrôler ces technologies. Malgré les scandales et les défaillances de ces systèmes, leur utilisation continue de se répandre en Europe.
Lire l'article: https://hubertguillaud.wordpress.com/2023/03/07/dans-la-machine-a-suspicion-des-limites-des-systemes-de-scoring-de-laide-sociale-a-rotterdam/

Dans les angles morts du numérique

Cet article présente un glossaire du numérique intitulé "Angles morts du numérique ubiquitaire, glossaire critique et amoureux", qui aborde 145 termes pour interroger et repolitiser le vocabulaire du numérique. Ce glossaire vise à montrer les zones où nous devons être prudents et où le numérique offre encore des opportunités d'émancipation. Il comprend des termes attendus comme "Sobriété" et "Numérisation", mais aussi des termes surprenants comme "Humanectomie" et "Incomputable". L'article mentionne quelques exemples pour donner un aperçu du contenu du glossaire, tels que l'histoire d'Elaine Herzberg, la première personne tuée par une voiture autonome, et l'absence de compteurs de vitesse dans les premières voitures.

Dans le cas de l'accident mortel impliquant une voiture autonome Uber et Elaine Herzberg, l'enquête a révélé que le détecteur de la voiture avait identifié un obstacle 6 secondes avant l'impact, mais ni la voiture ni l'opératrice ne sont parvenues à éviter l'accident. L'opératrice regardait la télévision et la voiture avait eu ses réglages de réactivité modifiés. L'article soulève des questions éthiques sur la valeur attribuée aux êtres humains et les conséquences de nos actions dans la mise en place de systèmes potentiellement dangereux.

L'article aborde finalement les angles morts du numérique et comment il peut créer des risques d'accident en se substituant à notre environnement. Il mentionne également les quatre replis de médialité de Vilém Flusser : 1) les images subjectives (peintures, dessins), 2) l'écriture (représentation linéaire des phénomènes), 3) les techno-images (photographie, cinéma), et 4) les appareils de computation (ordinateurs). Ces replis de médialité, qui se sont développés au fil des siècles, nous aident à comprendre comment les dispositifs numériques reconfigurent notre réalité et nos comportements.
Lire l'article: https://hubertguillaud.wordpress.com/2023/03/06/dans-les-angles-morts-du-numerique/

Tombeau pour le Design Fiction

Cet article parle du livre "The Manual of Design Fiction" écrit par Julian Bleecker, Nick Foster, Fabien Girardin et Nicolas Nova. Le Design Fiction consiste à créer des prototypes plausibles pour explorer les conséquences de nos choix futurs. Le livre retrace l'histoire du Design Fiction, ses débats et ses travaux remarquables. Il souligne les limites de cette approche, qui n'a pas réussi à changer le monde de manière significative. Malgré cela, le Design Fiction a permis de questionner notre rapport à la technologie et de décaler notre regard sur le monde. Les auteurs regrettent que cette méthode soit devenue plus stratégique et pragmatique, perdant ainsi son essence originelle.

Parmi les exemples cités dans l'article, on trouve l'affiche pour drone perdu, le TBD catalog (qui questionne l'internet des objets sous la forme d'un catalogue IKEA), le manuel de la voiture autonome et les exercices d'observation.

L'article aborde le concept d'innovation et comment il a été dévalué au fil du temps. L'auteur souligne que l'innovation est souvent perçue comme toujours bonne, mais la réalité est plus complexe. L'article mentionne des exemples d'innovations authentiques comme le Fosbury Flop en saut en hauteur et la création du World Wide Web par Tim Berners-Lee. Cependant, il critique également la façon dont l'innovation est devenue une étape du processus commercial, avec des entreprises cherchant des solutions rapides pour donner l'impression de progresser. Enfin, il souligne l'importance de la curiosité et de la résolution de problèmes réels plutôt que de se concentrer uniquement sur les résultats commerciaux.
Lire l'article: https://hubertguillaud.wordpress.com/2023/02/20/tombeau-pour-le-design-fiction/

Un moratoire pour aller où ?

L'article parle d'une lettre ouverte demandant une pause dans le développement de l'IA, signée par des personnalités de la tech. L'auteur souligne l'hypocrisie et la contradiction dans cette demande. La lettre mentionne des dangers liés à l'IA générative, dont la désinformation, l'automatisation des emplois, et des risques existentiels. Des chercheurs, comme Arvind Narayanan et Emily Bender, suggèrent que la transparence est plus importante qu'un moratoire. Par exemple, aucun cas d'utilisation malveillante de systèmes d'IA générative comme GPT n'a été documenté...

L'article souligne également les inégalités d'investissement entre le secteur privé et les agences gouvernementales. Des exemples cités incluent la pétition Laion pour une organisation internationale de l'IA et les analyses de Frédéric Cavazza sur la nécessité de meilleures analyses plutôt que de plus de contenu. Giada Pistilli discute des enjeux liés à la maîtrise des données dans ces systèmes.
Lire l'article: https://hubertguillaud.wordpress.com/2023/03/30/un-moratoire-pour-aller-ou/

A quoi servent les luttes contre la numérisation ?

L'article parle de la lutte contre les algorithmes de contrôle et de profilage dans l'action sociale en Europe. Il donne des exemples de mobilisations et de victoires sociales, comme en Pologne où un système de catégorisation des chômeurs a été déclaré inconstitutionnel, et aux Pays-Bas où l'algorithme SyRI, servant à détecter des fraudes à l'aide sociale, a été contesté. L'article souligne que la transparence est essentielle pour que ces systèmes rendent des comptes, mais la société civile manque souvent de temps et d'argent pour enquêter. Il mentionne le travail d'Algorithm Watch, qui répertorie les systèmes de prise de décision automatisés en Europe et soutient les journalistes pour enquêter et documenter ces systèmes. L'enjeu n'est pas d'améliorer ces systèmes, mais de remettre en question la surveillance totale qu'ils impliquent. Les organisations civiles doivent collaborer et continuer à mettre la pression sur l'Union européenne pour protéger les citoyens.
Lire l'article: https://hubertguillaud.wordpress.com/2023/02/04/a-quoi-servent-les-luttes-contre-la-numerisation/

L’illogique logique de l’expulsion

L'article parle du livre "De gré et de force, Comment l’Etat expulse les pauvres" de Camille François. L'auteur examine comment l'État, la justice et la police traitent différemment les pauvres en matière d'expulsion. Les expulsions ont augmenté parce que l'État a réduit les dépenses sociales et ne veut pas payer les propriétaires en cas de non-expulsion. Les difficultés de paiement sont souvent liées à des problèmes de vie, comme la perte d'emploi ou les problèmes de santé. L'auteur explique que les précaires ont besoin de souplesse et que l'expulsion est gouvernée par des négociations et des commissions de concertation. Les expulsions remettent en question le droit au logement et l'auteur propose une garantie universelle des loyers pour sortir de la logique d'austérité de l'État.
Lire l'article: https://hubertguillaud.wordpress.com/2023/02/08/lillogique-logique-de-lexpulsion/

Sommes-nous entrés dans les sociétés du profilage ?

L'article traite du livre de Philippe Huneman, "Les sociétés du profilage", qui explore la complexité du profilage et les limites de cette pratique. L'auteur souligne que les prédictions basées sur le profilage ne sont souvent pas très efficaces, et que les calculs prédictifs sont largement défaillants dans divers domaines tels que la police et le marketing. L'article aborde la thèse selon laquelle nous passons d'une société de discipline et de contrôle à une société de profilage, bien que cette idée ne soit pas totalement convaincante. Le profilage est moins puissant que le contrôle ou la discipline, et nous ne consentons pas nécessairement à être profilés. Huneman explique que le profilage vise à prédire plutôt qu'à surveiller, en se basant sur des corrélations plutôt que sur des causalités. Il donne l'exemple de Slamtracker, un outil d'analyse des joueurs de tennis qui prédit les victoires en analysant la structure des points gagnés. Cependant, les prédictions ne sont pas toujours fiables. Le profilage est basé sur des profils individuels et collectifs, qui sont en constante évolution. Les algorithmes de recommandation de services tels que Spotify et Netflix utilisent des mots-clés obscurs pour catégoriser les goûts des utilisateurs, créant des groupes éphémères et contextuels. Les profils sont ainsi massifiés plutôt que personnalisés. les profils créés par les algorithmes peuvent être inexactes et façonnent notre réalité de manière imparfaite. Les profils sont basés sur des grammaires simples qui ne reflètent pas toujours la vérité, et l'optimisation de ces profils est souvent influencée par des facteurs extérieurs. L'article mentionne l'exemple des services de streaming comme Netflix qui utilisent des vignettes différentes pour promouvoir leurs séries, mais finissent par promouvoir les mêmes séries pour tout le monde. Les profils sont également comparés aux "mouches" dans les urinoirs de l'aéroport d'Amsterdam, qui ont été vantées pour réduire le nettoyage de 80%, mais en réalité, n'ont réduit que de 8%. Les algorithmes de profilage sont critiqués pour leur opacité, car cela permet aux sociétés de masquer leurs défaillances et de maintenir un sentiment de pouvoir. L'article souligne également que l'optimisation des profils menace la société et la politique en se concentrant sur l'efficacité plutôt que sur la vérité. Les chercheurs cités montrent que les prédictions faites par des banques, gouvernements et autres institutions sont souvent imparfaites et peu fiables. Ils identifient 7 limites structurelles de ces prédictions et proposent 27 questions pour les remettre en question. Par exemple, les prédictions peuvent causer des prophéties auto-réalisatrices, ne pas prendre en compte les interactions entre individus, et favoriser un critère au détriment des autres. Les auteurs concluent que ces optimisations prédictives créent une fausse impression d'efficacité et peuvent nuire à la justice et à l'équité.
Lire l'article: https://hubertguillaud.wordpress.com/2023/03/23/sommes-nous-entres-dans-les-societes-du-profilage/

Dématérialisation, l’externalisation en question

Cet article traite de la privatisation croissante de l'action publique et de la numérisation des services sociaux en France. Il mentionne que cette privatisation est souvent cachée derrière la dématérialisation des services, ce qui limite l'accès aux droits pour les citoyens et dégrade le travail social. Un exemple cité est le recours massif aux cabinets de conseil, qui a explosé depuis 2018, avec des dépenses atteignant 900 millions d'euros en 2021, contre 380 millions en 2018. Le marché de l'externalisation et de la sous-traitance est estimé à 160 milliards d'euros, soit un quart du budget de l'État. L'article souligne également l'impact de l'État-plateforme sur la privatisation et la guichétisation des services publics, avec des plateformes comme Doctolib offrant des services sans véritable accompagnement social. Doctolib a également centralisé les données et les stocks de vaccins via une filiale d'Amazon, soumettant ces informations à des juridictions américaines. Les experts soulignent que l'externalisation des services publics à des entreprises privées pose des problèmes de souveraineté, de sécurité et de profit. Ils suggèrent des alternatives, comme la réinternalisation des compétences et la promotion des partenariats publics communs pour développer des logiciels et des solutions adaptés. Le débat se concentre également sur la nécessité d'un contrôle parlementaire et de repenser la gestion des compétences et des ressources dans le secteur public.
Lire l'article: https://hubertguillaud.wordpress.com/2023/03/13/dematerialisation-lexternalisation-en-question/

Concevoir sous artifice

L'essai "Design sous artifice : la création au risque du machine learning" d'Anthony Masure explore les enjeux des intelligences artificielles génératives dans le domaine du design. Il s'interroge sur la place de la création face aux contraintes imposées par l'IA, les implications politiques et économiques, et la nécessité de repenser notre rapport aux machines. Masure rappelle l'histoire de l'IA, en soulignant son lien avec l'ingénierie et le comportementalisme, où l'efficacité prime sur l'intelligibilité. Il pointe également les discriminations et les inégalités que l'IA peut engendrer dans le monde du design, entre un design d'élite et un design stéréotypé. L'auteur propose des pistes pour travailler avec les machines, notamment en révélant les dynamiques de standardisation, en montrant les limites des machines, en explorant les traductions et les transcodages, et en considérant les IA comme des étapes de production plutôt que des finalités. Cependant, l'essai soulève des questions sur la possibilité de se défaire de la capture industrielle de l'IA et la capacité à demander des comptes aux pouvoirs économiques. L'espace du design doit se réinventer, mais cette réinvention pourrait se traduire par une précarisation pour certains.
Lire l'article: https://hubertguillaud.wordpress.com/2023/04/03/concevoir-sous-artifice/

Comment les travailleurs peuvent-ils lutter contre l’extension de la surveillance ?

L'article parle de la surveillance accrue des travailleurs due à la numérisation et comment cela affecte leur vie privée et leur capacité à s'organiser collectivement. Il mentionne des exemples de surveillance chez des géants technologiques et des startups antisyndicales. La surveillance dans les entrepôts d'Amazon et sur la plateforme MTurk est également discutée, montrant comment cela rend la résistance et l'organisation collective plus difficiles. Pour lutter contre cette surveillance invasive, l'article suggère que les travailleurs devraient avoir plus de droits sur leurs données et leur utilisation.

Parmi les exemples cités, on trouve l'utilisation d'applications mobiles pour suivre le temps de travail et la localisation des employés, la rémunération algorithmique et les incohérences qu'elle génère, et les problèmes de discrimination salariale liés à l'utilisation des algorithmes. L'article suggère d'interroger les croisements de données autorisés et de réguler leur utilisation pour préserver l'esprit du droit du travail.
Lire l'article: https://hubertguillaud.wordpress.com/2023/02/27/comment-les-travailleurs-peuvent-ils-lutter-contre-lextension-de-la-surveillance/