Dans la machine à suspicion : des limites des systèmes de scoring de l’aide sociale à Rotterdam
L'article discute des problèmes liés aux systèmes automatisés de détection de la fraude dans l'aide sociale. Les journalistes ont enquêté sur le système de scoring de l'aide sociale à Rotterdam et ont trouvé des problèmes de discrimination et d'imprécision.
Parmi les exemples cités, on trouve l'impact négatif d'être une femme, avoir des enfants, être seul ou sortir d'une relation longue sur le classement. L'algorithme traite les personnes ayant des difficultés avec le néerlandais et les personnes vulnérables de manière discriminatoire. Les journalistes soulignent également que les évaluations subjectives des travailleurs sociaux sont utilisées de manière problématique par le système.
Les systèmes de détection de fraude sociale automatisés qui ont été déployés dans plusieurs pays pour rendre l'administration publique plus efficace sont souvent opaques, surpayés et sous-supervisés. Les entreprises privées qui les développent protègent leur code en tant que propriété intellectuelle, rendant difficile l'accès aux informations pour les administrés.
D'autres exemples sont mentionnés, comme au Danemark où un système de surveillance intrusive a été critiqué pour ses atteintes à la vie privée. D'autres cas incluent des problèmes de discrimination envers les personnes handicapées au Royaume-Uni et des familles roms en Serbie.
Ces systèmes sont souvent développés et déployés par de grandes entreprises informatiques et cabinets de conseil, qui profitent de l'incapacité des gouvernements à superviser et contrôler ces technologies. Malgré les scandales et les défaillances de ces systèmes, leur utilisation continue de se répandre en Europe.