Société

Demain, riches et pauvres pourraient voir un monde différent

0

"Les gens pensent que les Big data ne font pas de discrimination parce qu'ils croient avoir affaire à des chiffres objectifs, mais en fait ces données sont utilisées pour créer des inégalités toujours plus nombreuses et subtiles", dénonce Kate Crawford. Pour éviter un cyberespace - et un monde réel - scindés entre riches et pauvres, la directrice de recherche chez Microsoft Research plaide au contraire pour une approche plus consciente des effets des Big data.
 

Bienvenue à Dataland 

"Bienvenue à Dataland, l'occasion de repartir à zéro dans un nouveau monde rempli d'opportunité et d'aventures. A Dataland, nous vous surveillons 24-7 : nous savons quand vous dormez, nous connaissons la santé de votre corps et celle de votre esprit. Nous guiderons votre chemin à travers la ville pour être sûrs que vous éviterez toutes ces zones que nos algorithmes ont décrété trop risquées pour vous. Plus nous collecterons de données à votre sujet, plus vous serez en sécurité".

C'est ainsi que Kate Crawford a commencé le 9 octobre dernier son intervention au MIT Media Lab. De la science-fiction ? Non : "c'est bien plus proche de la réalité que vous l'imaginez", annonce-t-elle en citant l'Etat d'Andorre qui, pour faire face à la crise, prévoit de vendre les données personnelles de ses citoyens, pour devenir le premier "smart country" - un "laboratoire du monde réel".

"Il n'y a pas de consentement, pas de contrepartie financière ni de paramètres de confidentialité dans ce projet", explique la chercheuse. Vous ne demandez pas à y entrer et ne pouvez pas en sortir.

Pour elle, nous entrerions ainsi dans une grande expérience sociale qui soulève trois questions éthiques : le mythe de l'objectivité, la fin de l'anonymat et la discrimination organisée.


Objectives, les données ? 

Kate Crawford explique qu'il n'y a pas de quoi rire en écoutant les prophètes de ce qu'elle appelle le "fondamentalisme Big Data" : "la corrélation est aussi bonne que la causalité", entend-on dire : "les données prédictives mènent plus ou moins à la vérité objective". 

L'erreur classique : on pense que les données des réseaux sociaux donnent une bonne image de la réalité. Prenez les tweets envoyés de New York pendant l'ouragan Sandy par exemple : des chercheurs ont pensé qu'ils permettaient de savoir avec précision de ce qui s’y passait... au point de s'en servir pour allouer les ressources de l'action humanitaire. Or, ce "tableau" de la situation n'était donné que par les personnes qui, à New York, utilisent Twitter : les cadres hyperconnectés de Manhattan sont surreprésentés par rapport, mettons, aux manouvriers de Coney Island... dont le sort, au moment de l'ouragan, était pourtant souvent bien pire. Résultat : avec ce genre de biais, l'analyse par les données a tout faux !

 


Et l'exemple soulève une autre question : alors que de plus en plus de décisions sont prises à partir des données laissées sur le web par ceux qui l'utilisent, qu'arrivera-t-il aux gens qui ne génèrent pas de données du tout ? Y aura-t-il une nouvelle fracture numérique spécifique aux Big data ? Pour que ceux qui ne participent pas à la production de données ne soient pas laissés pour compte - en quelque sorte, "privés de parole", Jonas Lerman expliquait dans la Stanford Law Review : 

"Veiller à ce que la révolution Big Data soit une révolution juste, dont les fruits sont largement et équitablement partagés, peut également exiger, paradoxalement, un droit de ne pas être oublié, un droit contre l'exclusion".

De son côté, Kate Crawford rappelle qu'on doit cesser de considérer les données comme objectives : nous avons au contraire le devoir de tenir compte du contexte dans lequel elles s’inscrivent – et qui peut être très complexe et discriminant. Une raison pour laquelle on pourra trouver douteuse, par exemple, le fait que les prisons de quinze Etats américains s'en remettent à un logiciel pour évaluer le risque de récidive... et ainsi décider si un détenu doit ou non être libéré. 

"Les données brutes sont à la fois un oxymore et une mauvaise idée : les données doivent être adoucies avec attention", dit-elle, citant le sociologue Geof Bowker.



Data discrimination : quand les données nous classent sur des critères de genre ou de couleur

Autre question éthique pointée par la chercheuse : la fin de l'anonymat. Lorsque des entreprises collectent sur le web des données à notre sujet pour les vendre et les utiliser à des fins publicitaires, toute information est bonne à prendre pour personnaliser "son" Internet avec des publicités ultra-ciblées.

Premier problème : "les Big data ne sont pas aveugles au genre ou à la couleur de peau", explique Kate Crawford. A l'appui, une étude de l'Université de Cambridge qui a montré qu'en consultant la liste de ce qu'un individu "like" sur Facebook, on peut déduire sa sexualité, son origine ethnique, ses convictions religieuses… avec une certitude de 95%. Des données qui peuvent être utilisées par les agences gouvernementales, les employeurs, les propriétaires d’appartement pour faire des discriminations, selon elle. Qui peuvent d'ailleurs être doublement injustes : imaginez que votre mutuelle rompe votre contrat, peu de temps après que vous ayez "liké" la page de la fondation contre le Cancer et fait un don, en soutien à l'un de vos proches qui en souffre...

Autre sujet de préoccupation : en accédant à un Internet hyper-personnalisé - "où je retrouve les membres de mon réseau, qui pensent comme moi, et des publicités pour des biens et services sélectionnés pour moi" - on peut parvenir, en ligne, à se couper du monde réel dans toute sa diversité. Si je suis identifié comme étant de la classe moyenne, plutôt aisé, je verrai sur mon écran des offres de services bancaires qui ne s'afficheront pas sur celui de mon voisin moins fortuné. Tout comme la montée des inégalités fait apparaître, dans nos villes, des ghettos de riches et des quartiers laissés à l'abandon, le cyberespace pourrait se scinder en deux, "les riches voyant un Internet différent de celui des pauvres".

L'analogie avec l'urbanisme n'est pas anodine. Kate Crawford l'appelle "data redlining" en référence au redlining, une discrimination pratiquée par certaines entreprises qui renoncent à investir dans des zones perçues comme trop pauvres pour offrir un bon retour sur investissement (ce genre de préjugé en action étant, par exemple, la raison pour laquelle il est souvent difficile pour les entrepreneurs du "9-3" de trouver des investisseurs malgré les exonérations fiscales mises en place pour les entreprises dans leur quartier).

Alors, comment agir ? Dans un article récent, Kate Crawford propose de donner aux internautes un droit de regard sur l'usage qui est fait de leur données, en particulier en cas d'échec d'une candidature ou de refus de prise en charge par une assurance, par exemple. En France, la loi Informatique et Libertés garantit ce droit depuis 1978. Peut-être faudra-t-il la remettre au goût du jour pour l'adapter à un monde de Big data ?
 

Tommy Pouilly le 16/10/2013
Tommy
Tommy Pouilly le 16/10/2013

Pingbacks and trackbacks (1)+

Ajouter un commentaire


Loading
biuquote
  • Comment
  • Preview

S'abonner à la newsletter

Votre adresse email sera uniquement utilisée pour vous envoyer la newsletter de RSLN. Microsoft ne l'utilisera pour aucune autre communication, qu'elle soit commerciale ou institutionnelle. Microsoft ne vend ni ne loue ses listes d'abonnées à des tiers.