Comment le Big Data change-t-il la vie quotidienne en Amérique?

Comment le Big Data change-t-il la vie quotidienne en Amérique?
Comment le Big Data change-t-il la vie quotidienne en Amérique?

Vidéo: "Big Data" et intelligence artificielle : comprendre sans expliquer 2024, Mai

Vidéo: "Big Data" et intelligence artificielle : comprendre sans expliquer 2024, Mai
Anonim

L'idée de «big data» est devenue omniprésente, mais qu'est-ce que c'est et comment cela change-t-il notre façon de vivre? Nous nous sommes entretenus avec Cathy O'Neil, scientifique en données, Ph.D. de Harvard et candidate au National Book Award.

CT: Commençons par les bases - qu'est-ce que le «big data» exactement?

CO: Le Big Data est une nouvelle approche pour prédire les choses. Plus précisément, les `` mégadonnées '' sont l'utilisation de données collectées accidentellement - comme la façon dont vous effectuez une recherche dans votre navigateur ou ce que vous faites sur Facebook - pour déduire des choses à votre sujet, comme ce que vous allez acheter ou quelles sont vos affiliations politiques. C'est une façon indirecte de comprendre les gens. Par exemple, une caméra qui nous surveille ne demande pas "Que faites-vous?" - il suffit de voir ce que nous faisons.

CT: Et qu'est-ce qu'un algorithme?

CO: Les algorithmes sont des calculs qui [interprètent les] données recueillies à votre sujet afin de créer une prédiction. Considérez-le comme une équation mathématique qui tente de répondre à une question conçue comme une prédiction, comme: «Cette personne est-elle sur le point d'acheter quelque chose? ou "Cette personne est-elle sur le point de voter pour quelqu'un?"

CT: Pourquoi j'en entends tant parler en ce moment?

CO: Avant les «mégadonnées», les statisticiens faisaient des choses coûteuses comme interroger les gens pour déterminer l'avenir. Par exemple, poser des questions directes aux gens comme: «Pour qui allez-vous voter? Maintenant, nous comptons de plus en plus sur «l'épuisement des données», ce que j'appelle les données qui sont collectées à votre sujet en permanence, pour déduire des choses à votre sujet.

Avant le «big data», les entreprises n'avaient que des suppositions à faire. Maintenant, nous avons mieux que des suppositions sauvages. Ce qui est surprenant, c'est que la plupart des algorithmes de Big Data sont extrêmement inexacts, et il n'y a aucune raison de penser qu'ils ont raison. Mais ils sont meilleurs que des suppositions sauvages. Et c'est pourquoi le big data a décollé comme il l'a fait.

CT: S'ils sont inexacts, alors que reflètent-ils?

CO: Les ensembles de données défectueux que nous les alimentons. Les algorithmes ne savent rien au-delà de ce que nous leur disons. Donc, lorsque nous avons des données inégales et que nous alimentons cela en algorithme, ou en données biaisées, il pensera que c'est la réalité.

Image

Ailsa Johnson / © Voyage culturel

CT: Quel est un exemple concret de cela?

CO: Un exemple pourrait être qu'aux États-Unis, les Noirs sont cinq fois plus susceptibles d'être arrêtés pour avoir fumé du pot que les Blancs. Ce n'est pas parce que les Noirs fument le pot plus souvent - les deux groupes fument du pot au même rythme. Les Noirs sont beaucoup plus susceptibles d'être arrêtés pour cela. Si vous remettez cela à un algorithme, ce que nous faisons, cela inférera correctement que les Noirs sont beaucoup plus susceptibles, à l'avenir, d'être arrêtés pour avoir fumé du pot. Et cela donnera aux Noirs des scores de risque plus élevés pour la criminalité, ce qui a un effet sur la condamnation pénale.

Un autre exemple est une expérience de pensée. Je vais utiliser Fox News, car Fox News a récemment eu des éruptions liées à une culture interne du sexisme. L'expérience est «Que se passerait-il si Fox News essayait d'utiliser ses propres données pour créer un algorithme d'apprentissage automatique pour embaucher des gens à l'avenir?

Disons que nous recherchons des personnes qui ont réussi à Fox News, par exemple. Cela dépend de la façon dont vous définiriez le succès, mais en général, vous regardez les personnes qui obtiennent des augmentations, des promotions ou qui restent longtemps. Selon l'une de ces mesures, les données indiqueraient que les femmes ne réussissent pas à Fox News. S'il était utilisé comme algorithme d'embauche, il propagerait ce problème. Il examinerait un bassin de candidats et dirait: «Je ne veux pas embaucher de femmes, car elles ne réussissent pas ici. Ce ne sont pas de bonnes embauches. Et il ne suffit pas que ce soit Fox News - chaque culture d'entreprise a un parti pris. Lorsque vous alimentez les données d'un algorithme, le biais de l'algorithme le propage ensuite. Elle continue de renforcer les biais qui existent déjà dans la société.

CT: Les biais sont-ils intentionnels?

CO: Je ne pense pas que les scientifiques des données essaient de créer des algorithmes sexistes ou racistes. Mais les algorithmes d'apprentissage automatique sont exceptionnellement bons pour détecter des modèles relativement nuancés, puis les propager. Ce n'est pas quelque chose que les scientifiques des données font intentionnellement, mais c'est tout de même un parti pris.

CT: Quel rôle jouent les algorithmes inexacts dans notre vie quotidienne?

CO: Ils sont utilisés dans toutes sortes de décisions pour la vie des gens - depuis les admissions à l'université jusqu'à l'obtention d'un emploi.

Il existe des algorithmes qui décident comment la police contrôlera les quartiers, ainsi que des algorithmes qui décident de la manière dont les juges condamneront les accusés. Il existe des algorithmes qui déterminent le montant que vous paierez pour l'assurance ou le type d'APR [taux d'intérêt] que vous obtenez sur votre carte de crédit. Il existe des algorithmes qui décident de la façon dont vous travaillez dans votre travail, qui sont utilisés pour déterminer les augmentations de salaire. Il existe des algorithmes à chaque étape, de la naissance à la mort.

CT: Alors où cela nous mène-t-il?

CO: Nous sommes entrés dans l'ère des mégadonnées et avons lancé des algorithmes pour chaque problème que nous avons, en supposant que ces algorithmes doivent être plus équitables que les humains - mais en réalité, ils sont tout aussi injustes que les humains. Nous devons faire mieux.

Cliquez ici pour lire la deuxième partie de notre entretien avec le Dr O'Neil. Son livre, The Weapons of Math Destruction: How Big Data Augmente Inequality and Threatens Democracy est disponible dès maintenant.

Populaire pour 24 heures