Comment vivez vous avec les algorithmes ?

Les algorithmes tout le monde connait. Ou pas ?

Vous vivez avec, puisque vous êtes connectés dans notre beau monde numérique.

Alors, votre compagnon algorithmique, le connaissez vous ?

Comprendre et domestiquer ce petit animal particulier, c’est ici !

L’algorithmie à l’heure du numérique.

Vous n’êtes pas familier avec l’algorithmie ?

Non ?

Dans l’algorithmie, vous êtes l’ingrédient, les instructions sont faites par nos géants numériques ( Facebook, YouTube, Instagram, Snapchat , Google , Microsoft, Apple ). Et ils décident du résultat.

Si vous ne connaissez pas , sachez : c’est comme une recette de cuisine. il y a des ingrédients. il y a des instructions pour obtenir le résultat ( le bon gâteau).

Du résultat de votre vie.

Vous aider à choisir votre prochain film sur netflix. Votre prochain achat suggéré. Calculé sur des critères, des données collectées.

L’algorithme est un peu obscur et peut faire un peu peur. Une vraie boîte noire !

La technologie peut faire peur.

En préalable, le sujet n’est pas de vilipender l’usage de la technologie.

Elle est là depuis la nuit des temps.

Pensez juste à la lunette de vue qui vous permet de voir mieux. Pour les myopes. C’est un outil, une petite béquille.

Qui permet de mieux voir et de mieux vivre.

Aussi la technologie n’est jamais mauvaise ou bonne. Elle est neutre.

C’est la façon dont elle utilisée qui peut poser problème ou pas.

Il y a bien sûr less apocalyptiques d’internet sont de retour des nouveaux usages.

Ici, je vous propose juste un éclairage, pour bien comprendre et apprivoiser vos petits animaux numériques. En toute connaissance de cause !

Le big data est l’initiative de collecter le maximum de données pour en trouver une utilité.

Cela peut faire peur.

La mesure et la statistique des données ne sont pourtant pas nouvelles .

Histoire de la statistique et de l’algorthimie.

Nées au XVIII eme siècle pour analyser la société. Dans les statistiques de criminalité, les statistiques pour comprendre l’évolution de la société.

Vauban lui même, dans sa recherche d’efficacité pour construire les forteresses mesurait la performance de ses ouvriers.

D »une analyse de la société, aujourd’hui la mesure n’est pas tant de connaître le réel, mais plutôt de « conduire des conduites« . ( Foucault, Le sujet et le pouvoir ). Peu importe qui tu es, c’est ton comportement qui intéresse la société tertiaire.

Le sujet n’est donc pas nouveau.

La différence est la captation à grande échelle de toute donnée que vous donnez généreusement et gracieusement. Au plus grand bonheur des Gafas.

« Son ampleur est inédite » comme le souligne Dominique Cardon dans « A quoi rêvent les algorithmes  » ?

Chaque jour, 3,3 milliards de requêtes sont faites sur Google.

Et Google scrute toutes ces requêtes pour en bénéficier d’un point de vue publicitaire.

Et ainsi , Google connaît tout de la vie des citoyens.

Bien plus efficace que les enquêtes de l’INSEE, anonymes, certes, et moins efficaces pour connaître la « pulsion » de vie de nos citoyens.

Quelles sont les différentes catégories d’algorithmes ?

Dominique Cardon, dans  » A quoi rêvent les algorithmes » a tenté de catégoriser dans la boîte noire les algorithmes.

Il en catégorise 4 types.

  • Les algorithmes qui tracent ce que vous lisez. ( c’est le cas des instituts de sondage comme Médiamétrie, ou plus largement Google Analytics , 87 % du marché mondial ). On voit ce que vous lisez sur internet. La donnée est la lecture des sites que vous visitez. Le principe pour le site qui est vu est sa popularité.
  • les algorithmes qui classent les sites selon leur autorité. Les liens vers un site donnent une légitimité et une sorte d’autorité. C’est le « page ranking » cher à Google qui catagorise les meilleurs sites.
  • Les algorithmes de réputation : plus je like un site, sur les réseaux sociaux, plus j’indique ce que j’aime. Et je mets en valeur ce que j’aime. L’entreprise Skorr qui a racheté Klout offre même la possibilité d’avoir un score de réputation relative à la personne, sur sa réputation sur les réseaux numériques et sociaux.
  • Les algorithmes de prédiction : à la vue des signaux faibles, des comportements de l’internaute sur le web, je devine ses aspirations. C’est le domaine du « machine learning ». Le domaine de la prédiction.

Ces 4 catégories se complètent, même si historiquement on les lira de haut en bas.

La mesure statistique.

La mesure statistique de « combien de personnes voient le site x.com » nécessite de tracer, de mesurer.

L’invention du cookie, en 1994, par Loui Montulli, un informaticien de Nestscape permet d’identifier les visiteurs uniques. A l’origine, pour Loui, il s’agissait de conserver les données de l’internaute pour permettre de retrouver ses informations quand il revenait sur le site ( pour le panier d’achat ). Le cookie a permis d’identifier les visites uniques. ET il est devenu un moyen aujourd’hui de tracer, de capter l’internaute. En plaçant un petit mouchard sur l’ordinateur.

Les dernières réglementations européeenes ( RGPD ) et de la CNIL permettent de rendre transparence cette technique intrusive sur la mesure et la surveillance de l’internaute.

La qualité des sites internet.

La mesure statistique du nombre de vue n’indique pas si le site internet a une grande valeur.

Les premiers moteurs de recherche ( comme Lycos, Alta Vista ) compilaient les mots clés pour proposer le site associé. Google, à partir de 1998, s’intéresse à l’algorithmie de l’autorité. Comment un site peut être légitime et meilleur que les autres ?

C’est l’apparition du « page ranking« . Avec une algorithmie plutôt sommaire, mais efficace. Qui aujourd’hui n’a plus la même force : si un site obtient depuis d’autres sites des commentaires, d’autres liens ; c’est que le site a une autorité, une valeur.

Aussi plus un site obtient des liens d’autres sites, il devient référence.

Evidemment, les industries numériques ont vite capté l’intelligence sommaire de la technique. En multipliant les liens vers d’autres sites. Quitte à créer des « fermes numériques » de faux sites qui s’adressent de faux liens pour se donner une légitimité.

Le graal c’est que les sites de références ne sont pas forcément les plus vus ( cf. la mesure triviale des visites sur un site ), mais ceux qui deviennent référence.

Car le lien est partagé. Avec les effets pervers : A force d’être cités par tous, la boule de neige agit : le site devient de plus en plus « référent » et « populaire ». Même si la qualité n’est pas là.

Le lien « hypertexte » vers un autre site a-t-il une vraie valeur de qualité et d’autorité ?

La réputation, ou le « gloriomètre ».

Le modèle économique de Google est intégré dans son moteur de recherche et la statistique. Et l’autorité.

L’arrivée des réseaux sociaux a changé la donne sur l’attrait de l’information et des sites internet, proposés à l’internaute. Au delà du nombre de visites d’un site, au delà de l’intérêt lexical de la recherche, au delà de l’autorité d’un site, désormais, un site, une information n’est plus mesurée factuellement.

Il en va de l’intérêt et des avis de tout à chacun.

Le like ( sur « Facebook », puis « Twitter » ) donne le pouvoir à la réputation sur l’information, sur un site, sur un influenceur.

Peu importe l’intelligence, ce qui plait attire, et Google et autres GAFAs , l’intérêt. Peu importe l’intelligence, c’est de capter et captiver l’internaute pour le maintenir le plus longtemps sur leur site. Permettant d’optimiser les revenus publicitaires.

Le slogan de google par exemple, qui voulait donner accès à une information juste, impartiale et complète à changer.

Le règne est devenu la réputation.

Ce que Gabriel Tarde, dès la fin du XIXème siècle appelait le « gloriomètre ».

L’algorithmie de la prédiction.

Le machine learning utilise les expériences passées de vous et moi pour décider du futur.

C’est bien mal comprendre la nature humaine, qui soubbraute.

Le premier algorithme dans les usages, dans le marketing dont vous n’êtes pas dupes est le suivant :

vous avez acheté une piscine extérieure en temps de canicule. Vous recevez une publicité pour acheter les produits de nettoyages associés.

L’algorithmie échappe à l’intelligence des ingénieurs.

Algorithme classique. Mais que même les géants du web ( comme Air B n B ) ne maîtrisent pas l’imbécilité. Lorsque j’ai fini mon séjour à Ibiza, AirBnN me propose dans la foulée des voyages à Ibiza. ??

Pour les éditeurs de site, la compétence sur l’utilisation de toutes les données captées demeure un peu artisanale.

Cependant, toutes ces données sont largement partagées à des sociétés dont c’est le métier, et le modèle économique.

Le pistage de l’internaute permet de tracer toute la vie de l’internaute.

Lorsque vous acceptez certains cookies, vous acceptez de donner toute votre activité numérique ( et donc humaine ) à des « data brokers ». Qui vont adorer revendre ces données : Axciom, BlueKai, eXelate, Rapleaf, weborame, Criteo .. ).

C’est quoi le problème ?

Que vous ne soyez pas inquiet de l’usage de vos données, aujourd’hui, ce n’est pas un problème ?

On se rappellera cependant que les lois changent. Et par exemple, aux Etats-Unis, l’avortement devient illégitime et pénalement répréhensible. Que vous fassiez une recherche  » recherche traitement avortement » devient une donnée utilisée par le gouvernement américain pour vous poursuivre.

En France, attendons les cas d’école qui arriveront sans nul doute, comme tout ce qui par capillarité vient des États Unis.

Le problème sur l’utilisation des données, c’est qu’elle nous enferme dans le passé.

Vous avez beau aimé, recherché, liké une information, est-ce que cela doit prévaloir dans le futur ? Où est votre liberté ?

Le passé devient le présent, et le futur de chacun. L’enfermant dans ce qu’on appelle le « Bubble filtering« .

Coincé dans sa bulle, par ce qu’on a fait du passé.

Le sujet pourrait être futile quant aux usages marketing. Il a cependant des implications aussi dans les sujets sociétaux, politiques. Un changement de paradigme de l’humanité, qu’on pourra lire ici : une bifurcation de l’espèce humaine.

La transparence de l’algorithmie.

L’ingelligence artificielle dans les années 1980/1990 s’appliquait à « modéliser » l’esprit humain et de faire fonctionner la machine sur les paradigme. Ce fut un échec. L’intelligence humaine se nourrit du contexte, de chaque contigence que la machine ne peut appréhender.

Les recherches en intelligence artificielle se sont plutôt orientées depuis sur la statistique, et l’apprentissage par la machine, en intégrant des milliers d’exemple. Plutôt que d’apprendre la machine à traduire sur le modèle de fonctionnement du cerveau , la machine va s’inspirer de l’expérience, des milliers de combinaisons éprouvées pour donner un résultat. Comme « Google translate ». Une sorte de mimétisme comme un singe. Mais un singe dont on abbreuve de milliers d’exemples a s’inspirer.

On remarquera avec jouissance que pour rendre une voiture autonome comme l’a tesla il faut des millions de données et des années pour tenter de rendre la voiture autonome. Alors qu’il faut 20 heures pour un jeune de 18 ans à conduire une voiture.

On ne construit pas des algorithmes, on nourrit la machine avec de la « big data ».

Les chinois ont une avance technologique sur l’intelligence artificielle : autant dans la plupart des pays occidentaux, l’utilisation des données sur l’espace public est réglementée, autant en chine, le citoyen est surveillé.

Certaines entreprises utilisent de la programmatique, à des fins plutôt commerciales plutôt que de rendre service.

Comme Facebook : récemment, l’ancienne directrice de Facebook Ashok Chandwaneya quitté l’entreprise, car elle dénonçait la politique de Facebook qui mettait en valeur les propos haineux et polémiques pour augmenter l’attractivité des pages, et des revenus publicitaires. A lire ici : Facebook et son algorithmie de la haine

Les algorithmes échappent aux ingénieurs.

Car ce qui alimente l’algorithme ce sont les données des utilisateurs. Et dans un monde où la bienveillance n’intervient pas pour se battre pour la démocratie, ce sont les internautes malveillants qui aliment les algorithmes. Provoquant ce qu’on appelle des biais . Des erreurs, des buts . Avec des conséquences sur le respect de l’humanité .

Ainsi, un noir devient catégorisé comme personne non grata.

Ou une femme interdite dans certains emplois. Non que l’algorithme ait prévu cette règle. Mais le « machine learning » a appris et plaqué le modèle mysogine du monde. Déclaré par les usages d’une humanité coincée dans des schémas mentaux . Une femme ne peut accéder à tel métier.

Face aux biais que peuvent nourrir les algorithmes, des législations se mettent en place pour donner une plus grande transparence sur ces « boîtes noires ».

C’est le cas du RGPD en Europe ( Règlement Général de la Protection des Données ) qui oblige une transparence vis à vis de l’utilisation des données personnelles. Et de rendre accessible la lisibilité des algorithmes qui traitent des données personnelles.

A lire par exemple : « dis-moi ce que tu recherches, je te dirai qui tu es : les algorithmes de profilage en ligne ». A lire ici sur le site de la Commission Nationale Informatique et Libertés

Le voeu difficile de transparence est difficile à réaliser : les ingénieurs eux-même ne comprennent pas le résultat de la machine.

Les nouveaux algorithmes et l’intelligence artificielle deviennent des outils plus « user-friendly ». On remarquera l’utilisation de masse de ChatGPT qui permet de rédiger ses devoirs ( pour les étudiants ). Avec des biais et des erreurs, malgré la perception innovante de ce genre de produits.

La bataille est lancée !

Les changements dans la surveillance et statistique.

Maintenant que vous savez que vous êtes tracés, mesurés, en permanence. Et catégorisé, quels sont les changements récents dans le domaine ?

Comme on l’a vu, la mesure statistique de la population est née au XIXème siècle, pour faire un portrait de la population ( en terme de criminalité par exemple ).

Le premier changement est la nature de la statistique.

Historiquement, la statistique avait une mesure objective, et de catégoriser même jusque récemment les catégories socio-professionnelles pour dessiner un visage économique et sociétal de la France.

Le changement qui s’est opéré est la mise en visibilité de ces indicateurs, et qui au moment où ils sont construits et publiés, influent sur la réalité.

La loi de Goodhart :

la mesure influe sur l’activité.

 » dès qu’une mesure devient un objectif, elle cesse d’être une bonne mesure ».

( Marylin strathern, improving ratings ).

Aussi la mesure et la surveillance de nos députés influent sur le comportement des députés.

Dans la mesure proposée par les big data et l’algorithmie moderne, la boîte noire cache l’indicateur :

Captons la donnée, ne la catégorisons plus a priori. ce n’est tout simplement plus possible, à la vue des milliards de données captées chaque seconde.

Il n’ y a plus d’a-priori.

Il n’y a plus de causes qui permettent d’évaluer. C’est un nouveau rapport à la causalité intraséque dans l’explication du monde, ce que vous êtes.

On fait désormais des corrélations sans cause. Et utilisant la data. Sans faire d’hypothèses préalables qu’on vérifiera, mais en utilisant le potentiel des données.

C’est la fin des théories, la méthode scientifique devient obsolète. C’est la data qui règne. a lire ici : la fin de théorie.

Par exemple, Target a utilisé les données d’achats d’un groupe bien identifié de femmes enceintes, pour en déduire dans un autre groupe les femmes qui pourraient être enceintes ou sont enceintes. Pas sur les éléments « triviaux » d’achat de linge de bébé, mais sur des données qui dépassent les analyses.

Même sans définir de groupe a prirori d’utilisateurs à « expérimenter », nombreux géants numériques utilisent l’A/B Testing. Tout simplement distinguer 2 groupes d’individus aléatoirement ( groupe A et B ) et comparer leur comportement, en leur proposant des fonctionnalités différentes, des usages différents.

L’individu des algorithmes est un « dividu » selon Deleuze : la disparition de l’individu pris dans les flux du contrôle machinique : chacun peut être divisisé en plusieurs personnalités, selon le contexte.

L’internaute n’existe plus en tant qu’humain. Il est une variable ajustée et ajustable.

Et la machine peine à interpréter.

Le big data peine à interpréter ces signaux. Le résultat d’une campagne personnalisée augmentée de 100% . On peine à expliquer que c’est pour passer de 0,01% de click à 0,02%..

Ingénieurs, citoyens et machines ont laissé dépasser la data, l’algorithme froid. Une nouvelle tour de Babel…

Publicité

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.