«

oct
16
2017

Vivre dans un monde sous algorithmes

Journée d’étude organisée par CREIS-Terminal

Vivre dans un monde sous algorithmes

24 novembre 2017 9h45-16h

Télécom ParisTech 46 rue Barrault 75634 Paris Cedex 13 Amphi Grenat

Intervenants
Programme
Inscription

Pourquoi les algorithmes sont-ils en ce moment la coqueluche des média ? Un algorithme, d’après Wikipédia, est une « suite finie et non ambiguë d’opérations ou d’instructions permettant de résoudre un problème ou d’obtenir un résultat ». Pour être exécutable par un ordinateur, il est traduit par une suite d’instructions d’un langage de programmation. Divers algorithmes deviennent complexes de par le volume de données qu’ils traitent pour arriver à un résultat attendu : quel temps fera-t-il demain ? comment évolue le climat ? quels sont les potentiels futurs terroristes ? comment capter l’opinion publique ? comment attirer et fidéliser le consommateur ? Comment piloter à distance une opération ? … La technique informatique accompagne ce mouvement de complexification en traitant de gros volumes d’information de nature diverse (big data), en introduisant de l’apprentissage dans les algorithmes (machine learning), en modélisant des mécanismes de l’intelligence humaine (intelligence artificielle). Mais il ne faut pas perdre de vue que derrière les algorithmes, il y a des humains avec leurs présupposés, leurs idéologies, leurs visions du monde… Un exemple rapporté par un article de Numerama :« Beauty.AI est le premier concours de beauté jugé par des algorithmes. Problème : la grande majorité des gagnants a la peau claire »1. Cet exemple met en évidence l’importance des données et exemples qui nourrissent le système. Mais d’autres exemples sont à relever :

Les lois françaises sur le renseignement et contre le terrorisme votées sous le gouvernement précédent donnent aux services de renseignement et de police des pouvoirs exorbitants notamment en matière de collecte des données sur les réseaux. Elles autorisent la surveillance de masse et visent à prédire, via des algorithmes embarqués dans des « boîtes noires » des comportements potentiellement dangereux. Il ne fera pas bon se trouver parmi les « faux positifs » à savoir des personnes repérées à tort.

Le ministère de la Justice a autorisé, à titre expérimental, l’utilisation d’un logiciel Predictis. Il s’appuie sur un algorithme qui permet d’évaluer les chances de réussite d’une procédure ou le montant des indemnités en analysant des décisions de justice qui doivent, depuis la loi Lemaire, être accessibles en ligne dans le cadre de l’ « open data ». Le terme « justice prédictive » a accompagné le lancement de cet algorithme.

Le modèle économique des GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et de tous ceux qui se sont lancés à leur suite s’appuie en partie sur l’extraction et l’exploitation des données personnelles. Pour offrir recherches et services personnalisés, il faut connaître l’utilisateur, ses habitudes, ses « amis », sa localisation, ses horaires de travail, etc. Tout devient prétexte à collecter des données, à les traiter, à les fusionner et … à les vendre. Des algorithmes, souvent compliqués et opaques, traitent du « big data ». Profilé, le consommateur est aussi manipulé. Sa navigation, par exemple, va orienter les affichages des bandeaux publicitaires. Les suggestions faites par un moteur de recherche sont souvent faites à partir de scores. Agrégateurs de données, data brokers, travaillent non seulement pour le marketing mais aussi pour la propagande politique. Sont ici en jeu les capacités de choix de l’individu, voire son autonomie et son libre-arbitre, fondements de la démocratie

La multiplication des algorithmes s’appuyant sur le « big data », l’intelligence artificielle, le « machine learning » doit être interrogée quant à son impact sociétal : limites du traitement algorithmique, conséquences sur les libertés individuelles, tant économiques que culturelles et sociales, fondements du pacte démocratique, …

C’est à cette interrogation que CREIS-Terminal entend contribuer par cette journée d’étude où seront abordées les enjeux techniques, sociaux, juridiques, économiques… des algorithmes.

1 http://www.numerama.com/tech/193524-beauty-ai-algorithme-etre-raciste.html

Intervenants


Monsieur Adrien Basdevant Associé du cabinet d’avocats Lysias Partners

La géopolitique des algorithmes

Les données – et les algorithmes qui les traitent – renversent les logiques de pouvoir existantes. L’analyse des rapports de force en présence est indispensable pour saisir cette nouvelle donne. La géopolitique du numérique met en exergue une triple problématique de souveraineté. Tout d’abord, une course effrénée que mène chaque Etat-nation pour affirmer son influence dans le cyberespace. Ensuite, la nouvelle opposition entre ces Etats-nations traditionnels et les nouveaux acteurs du numérique, que sont les Etats-plateformes. Ces derniers entretiennent des relations subtiles et ambivalentes. Le numérique devient en effet un enjeu décisif de soft power permettant d’imposer subrepticement sa norme, son pouvoir. Dans cet affrontement de titans, les individus doivent se réunir pour trouver des modalités de représentation, afin de ne pas rester tributaires ni des Etats ni des Plateformes. Tels sont les enjeux de la géopolitique des algorithmes.


Monsieur Christophe Benavent Professeur Université Paris Ouest

Gouverner les conduites : le rôle des algorithmes

Qu’il s’agisse des moteurs de recommandation, des systèmes de prix dynamiques, des systèmes de réputation, des agents interactifs, ou de la reconnaissance d’images, les algorithmes jouent un rôle essentiel et croissant dans le gouvernement des conduites des consommateurs. Ils définissent un cadre d’action, et jouent un rôle évaluatif et incitatif, généralement ajusté aux profils des utilisateurs. Leur but vise autant à obtenir des résultats spécifiques lors des interactions individuelles, qu’à obtenir des comportements généraux des populations, ce rôle est exacerbé dans l’environnement des plateformes numériques : places de marchés, réseaux sociaux, sites collaboratifs. Ces systèmes orientés vers l’action plutôt que l’étude produisent des effets parfois inattendus et peu souhaitables ( par exemple : discrimination ou bulles de filtrage),  et leur paramétrage peut être contesté par des comportements adversiaux.  Ces phénomènes conduisent à faire de l’ »accountability » des algorithmes une priorité dans leur gestion.


Monsieur Olivier Koch  enseignant chercheur en Sciences de l’information et de la communication à l’Université de Galatasaray (Istanbul)

Prédire l’insurrection

Dans les années 2000, Big data et traitements algorithmiques ont été utilisés dans la gestion sécuritaire des populations. Sous l’occupation de l’Irak (2003-2010), l’armée américaine et la coalition internationale ont expérimenté des technologies de détection automatisée d’insurrections. L’objectif tactique étant de distinguer les « insurgés » du reste de la population et de les neutraliser. A cette fin, à partir de 2006, le département de la Défense américain finance la mise en œuvre d’une ingénierie en modélisation computationnelle des comportements socioculturels. Ces modélisations ambitionnent de détecter le plus finement possible les « insurrections », mais aussi de les prédire. L’usage actuaire des sciences sociales computationnelles est ainsi mis au service de la « stabilisation » des zones d’occupation. Comment ces prédictions sont-elles produites et utilisées ? Comment, à partir du laboratoire de la contre-insurrection en Irak, a vu le jour une industrie de la prédiction automatisée d’instabilités internationales ? On répondra à ces questions à partir de l’étude de dispositifs prédictifs en zones de conflit et à travers l’analyse de l’émergence de la nouvelle ingénierie en modélisation des comportements socioculturels.


Monsieur François Pellegrini Professeur d’informatique Université de Bordeaux, membre de la CNIL

Biais et conformisme des traitements algorithmiques

La possibilité de traiter efficacement des masses considérables de données accroit la tentation de faire reposer la gestion des sociétés humaines sur une gouvernance algorithmique. Dans cette vision, les traitements de données et leurs résultats seraient considérés comme immunisés contre les errements de l’âme humaine, et donc assimilés à des vérités scientifiques qu’il serait absurde de contester. Or, les traitements de données, comme tout artefact, sont des objets socio-économico-culturels, pétris de biais humains et, qui plus est, intrinsèquement conformistes.

NB : présentation des propos par les auteurs

Programme

9h45 accueil
10h François Pellegrini « Biais et conformisme des traitements algorithmiques »
11h Adrien Basdevant « La géopolitique des algorithmes »
12h-14h temps libre
14h Christophe Benavent « Gouverner les conduites : le rôle des algorithmes »
15h Olivier Koch « Prédire l’insurrection »
Chaque intervention d’une vingtaine de minutes sera suivie d’un échange avec les participants

Participation gratuite mais inscription obligatoire.