jan
15
2018

28/01/2018 Journée protection des données de l’OLN – Conférence gesticulée Informatique ou Libertés ? et Ateliers

Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 15 janvier 2018

À l’occasion de la la journée internationale de la protection des données personnelles, l’Observatoire des Libertés et du Numérique* a le plaisir de vous inviter à une :

Conférence gesticulée animée par Lunar : « Informatique ou libertés ? »

Suivie d’ateliers dédiés à la protection des données

le dimanche 28 janvier 2018 de 14h à 18h

Salle des actes à l’ENS 45 rue d’ULM, 75005 Paris

Entrée libre sur inscription obligatoire avant le vendredi 26 janvier 10h sur

https://frama.link/28janvier

- De 14h précise (prévoir d’arriver en avance) à 16h15 Conférence gesticulée : « Informatique ou libertés ? » – Lunar

En une trentaine d’années, les technologies numériques se sont invitées dans tous les aspects de nos vies. Travailler, s’informer, jouer, vivre ses amitiés, se soigner, consommer, ou encore militer ou se révolter… Autant d’activités qui passent dorénavant par l’usage d’outils numériques. Pourtant, quel contrôle avons-nous vraiment sur ces machines devenues omniprésentes ? À qui facilitent-t-elles vraiment la vie ?

Lunar, né en même temps que les premiers ordinateurs domestiques, utilise son expérience technique et militante pour analyser les forces politiques à l’œuvre dans le développement du monde numérique. Car derrière l’apparente complexité de la technique se cachent desdominations contre lesquelles nous pouvons heureusement nous organiser.
Une « conférence gesticulée » est un outil d’éducation populaire. À mi-chemin entre le spectacle et la conférence, elle mêle de l’autobiographie, de l’analyse, et de la théorie pour donner sens à un propos politique.

- De 16h15 à 18h00 Différents ateliers seront proposés :

  • Un atelier d’éducation populaire pour pouvoir prolonger la conférence gesticulée en interrogeant ensemble la place des ordinateurs dans nos vies animé par Lunar et Méli (limité à 15 personnes).
  • Un atelier d’autodéfense numérique / café vie privée pour échanger ensemble sur les problématiques posées par la surveillance illégitime en ligne et les moyens de s’en prémunir.
  • Un atelier de réflexion autour de potentielles actions juridiques, politiques ou sociales pour encourager par différents biais la « mise en conformité » avec les exigences du règlement général européen à la protection des données personnelles d’application dès le 26 mai 2018.

Il est indispensable de s’inscrire pour pouvoir participer à l’événement, pour cela merci d’indiquer nom et adresse mail dans le formulaire disponible ici (ces données ne serviront que pour cette inscription et ne seront pas conservées) : https://frama.link/28janvier,

En espérant vous voir nombreu·se·s à cette occasion,
Pour toute question : contact@lececil.org

L’équipe de l’OLN

Organisations membres de l’OLN : Amnesty International France, Le CECIL, Creis-Terminal, La Ligue des Droits de l’Homme (LDH), La Quadrature du Net (LQDN), Le Syndicat des Avocats de France (SAF), Le Syndicat de la Magistrature (SM).

jan
06
2018

Hommage à Stefano Rodota

Stefano  RODOTA est décédé à Rome  le 23 juin 2017 à l’âge de 84 ans.

Professeur à l’Université de Rome « La Sapienza », il a été de 1997 à 2005 président de l’Autorité nationale italienne pour la protection des données personnelles et a assuré de 2000 à 2004, la présidence du Groupe européen de protection des données. Il a également participé à la rédaction de la Charte des droits fondamentaux de l’Union européenne.

CREIS-Terminal et le CECIL souhaitent saluer la mémoire d’un homme courageux et militant qui a participé à plusieurs de leurs colloques et journées d’études en les faisant bénéficier de son immense savoir de juriste et de l’expérience de son action.

HOMMAGE A STEFANO RODOTA (par André Vitalis)

Stefano Rodota, professeur à l’Université « La Sapienza » de Rome, a été de 1997 à 2005, président de l’Autorité italienne pour la protection des données personnelles (l’équivalent de notre Commission nationale de l’informatique et des libertés) et de 2000 à 2004, président du groupe européen chargé de cette même protection au niveau de l’Union.

Il a été un juriste qui a su franchir les frontières de sa discipline pour étudier des problèmes essentiels de notre présente société de l’information. C’est aussi un universitaire qui a constamment mêlé l’action à la réflexion. C’est enfin un Italien qui a eu le souci permanent de l’Europe.

L’œuvre du professeur Rodota, composée d’une vingtaine d’ouvrages traduits en plusieurs langues, est l’œuvre d’un juriste qui considère que le droit doit être constamment repenser en fonction de l’évolution du contexte social et de ses valeurs. A partir d’une approche interdisciplinaire où le droit est mis en relation avec la politique, l’économie et l’évolution technique, il a revisité des institutions-clé du droit des personnes comme la propriété, la responsabilité ou le contrat. Les deux revues qu’il a créées portent des titres significatifs : « Politique du droit » et « Revue critique du droit ». Dans un livre en son honneur qui vient d’être publié, les juristes et politologues italiens, souligne l’importance de cette contribution. A partir de la même approche interdisciplinaire, Rodota a abordé les problèmes posés par l’importance croissante des techniques dans nos sociétés modernes que le juriste et sociologue bordelais Jacques Ellul, qualifiait de techniciennes. Sa contribution majeure concerne les techniques d’information et de communication dont il montre l’ambivalence en identifiant d’une part, les dangers qu’elles comportent pour les libertés individuelles et d’autre part, les nouvelles formes démocratiques qu’elles peuvent faciliter.
A la fin des années 60, il étudie les bouleversements apportés par l’informatique et tout spécialement ses menaces liberticides. Dans un ouvrage publié en 1973, « Traitements électroniques et contrôle social », il propose des solutions politiques et juridiques afin d’éviter l’avènement d’une société de contrôle. Il montre l’importance fondamentale du droit à la vie privée dans une société qui a la possibilité de tout savoir et de tout stocker sur les individus. D’origine bourgeoise et élitiste, la vie privée prend une valeur particulière dans ce nouveau contexte. Elle intéresse désormais tous les individus dont les données doivent être protégées afin d’éviter les discriminations et les manipulations. Dans une société de l’information, être libre c’est avoir une maîtrise minimale sur ses données et n’être pas réduit à ce que les fichiers disent de nous. D’autres changements sont envisagés comme la marchandisation de l’information, l’automatisation de la décision, la transparence administrative ou la vulnérabilité des organisations.
Dans un livre publié en France en 1999, aux Editions Apogée, « La démocratie électronique. Nouveaux concepts et expériences politiques », il présente une évaluation des diverses expérimentations réalisées dans le monde, afin de mieux faire participer les individus aux décisions qui les concernent. Toutes les techniques d’information n’apportent pas une plus-value démocratique mais certaines peuvent faciliter des formes de participation encore inédites. Ce sont donc ces dernières, qu’il faut prioritairement choisir dans l’avenir.
La reconnaissance française de son œuvre devait être marquée par la remise en 2005, d’un Doctorat honoris causa par l’Université Michel de Montaigne de Bordeaux.

Parallèlement à sa carrière d’enseignant et de chercheur, Stefano Rodota a mené une carrière politique. Il a siégé de 1979 à 1994, à la Chambre des députés où il a présidé le groupe parlementaire de la Gauche indépendante. Il a été pendant 10 ans, membre de l’Assemblée parlementaire du Conseil de l’Europe et pendant 5 ans, député européen. Il a toujours fait preuve dans ces engagements politiques, d’une grande indépendance par rapport aux partis et défendu une conception ouverte et pluraliste du jeu politique. Ces responsabilités parlementaires lui ont permis d’exercer une influence au-delà des cercles académiques et de convertir ses idées en programmes d’action. Ainsi, en 1994 à Paris, il a été le maître d’œuvre d’une réunion de l’Assemblée parlementaire du Conseil de l’Europe consacrée à l’examen des potentialités démocratiques des nouvelles techniques d’information et de communication. Sa probité et son expertise juridique reconnue, l’ont amené à être nommé en 1997 président de l’autorité italienne de protection des données et en 2000, président du groupe européen. Dans un livre d’interview consacré à cette expérience qui s’étalera sur près de dix ans, il dit que le théoricien a beaucoup appris du praticien en observant comment la protection des données s’inscrit dans la vie quotidienne des gens et devient une dimension de la liberté ; comment également, elle touche l’ensemble des relations et l’identité même des personnes. Au cours de son expérience européenne, il a été confronté après le 11 septembre 2001, à la difficulté des arbitrages quand les raisons sécuritaires prennent le pas sur tout autre considération. En 2004, malgré l’avis défavorable du groupe européen qu’il présidait, les compagnies aériennes ont dû transmettre aux autorités américaines qui les réclamaient, les données des passagers se rendant aux Etats-Unis même si le niveau de protection offert était inférieur à celui dont elles bénéficient en Europe.
Après s’être retiré en 2005 de la vie politique italienne, il devait y faire un retour remarqué et éclatant en se présentant à l’élection présidentielle italienne du 18 avril 2013 qu’il perdit avec un nombre plus qu’honorable de voix.

Stefano Rodota a manifesté depuis toujours un intérêt pour l’Europe avant de prendre part à la construction d’une Europe des libertés et des droits de l’homme. Jeune assistant effectuant une recherche critique sur le droit de propriété à la fin des années 50, il passe ses étés à travailler à la Faculté de droit de Paris, à la Faculté internationale de droit comparé de Luxembourg et à l’Université de Fribourg en Allemagne. Devenu professeur, il est invité à l’Université d’Oxford et donne des cours et des séminaires dans la plupart des pays européens. Il a noué de nombreux contacts en France et participe depuis le début des années 90, aux travaux d’une association de chercheurs travaillant sur le thème informatique et société. Il ne néglige pas pour autant les études menées aux Etats-Unis où il a séjourné comme professeur-invité à l’Université de Stanford et l’on trouve toujours dans ses livres, de nombreuses références nord-américaines.
Son engagement en faveur de l’Europe n’a fait que croître au fil des ans comme participant à des groupes d’experts sur l’éthique de l’informatique puis de la science, comme parlementaire, comme responsable de la protection des données personnelles. Il jouera un rôle déterminant lors de la rédaction de la Charte des droits fondamentaux de l’Union européenne approuvée en décembre 2000. Malgré la crise qu’elle traverse aujourd’hui, il estime que l’Europe est la région du monde qui possède le modèle le plus avancé dans le domaine des droits, où la dimension individuelle et sociale sont les mieux articulées. Dans des domaines comme la protection des données personnelles, la bioéthique, le respect de la diversité culturelle, l’Europe doit peser de tout son poids dans une mondialisation qui ne doit pas être seulement économique mais qui doit être aussi une mondialisation du droit.

Le Professeur Rodota aura œuvré dans ce sens, tout au long de sa carrière en ayant su avec une rare efficacité croiser les savoirs et unir l’action à la réflexion. Il est particulièrement satisfaisant et réconfortant qu’ait été confié durant de nombreuses années la responsabilité de la protection des données personnelles en Italie et en Europe à un chercheur qui trente ans plus tôt avait été un des premiers à travailler sur la mutation informatique et ses dangers pour les libertés individuelles.

Mille gracie ancora, Professore.

nov
30
2017

Livre blanc : Les données personnelles à l’heure du big data

Les données personnelles à l’heure du big data

De l’intelligence artificielle au pouvoir des algorithmes

Livre blanc publié par CREIS-Terminal et CECIL

Le plan :
1. Historique et cadre contemporain
– Éléments d’une histoire du fichage et des libertés privées en France
– Des individus exposés et trop souvent consentants face à l’utilisation de leurs données
– Exploitation à des fins marketing et de propagande contre gratuité d’un service

2. Aspects juridiques et rapport à la connaissance
– Une différence culturelle fondamentale entre la France et les États-Unis
– De nécessaires droits à instaurer
– L’importance de la question de l’enseignement avant même la majorité numérique

3. L’exploitation de la quantité des données
– Explosion de la quantité de données avec le big data
– De nouveaux usages induits
– De nouveaux risques pour les données personnelles

4. Précautions et conduite à tenir pour faire face à la cybersurveillance à l’ère du numérique
– Une nécessaire hygiène numérique
– Un peu d’autodéfense numérique
– Au-delà de l’autodéfense, un engagement militant

5. Les 10 axes de CREIS-Terminal et du CECIL

Accéder au livre blanc

oct
16
2017

Vivre dans un monde sous algorithmes

Journée d’étude organisée par CREIS-Terminal

Vivre dans un monde sous algorithmes

24 novembre 2017 9h45-16h

Télécom ParisTech 46 rue Barrault 75634 Paris Cedex 13 Amphi Grenat

Intervenants
Programme
Inscription

Pourquoi les algorithmes sont-ils en ce moment la coqueluche des média ? Un algorithme, d’après Wikipédia, est une « suite finie et non ambiguë d’opérations ou d’instructions permettant de résoudre un problème ou d’obtenir un résultat ». Pour être exécutable par un ordinateur, il est traduit par une suite d’instructions d’un langage de programmation. Divers algorithmes deviennent complexes de par le volume de données qu’ils traitent pour arriver à un résultat attendu : quel temps fera-t-il demain ? comment évolue le climat ? quels sont les potentiels futurs terroristes ? comment capter l’opinion publique ? comment attirer et fidéliser le consommateur ? Comment piloter à distance une opération ? … La technique informatique accompagne ce mouvement de complexification en traitant de gros volumes d’information de nature diverse (big data), en introduisant de l’apprentissage dans les algorithmes (machine learning), en modélisant des mécanismes de l’intelligence humaine (intelligence artificielle). Mais il ne faut pas perdre de vue que derrière les algorithmes, il y a des humains avec leurs présupposés, leurs idéologies, leurs visions du monde… Un exemple rapporté par un article de Numerama :« Beauty.AI est le premier concours de beauté jugé par des algorithmes. Problème : la grande majorité des gagnants a la peau claire »1. Cet exemple met en évidence l’importance des données et exemples qui nourrissent le système. Mais d’autres exemples sont à relever :

Les lois françaises sur le renseignement et contre le terrorisme votées sous le gouvernement précédent donnent aux services de renseignement et de police des pouvoirs exorbitants notamment en matière de collecte des données sur les réseaux. Elles autorisent la surveillance de masse et visent à prédire, via des algorithmes embarqués dans des « boîtes noires » des comportements potentiellement dangereux. Il ne fera pas bon se trouver parmi les « faux positifs » à savoir des personnes repérées à tort.

Le ministère de la Justice a autorisé, à titre expérimental, l’utilisation d’un logiciel Predictis. Il s’appuie sur un algorithme qui permet d’évaluer les chances de réussite d’une procédure ou le montant des indemnités en analysant des décisions de justice qui doivent, depuis la loi Lemaire, être accessibles en ligne dans le cadre de l’ « open data ». Le terme « justice prédictive » a accompagné le lancement de cet algorithme.

Le modèle économique des GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et de tous ceux qui se sont lancés à leur suite s’appuie en partie sur l’extraction et l’exploitation des données personnelles. Pour offrir recherches et services personnalisés, il faut connaître l’utilisateur, ses habitudes, ses « amis », sa localisation, ses horaires de travail, etc. Tout devient prétexte à collecter des données, à les traiter, à les fusionner et … à les vendre. Des algorithmes, souvent compliqués et opaques, traitent du « big data ». Profilé, le consommateur est aussi manipulé. Sa navigation, par exemple, va orienter les affichages des bandeaux publicitaires. Les suggestions faites par un moteur de recherche sont souvent faites à partir de scores. Agrégateurs de données, data brokers, travaillent non seulement pour le marketing mais aussi pour la propagande politique. Sont ici en jeu les capacités de choix de l’individu, voire son autonomie et son libre-arbitre, fondements de la démocratie

La multiplication des algorithmes s’appuyant sur le « big data », l’intelligence artificielle, le « machine learning » doit être interrogée quant à son impact sociétal : limites du traitement algorithmique, conséquences sur les libertés individuelles, tant économiques que culturelles et sociales, fondements du pacte démocratique, …

C’est à cette interrogation que CREIS-Terminal entend contribuer par cette journée d’étude où seront abordées les enjeux techniques, sociaux, juridiques, économiques… des algorithmes.

1 http://www.numerama.com/tech/193524-beauty-ai-algorithme-etre-raciste.html

Intervenants

Monsieur Adrien Basdevant Associé du cabinet d’avocats Lysias Partners

La géopolitique des algorithmes

Les données – et les algorithmes qui les traitent – renversent les logiques de pouvoir existantes. L’analyse des rapports de force en présence est indispensable pour saisir cette nouvelle donne. La géopolitique du numérique met en exergue une triple problématique de souveraineté. Tout d’abord, une course effrénée que mène chaque Etat-nation pour affirmer son influence dans le cyberespace. Ensuite, la nouvelle opposition entre ces Etats-nations traditionnels et les nouveaux acteurs du numérique, que sont les Etats-plateformes. Ces derniers entretiennent des relations subtiles et ambivalentes. Le numérique devient en effet un enjeu décisif de soft power permettant d’imposer subrepticement sa norme, son pouvoir. Dans cet affrontement de titans, les individus doivent se réunir pour trouver des modalités de représentation, afin de ne pas rester tributaires ni des Etats ni des Plateformes. Tels sont les enjeux de la géopolitique des algorithmes.


Monsieur Christophe Benavent Professeur Université Paris Ouest

Gouverner les conduites : le rôle des algorithmes

Qu’il s’agisse des moteurs de recommandation, des systèmes de prix dynamiques, des systèmes de réputation, des agents interactifs, ou de la reconnaissance d’images, les algorithmes jouent un rôle essentiel et croissant dans le gouvernement des conduites des consommateurs. Ils définissent un cadre d’action, et jouent un rôle évaluatif et incitatif, généralement ajusté aux profils des utilisateurs. Leur but vise autant à obtenir des résultats spécifiques lors des interactions individuelles, qu’à obtenir des comportements généraux des populations, ce rôle est exacerbé dans l’environnement des plateformes numériques : places de marchés, réseaux sociaux, sites collaboratifs. Ces systèmes orientés vers l’action plutôt que l’étude produisent des effets parfois inattendus et peu souhaitables ( par exemple : discrimination ou bulles de filtrage),  et leur paramétrage peut être contesté par des comportements adversiaux.  Ces phénomènes conduisent à faire de l’ »accountability » des algorithmes une priorité dans leur gestion.

Diaporama de présentation

Monsieur Olivier Koch  enseignant chercheur en Sciences de l’information et de la communication à l’Université de Galatasaray (Istanbul)

Prédire l’insurrection

Dans les années 2000, Big data et traitements algorithmiques ont été utilisés dans la gestion sécuritaire des populations. Sous l’occupation de l’Irak (2003-2010), l’armée américaine et la coalition internationale ont expérimenté des technologies de détection automatisée d’insurrections. L’objectif tactique étant de distinguer les « insurgés » du reste de la population et de les neutraliser. A cette fin, à partir de 2006, le département de la Défense américain finance la mise en œuvre d’une ingénierie en modélisation computationnelle des comportements socioculturels. Ces modélisations ambitionnent de détecter le plus finement possible les « insurrections », mais aussi de les prédire. L’usage actuaire des sciences sociales computationnelles est ainsi mis au service de la « stabilisation » des zones d’occupation. Comment ces prédictions sont-elles produites et utilisées ? Comment, à partir du laboratoire de la contre-insurrection en Irak, a vu le jour une industrie de la prédiction automatisée d’instabilités internationales ? On répondra à ces questions à partir de l’étude de dispositifs prédictifs en zones de conflit et à travers l’analyse de l’émergence de la nouvelle ingénierie en modélisation des comportements socioculturels.

Schémas explicatifs

Monsieur François Pellegrini Professeur d’informatique Université de Bordeaux, membre de la CNIL

Biais et conformisme des traitements algorithmiques

La possibilité de traiter efficacement des masses considérables de données accroit la tentation de faire reposer la gestion des sociétés humaines sur une gouvernance algorithmique. Dans cette vision, les traitements de données et leurs résultats seraient considérés comme immunisés contre les errements de l’âme humaine, et donc assimilés à des vérités scientifiques qu’il serait absurde de contester. Or, les traitements de données, comme tout artefact, sont des objets socio-économico-culturels, pétris de biais humains et, qui plus est, intrinsèquement conformistes.

Diaporama de présentation


NB : présentation des propos par les auteurs

Programme

 

9h45 accueil
10h François Pellegrini « Biais et conformisme des traitements algorithmiques »
11h Adrien Basdevant « La géopolitique des algorithmes »
12h-14h temps libre
14h Christophe Benavent « Gouverner les conduites : le rôle des algorithmes »
15h Olivier Koch « Prédire l’insurrection »
Chaque intervention d’une vingtaine de minutes sera suivie d’un échange avec les participants

Participation gratuite mais inscription obligatoire.