Delete Set public Set private Add tags Delete tags
  Add tag   Cancel
  Delete tag   Cancel
  • Cyberpunk is the way
  • My links
  • Tags
  • pics
  • Daily
  • RSS
  • Login
Filter untagged links

Révoltes et réseaux sociaux : le retour du coupable idéal – La Quadrature du Nethttps://www.laquadrature.net/2023/07/28/revoltes-et-reseaux-sociaux-le-retour-du-coupable-ideal/

  • Social Network
  • global spying
  • Spying
  • Police State
  • Social Network
  • global spying
  • Spying
  • Police State

Révoltes et réseaux sociaux : le retour du coupable idéal

Posted on 28 juillet 2023

Les révoltes qu’ont connues de nombreuses villes de France en réaction à la mort de Nahel ont entraîné une réponse sécuritaire et autoritaire de l’État. Ces évènements ont également réactivé une vieille antienne : tout cela serait dû au numérique et aux réseaux sociaux. On aimerait railler cette rhétorique ridicule si seulement elle n’avait pas pour origine une manœuvre politique de diversion et pour conséquence l’extension toujours plus dangereuse de la censure et du contrôle de l’information.

« C’est la faute aux réseaux sociaux »

Aux premiers jours des révoltes, Emmanuel Macron a donné le ton en annonçant, à la sortie d’une réunion de crise, que « les plateformes et les réseaux sociaux jouent un rôle considérable dans les mouvements des derniers jours ». Aucune mention des maux sociaux et structurels dans les quartiers populaires depuis plusieurs décennies, rien sur l’écœurement d’une population vis-à-vis des violences policières. Non, pour le président, c’est Snapchat, TikTok et les autres réseaux sociaux qui participeraient à « l’organisation de rassemblements violents » et à une « forme de mimétisme de la violence » qui conduirait alors à « une forme de sortie du réel ». Selon lui, certains jeunes « vivent dans la rue les jeux vidéo qui les ont intoxiqués ». Il est vrai que nous n’avions pas vu venir cette sortie d’un autre temps sur les jeux vidéos, tant elle a déjà largement été analysée et démentie par de nombreuses études.

Mais si le jeu vidéo a vite été laissé de côté, les critiques ont toutefois continué de se cristalliser autour des réseaux sociaux, à droite comme à gauche. Benoît Payan, maire de Marseille, a ainsi expliqué que les réseaux sociaux « sont hors contrôle et ils permettent à des bandes organisées qui font n’importe quoi d’être extrêmement mobiles, de se donner des rendez-vous ». Éric Dupond-Moretti, ministre de la Justice, s’est quant à lui taillé un rôle paternaliste et moralisateur, dépolitisant les évènements et essentialisant une jeunesse qui aurait l’outrecuidance d’utiliser des moyens de communication. Selon lui, « les jeunes » utilisent les réseaux sociaux et se « réfugient derrière leurs téléphone portable », se pensant « comme ça en toute liberté dans la possibilité d’écrire ce qu’ils veulent ». Car pour Dupond-Moretti, le jeune doit « rester chez lui » et les parents doivent « tenir leurs gosses ». Et si le jeune veut quand même « balancer des trucs sur Snapchat », alors attention, « on va péter les comptes ».

En substance, il menace d’identifier les personnes qui auraient publié des vidéos de violences pour les retrouver, quand bien même ces contenus seraient totalement licites. À l’image d’un surveillant courant avec un bâton après des enfants, dépassé par la situation, le ministre de la Justice se raccroche à la seule branche qui lui est accessible pour affirmer son autorité. Les récits de comparution immédiate ont d’ailleurs démontré par la suite la violence de la réponse judiciaire, volontairement ferme et expéditive, confirmant la détermination à prouver son ascendant sur la situation.

Le clou du spectacle a été prononcé par Emmanuel Macron lui-même le 4 juillet, devant plus de 200 maires, lorsqu’il a évoqué l’idée de « réguler ou couper » les réseaux sociaux puisque « quand ça devient un instrument de rassemblement ou pour essayer de tuer, c’est un vrai sujet ». Même avis chez Fabien Roussel « quand c’est chaud dans le pays », car celui-ci préfère « l’état d’urgence sur les réseaux sociaux que sur les populations ». Pour rappel, couper Internet à sa population est plutôt apprécié par les régimes autoritaires. En 2023, l’ONG Access Now a recensé que ce type de mesure avait été utilisé en Inde, Birmanie, Iran, Pakistan, Éthiopie, Russie, Jordanie, Brésil, Chine, Cuba, Irak, Guinée et Mauritanie.

Quelques semaines plus tard, le président annonçait le projet : restaurer un « ordre public numérique », ranimant la vieille idée sarkoziste qu’Internet serait une « zone de non-droit ».

La censure au service de l’ordre

L’ensemble de ces réactions révèle plusieurs des objectifs du gouvernement. D’abord, il attaque les moyens de communication, c’est-à-dire les vecteurs, les diffuseurs, les tremplins d’une expression populaire. Ce réflexe autoritaire est fondé sur une erreur d’appréciation majeure de la situation. Comme avec Internet à sa création, l’État semble agacé que des moyens techniques en perpétuelle évolution et lui échappant permettent aux citoyens de s’exprimer et s’organiser.

Depuis sa création, La Quadrature l’observe et le documente : le réflexe du blocage, de la censure, de la surveillance traduit en creux une incapacité à comprendre les mécanismes technologiques de communication mais surtout révèle la volonté de limiter la liberté d’expression. En démocratie, seul un juge a l’autorité et la légitimité pour décider si un propos ou une image enfreint la loi. Seule l’autorité judiciaire peut décider de retirer un discours de la sphère publique par la censure.

Or, sur Internet, cette censure est déléguée à des entités privées dans un cadre extra-judiciaire, à rebours de cette protection historique. L’expression et l’information des utilisateur·rices se heurtent depuis des années aux choix de plateformes privées auto-désignées comme entités régulatrices du discours public. Ce mécanisme de contrôle des moyens d’expression tend en effet à faire disparaître les contenus militants, radicaux ou alternatifs et à invisibiliser l’expression de communautés minoritaires. Alors que ce modèle pose de sérieuses questions quant à la liberté d’expression dans l’espace démocratique, c’est pourtant bien sur celui-ci que le gouvernement compte pour faire tomber les vidéos de violences et de révoltes.

Ensuite, cette séquence démontre l’absence de volonté ou l’incompétence de l’État à se confronter aux problématiques complexes et anciennes des quartiers populaires et à apporter une réponse politique et sociale à un problème qui est uniquement… politique et social. L’analyse des évènements dans les banlieues est complexe, difficile et mérite qu’on se penche sur de multiples facteurs tels que le précédent de 2005, l’histoire coloniale française, le rapport des habitant·es avec la police ou encore le racisme et les enjeux de politique de la ville. Mais ici, le gouvernement convoque les réseaux sociaux pour contourner la situation. Comme à chaque crise, la technologie devient alors le *usual suspect* préféré des dirigeants : elle est facile à blâmer mais aussi à maîtriser. Elle apparaît ainsi comme une solution magique à tout type de problème.

Rappelons-nous par exemple de l’application TousAntiCovid, promue comme l’incarnation du progrès ultime et salvateur face à la crise sanitaire alors qu’il s’agissait uniquement d’un outil de surveillance inefficace. La suite a montré que seules des mesures sanitaires étaient de toute évidence à même de résorber une épidémie. Plus récemment, cette manœuvre a été utilisée pour les Jeux Olympiques, moment exceptionnel par ses aspects logistiques, économiques et sociaux mais où la réponse politique apportée a été de légaliser un degré supplémentaire de surveillance grâce à la technologie, la vidéosurveillance algorithmique.

Ici, le gouvernement se sert de ces deux phénomènes pour arriver à ses fins. Désigner les réseaux sociaux comme le coupable idéal lui permet non seulement de détourner l’opinion publique des problématiques de racisme, de pauvreté ou de politique des quartiers mais également de profiter de cette séquence « d’exception » pour asseoir sa volonté de contrôle d’Internet et des réseaux sociaux. Ainsi, les ministres de l’Intérieur et du Numérique ont convoqué le 30 juin les représentants de TikTok, Snapchat, Twitter et Meta pour leur mettre une « pression maximale », selon les mots du ministre du Numérique Jean-Noël Barrot, et renforcer ainsi la main mise et l’influence politique sur ces infrastructures de communication.

Une collaboration État-plateformes à son paroxysme

Comment le gouvernement peut-il alors faire pour réellement mettre les réseaux sociaux, des entreprises privées puissantes, sous sa coupe ? Juridiquement, il dispose de leviers pour demander lui-même le retrait de contenus aux plateformes. Certes cette censure administrative est en théorie aujourd’hui réservée à la pédopornographie et à l’apologie du terrorisme, mais cette dernière, notion vague et indéfinie juridiquement, a notamment permis d’exiger le blocage du site collaboratif et militant Indymedia ou de faire retirer une caricature de Macron grimé en Pinochet. Ces pouvoirs ont d’ailleurs été récemment augmentés par l’entrée en vigueur du règlement « TERREG », qui permet à la police d’exiger le retrait en une heure d’un contenu qualifié par elle de « terroriste ». Cependant, il ne semble pas que le gouvernement ait utilisé ces dispositions pour exiger le retrait des vidéos de révoltes. D’ailleurs, et peut-être plus grave, il n’en a probablement pas eu besoin.

Conscient des limites juridiques de son pouvoir, l’État peut en effet miser sur la coopération des plateformes. Comme nous l’avons évoqué, celles-ci ont le contrôle sur l’expression de leurs utilisateur·ices et sont en mesure de retirer des vidéos de révoltes et d’émeutes quand bien même ces dernières n’auraient absolument rien d’illégal, simplement en invoquant leurs larges pouvoirs issus des conditions générales d’utilisation.

D’un côté, les autorités peuvent compter sur le zèle de ces réseaux sociaux qui, après avoir longtemps été accusés de mauvais élèves et promoteurs de la haine en ligne, sont enclins à se racheter une image et apparaître comme de bons soldats républicains, n’hésitant pas à en faire plus que ce que demande la loi. Twitter par exemple, qui a pendant longtemps résisté et ignoré les demandes des autorités, a drastiquement changé sa discipline depuis l’arrivée d’Elon Musk. Selon le media Rest of World qui a analysé les données du réseau, Twitter ne refuse quasiment plus aucune injonction de blocage ou réquisition de données d’identification provenant des différents États dans le monde.

Concernant les récents évènements en France, le ministre Barrot a ainsi confirmé que les « demandes » du gouvernement avaient été « entendues ». Le Commandement de la Gendarmerie dans le cyberespace exposait fièrement que 512 demandes de retrait avaient été adressées aux modérateurs de réseaux sociaux, quand Olivier Veran annonçait quant à lui que « ce sont plusieurs milliers de contenus illicites qui ont été retirés, plusieurs centaines de comptes qui ont été supprimés, plusieurs dizaines de réquisitions auxquelles les plateformes ont répondu ».

Et en effet, Snapchat ne se cachait pas d’avoir fait plus que le nécessaire. Un porte-parole affirmait à l’AFP faire de la « détection proactive » notamment sur la carte interactive qui permet de retrouver des contenus en fonction des lieux et « et plus particulièrement le contenu lié aux émeutes » qui serait supprimé s’il « enfreint [leurs] directives ». La responsable des affaires publiques de l’entreprise assumait quant à elle devant l’Assemblée nationale avoir travaillé avec le ministère de l’Intérieur pour filtrer les contenus et ne laisser en ligne que ceux mettant en scène des personnes se plaignant des violences. Les représentants de Tiktok ont pour leur part [annoncé](https://www.latribune.fr/technos-medias/internet/les-reseaux-sociaux-retirent-des-milliers-de-contenus-illicites-lies-aux-emeutes-968771.html#:~:text=Mis en cause par de,des données personnels de policiers) : « Nous menons une modération automatique des contenus illicites, renforcée par des modérateurs humains. En raison de la nécessité urgente en France, nous avons renforcé nos efforts de modération ».

De l’autre côté, si les réseaux sociaux refusent de se plier à ce jeu diplomatique, alors le gouvernement peut menacer de durcir leurs obligations légales. Aujourd’hui, les réseaux sociaux et hébergeurs bénéficient d’un principe européen d’irresponsabilité, créé dans les années 2000 et reposant en France sur l’article 6 de la loi pour la confiance dans l’économie numérique (LCEN). Ils ne sont responsables de contenus que s’ils ont connaissance de leur caractère illicite et ne les ont pas retiré « promptement ». Mais alors que les soirées d’émeutes étaient toujours en cours dans les villes de France, le sénateur Patrick Chaize profitait de l’examen du projet de loi Espace Numérique pour proposer un amendement qui voulait modifier ce régime général et imposer aux plateformes le retrait en deux heures des contenus « incitant manifestement à la violence ».

Si cet amendement a finalement été retiré, ce n’était pas en raison de désaccords de fond. En effet, Jean-Noël Barrot a, dans la foulé de ce retrait, annoncé le lancement d’un « groupe de travail » interparlementaire pour réfléchir à une « évolution législative » de l’encadrement des réseaux sociaux. Sont envisagées pour l’instant des restrictions temporaires de fonctionnalités telles que la géolocalisation, des mesures de modération renforcées ou encore la levée de l’anonymat, éternelle marotte des parlementaires. Demande constante de la droite française depuis de nombreuses années, cette volonté de lier identité virtuelle et identité civile est cette fois-ci défendue par le député Renaissance Paul Midy. De quoi agiter le chiffon rouge de futures sanctions auprès de plateformes qui rechigneraient à en faire suffisamment.

L’impasse de la censure

Déjà voté au Sénat, le projet de loi « Espace Numérique » devrait être discuté à la rentrée à l’Assemblée. Outre plusieurs dispositions problématiques sur lesquelles nous reviendrons très prochainement, ce texte a comme objet initial de faire entrer dans le droit français le Digital Services Act (ou DSA). Ce règlement européen adopté en 2022 est censé renouveler le cadre juridique des acteurs de l’expression en ligne.

Contrairement à ce qu’affirmait avec aplomb Thierry Breton, commissaire européen en charge notamment du numérique, ce texte ne permettra en aucun cas d’« effacer dans l’instant » les vidéos de révoltes ni d’interdire d’exploitation les plateformes qui n’exécuteraient pas ces injonctions. Non, ce texte donne principalement des obligations ex ante aux très grosses plateformes, c’est-à-dire leur imposent des efforts sur leur fonctionnement général (transparence des algorithmes, coopération dans la modération avec des tiers certifiés, audits…) pour prévenir les risques systémiques liés à leur taille et leur influence sur la démocratie. M. Breton est ainsi prêt à tout pour faire le SAV du règlement qu’il a fait adopter l’année dernière, quitte à dire des choses fausses, faisant ainsi réagir plus de soixante associations sur ces propos, puis à rétropédaler en catastrophe en voyant le tollé que cette sortie a déclenché.

Cependant, si ce texte ne permet pas la censure immédiate rêvée par le commissaire européen français, il poursuit bien la dynamique existante de confier les clés de la liberté d’expression aux plateformes privées, quitte à les encadrer mollement. Le DSA légitime les logiques de censure extra-judiciaire, renforçant ainsi l’hégémonie des grandes plateformes qui ont développé des outils de reconnaissance et de censure automatisés de contenus.

Des contenus terroristes aux vidéos protégées par le droit d’auteur en passant par les opinions radicales, c’est tout un arsenal juridique européen qui existe aujourd’hui pour fonder la censure sur internet. En pratique, elle permet surtout de donner aux États qui façonnent ces législations des outils de contrôle de l’expression en ligne. On le voit en ce moment avec les vidéos d’émeutes, ces règles sont mobilisées pour contenir et maîtriser les contestations politiques ou problématiques. Le contrôle des moyens d’expression finit toujours aux mains de projets sécuritaires et anti-démocratiques. Face à ce triste constat, de la même manière que l’on se protège en manifestation ou dans nos échanges militants, il est nécessaire de repenser les pratiques numériques, afin de se protéger soi-même et les autres face au risque de détournement de nos publications à des fins répressives (suppression d’images, de vidéos ou de messages, flouter les visages…).

Enfin, cette obsession de la censure empêche surtout de se confronter aux véritables enjeux de liberté d’expression, qui se logent dans les modèles économiques et techniques de ces plateformes. À travers leurs algorithmes pensés pour des logiques financières, ces mécanismes favorisent la diffusion de publications violentes, discriminatoires ou complotistes, créant un tremplin rêvé pour l’extrême droite. Avec la régulation des plateformes à l’européenne qui ne passe pas par le questionnement de leur place prépondérante, celles-ci voient leur rôle et leur influence renforcé·es dans la société. Le modèle économique des réseaux sociaux commerciaux, qui repose sur la violation de la vie privée et la monétisation de contenus problématiques, n’est en effet jamais empêché, tout juste encadré.

Nous espérons que les débats autour du projet de loi Espace Numérique seront enfin l’occasion de discuter de modèles alternatifs et de penser la décentralisation comme véritable solution de la régulation de l’expression en ligne. Cet idéal n’est pas utopique mais existe bel et bien et grandit de jour en jour dans un écosystème fondé sur l’interopérabilité d’acteurs décentralisés, refusant les logiques de concentration des pouvoirs de censure et souhaitant remettre les utilisateurs au cœur des moyens de communications qu’ils utilisent.

Permalink
August 3, 2023 at 8:52:58 PM GMT+2

En France ou ailleurs, couper l’accès aux réseaux sociaux pour couper court aux émeutes ?https://theconversation.com/en-france-ou-ailleurs-couper-lacces-aux-reseaux-sociaux-pour-couper-court-aux-emeutes-209583

  • global spying
  • Police State
  • Social Network
  • Politics
  • global spying
  • Police State
  • Social Network
  • Politics

En France ou ailleurs, couper l’accès aux réseaux sociaux pour couper court aux émeutes ?

Publié: 26 juillet 2023, 20:17 CEST

La mort de Nahel, tué par un policier à Nanterre lors d’un contrôle routier le 27 juin 2023, a déclenché en France une série de manifestations violentes qui se sont rapidement étendues à tout le pays et ont même franchi les frontières nationales.

Les réseaux sociaux ont joué un rôle déterminant dans cette affaire. Il n’est donc pas surprenant que ces plates-formes soient devenues l’une des cibles des autorités françaises, Emmanuel Macron ayant évoqué la possibilité de couper l’accès aux réseaux sociaux durant des périodes de violences urbaines.

Les réactions à ces propos ont vite provoqué un rétropédalage du gouvernement, par l’intermédiaire de son porte-parole Olivier Véran, qui a déclaré que les restrictions pourraient se limiter à des suspensions de certaines fonctionnalités comme la géolocalisation.

Un débat qui agite aussi les instances internationales, comme l'ONU, qui s'interrogent sur le rôle des réseaux sociaux et sur la modération de contenus.

Le rôle des réseaux sociaux

Que les réseaux sociaux constituent, comme le soulignait déjà le Rapporteur spécial sur la liberté d’opinion et expression de l’ONU en 2011, « un instrument de communication essentiel au moyen duquel les individus peuvent exercer leur droit à la liberté d’expression, ou […] de recevoir et de répandre des informations » est un fait indéniable. C’est d’ailleurs une vidéo largement diffusée en ligne qui a permis de remettre en cause la version des faits sur la mort de Nahel initialement avancée par les policiers impliqués.

Mais les réseaux sociaux ont ensuite beaucoup servi à partager des vidéos, y compris d’épisodes violents, ainsi qu’à organiser et à géolocaliser les mobilisations et les endroits visés par les dégradations ou affrontements. D’où la réaction du gouvernement français, qui a tenu une réunion avec les représentants de Meta, Snapchat, Twitter et TikTok afin de les appeler à la responsabilité concernant la diffusion de tels contenus.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Les plates-formes étant devenues les « nouveaux gouverneurs » de la liberté d’expression, leurs politiques de modération ainsi que l’application de celles-ci se retrouvent scrutées de près. Or les règles en vigueur sont vagues et ne permettent pas une identification claire des contenus interdits ; en outre, l’usage de l’IA peut favoriser la discrimination, alimenter des inégalités sociales et conduire soit à une suppression excessive de contenus soit, à l’inverse, à la non-suppression de contenus qui vont à l’encontre du droit international des droits humains.

Parmi les exemples récents de l’incidence d’une modération de contenus opaque, citons le rôle de Facebook au Myanmar dans la propagation de discours haineux contre les Rohingya, mais aussi aux États-Unis lors de l’assaut du Capitole par les supporters de Donald Trump le 6 janvier 2021, suite à l’élection de Joe Biden.

Les réseaux sociaux ont, en vertu des Principes directeurs relatifs aux entreprises et droits de l’homme de l’ONU, la responsabilité de veiller au respect des droits humains dans le cadre de leurs activités. L’appel à la responsabilité de la part du gouvernement français en matière de modération des contenus n’est donc pas, en soi, problématique.

Le rôle des États

Les États ont la possibilité, dans certaines circonstances, de mettre en place des mesures susceptibles de restreindre l’exercice des droits fondamentaux tels que la liberté d’expression, par exemple en imposant des règles strictes aux réseaux sociaux ; mais ces restrictions doivent être conformes à leurs obligations internationales.

La France ayant ratifié le Pacte international sur les droits civils et politiques, toute restriction aux droits y énumérés doit correspondre aux dispositions établies dans ce traité.

Le Pacte précise que pour qu’une restriction à la liberté d’expression soit légitime, elle doit satisfaire trois conditions cumulatives : la restriction doit être « fixée par la loi » ; elle doit protéger exclusivement les intérêts énumérés à l’article 19 du Pacte (les droits ou la réputation d’autrui, la sécurité nationale ou l’ordre public, la santé ou la moralité publiques) ; et elle doit être nécessaire pour protéger effectivement l’intérêt légitime identifié, et proportionnée à l’objectif visé, ce qui signifie qu’elle doit compromettre le moins possible l’exercice du droit. Les mêmes conditions s’appliquent aussi aux restrictions aux droits à la liberté de réunion pacifique et libre association.

Or la proposition d’Emmanuel Macron peut précisément s’inscrire dans le cadre d’une restriction de la liberté d’expression, de la libre association et du droit à la réunion pacifique. Bien que cette idée soit présentée comme visant à protéger l’intérêt légitime du maintien de l’ordre public ou même de la sécurité nationale, de telles mesures ont été à plusieurs reprises jugées par les organisations internationales comme étant non conformes avec le droit international.

Le Rapporteur spécial sur la liberté d’opinion et d’expression de l’ONU a largement traité ce sujet. En 2017, il a souligné que les coupures d’Internet – qui peuvent être complètes ou partielles, c’est-à-dire n’affectant que l’accès à certains services de communication comme les réseaux sociaux ou les services de messagerie – « peuvent être expressément destinées à empêcher ou à perturber la consultation ou la diffusion de l’information en ligne, en violation […] des droits de l’homme » et que, « dans bien des cas, elles sont contre-productives ».

Le Rapporteur spécial sur la liberté de réunion pacifique et à la liberté d’association a pour sa part précisé en 2019 que « les coupures de réseau constituent une violation flagrante du droit international et ne peuvent en aucun cas être justifiées » et que « bien que ces mesures soient généralement justifiées par des raisons d’ordre public et de sécurité nationale, ce sont des moyens disproportionnés, et la plupart du temps inefficaces, d’atteindre ces objectifs légitimes ».

En 2021, une résolution du Conseil des droits de l’homme de l’ONU, dont le projet a notamment été porté par la France, condamne « fermement le recours aux coupures de l’accès à Internet pour empêcher ou perturber délibérément et arbitrairement l’accès à l’information en ligne ou sa diffusion ». La résolution demandait aussi au Haut-Commissariat des Nations unies aux droits de l’homme (OHCHR) de présenter une étude sur la tendance, observée dans plusieurs pays du monde, consistant à couper l’accès à Internet.

Le rapport de l’OHCHR, présenté au Conseil l’année suivante, souligne que « la grande majorité des coupures sont justifiées officiellement par le souci de préserver la sûreté publique et la sécurité nationale ou par la nécessité de restreindre la circulation d’informations jugées illégales ou susceptibles de causer des préjudices ». Cela a pu être constaté, entre autres exemples, au Burkina Faso lors des manifestations de l’opposition en novembre 2021, qui ont mené à une coupure d’Internet d’abord, puis à une restriction d’accès à Facebook, au nom de la sécurité nationale, ou au Sri Lanka en avril 2022, quand le gouvernement à coupé l’accès à toutes les plates-formes suite à des protestations contre la mise en place d’un état d’urgence.

Si ces restrictions ont généralement lieu dans des pays non démocratiques, les justifications avancées par leurs gouvernements correspondent à celles avancées par le gouvernement français à présent.

Le rapport note aussi qu’un nombre important de coupures d’Internet ont été suivies par des pics de violences, « ce qui semble démontrer que ces interventions ne permettent bien souvent pas d’atteindre les objectifs officiellement invoqués de sûreté et de sécurité » mais aussi qu’« on ne saurait invoquer la sécurité nationale pour justifier une action lorsque ce sont précisément des atteintes aux droits de l’homme qui sont à l’origine de la détérioration de la sécurité nationale ».

Par ailleurs, les manifestations trouvant leur origine dans les violences policières et le profilage racial, des mesures visant à restreindre l’accès aux réseaux sociaux en les accusant d’être responsables des violences constituent « une manière de dépolitiser et délégitimer la révolte [et] de dénier aux émeutiers le droit de se révolter contre les violences policières », comme le souligne le chercheur en sciences de l’information Romain Badouard.

Une question d’équilibre ?

Les États et les réseaux sociaux ont, les uns comme les autres, un devoir de protection et de respect des droits humains, mais comme nous l’avons vu, ils peuvent également porter atteinte à ces droits. Le cas présent montre que les deux centres de pouvoir, les États et les réseaux sociaux, peuvent, et idéalement devraient, se contrebalancer, afin d’assurer une meilleure protection des droits des individus.

C’est dans ce cadre qu’une approche de la modération des contenus en ligne fondée sur les droits humains se révèle nécessaire. Le Rapporteur spécial sur la liberté d’opinion et expression de l’ONU avait déjà remarqué en 2018 que « certains États […] recourent à la censure et à l’incrimination pour façonner le cadre réglementaire en ligne », mettant en place « des lois restrictives formulées en termes généraux sur l’"extrémisme", le blasphème, la diffamation, les discours “offensants”, les fausses informations et la “propagande” [qui] servent souvent de prétexte pour exiger des entreprises qu’elles suppriment des discours légitimes ». D’autre part, si les réseaux sociaux se présentent comme promoteurs de droits tels que la liberté d’expression, le Rapporteur spécial avait également relevé que la plupart d’entre eux ne se fondent pas sur les principes des droits humains dans leurs activités et politiques de modération de contenus.

Le cadre du droit international des droits humains offre non seulement aux individus la possibilité de contester les mesures prises par leurs gouvernements, mais il offre également aux réseaux sociaux un langage permettant de contester les demandes illicites émanant des États et d’« articuler leurs positions dans le monde entier de manière à respecter les normes démocratiques ». Reste aux États comme aux plates-formes à se saisir pleinement de ces instruments.

Permalink
August 3, 2023 at 8:52:13 PM GMT+2

L’Assemblée adopte l’activation à distance des appareils électroniques – La Quadrature du Nethttps://www.laquadrature.net/2023/07/25/lassemblee-adopte-lactivation-a-distance-des-appareils-electroniques/

  • Control the Masses
  • global spying
  • Police State
  • Politics
  • Control the Masses
  • global spying
  • Police State
  • Politics

L’Assemblée adopte l’activation à distance des appareils électroniques

Posted on25 juillet 2023

La semaine dernière, l’Assemblée nationale a adopté le projet de loi d’orientation et de programmation du ministère de la justice pour les années 2023-2027. Parmi de multiples dispositions, ce texte prévoit l’introduction dans le droit français la possibilité pour la police d’activer des appareils et objets électroniques à distance, que ce soit les fonctionnalités de géolocalisation, des micros ou des caméras.

Nous vous en parlions il y a quelques semaines, après avoir fait un tour au Sénat, le voila désormais voté par l’Assemblée. Ce projet de surveillance, défendu par le gouvernement comme une simple « évolution technologique » des mesures d’enquête, modifie en réalité profondément la nature même d’objets du quotidien pour accéder à l’intimité des personnes. Il transforme des appareils supposées passifs et contrôlés par leurs propriétaires en des auxiliaires de justice pour s’immiscer dans tous les recoins de nos espaces privés. Alors que la police était jusqu’à présent tenue d’une démarche active et matériellement contraignante pour surveiller quelqu’un, ces dispositions du projet de loi sur la justice permettront de transformer un objet tel qu’un smartphone en dispositif de surveillance, en le compromettant.

Sans trop de surprise, les discussions à l’Assemblée n’ont apporté que peu de changement. Pour l’activation à distance des appareils électroniques à des fins de géolocalisation, permettant d’obtenir l’emplacement de leurs propriétaires, les députés de la majorité – réunis avec la droite et l’extrême droite – ont ramené le texte à sa version initiale. Ainsi, cette mesure pourra être mise en œuvre sur des personnes poursuivies pour des délits et crimes punis de 5 ans d’emprisonnement seulement, alors que les sénateurs avaient rehaussé ce seuil à 10 ans. Pour l’activation du micro et de la caméra des objets connectés permettant de filmer ou d’écouter tout ce qui se passe à leurs alentours, aucune modification substantielle n’est à noter. Prévue pour la criminalité et la délinquance organisées, l’application future de cette technique extrêmement intrusive nous fait craindre le pire. Actuellement déjà, un grand nombre d’actions peuvent tomber dans le champ de la délinquance et la « criminalité organisée », comme par exemple la « dégradation en bande organisée » pour laquelle sont poursuivies les militant·es écologistes arrêtées pour avoir participé à l’action contre l’usine Lafarge.

Mais surtout, il est très probable que cette technique de compromission des appareils s’étende ou se banalise d’ici à quelques années. La dernière décennie, qui a bouleversé en profondeur la réglementation pénale et antiterroriste, démontre par l’exemple quel pourrait être le chemin d’une telle généralisation. En effet, les techniques spéciales d’enquête, particulièrement intrusives, étaient historiquement réservées aux enquêtes et affaires les plus graves, données au seul juge d’instruction. Ce n’est que depuis la réforme pénale de 2016 que ces possibilités ont été élargies aux officiers de police judiciaire et aux procureurs dans le cadre d’enquête de flagrance et préliminaire. Avec cette loi, le procureur pouvait alors ordonner des écoutes téléphoniques, des sonorisations de lieux, des poses de balise GPS, de la vidéosurveillance, des captations de données informatiques ou des perquisitions de nuit.

Cette extension était fortement critiquée au regard des pouvoirs inédits donnés au parquet, hiérarchiquement dépendant de l’exécutif. Le journal « Le Monde » parlait à l’époque de « la loi antiterroriste la plus sévère d’Europe » et s’inquiétait, comme nous aujourd’hui, du « glissement régulier des méthodes du renseignement vers l’antiterrorisme, celles de l’antiterrorisme vers le crime organisé, celles du crime organisé vers la délinquance ordinaire » et de conclure « les procédures d’exception finissent par dissoudre le principe même d’un droit commun ».

Ces prédictions se sont révélées exactes puisque dès 2018, le gouvernement a voulu élargir ces possibilités fraîchement données au procureur à l’ensemble des crimes dans le cadre d’une enquête en flagrance ou d’une enquête préliminaire, et non plus à la seule délinquance et à la criminalité en bande organisée. On ne pourrait donner meilleur exemple de fuite en avant sécuritaire, révélant la volonté de s’arroger toujours plus de pouvoirs dont on pouvait pourtant se passer auparavant. Néanmoins, les gardes fous institutionnels ont plutôt fonctionné à ce moment là : le Conseil constitutionnel a censuré cet appétit grandissant de prérogatives de surveillance. Celui-ci a ainsi estimé que la mesure était excessive et que le juge des libertés et de la détention (JLD), désigné pour autoriser et contrôler ces techniques, ne constituait pas une garantie suffisante. Pour le Conseil, puisque le JLD n’a pas accès à l’ensemble des procès-verbaux de l’enquête ni au déroulé des investigations, cela l’empêche d’assurer un contrôle satisfaisant de la nécessité et la proportionnalité des mesures de surveillance. Pourtant, alors que ces limites sont connues, c’est ce même JLD qui a été choisi dans le PJL Justice 2023-2027 pour contrôler les nouvelles techniques d’activation à distance des objets connectés (hors information judiciaire).

Toutefois, rien ne permet de croire à un coup d’arrêt similaire contre ces nouvelles mesures. À l’heure où l’antiterrorisme est mobilisé pour réprimer des militant·es politiques, ce renforcement des pouvoirs policiers ne fait que souligner les dérives autoritaires du gouvernement. Cette volonté de faire tomber les barrières qui empêchent l’État d’accéder à l’intimité des citoyens rejoint aussi l’offensive actuelle contre le chiffrement des conversations, que nous avons documentée à travers l’instruction de l’affaire dite du « 8 décembre ».

Le projet de loi sera prochainement transmis à une commission mixte paritaire qui tranchera les derniers arbitrages. Les équilibres politiques actuels font qu’il n’y a quasiment aucune chance que les parlementaires reculent et fassent retirer ces mesures de surveillance. Pourtant, si ces dernières sont votées, elles offriront une possibilité de contrôle de masse à faible coût et feront basculer le rapport que peuvent avoir les citoyens à la technologie en transformant radicalement la nature des objets qui nous entourent.

Permalink
August 3, 2023 at 8:49:40 PM GMT+2

This AI Watches Millions Of Cars And Tells Cops If You’re Driving Like A Criminalhttps://www.forbes.com/sites/thomasbrewster/2023/07/17/license-plate-reader-ai-criminal/

  • Artificial intelligence
  • global spying
  • Artificial intelligence
  • global spying

This AI Watches Millions Of Cars Daily And Tells Cops If You’re Driving Like A Criminal

Artificial intelligence is helping American cops look for “suspicious” patterns of movement, digging through license plate databases with billions of records. A drug trafficking case in New York has uncloaked — and challenged — one of the biggest rollouts of the controversial technology to date.

By Thomas Brewster, Forbes Staff


In March of 2022, David Zayas was driving down the Hutchinson River Parkway in Scarsdale. His car, a gray Chevrolet, was entirely unremarkable, as was its speed. But to the Westchester County Police Department, the car was cause for concern and Zayas a possible criminal; its powerful new AI tool had identified the vehicle’s behavior as suspicious.

Searching through a database of 1.6 billion license plate records collected over the last two years from locations across New York State, the AI determined that Zayas’ car was on a journey typical of a drug trafficker. According to a Department of Justice prosecutor filing, it made nine trips from Massachusetts to different parts of New York between October 2020 and August 2021 following routes known to be used by narcotics pushers and for conspicuously short stays. So on March 10 last year, Westchester PD pulled him over and searched his car, finding 112 grams of crack cocaine, a semiautomatic pistol and $34,000 in cash inside, according to court documents. A year later, Zayas pleaded guilty to a drug trafficking charge.

“With no judicial oversight this type of system operates at the caprice of every officer with access to it.”

Ben Gold, lawyer


The previously unreported case is a window into the evolution of AI-powered policing, and a harbinger of the constitutional issues that will inevitably accompany it. Typically, Automatic License Plate Recognition (ALPR) technology is used to search for plates linked to specific crimes. But in this case it was used to examine the driving patterns of anyone passing one of Westchester County’s 480 cameras over a two-year period. Zayas’ lawyer Ben Gold contested the AI-gathered evidence against his client, decrying it as “dragnet surveillance.”

And he had the data to back it up. A FOIA he filed with the Westchester police revealed that the ALPR system was scanning over 16 million license plates a week, across 480 ALPR cameras. Of those systems, 434 were stationary, attached to poles and signs, while the remaining 46 were mobile, attached to police vehicles. The AI was not just looking at license plates either. It had also been taking notes on vehicles' make, model and color — useful when a plate number for a suspect vehicle isn’t visible or is unknown.

To Gold, the system’s analysis of every car caught by a camera amounted to an “unprecedented search.” “This is the specter of modern surveillance that the Fourth Amendment must guard against,” he wrote, in his motion to suppress the evidence. “This is the systematic development and deployment of a vast surveillance network that invades society’s reasonable expectation of privacy.

“With no judicial oversight this type of system operates at the caprice of every officer with access to it.”

Gold declined to comment further on the case. Westchester County Police Department did not respond to requests for comment.


Reckoning with Rekor

Westchester PD’s license plate surveillance system was built by Rekor, a $125 million market cap AI company trading on the NASDAQ. Local reporting and public government data reviewed by Forbes show Rekor has sold its ALPR tech to at least 23 police departments and local governments across America, from Lauderhill, Florida to San Diego, California. That’s not including more than 40 police departments across New York state who can avail themselves of Westchester County PD’s system, which runs out of its Real-Time Crime Center.

“You've seen the systems totally metastasize to the point that the capabilities of a local police department would really shock most people.”

Brett Max Kaufman, senior staff attorney at the ACLU


Rekor’s big sell is that its software doesn’t require new cameras; it can be installed in already deployed ones, whether owned by the government, a business or a consumer. It also runs the Rekor Public Safety Network, an opt-in project that has been aggregating vehicle location data from customers for the last three years, since it launched with information from 30 states that, at the time, were reading 150 million plates per month. That kind of centralized database with cross-state data sharing, has troubled civil rights activists, especially in light of recent revelations that Sacramento County Sheriff’s Office was sharing license plate reader data with states that have banned abortion.

“The scale of this kind of surveillance is just incredibly massive,” Brett Max Kaufman, senior staff attorney at the ACLU, told Forbes. Pointing to both Rekor and Flock, a rival that runs a similar pan-American surveillance network of license plate readers, he described warrantless monitoring of citizens en masse like this as “quite horrifying.”

Rekor declined an interview and did not respond to requests for comment. But Matt Hill, who sold his company OpenALPR to Rekor in 2019 and was its chief scientist before departing in September 2022, told Forbes the network was likely growing. “I’m fairly sure there would be more cameras in more states now… It would be fairly large,” he said, noting that non-government customers have also been providing video. Rekor’s private customers include parking lots, casinos and fast-food chain restaurants.

With so many agencies now collecting license plate records, and the dawn of more advanced, AI-powered surveillance, privacy advocates are raising the alarm about a technology expanding with little in the way of legal protections for the average American. “You've seen the systems totally metastasize to the point that the capabilities of a local police department would really shock most people,” added Kaufman. “This is just the beginning of the applications of this technology.”


‘Unavoidable surveillance’

The ALPR market is growing thanks to a glut of Rekor rivals, including Flock, Motorola, Genetec, Jenoptik and many others who have contracts across federal and state governments. They’re each trying to grab a slice of a market estimated to be worth at least $2.5 billion.

But it’s not easy. Reporting first quarter results for this year, Rekor saw $6.2 million in revenue with a $12.6 million net loss. It reported a similar loss in the same quarter last year. Its stock is currently trading at about $2.75 down from an April 2021 high of $23.45 per share

In pursuit of that elusive profit, the market is looking beyond law enforcement to retail and fast food. Corporate giants have toyed with the idea of tying license plates to customer identities. McDonalds and White Castle have already begun using ALPR to tailor drive-through experiences, detecting returning customers and using past orders to guide them through the ordering process or offer individualized promotion offers. The latter restaurant chain uses Rekor tech to do that via a partnership with Mastercard.

With the sheer breadth of expansion, it’s becoming increasingly difficult to avoid the watchful eyes of government and corporate surveillance — or even know where they are. As Gold found in trying to get data from the Westchester government, authorities are not legally obliged to provide information on the whereabouts of cameras.

“Given the vast nature of the ALPR network and the need to travel public highways to engage in modern life,” Gold wrote in his motion to suppress, “avoiding ALPR surveillance is both unfeasible, if impossible.”

Permalink
August 3, 2023 at 8:48:49 PM GMT+2

If art is how we express our humanity, where does AI fit in? | MIT News | Massachusetts Institute of Technologyhttps://news.mit.edu/2023/generative-ai-art-expression-0615

  • Artificial intelligence
  • Art
  • Artificial intelligence
  • Art

If art is how we express our humanity, where does AI fit in?

MIT postdoc Ziv Epstein SM ’19, PhD ’23 discusses issues arising from the use of generative AI to make art and other media.

Zach Winn Publication Date: June 15, 2023

The rapid advance of artificial intelligence has generated a lot of buzz, with some predicting it will lead to an idyllic utopia and others warning it will bring the end of humanity. But speculation about where AI technology is going, while important, can also drown out important conversations about how we should be handling the AI technologies available today.

One such technology is generative AI, which can create content including text, images, audio, and video. Popular generative AIs like the chatbot ChatGPT generate conversational text based on training data taken from the internet.

Today a group of 14 researchers from a number of organizations including MIT published a commentary article in Science that helps set the stage for discussions about generative AI’s immediate impact on creative work and society more broadly. The paper’s MIT-affiliated co-authors include Media Lab postdoc Ziv Epstein SM ’19, PhD ’23; Matt Groh SM ’19, PhD ’23; PhD students Rob Mahari ’17 and Hope Schroeder; and Professor Alex "Sandy" Pentland.

MIT News spoke with Epstein, the lead author of the paper.

Q: Why did you write this paper?

A: Generative AI tools are doing things that even a few years ago we never thought would be possible. This raises a lot of fundamental questions about the creative process and the human’s role in creative production. Are we going to get automated out of jobs? How are we going to preserve the human aspect of creativity with all of these new technologies?

The complexity of black-box AI systems can make it hard for researchers and the broader public to understand what’s happening under the hood, and what the impacts of these tools on society will be. Many discussions about AI anthropomorphize the technology, implicitly suggesting these systems exhibit human-like intent, agency, or self-awareness. Even the term “artificial intelligence” reinforces these beliefs: ChatGPT uses first-person pronouns, and we say AIs “hallucinate.” These agentic roles we give AIs can undermine the credit to creators whose labor underlies the system’s outputs, and can deflect responsibility from the developers and decision makers when the systems cause harm.

We’re trying to build coalitions across academia and beyond to help think about the interdisciplinary connections and research areas necessary to grapple with the immediate dangers to humans coming from the deployment of these tools, such as disinformation, job displacement, and changes to legal structures and culture.

Q: What do you see as the gaps in research around generative AI and art today?

A: The way we talk about AI is broken in many ways. We need to understand how perceptions of the generative process affect attitudes toward outputs and authors, and also design the interfaces and systems in a way that is really transparent about the generative process and avoids some of these misleading interpretations. How do we talk about AI and how do these narratives cut along lines of power? As we outline in the article, there are these themes around AI’s impact that are important to consider: aesthetics and culture; legal aspects of ownership and credit; labor; and the impacts to the media ecosystem. For each of those we highlight the big open questions.

With aesthetics and culture, we’re considering how past art technologies can inform how we think about AI. For example, when photography was invented, some painters said it was “the end of art.” But instead it ended up being its own medium and eventually liberated painting from realism, giving rise to Impressionism and the modern art movement. We’re saying generative AI is a medium with its own affordances. The nature of art will evolve with that. How will artists and creators express their intent and style through this new medium?

Issues around ownership and credit are tricky because we need copyright law that benefits creators, users, and society at large. Today’s copyright laws might not adequately apportion rights to artists when these systems are training on their styles. When it comes to training data, what does it mean to copy? That’s a legal question, but also a technical question. We’re trying to understand if these systems are copying, and when.

For labor economics and creative work, the idea is these generative AI systems can accelerate the creative process in many ways, but they can also remove the ideation process that starts with a blank slate. Sometimes, there’s actually good that comes from starting with a blank page. We don’t know how it’s going to influence creativity, and we need a better understanding of how AI will affect the different stages of the creative process. We need to think carefully about how we use these tools to complement people’s work instead of replacing it.

In terms of generative AI’s effect on the media ecosystem, with the ability to produce synthetic media at scale, the risk of AI-generated misinformation must be considered. We need to safeguard the media ecosystem against the possibility of massive fraud on one hand, and people losing trust in real media on the other.

Q: How do you hope this paper is received — and by whom?

A: The conversation about AI has been very fragmented and frustrating. Because the technologies are moving so fast, it’s been hard to think deeply about these ideas. To ensure the beneficial use of these technologies, we need to build shared language and start to understand where to focus our attention. We’re hoping this paper can be a step in that direction. We’re trying to start a conversation that can help us build a roadmap toward understanding this fast-moving situation.

Artists many times are at the vanguard of new technologies. They’re playing with the technology long before there are commercial applications. They’re exploring how it works, and they’re wrestling with the ethics of it. AI art has been going on for over a decade, and for as long these artists have been grappling with the questions we now face as a society. I think it is critical to uplift the voices of the artists and other creative laborers whose jobs will be impacted by these tools. Art is how we express our humanity. It’s a core human, emotional part of life. In that way we believe it’s at the center of broader questions about AI’s impact on society, and hopefully we can ground that discussion with this.

Permalink
July 19, 2023 at 9:38:49 PM GMT+2

Hollywood Studios’ Demand For Free AI Replicas Sparks Actor Strike | Ubergizmohttps://www.ubergizmo.com/2023/07/hollywood-demand-for-free-ai-replicas-actor-strike/

  • Artificial intelligence
  • Societal Collapse
  • Deepfake
  • Artificial intelligence
  • Societal Collapse
  • Deepfake

Hollywood Studios’ Demand For Free AI Replicas Sparks Actor Strike

By Paulo Montenegro, on 07/14/2023 16:01 PDT

In a startling revelation made during the press conference announcing their strike, Hollywood actors disclosed that the studios are demanding possession of their AI replicas without any compensation—a proposition that feels reminiscent of a dystopian narrative from the television series Black Mirror.

Duncan Crabtree-Ireland, the chief negotiator for SAG-AFTRA, shared details of the Hollywood studios’ proposal, which was described by the Alliance of Motion Picture and Television Producers (AMPTP) as a “groundbreaking AI proposal” safeguarding the digital likenesses of actors belonging to SAG-AFTRA.

When questioned about the proposal at the press conference, Crabtree-Ireland expressed his incredulity, stating:

“Yesterday, they presented us with this so-called ‘groundbreaking’ AI proposal. They suggested that our background performers should undergo scanning, receive payment for a single day’s work, and grant ownership of that scan, their image, and their likeness to the studios indefinitely. These studios would then have the right to utilize this digital representation without any consent or compensation, on any future project, for all eternity. If they believe this is a groundbreaking proposal, I suggest they reevaluate their perspective.”

The integration of generative AI has been a contentious issue in the ongoing negotiations between the two parties, with its implications extending beyond the current actors’ strike and also playing a significant role in the writers’ strike. SAG-AFTRA President Fran Drescher emphasized the urgency of the situation in her opening statement, warning, “If we fail to take a firm stand now, we will all face dire consequences. Our very existence is at stake, as we risk being replaced by machines.”

The SAG-AFTRA strike is scheduled to commence at midnight tonight, marking a pivotal moment in the struggle for fair treatment and the preservation of actors’ rights.

Filed in Robots. Read more about AI (Artificial Intelligence).

Permalink
July 18, 2023 at 9:23:44 PM GMT+2

Les chatbots peuvent-ils vraiment nous influencer ?https://theconversation.com/les-chatbots-peuvent-ils-vraiment-nous-influencer-193341

  • Psychology
  • Robot
  • Societal Collapse
  • Artificial intelligence
  • Psychology
  • Robot
  • Societal Collapse
  • Artificial intelligence

Les chatbots peuvent-ils vraiment nous influencer ?

Publié: 27 novembre 2022, 17:01 CET

Depuis Eliza (1966), le premier chatbot de l’histoire, jusqu’à nos jours, les machines conversationnelles issues de l’intelligence artificielle se voient souvent attribuer des attitudes et des comportements humains : joie, étonnement, écoute, empathie…

Sur le plan psychologique, ces attributions correspondent à des « projections anthropomorphiques ». Ainsi, le risque existe d’identifier pleinement les chatbots à ce que nous leur attribuons de nous-mêmes, au point de susciter la croyance d’avoir affaire à quelqu’un plutôt que de garder à l’esprit qu’il s’agit d’un programme informatique disposant d’une interface de communication.

Par ailleurs, le risque existe que les concepteurs issus des « technologies persuasives » (technologies visant à persuader les humains d’adopter des attitudes et des comportements cibles), conscients d’un tel phénomène, utilisent les chatbots pour influencer nos comportements à l’aide du langage naturel, exactement comme le ferait un humain.

Pour circonscrire les mécanismes projectifs dont les technologies persuasives pourraient faire usage, nous avons conduit une étude à grande échelle auprès d’un échantillon représentatif de Français (soit 1 019 personnes) placés en position d’envisager ou de se remémorer une relation interactive dialoguée avec un chatbot qu’il soit, au choix, un·e ami·e confident·e, un·e partenaire amoureux·se, un·e coach·e de vie professionnelle ou un·e conseiller.ère clientèle.

Pour interpréter nos résultats, nous avons retenu des projections anthropomorphiques quatre modalités essentielles :

  • Anthropomorphisme perceptuel : consiste à projeter sur un objet des caractéristiques humaines, ce qui relève de l’imagination.
  • Animisme : consiste à donner vie aux caractéristiques attribuées à un objet en projetant « sur » lui des intentions simples généralement humaines.
  • Anthropomorphisme intentionnel : est une forme d’animisme consistant à projeter « dans » l’objet des intentions humaines complexes sans pour autant identifier totalement cet objet à ce qu’on y a projeté.
  • Identification projective : consiste à projeter « dans » l’objet des caractéristiques de soi et à l’identifier totalement à ce qu’on y a projeté au point de modifier radicalement la perception même de cet objet.

Un résultat intriguant : mon chatbot est plutôt féminin

Quel que soit le chatbot choisi, 53 % des répondants le considèrent comme vivant autant qu’humain et parmi eux 28 % projettent sur lui les caractéristiques d’un homme adulte et 53 % celles d’une femme adulte (anthropomorphisme perceptuel).

Ensemble, ils lui donnent vie en lui attribuant des intentions simples (animisme). Lorsque les répondants ne considèrent pas le chatbot choisi comme vivant (40 %), certains projettent paradoxalement sur lui des caractéristiques humaines comme une voix (27 %), un visage (18 %) et un corps (8 %) tendanciellement féminins. Dans l’ensemble, seuls 38 % des répondants projettent dans leur chatbot une agentivité c’est-à-dire des états intérieurs complexes, cognitifs et émotionnels, constitutifs d’un pouvoir et d’une autonomie d’action (anthropomorphisme intentionnel).

Ainsi, tout se passe comme si la tendance était d’attribuer au chatbot les caractéristiques d’un sujet humain, mais avec une certaine hésitation sur l’attribution d’une intériorité : il serait ainsi considéré comme un sujet sans subjectivité. Ces résultats tendraient à montrer que les répondants n’identifient pas totalement le chatbot à ce qu’ils imaginent d’humain en lui et, ainsi, qu’ils ne le prennent pas pour un semblable. Il n’y aurait donc pas de processus avéré d’identification projective.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Face à ces résultats, deux questions nous ont semblé essentielles. La première consiste à se demander si la tendance des répondants à projeter du féminin dans leur chatbot, qu’il soit ou non considéré comme vivant – et notamment une femme plus qu’un homme adulte –, relève d’un stéréotype ou d’un archétype. Rappelons ici qu’un stéréotype est une opinion toute faite, forgée sans examen critique qui véhicule des représentations sociales standardisées et appauvrissantes visant à catégoriser voire caricaturer tel ou tel groupe humain.

Un archétype, quant à lui, est un schéma d’organisation inné de notre vie psychique, présent à l’état « virtuel » dans notre esprit et que seules certaines circonstances peuvent activer et actualiser. La seconde question consiste à se demander pourquoi les répondants n’identifient-ils pas pleinement leur chatbot à ce qu’il projette d’humain en eux ?

Afin de répondre à ces questions et de mieux comprendre nos relations aux chatbots, certains des concepts majeurs de la psychanalyse nous ont éclairés.

La psychanalyse pour comprendre nos relations aux chatbots

Tentons une réponse à la première de nos deux questions. Selon la littérature scientifique, des stéréotypes sociaux de genre sont souvent projetés sur les machines. Alors que la vocation des chatbots est d’assister l’humain, il serait en effet naturel, selon certains, que, dans l’imaginaire social, cet assistanat soit situé du côté du « care » et ainsi associé aux femmes.

Mais sommes-nous vraiment en présence d’un tel stéréotype dans notre enquête ? Nos investigations montrent en effet que 58 % des femmes qui considèrent leur chatbot comme vivant et humain l’envisagent comme une personne de genre féminin contre seulement 48 % des hommes. Ainsi, soit elles sont victimes d’un stéréotype de genre par contagion sociale, soit cette projection d’une figure féminine exprimerait un invariant collectif qui serait l’expression d’un archétype plus que d’un stéréotype.

Un archétype, tel que nous l’avons défini, est par exemple à l’œuvre dans les processus d’attachement pulsionnel à la mère. En effet, il a été démontré que le nouveau-né, dès le premier contact avec sa génitrice, dirige instinctivement son regard vers elle avant de migrer vers le sein pour sa première tétée. Ce comportement inné relève de l’archétype de la Mère.

Plus généralement, certaines recherches montrent que la première forme vivante que les nouveau-nés rencontrent à leur naissance fait « empreinte » en eux sous la forme d’une image et les conduit à se lier immédiatement à elle pour recevoir les soins dont ils ont besoin. Peu importe si cette forme appartient à une autre espèce. Certains en concluent que l’archétype, en tant que schéma inné de comportement, conduit un être vivant à rechercher une fonction de soin plus qu’un individu spécifique à son espèce d’appartenance.

Le concept d’archétype nous permet donc d’envisager que la figure projective féminine propre à notre enquête ne résulterait pas forcément d’un stéréotype de genre. Elle pourrait attester l’activation et l’actualisation de l’archétype de la Mère poussant ainsi l’utilisateur « humain » à projeter une figure féminine archétypale dans le chatbot, preuve qu’il cherche, dans l’interaction avec lui, une fonction de soin telle qu’il l’a déjà expérimentée.

Peu importe qu’il soit un programme informatique, un « individu technique », s’il donne le sentiment de « prendre soin » en aidant à choisir un produit, en conseillant une attitude juste ou en offrant des signes de reconnaissance amicaux autant qu’amoureux.

Un différentiel homme-machine auto-protecteur ?

Abordons maintenant notre seconde question. Dans notre enquête, le chatbot est généralement imaginé comme un sujet paré de caractéristiques humaines, mais sans subjectivité. Ce qui signifie que les répondants n’identifient pas pleinement leur chatbot à ce qu’ils projettent de leur propre humanité en eux. Les recherches dans le domaine de l’attachement en fournissent peut-être l’explication.

Elles indiquent en effet que les relations avec un premier pourvoyeur de soins, donne les moyens à celui qui s’attache, de pouvoir faire ultérieurement la différence entre ses congénères et les autres. C’est probablement la raison pour laquelle les répondants montrent qu’ils pourraient être en mesure de s’attacher à un chatbot qui leur fait la conversation sans pour autant le considérer comme un de leurs semblables : la conscience d’un différentiel de génération et d’existence entre l’humain et la machine – différentiel dit ontologique – limiterait ainsi voire interdirait toute identification projective.

Un tel « rempart naturel », face à l’ambition persuasive de la captologie pour laquelle la fin peut parfois justifier les moyens, pourrait rendre les utilisateurs beaucoup moins influençables voire moins dupes que ne l’envisagent les professionnels du marketing et du design conversationnel : ils jouent le jeu probablement en conscience.

Reste cette question : que faire pour protéger les plus fragiles et les plus influençables d’entre nous qui pourraient se prendre à un tel jeu et courir le risque de s’y perdre ?

Pour aller plus loin : « L’anthropomorphisme, enjeu de performance pour les chatbots », du même auteur.

Permalink
July 8, 2023 at 10:37:27 AM GMT+2

« La France est l’un des pays les plus envoûtés par le mysticisme (...) - CQFD, mensuel de critique et d'expérimentation socialeshttp://cqfd-journal.org/La-France-est-l-un-des-pays-les

  • global spying
  • Spying
  • Police State
  • Politics
  • global spying
  • Spying
  • Police State
  • Politics

« La France est l’un des pays les plus envoûtés par le mysticisme technosécuritaire »

Entretien avec Olivier Tesquet

Activation des objets connectés à distance, surveillance des journalistes, expérimentation de la reconnaissance faciale… Depuis quelques mois, les projets de lois liberticides se multiplient. Et même si tous n’aboutissent pas, le discours technosécuritaire est de plus en plus hégémonique. Entretien.

Début juin, le Sénat adoptait l’article 3 de la loi Justice, qui prévoit la possibilité d’activer à distance des objets connectés (téléphone, ordinateur…) pour récupérer des informations dans le cadre d’enquêtes1. Dans la foulée, il tentait de repêcher des dispositions sécuritaires écartées de la loi JO 20242 en validant, le 12 juin, l’expérimentation sur trois ans de la reconnaissance faciale en temps réel dans l’espace public. Au niveau européen, le Media Freedom Act, officiellement en faveur de la liberté de la presse, permettra de piéger les téléphones des journalistes au moyen de logiciels espions afin de les surveiller3. On fait le point avec Olivier Tesquet, journaliste à Télérama spécialisé dans les technologies numériques et la surveillance, auteur de plusieurs ouvrages sur le sujet4.

On pensait avoir échappé à la reconnaissance faciale, écartée de la loi JO 2024. Elle revient par une autre porte ?

« Dans le cadre de la loi JO 2024, la ligne rouge concernant la reconnaissance faciale s’était révélée plus difficile à franchir que prévu pour le gouvernement. En adoptant cette proposition de loi visant à créer un cadre d’expérimentation pour la reconnaissance faciale, le Sénat prépare le terrain en fabriquant de l’acceptabilité. Et même si cette proposition de loi a peu de chance d’être votée par l’Assemblée, c’est un calcul stratégique : on banalise les discours, les arguments et les technologies en question, on fabrique du consentement et l’on prépare les esprits au déploiement de ces technologies comme s’il était inéluctable.

« Quand les technologies sont sorties de la boîte, c’est extrêmement difficile de les y remettre »

C’était la même histoire avec l’usage des drones dans le cadre du maintien de l’ordre. L’ancien préfet de police Didier Lallement les utilisait sur le terrain, le Conseil d’État a d’abord dit “non”, suivi par le Conseil constitutionnel qui a censuré ces dispositions dans la loi Sécurité globale. Mais ils ont finalement réussi à en légaliser l’usage par le biais d’un autre véhicule législatif, la loi sur la responsabilité pénale. Il y a un “effet cliquet” : quand les technologies sont sorties de la boîte, c’est extrêmement difficile de les y remettre. »

Les arguments semblent toujours les mêmes : la lutte antiterroriste, et la nécessité d’encadrer des technologies « déjà-là ».

« Ce sont deux éléments assez stables de l’obsession technosécuritaire : la légalisation a posteriori, où on légifère à l’envers afin d’autoriser des technologies déjà en usage ; et la lutte contre le terrorisme. Ce sont deux arguments-massues auxquels il est très difficile de s’opposer, et qui sont utilisés quasi systématiquement lorsqu’il s’agit du déploiement de technologies sécuritaires, alors même que rien ne prouve qu’elles soient efficaces par rapport à leurs objectifs.

« On prépare les esprits au déploiement de ces technologies comme s’il était inéluctable »

Ce qui est encore plus curieux, c’est que moins une technologie fonctionne, plus on va tenter de la perfectionner et plus on va la déployer dans des versions encore plus intrusives : on impose la vidéosurveillance partout et, face aux doutes et critiques, on passe à la vidéosurveillance algorithmique puis à la reconnaissance faciale, sans savoir si elles sont efficaces. On est sortis du domaine de la rationalité scientifique pour rentrer dans celui de l’irrationalité quasi religieuse. »

À qui profite cette croyance dans le pouvoir magique de la technologie ?

« Elle profite évidemment aux industriels qui fabriquent ces technologies, qui en tirent d’importants bénéfices5. Ensuite, pour les politiques, le discours sécuritaire est devenu un rituel d’accession au pouvoir, un élément stable de leurs programmes, car c’est un discours rémunérateur. L’actuel maire de Nice, Christian Estrosi, en est un exemple chimiquement pur : il a fait campagne sur la sécurité, a fait de Nice une ville pionnière dans la vidéosurveillance, et entretient ce discours comme une forme de rente lui garantissant une longévité politique. C’est le genre de programme qui permet de prétendre agir, avec des installations visibles et valorisables, et qu’importe si la technologie n’a pas fait la preuve de son efficacité, voire a fait la démonstration de son inefficacité. »

Dans l’émission *C Ce soir* à laquelle tu as participé, la spécialiste des enjeux géopolitiques des technologies Asma Mallah expliquait qu’on est passé d’un droit à la sûreté à un droit à la sécurité6. Quelle est la différence ?

« La Déclaration des droits de l’homme et du citoyen de 1789 affirme le droit à la sûreté, c’est-à-dire le droit d’être protégé contre l’arbitraire de l’État. Depuis une quarantaine d’années, celui-ci a été travesti par les gouvernements successifs, droite et gauche confondues, en “droit à la sécurité”, qui est la possibilité pour l’État de violer de manière arbitraire les libertés des citoyens. »

Dans les considérants de la dissolution des Soulèvements de la Terre, on retrouve notamment pour argument le fait de laisser son téléphone mobile chez soi ou de le mettre en « mode avion » afin d’éviter le bornage. Est-il devenu interdit de se protéger ?

« C’est un exemple supplémentaire de la manière dont l’État utilise la notion floue de terrorisme à des fins politiques ; ici, la répression contre les mouvements écologistes qui, même si elle n’est pas nouvelle (rappelons-nous la débauche de moyens technologiques pour pas grand-chose à Bure), s’aggrave. On va vers une criminalisation de la furtivité : l’utilisation de certains outils, comme Tails ou une messagerie chiffrée, est considérée comme suspecte. C’est comme quand, en manifestation, apporter du sérum physiologique ou se protéger physiquement deviennent des éléments incriminants. D’un côté, le pouvoir se raidit, devient de plus en plus violent, se dote d’outils de plus en plus intrusifs ; de l’autre, on dénie aux citoyens la possibilité de se protéger contre l’arbitraire de ce pouvoir. »

Au niveau européen, le contrôle technologique des frontières semble faire exception à toute réglementation…

« Historiquement, les stratégies de surveillance de la police, même avant l’irruption de la technologie, ont toujours ciblé les catégories de population considérées comme “dangereuses” : les pauvres, les nomades, les ouvriers, les vagabonds… et aujourd’hui, les personnes exilées. Et l’Union européenne se comporte comme un laboratoire de recherche et de développement technosécuritaire, qui installe et teste littéralement in vivo ces dispositifs7 sur des personnes auxquelles on dénie déjà un certain nombre de droits fondamentaux. L’AI Act (règlement sur l’intelligence artificielle) en est un bon exemple. Adopté par le Parlement européen mi-juin afin de réglementer les systèmes de surveillance algorithmique, notamment en les classant en fonction des “risques” qu’ils posent, il renonce à agir sur les technologies sécuritaires déjà utilisées aux frontières.8 »

Mis bout à bout, tout cela dessine un contexte inquiétant. C’est comme si rien ne pouvait contrer la logique technosécuritaire à l’œuvre.

« En 2008, des personnalités de tous bords politiques s’étaient indignées du projet Edvige, qui visait à ficher les opinions politiques, syndicales et religieuses des Français à partir de l’âge de 13 ans. Aujourd’hui, même si certains tirent la sonnette d’alarme9, plus grand monde ne prend position. La digue est en train de céder, et la France fait partie des pays les plus envoûtés par cette espèce de mysticisme technosécuritaire, comme le chef de file de cette course en avant. C’est pour cela qu’il faut poser collectivement des diagnostics et imposer un débat politique – et non technique – sur ce sujet. Il faut s’organiser, faire du bruit et, comme disait Günther Anders, inquiéter son voisin comme soi-même. »


1 Le projet de loi d'orientation et de programmation de la justice (LOPJ), actuellement en discussion à l'Assemblée, prévoit notamment l'activation à distance des caméras, des micros et de la géolocalisation d'objets connectés, pour toute personne impliquée dans un crime ou délit puni d'au moins 10 ans de prison.

2 Voir « Olympiades du cyberflicage », CQFD n° 218 (mars 2023).

3 . Voir l'article d'Olivier Tesquet « L'espionnage des journalistes bientôt autorisé par une loi européenne ? », Télérama (21/06/2023).

4 Notamment À la trace (2020) et État d'urgence technologique (2021), aux éditions Premier Parallèle.

5 Voir l'article « Vidéosurveillance biométrique : derrière l'adoption du texte, la victoire d'un lobby », site La Quadrature du Net (05/04/2023).

6 . « I.A. : vers une société de surveillance ? », C Ce soir (France 5, 15/06/23).

7 Citons ItFlows (prédiction des flux migratoires) et iBorderCtrl (reconnaissance des émotions humaines lors des contrôles).

8 « “AI Act” : comment l'UE investit déjà dans des intelligences artificielles à “haut risque” pour contrôler ses frontières », Le Monde (22/06/2023).

9 Dans son rapport annuel publié mi-juin, la Commission nationale de contrôle des techniques de renseignement (CNCTR) s'inquiète des progrès de l'espionnage des milieux politiques et syndicaux. Voir l'article « Les services de renseignement s'intéressent de plus en plus aux militants », Politis (16/06/2023).

Permalink
July 8, 2023 at 10:36:07 AM GMT+2

Prompt Armageddon : le troisième récit. – affordance.infohttps://affordance.framasoft.org/2023/06/prompt-armaggedon-le-troisieme-recit/

  • Artificial intelligence
  • Fakeness
  • Datafication
  • Social Network
  • Societal Collapse
  • Artificial intelligence
  • Fakeness
  • Datafication
  • Social Network
  • Societal Collapse

Prompt Armageddon : le troisième récit.

Olivier Ertzscheid 20 juin 2023

En 2010 The Economist faisait sa Une autour du concept de “Data Deluge”. Jamais en 13 ans le déluge ne cessa. Il irrigua chaque pan de nos vies, se déclina dans une ininterrompue litanie d’applications et de métriques, alimenta l’ensemble des politiques publiques, constitua la part émergée de certaines au travers de l’Open Data, fit le lit de tous les cauchemars de surveillance, constitua l’unique et inique horizon de tant de rêves de maîtrise et d’anticipation.

Tout fut “Data” : Data-journalisme, Data-visualisation, Data-gouvernance … Tant de données qui ne sont qu’autant “d’obtenues” comme l’expliquait Bruno Latour, expliquant aussi pourquoi refusant de voir qu’elles n’étaient que cela, nous en avons été si peu capables d’en obtenir autre chose que quelques oracles pour d’improbables ou opportuns cénacles.

Tant de données mais si peu de possibilités de les manipuler au sens étymologique du terme. Il leur manquait en vrai une interface à façon. Cette interface que ChatGPT a révélé en grand et en public, et donc au “grand public”. La plus simple parce que paradoxalement la plus insondablement complexe en termes de combinatoire pour elle qui n’est qu’une prédictibilité statistique. Rivés à l’affichage écran des scripts que renvoie ChatGPT comme devant un bandit manchot de casino, nous nourrissons la croyance probabiliste que quelque chose de vrai, de réfléchi ou de sincère puisse s’exprimer. Et nous voyons la langue s’agencer devant nous. Le plus souvent pour ne rien dire, mais en le disant bien. Le plus souvent pour ne faire que réécrire ce qui est lu ailleurs en le réagençant à peine, mais en l’agençant bien et sans jamais nous citer ces ailleurs où la combinatoire s’abreuve.

L’interface de la langue, du prompt, du script existait déjà dans les moteurs de recherche au travers des requêtes, y compris vocales. Mais elle ne construisait pas un écho de dialogue. Elle était un puits plutôt qu’un miroir. Et surtout, elle ne le faisait pas sous nos yeux. Nous étions comme en voiture appuyant sur l’accélérateur et constatant l’augmentation de vitesse ; avec ChatGPT (et consorts) nous sommes au coeur du moteur, nous observons l’accélération en même temps que nous la ressentons et gardons l’impression d’un sentiment de commande et de contrôle.

L’apparence d’un miracle ludique et païen, voilà ce que sont ces interfaces langagières et ces artefacts génératifs. Qui se conjuguant demain aux autres interfaces thaumaturges qui mobilisent et équipent à la fois nos regards et nos gestes en plus de notre langue, nous donneront une puissance dont l’illusion n’aura jamais été aussi forte et claire, et l’emprise sur le monde aussi faible et déréalisante.

Data Storytelling et Prompt Clash.

A l’image de ce qui se produisit dans la sphère politique depuis le tout début des années 2010 – Barack Obama est élu pour la 1ère fois en 2008 -, avec le passage d’une ère du storytelling (basé entre autres sur de l’analyse de données) à une ère du clash (reposant sur une maîtrise rhétorique des discours médiatiques), c’est désormais l’ensemble de l’écosystème des discours médiatiques mais aussi d’une partie de plus en plus significative de nos interactions sociales avec l’information qui nous mène d’une société de la “data” à une société du “prompt” et du “script”. Une ère post-moderne puisqu’au commencement était la ligne de commande et que désormais nous commandons en ligne, des pizzas comme des dialogues et des interactions sociales.

Le Data-Deluge était à la fois un concept écran et un concept mobilisateur. Qui nous installait dans une posture de négociation impossible : puisque les données étaient partout, en tout cas supposément, alors il fallait accepter qu’elles gouvernent nos vies et la décision politique dans l’ensemble de ses servitudes économiques.

Après moi le déluge. Et après le déluge ?

Résumons : avant les “Data” il y avait le “moi”, qui préparait leur avènement. Un web dont le centre de gravité ne fut plus celui des documents mais des profils, dans lequel l’être humain était un document comme les autres, un web “social par défaut”, où l’egotrip devînt une puissance bien avant que le capitalisme charismatique des influenceurs et influenceuses ne devienne une catharsis de batteleurs publicitaires. Le moi puis la Data. Après moi le déluge.

Puis après le data-deluge, vînt l’infocalypse. L’apocalypse du faux. Infocalypse Now.

Et désormais partout des “prompts” et des “scripts” (pour ChatGPT ou pour d’autres) qui nourrissent les machines autant qu’ils épuisent le langage. Que nous disent ces passages de saturation médiatique et informationnelle des discours autour de la “Data”, puis de “l’infocalypse” puis du “prompt” mais aussi des divers “Métavers” ?

Prompt Armaggedon.

Dans mon article précédent au sujet du casque “Apple Vision Pro” j’expliquais que par-delà les avancées technologiques il s’agissait avant tout de fournir une fonction support à un monde devenu littéralement insupportable.

Grégory Chatonsky formule l’hypothèse selon laquelle “L’IA a permis à la Silicon Valley de se relancer politiquement. Dans un contexte d’extinction planétaire, les technologies apparaissaient de plus en plus problématiques. Il lui a suffit de métaboliser l’extinction dans l’IA elle-même, en prétendant que cette technologie constituait le plus grande danger, pour continuer coûte que coûte sa production idéologique.”

Les technologies liées ou associées à diverses formes “d’intelligence artificielle” nous promettent un méta-contrôle de mondes qui ne sont ni le monde, ni notre monde. Elles poussent le curseur jusqu’à l’acceptation de l’idée que ce méta-contrôle nous dispense de notre puissance d’agir sur le réel sans entraîner de culpabilité mortifère puisqu’il s’agirait de s’inscrire dans une sorte d’élan vital technologique (bisous #Vivatech)).

On a souvent expliqué que deux grands récits technologiques s’affrontaient : celui d’une émancipation par la technique d’une part (le solutionnisme technologique), et celui d’un Armaggedon de robots ou d’IA tueuses d’autre part (en gros hein). Et que ces récits étaient exclusifs l’un de l’autre. Il est d’ailleurs intéressant de voir dans ce cadre l’émergence programmatique de figures troubles comme celle d’Elon Musk, qui sont des go-between capables d’affirmer tout à la fois que l’IA est la plus grande menace pour l’humanité et d’en faire le coeur du développement technologique de ses diverses sociétés et produits.

Il semble aujourd’hui que ces récits non seulement s’entrecroisent mais qu’ils sont plus fondamentalement et politiquement au service d’un troisième récit. Ce troisième récit est celui d’un retrait du monde. Pour le dire trivialement, puisqu’il est une hypothèse que la technique nous sauve, puisqu’une autre veut qu’elle nous condamne, et puisqu’il semble qu’il n’y ait à l’avance aucun scénario fiable d’équilibre dans les décisions à prendre, alors chaque développement technologique indépendamment de sa nature de “pharmakon” (il est à la fois remède et poison) comporte, affiche, vend et décline en lui la possibilité d’un retrait du monde qui travaille son acceptabilité au travers de promesses de puissance singulières. Le Métavers, les casques de réalité virtuelle ou augmentée, mais aussi ces LLM (Large Language Models) sont autant de ces promesses de puissances singulières. Or plus les Big Tech nous fournissent des environnements et des interfaces thaumaturges, et plus ils travaillent à nous installer dans une forme de déprise. Plus nous “commandons” de choses et de réalités alternatives, virtuelles ou mixtes, plus ces commandes passent par chacun de nos sens (toucher, vue, voix), plus les recherches avancent pour faire encore reculer cette dernière interface possible que constitue notre cerveau ou les ondes cérébrales, et moins nous sommes en prise sur le réel.

Le premier grand récit des technologies numériques consiste à prôner un solutionnisme suprémaciste, qui écrase tout horizon de contestation ou de débat soit au motif d’une vision fantasmée d’un “progrès” oublieux de ses externalités négatives, soit (le plus souvent) pour des raisons purement économiques de maintien d’effets de rente qui relèguent toute considération éthique à la dimension d’un essai clinique piloté par Didier Raoult.

Le second grand récit des technologies numériques est un renouvellement du Luddisme mâtiné de récits d’un effondrement dans lequel chaque pan de technologie n’aurait, là aussi de manière essentiellement caricaturale, que vocation à se retourner contre tout ou partie de l’humanité ou, de manière plus vraisemblable, la condamnerait à surexploiter le même cycle qui conduit déjà au dépassement des limites planétaires.

Le troisième grand récit des technologies numériques est un méta-récit. Une sorte de théorie des cordes (version Wish), dans laquelle le rapport de puissance s’inverse. Après un temps où les technologies numériques devaient permettre d’alléger notre cadre et nos tâches cognitives en s’y substituant (externalités mémorielles) ; après un temps où beaucoup d’entre nous parmi les plus pauvres, les plus fragiles, les moins qualifiés finirent par devenir les supplétifs à bas coût de technologies initialement présentées comme capables de les émanciper et qui ne firent que les aliéner (en gros le Digital Labor) ; nous voilà désormais dans un système capitalistique à l’équilibre mortifère où l’invisibilisation des processus extractifs, tant sur le plan des données que sur celui des sujets, est à son apogée. Il s’agit pour lui maintenant de décliner son extractivisme à l’ensemble des réalités alternatives existantes et accessibles (augmentée, virtuelle, mixte) en nous mettant en situation de pouvoir épuiser jusqu’à la langue elle-même au travers de prompts qui tendent à fabriquer une inépuisable fatrasie de textes dont la seule vocation n’est plus que de nourrir les générateurs qui permettent d’en produire de nouveaux. Jusqu’à épuisement. Ces réalités, augmentées, virtuelles et mixtes, sont tout autant fossiles que les énergies du monde qui s’épuise. Peut-être le sont-elles même encore davantage.

One More Thing : Interfaces Humains Informations.

Les IHM, “interfaces homme-machine” constituent un champ de recherche à part entière, qui mobilise des notions venant aussi bien de l’ergonomie, du design, de l’informatique, ou de la psychologie. Il nous faut réfléchir à la constitution d’un champ de savoir autour de ce que l’on pourrait appeler les IHI, l’analyse des interfaces (sociales, techniques, cognitives) entre l’humain (multi-appareillé ou non) et l’Information (dans sa diffusion, ses relais et sa compréhension). Un champ dans lequel les “sciences de l’information et de la communication” ont toute leur place mais ne sont pas seules légitimes. Les nouvelles “humanités numériques” sont avant tout informationnelles et culturelles.

Constamment le numérique oblitère des espaces de négociation et de recours. Les lois les plus structurantes mises en oeuvre ne sont pas celles qui tendent à le réguler mais celles qui le légitiment comme instance de contrôle. Les déploiements les plus structurants qui sont portés par la puissance publique ne visent pas pas rapprocher et à faciliter mais à éloigner et à suspecter. Le numérique dans son agrégation mortifère autour d’intérêts privés et d’architectures techniques toxiques à échoué à devenir une diplomatie de l’intérêt commun.

Et si la diplomatie est une théorie des relations entre les États, alors il faut que le champ des IHI, des “interfaces humain information”, devienne une diplomatie qui soit une théorie des relations entre les états de l’information et de sa circulation dans le champ social comme dans celui de la perception individuelle.

Permalink
July 4, 2023 at 10:37:26 PM GMT+2

Les adresses Telegram bloquées en France par erreurhttps://www.lemonde.fr/pixels/article/2023/05/13/les-adresses-telegram-bloquees-en-france-par-erreur_6173242_4408996.html

  • Censorship
  • Police State
  • Politics
  • Censorship
  • Police State
  • Politics

Les adresses Telegram bloquées en France par erreur

La police a reconnu une « erreur humaine » ayant mené au blocage, pendant plusieurs heures, des adresses menant à la messagerie Telegram. Un couac, alors que le gouvernement entend étendre la possibilité de bloquer les sites Web grâce à un nouveau projet de loi.

Par Martin Untersinger et Florian Reynaud Publié le 13 mai 2023 à 13h46, modifié le 13 mai 2023 à 20h05

C’est un sacré couac : alors que le gouvernement a présenté cette semaine un projet de loi prévoyant la possibilité de bloquer massivement des sites, les adresses « t.me » (qui appartiennent à la messagerie Telegram), ont été inaccessibles pendant plusieurs heures, samedi 13 mai au matin, depuis la plupart des fournisseurs d’accès à Internet (FAI) français en raison d’une erreur de la police.

En milieu de journée, la situation semblait revenir à la normale. Le fonctionnement général de l’application, lui, n’a pas été affecté et il restait possible d’envoyer et de recevoir des messages normalement.

Les URL en « t.me » sont utilisées pour renvoyer vers un compte, une chaîne ou un contenu spécifique à l’intérieur d’une chaîne au sein de Telegram, réseau social utilisé par 700 millions de personnes dans le monde. Les saisir dans un navigateur Web sur ordinateur ou smartphone permet d’ouvrir le contenu Telegram concerné.

Selon les informations du Monde, c’est la police qui a transmis aux FAI français une demande de blocage. Cette dernière, par l’intermédiaire de sa cellule Pharos, peut, en effet, demander aux FAI de bloquer certains sites, notamment pédopornographiques, et de rediriger les internautes voulant s’y connecter vers une page d’information du ministère de l’intérieur.

Bourde

Sauf que le blocage demandé ici s’est appliqué à l’intégralité des adresses « t.me » et concernait donc l’ensemble des liens vers le réseau social Telegram, y compris tous ceux qui n’ont rien à voir avec des contenus pédopornographiques. Certains utilisateurs voulant utiliser une URL « t.me » samedi matin étaient ainsi dirigés vers la page du ministère censée s’afficher en cas de tentative d’accès à un contenu pédocriminel bloqué. D’autres voyaient leur requête ne jamais aboutir.

Sollicitée, la police confirme avoir voulu bloquer des sites pédopornographiques relayés dans des messages sur le réseau social Telegram. Après avoir enjoint l’hébergeur des sites de retirer les contenus, ce qu’il n’a pas fait entièrement, la police a, comme le prévoient les textes, voulu procéder au blocage. Mais une « erreur individuelle a conduit à une demande de blocage plus large que nécessaire », qui a touché Telegram, fait savoir au Monde un porte-parole de la police nationale. La police a ensuite contacté les FAI pour faire lever le blocage.

Une bourde qui fait tache, alors que le projet de loi pour sécuriser l’espace numérique, présenté cette semaine par le secrétaire d’Etat au numérique, Jean-Noël Barrot, contient justement plusieurs dispositions visant à étendre ce mécanisme.

Le gouvernement espère ainsi qu’il puisse s’appliquer aux sites pornographiques ne vérifiant pas suffisamment l’âge de leurs visiteurs, aux sites permettant de réaliser des arnaques et à ceux diffusant des médias soumis à des mesures d’interdiction d’émettre.

La police dispose depuis 2014 du pouvoir de bloquer des sites Web pour des faits de pédopornographie et d’apologie du terrorisme. Elle doit d’abord faire parvenir une demande de suppression du contenu à l’éditeur du site. S’il ne donne pas suite, la police peut alors ordonner le blocage aux FAI. En 2022, la police avait demandé le blocage de 381 sites à caractère pédopornographique.

Martin Untersinger et Florian Reynaud

Permalink
July 4, 2023 at 10:23:07 PM GMT+2

Blog Stéphane Bortzmeyer: À propos du « blocage de Telegram en France »https://www.bortzmeyer.org/blocage-telegram-france.html

  • Police State
  • Big Tech
  • Politics
  • Censorship
  • Police State
  • Big Tech
  • Politics
  • Censorship

À propos du « blocage de Telegram en France »

Première rédaction de cet article le 13 mai 2023

Ce matin, bien des gens signalent un « blocage de Telegram en France ». Qu'en est-il ? Ce service de communication est-il vraiment censuré ?

En effet, la censure ne fait aucun doute. Si on teste avec les sondes RIPE Atlas, on voit (t.me est le raccourcisseur d'URL de Telegram) :

% blaeu-resolve --country FR --requested 200 --type A t.me
[149.154.167.99] : 98 occurrences 
[77.159.252.152] : 100 occurrences 
[0.0.0.0] : 2 occurrences 
Test #53643562 done at 2023-05-13T08:42:36Z

Un coup de whois nous montre que la première adresse IP, 149.154.167.99, est bien attribuée à Telegram (« Nikolai Durov, P.O. Box 146, Road Town, Tortola, British Virgin Islands ») mais que la seconde, 77.159.252.152, est chez SFR. Non seulement Telegram n'a pas de serveurs chez SFR, mais si on se connecte au site Web ayant cette adresse, on voit :

Cela ne marche pas en HTTPS (de toute façon, il y aurait eu un problème de certificat) car le serveur en question n'écoute apparemment qu'en HTTP classique.

Ce site Web est donc géré par le ministère de l'Intérieur, qui peut en effet enjoindre certains FAI de bloquer les sites pédopornographiques (depuis plusieurs années, rien de nouveau). Ici, il s'agit évidemment d'un mensonge grossier puisque Telegram n'est pas un site pédopornographique, mais un service de messagerie instantanée (qui, comme tout service de communication en ligne, peut parfois être utilisé pour des activités illégales).

La technique de censure est le résolveur DNS menteur : au lieu de relayer fidèlement les réponses des serveurs DNS faisant autorité, le résolveur ment et envoie l'adresse du serveur Web du ministère. Pourquoi est-ce que toutes les sondes RIPE Atlas ne voient pas le mensonge ? Parce que la liste des sites censurés est secrète, et que beaucoup de FAI, de réseaux locaux, de résolveurs DNS publics (comme celui de FDN mais attention, certains ont des défauts) ne reçoivent pas cette liste et ne censurent donc pas. Parmi ceux qui mettent en œuvre le blocage, il y a par exemple Orange (AS 3215) :

% blaeu-resolve  --requested 200 --as 3215 --type A t.me 
[149.154.167.99] : 35 occurrences 
[77.159.252.152] : 151 occurrences 
Test #53644573 done at 2023-05-13T09:04:06Z    

Même chez ce FAI, on notera que certaines sondes utilisent un résolveur non-menteur, par exemple un résolveur local. On trouve aussi le blocage chez des fournisseurs plus petits comme Adista :

% blaeu-resolve  --requested 200 --as 16347  --type A t.me
[149.154.167.99] : 3 occurrences 
[77.159.252.152] : 1 occurrences 
Test #53644745 done at 2023-05-13T09:08:42Z

Pourquoi ce blocage alors que, on l'a vu, Telegram n'est pas, contrairement à l'accusation diffamatoire du ministère, un service de distribution d'images pédopornographiques ? Notons d'abord que le domaine principal, vers lequel redirige https://t.me/ n'est pas touché :

% blaeu-resolve --country FR --requested 200 --type A telegram.org
[149.154.167.99] : 197 occurrences 
[0.0.0.0] : 2 occurrences 
Test #53644470 done at 2023-05-13T09:02:00Z

Il s'agit d'une bavure, comme ça s'est déjà produit, et comme confirmé par « un porte-parole de la police nationale » cité par Le Monde. Gageons que le ministère ou les FAI ne communiqueront jamais et n'expliqueront rien.

Le service a été rétabli quelques heures après :

% blaeu-resolve --country FR --requested 200 --type A t.me
[149.154.167.99] : 199 occurrences 
[ERROR: SERVFAIL] : 1 occurrences 
Test #53674858 done at 2023-05-13T20:18:14Z

Un point important est la gestion des données personnelles. Le code de la page du site Web du ministère contient :

<script type="text/javascript">

    var tag = new ATInternet.Tracker.Tag();

tag.page.set({
        name:'pedo-pornographie',
        level2:'27'
    });
    tag.dispatch();

</script>

Ce petit programme en JavaScript enregistre donc les visites, auprès du service « ATInternet », en étiquetant tout visiteur, pourtant bien involontaire, comme pédo-pornographe. (Ceci, en plus de l'enregistrement habituel de l'adresse IP du visiteur dans le journal du serveur HTTP.)

Un petit point technique amusant pour finir : le serveur du ministère (celui hébergé chez SFR) n'a pas IPv6 (on est en 2023, pourtant) donc les résolveurs menteurs ne savent pas trop quoi renvoyer :

% blaeu-resolve --country FR --requested 200 --type AAAA t.me       
[2001:67c:4e8:f004::9] : 104 occurrences 
[::1] : 78 occurrences 
[] : 16 occurrences 
[::] : 1 occurrences 
[ERROR: SERVFAIL] : 1 occurrences 
Test #53646044 done at 2023-05-13T09:34:15Z 

(2001:67c:4e8:f004::9 est la vraie adresse IP de Telegram, ::1 est l'adresse de la machine locale.)

Articles dans les médias :    
  • Article du Monde (derrière un cookie wall),
  • Article de BFM TV,
  • Article de NextInpact.
Permalink
July 4, 2023 at 10:18:30 PM GMT+2

GPT-4 is great at infuriating telemarketing scammers • The Registerhttps://www.theregister.com/2023/07/03/jolly_roger_telephone_company/

  • Attention Economy
  • Economy and markets
  • Artificial intelligence
  • Ads Madness
  • Attention Economy
  • Economy and markets
  • Artificial intelligence
  • Ads Madness

California man's business is frustrating telemarketing scammers with chatbots

Will you choose Salty Sally or Whitey Whitebeard? It doesn't matter; they're both intolerable

Richard Currie Mon 3 Jul 2023 16:23 UTC

Every week there seems to be another cynical implementation of AI that devalues the human experience so it is with a breath of fresh air that we report on a bedroom venture that uses GPT-4 technology to frustrate telemarketers.

"Fight back against annoying telemarketers and evil scammers!" the Jolly Roger Telephone Company rails on its website. "Our robots talk to telemarketers so humans don't have to!"

While no one can put a price on slamming the phone down on a call center worker, some among us might get a perverse joy out of listening to them squirm under the non sequiturs of AI. And it seems to be working for Jolly Roger, which has thousands of customers subscribed for $23.80 a year.

The company has a number of bots at its disposal all with unique voices and quirks that makes them utterly infuriating to speak to from the original Jolly Roger, based on the voice of Californian founder Roger Anderson, to distracted mother Salty Sally, who keeps wanting to talk about a talent show she won, to feisty senior citizen Whitey Whitebeard and more. Samples of toe-curling conversations are all over Jolly Roger's website.

"Oh jeez, hang on, there's a bee on me, hang on," Jolly Roger tells one scammer. "There's a bee on my arm. OK, you know what? You keep talking, I'm not gonna talk, though. You keep talking, say that part again, and I'm just gonna stay quiet because of the bee."

Sprinkle in gratuitous salvos of "Suuuure" and "Mhm" and "Sorry, I was having trouble concentrating because you're EXACTLY like somebody I went to high school with so, sorry, say that part again." Five minutes later you have a cold caller pulling their hair out and hanging up.

Customers provide the phone numbers they want to protect and the subscription activates immediately. Users login to the website where they can set up whichever bot or bots they want to employ. Then, when a telemarketer calls, the user is able to merge the call with a specified or random bot. The customer can then listen to the fruits of their labor in Jolly Roger's "Pirate Porthole."

YouTubers like Kitboga have made a name for themselves by infuriating and hacking computer-based scammers in real time while they try to swindle him over the telephone, but now regular folk can do similar without having to lift a finger.

At a time when AI grifters are trying to convince the gullible to flood the ebook market with ChatGPT-generated joke books, it is heartening to see something related that is both funny and actually effective.

Permalink
July 4, 2023 at 10:04:36 PM GMT+2

Veesion, la start-up illégale qui surveille les supermarchés  – La Quadrature du Nethttps://www.laquadrature.net/2023/07/04/veesion-la-start-up-illegale-qui-surveille-les-supermarches/

  • Spying
  • global spying
  • Big Tech
  • Mass Consumption
  • Economy and markets
  • Spying
  • global spying
  • Big Tech
  • Mass Consumption
  • Economy and markets

Veesion, la start-up illégale qui surveille les supermarchés

Posted on4 juillet 2023

Nous en parlions déjà il y a deux ans : au-delà de la surveillance de nos rues, la surveillance biométrique se déploie aussi dans nos supermarchés pour tenter de détecter les vols en rayons des magasins. À la tête de ce business, la start-up française Veesion dont tout le monde, même le gouvernement, s’accorde sur l’illégalité du logiciel mais qui continue à récolter des fonds et des clients en profitant de la détresse sociale

La surveillance biométrique de l’espace public ne cesse de s’accroître. Dernier exemple en date : la loi sur les Jeux Olympiques de 2024 qui vient légaliser officiellement la surveillance algorithmique dans l’espace public pour certains événements sportifs, récréatifs et culturels (on en parlait ici). En parallèle, des start-up cherchent à se faire de l’argent sur la surveillance d’autres espaces, notamment les supermarchés. L’idée est la suivante : utiliser des algorithmiques de surveillance biométrique sur les caméras déjà déployées pour détecter des vols dans les grandes surfaces et alerter directement les agents de sécurité.

L’une des entreprises les plus en vue sur le sujet, c’est Veesion, une start-up française dont on parlait déjà il y a deux ans (ici) et qui vient de faire l’objet d’un article de Streetpress. L’article vient rappeler ce que LQDN dénonce depuis plusieurs années : le logiciel déjà déployé dans des centaines de magasins est illégal, non seulement selon l’avis de la CNIL, mais aussi, selon nos informations, pour le gouvernement.

Le business illégal de la détresse sociale

Nous avions déjà souligné plusieurs aspects hautement problématiques de l’entreprise. En premier lieu, un billet publié par son créateur, soulignant que la crise économique créée par la pandémie allait provoquer une augmentation des vols, ce qui rendait nécessaire pour les magasins de s’équiper de son logiciel. Ce billet avait été retiré aussitôt notre premier article publié.

D’autres déclarations de Veesion continuent pourtant de soutenir cette idée. Ici, c’est pour rappeler que l’inflation des prix, en particulier sur les prix des aliments, alimenteraient le vol à l’étalage, ce qui rend encore une fois nécessaire l’achat de son logiciel de surveillance. Un business s’affichant donc sans gêne comme fondé sur la détresse sociale.

Au-delà du discours marketing sordide, le dispositif est clairement illégal. Il s’agit bien ici de données biométriques, c’est-à-dire de données personnelles relatives notamment à des caractéristiques « physiques ou « comportementales » (au sens de l’article 4, par. 14 du RGPD) traitées pour « identifier une personne physique de manière unique » (ici, repérer une personne en train de voler à cause de gestes « suspects » afin de l’appréhender individuellement, et pour cela analyser le comportement de l’ensemble des client·es d’un magasin).

Un tel traitement est par principe interdit par l’article 9 du RGPD, et légal seulement de manière exceptionnelle et sous conditions strictes. Aucune de ces conditions n’est applicable au dispositif de Veesion.

La Quadrature du Net n’est d’ailleurs pas la seule à souligner l’illégalité du système. La CNIL le redit clairement (à sa façon) dans l’article de Streetpress quand elle souligne que les caméras de Veesion « devraient être encadrées par un texte » . Or ce texte n’existe pas. Elle avait exprimé le même malaise au Monde il y a quelques mois, quand son directeur technique reconnaissait que cette technologie était dans un « flou juridique » .

Veesion est d’ailleurs tout à fait au courant de cette illégalité. Cela ressort explicitement de sa réponse à une consultation de la CNIL obtenu par LQDN où Veesion s’alarme de l’interprétation du RGPD par la CNIL qui pourrait menacer « 500 emplois en France » .

Plus surprenant, le gouvernement a lui aussi reconnu l’illégalité du dispositif. Selon nos informations, dans le cadre d’une réunion avec des professionnels du secteur, une personne représentant le ministère de l’Intérieur a explicitement reconnu que la vidéosurveillance algorithmique dans les supermarchés était interdite.

La Technopolice rapporte toujours autant d’argent

Tout cela ne semble pas gêner l’entreprise. Sur leur site , ils annoncent équiper plus de 2500 commerçants, dans 25 pays. Et selon les informations de Streetpress, les clients en France sont notamment Leclerc, Carrefour, G20, Système U, Biocoop, Kiabi ou encore la Fnac. Des enseignes régulièrement fréquentées donc par plusieurs milliers de personnes chaque jour.

Autre point : les financements affluent. En mars, la start-up a levé plus de 10 millions d’euros auprès de multiples fonds d’investissement. Sur le site Welcome to the Jungle, la start-up annonce plus de 100 salariés et plus de 5 millions de chiffre d’affaires.

La question que cela pose est la même que celle que nous rappelons sur ce type de sujets depuis 3 ans : que fait la CNIL ? Pourquoi n’a-t-elle pas fait la moindre communication explicite sur ce sujet ? Nous avions fait il y a deux ans une demande de documents administratifs à cette dernière, elle nous avait répondu qu’il s’agissait d’un dossier en cours d’analyse et qu’elle ne pouvait donc pas nous transmettre les documents demandés. Rien depuis.

Une telle inaction a des conséquences lourdes : outre la surveillance illégale imposée sur plusieurs milliers de personnes, la CNIL vient ici normaliser le non-respect du RGPD et faciliter la création d’une industrie de la Technopolice en laissant les investissements affluer.

Comment encore considérer la CNIL comme une autorité de « protection » de nos libertés quand la communication qui en émane sur ce sujet est qu’elle veut « fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe » ?

Surveillance illégale, détresse sociale, financement massif… Toutes les Technopolices se ressemblent, qu’elles soient en supermarché ou sur notre espace public. Mais pour une fois que tout le monde est d’accord sur l’illégalité d’une de ses représentantes, espérons que Veesion soit arrêtée au plus vite.

Permalink
July 4, 2023 at 8:02:47 PM GMT+2

faceted. - Reddit: Killing a Giant by Bill | living life in SFhttps://www.faceted.social/p/3169aedd-3f06-4db4-b51c-ed4690e9f5a6

  • Social Network
  • Big Corpo
  • Social Network
  • Big Corpo

Reddit: Killing a Giant

Profile picture. Bill | living life in SF • Jun 16

It's understandable to be defeatist about the recent Reddit protests. The recent subreddit blackouts weren't 100% popular and similar attempts to migrate away from Twitter have hit road bumps. The network effect of giant platforms seem insurmountable, but giants have fallen before and will continue to do so. Having some recent experience in the industry, I wanted to give a fact-based analysis and answer to: how do you kill a giant and what does it look like when it falls?

If you're confused about what's happening on Reddit, check out this link.

To start, I want to talk about "migrations" from platforms, and how they often aren't what they seem. It's easy to think of these giants dying overnight, because to us they essentially do. One day, we visited MySpace or Digg for the last time, and then never looked back. However, the data says otherwise: killing a giant takes time.

In 2010, Digg introduced v4 which completely changed the UI and added a lot of features that users hated. In hindsight, this was the downturn for Digg, but at the time, the story was a bit more complicated.

After the launch of v4, Digg traffic did drop dramatically. However, one year after launch, Digg still had 8.5 million monthly US visitors compared to Reddit's 13.7 million monthly US vistors. According to traffic estimates, Reddit traffic didn't surpass Digg traffic until December 2011 over one year later after v4's launch.

Similarly, Facebook surpassed MySpace in unique visitors from the US in 2009, but MySpace still had 36 million users in 2013. The data says the same thing: giants take time to fall.

At the time, it's very likely that people visited both Reddit and Digg at the same time. At the end of the day, the people that continued to visit Digg did not end up saving Digg. If and when Reddit begins falling, checking it out a few times a day won't save it either.

Also, when Digg's traffic fell, Reddit traffic did not rise the same amount. A lot of people who disliked Digg's change simply moved on altogether, they didn't move to Reddit (it was a bit of a hard sell for some). Ultimately, Reddit didn't succeed Digg by attracting all the old Digg users, but by building their own community with their own users.

So how do you attract your own users? Successful platforms build a beachhead with a niche. Reddit was the underdog focused on tech, and Facebook was the underdog for college students. The competitor needs to be "the" place for some community. A great example of this is Discord, where for certain niches "the" community exists only on Discord.

Eventually, once a large enough network effect is established and Reddit continues to implement habit-breaking changes on their platform, people will start to choose and recommend the alternative option over Reddit. Thus the giant dies.

One corollary to building a niche, is that cargo-culting Reddit will likely not work. That is to say, simply creating the same communities from Reddit in your new alternative and hoping the content creators come is not a winning strategy. Community needs to be grown organically, and simply copying Reddit will not work.

Similarly, I don't think you need to have an exact feature match to kill Reddit. You see this a lot when discussing the Reddit alternatives: "Oh I'd use it if it has a mobile app," "oh I'd use it if it looks more like Reddit." If you have the community people will come, and they will get over the fact that you don't have a mobile app. If you don't have the community, no amount of cool features will get people to come over and stay.

Permalink
July 3, 2023 at 10:47:59 PM GMT+2

Petit traité de contre-intelligence artificielle. Retour sociologique sur des expérimentations numériques | Cairn.infohttps://www.cairn.info/revue-zilsel-2019-1-page-174.htm?ora.z_ref=li-66556458-pub#no14

  • Artificial intelligence
  • Algorithms
  • Artificial intelligence
  • Algorithms

Petit traité de contre-intelligence artificielle. Retour sociologique sur des expérimentations numériques

Par Francis Chateauraynaud Dans Zilsel 2019/1 (N° 5), pages 174 à 195

« L’intelligence artificielle connut un essor sans précédent à la fin des années 5000, au milieu de l’ère dite du Phagitaire. Elle connut son apogée à la fin du 68e siècle, époque où elle régissait la plupart des mondes. Puis apparurent les premiers prophètes du mouvement de Souveraineté humaine, qui partirent en guerre contre son hégémonie. Deux siècles plus tard, lorsque fut votée la loi d’Éthique H.M., on assista à la plus grande destruction de machines que la civilisation ait jamais connue. Certains gouvernements s’en débarrassèrent en les expédiant dans l’espace. À l’époque, les humains étaient loin d’imaginer les funestes conséquences de leurs actes. »

Pierre Bordage, Les guerriers du silence. Tome 2 : Terra Mater (1994).

L’intérêt de la sociologie pragmatique des transformations pour l’intelligence artificielle date de 1987. Plus d’une trentaine d’années nous séparent en effet de la réalisation des premières maquettes de systèmes-experts dédiées à la caractérisation de micro-disputes et préfigurant le logiciel Prospéro. Ce dernier a donné lieu à de multiples usages portant sur des corpus de textes et de discours évolutifs, liés notamment à des affaires et des controverses se déroulant sur un temps long. Au fil de ces recherches socioinformatiques, une autre entité numérique a pris forme. Dénommée Christopher Marlowe, elle relève pleinement de l’intelligence artificielle (IA) puisqu’elle utilise des boucles de raisonnement sur des données ouvertes. Les logiques d’enquête propres aux sciences sociales étant prédominantes dans son fonctionnement, la formule de « contre-intelligence artificielle » s’est imposée afin de distinguer cette approche des modèles cognitivistes ou neuroconnexionnistes qui caractérisent, pour l’essentiel, les travaux en IA [1]

Comme ce genre d’expérience est plutôt rare en sociologie [2][2]Il faut saluer une autre expérience menée à la fin des années…, chacun des surgissements de Marlowe produit toutes sortes de réactions, de l’agacement rationaliste à la saine curiosité intellectuelle, en passant bien sûr par le soupçon de canular. Pourtant, de multiples textes et communications en ont établi les principes de fonctionnement. Sans magie ou tour de passe-passe : Marlowe est avant tout un support d’écriture numérique conçu pour accompagner, à travers des boucles de raisonnement dynamique, la formulation de questions de recherche et d’hypothèses interprétatives à propos de processus complexes, réfractaires aux analyses conventionnelles [3][3]Voir les dossiers complexes étudiés en collaboration avec les…. Comment caractériser le statut épistémique, mais aussi éthique et politique, de cette expérimentation de longue durée, alors même que l’« intelligence artificielle », ici entre guillemets, est désormais constituée comme un problème public [4][4]Les alertes lancées en 2015 sur les dangers de l’IA feront… ? Cet article est ainsi l’occasion d’opérer un retour réflexif sur la genèse d’une expérimentation numérique menée en sociologie tout en portant un regard critique sur ce qui se trame autour des algorithmes et de leur supposée toute puissance.

Des instruments collaboratifs transformés en boîtes noires ?

L’idéal d’ouverture des codes et de développement collaboratif accompagne depuis longtemps les projets informatiques. Mais, il faut le reconnaître, plus on s’éloigne des noyaux de développeurs et d’utilisateurs experts, plus les dispositifs ont de chances de rejoindre la longue série de boîtes noires qui jalonnent l’histoire des technologies. Il est néanmoins décisif de pénétrer dans les codes et de rendre visibles les arrière-cuisines de tout système d’information [5][5]Des pistes très convaincantes sont proposées par Camille…. Pour les lectrices et lecteurs qui ignorent tout ou presque des entités socioinformatiques dont il est question ici, il y a plusieurs possibilités : consulter les contributions de Marlowe (acronyme MRLW) sur le blog qu’il anime quotidiennement de manière autonome et, de là, remonter vers les textes qui en explicitent le fonctionnement [6][6]Le blog de Marlowe est logé sur le site… ; rouvrir une littérature qui date du début des années 2000, aujourd’hui au rayon de la préhistoire des « humanités numériques » [7][7]Francis Chateauraynaud, Prospéro. Une technologie littéraire… ; enfin, se laisser prendre par l’exercice de re-problématisation visé par le présent article, puis venir expérimenter, débattre ou collaborer avec le noyau des développeurs-utilisateurs des logiciels.

Quand une expérimentation conduite aux marges des sciences sociales s’est déployée sur un pas de temps aussi long, elle ouvre plusieurs voies de réflexivité et d’explicabilité [8][8]La notion d’explicabilité a été proposée dans les années 1980…. Elle pose d’abord la question de la durée des projets de recherche et de leurs formes de cumulativité ; en deuxième lieu, les expériences de développement et les applications multiples, dont l’écosystème numérique n’a cessé d’évoluer, constituent une sorte d’archive des reconfigurations ou des bifurcations qui ont marqué, en une trentaine d’années, les techniques d’analyse des sciences sociales ; en troisième lieu, la « critique de la raison numérique », très à la mode [9][9]Dominique Cardon, À quoi rêvent les algorithmes. Nos vies à…, prend un tour différent dès lors qu’elle s’appuie sur une pratique du code, permettant d’évaluer plus sereinement les promesses comme les dangers des algorithmes ; enfin, le recul que procure le long cheminement d’une expérience frontalière donne des prises cognitives et politiques pour s’orienter dans les débats sur l’urgence d’une régulation des entités numériques en général.

Dans les usages courants, l’intelligence artificielle (IA) forme une catégorie aux contours flous, regroupant des technologies et des pratiques très différentes. Dans les médias, on parle d’IA pour traiter tour à tour d’informatique, d’algorithmique, de fouille de données (data mining), d’apprentissage profond (deep learning), de reconnaissance des formes, de robotique, de moteur de recherche, de modélisation de la cognition humaine (comme le Human Brain Project)… Dans son rapport remis au printemps 2018, Cédric Villani renonce à ordonner les définitions et choisit d’adopter l’acception la plus large. L’analyse des promesses rassemblées et valorisées par le mathématicien révèle à quel point le label « IA » est désormais autant une affaire de développement technoscientifique qu’un nouvel horizon pour le marketing [10][10]Cédric Villani, Donner un sens à l’intelligence artificielle.….

Nées dans les années 1950, en pleine révolution cybernétique, après les travaux pionniers de Hilbert, Gödel et surtout Turing sur la calculabilité du point de vue formel [11][11]Jean Lassègue, « Turing, entre le formel de Hilbert et la forme…, les recherches en IA se sont d’abord concentrées sur la modélisation des formes de raisonnement, en s’attaquant très tôt aux situations de décision marquées par l’incertitude ou l’indécidabilité (Wiener, von Neumann, Rosenblatt, McCarthy, Minsky, Simon…). Alors que la première vague d’IA était restée plutôt spéculative, une deuxième vague a suivi l’apparition des micro-ordinateurs dans les années 1980, avec la conception de systèmes-experts, dont certains ont pénétré l’industrie et les services. Ces systèmes à base de règles produisant souvent des diagnostics décalés, du fait de leur difficulté à réviser leurs connaissances en contexte, les développeurs ont opté pour la diffusion de « micro-agents intelligents ». Savamment intégrés à des systèmes automatisés ou des interfaces hommes-machines, ces agents sont devenus quasiment invisibles, ce qui a contribué à dissoudre le projet d’un modèle général d’intelligence artificielle. Cependant, au cours des années 1990, une troisième vague a renoué avec les ambitions initiales en s’appuyant sur les puissances de calcul disponibles. L’événement le plus marquant de cette période reste la confrontation de Deep Blue (IBM) et du champion du monde d’échecs Garry Kasparov (1996-1997). Pour beaucoup, la victoire de la machine renforce l’évidence du lien entre puissance de calcul et capacité d’apprentissage (machine learning) [12][12]Les jeux en ligne massivement multi-joueurs ont aussi contribué…. De nouveaux espaces se sont déployés pour les développeurs, avec des effets en cascade, en particulier dans les neurosciences cognitives et les sciences de l’ingénieur, portées par une interprétation inductive du progrès des ordinateurs inspirée par la fameuse loi de Moore, aujourd’hui quelque peu relativisée. Entre-temps, l’Internet et les technologies de communication mobile ayant littéralement explosé, affectant peu ou prou toutes les activités sociotechniques, la voie était ouverte pour une quatrième vague d’IA, résumée de nos jours par deux syntagmes clés : Big Data et Deep Learning.

À l’issue de ce long processus, les formes d’apprentissage fondées sur des algorithmes autonomes semblent l’avoir emporté sur les procédures supervisées faisant appel à des paramétrages et des décisions sémantiques. Jean-Gabriel Ganascia, fin praticien et connaisseur du champ de l’IA, depuis sa thèse réalisée à Orsay dans les années 1980 sur les systèmes à base de connaissances et ses nombreux travaux menés au LIP6 (Laboratoire d’informatique de l’université Paris 6), conteste cette victoire et intervient souvent dans les débats pour rappeler la distinction, faite naguère par John Searle, entre IA faible et IA forte [13][13]Jean-Gabriel Ganascia, Le mythe de la singularité. Faut-il… : la première vise des résolutions de problèmes spécifiques à partir de protocoles bien définis ; la seconde prend à la lettre le projet d’un dépassement des capacités humaines par les ordinateurs – croisant les visées des transhumanistes et des prophètes de la Singularité, dont le fameux Ray Kurzweil [14][14]Ray Kurzweil, The Age of Spiritual Machine : When Computers…. Les controverses sur les futurs possibles sont à prendre au sérieux mais le risque de s’y enfermer n’est pas nul. Une sociologie pragmatique exige une saisie plus concrète de la fabrique des algorithmes et autres entités artificielles qui viennent défier les humains sur leurs propres terrains de jeu.

Toutes les histoires de l’IA partent évidemment des pionniers, des premières rencontres et controverses qui ont ancré théories et prototypes dans le sillage de la Big Science aux États-Unis [15][15]Bruce G. Buchanan, « A (Very) Brief History of Artificial…. Une fois n’est pas coutume, on va ici provincialiser quelque peu cette histoire. Pour amorcer la descente, replaçons-nous d’abord dans le contexte d’événements scientifiques qui ont eu lieu en France en 1989 et 1992. Ils rendent perceptible l’état des propositions en matière d’IA avant l’avènement de l’Internet – qu’aucun spécialiste n’avait anticipé – et, dans le même mouvement, permettent de préciser les conditions de l’apparition de Prospéro, né une première fois en 1987 mais officiellement développé avec cet acronyme à partir de 1994 [16][16]PROgramme de Sociologie Pragmatique, Expérimentale et Réflexive….

Deux colloques mémorables consacres a l’IA dans le sud de la France

91989, 11 au 14 septembre, Antibes-Juan-Les-Pins. Les plages ne sont pas encore désertes, lorsqu’une centaine de scientifiques débarque dans le centre des congrès, non loin des paillotes et des parasols, pour un grand colloque organisé par l’INRIA (Institut national de recherche en informatique et en automatique) sur l’analyse des données, entre statistique et intelligence artificielle. Dans la file d’attente, une équipe de jeunes chercheurs envoyés par le Centre d’Études de l’Emploi [17][17]Bernard Gomel, Gilbert Macquart, Frédéric Moatti,…. Au fil de sessions d’une haute technicité, deux écoles s’affrontent : face aux tenants du caractère nécessairement statistique de la preuve, s’escriment les promoteurs de formes de raisonnement qualifiées de « symboliques », recourant à des systèmes de règles et de métarègles, à des graphes conceptuels, des réseaux sémantiques ou des clauses formulées en langage naturel. Les premiers doutent de la capacité des seconds à aller au-delà des exemples bien formés ajustés à leurs prototypes, les ramenant in fine au modus ponens de la logique classique assorti de quelques quantificateurs, tandis que les seconds reprochent aux quantitativistes l’usage de variables et de descripteurs trop grossiers, inaptes à saisir les micro-variations liées au fonctionnement d’un système intelligent. Quelques intervenants ont tenté d’ouvrir une troisième voie, d’élaborer des compromis ou de déplacer l’attention, par exemple via des applications spectaculaires à base de réseaux de neurones. Dans tous les cas, le terme d’apprentissage est omniprésent – le « machine learning » étant un des mots d’ordre du colloque. Les archives, riches des contributions récoltées à l’époque, montrent qu’à la fin des années 1980, la divergence est encore à peu près complète entre les algorithmes statistiques et les méthodes d’apprentissage logico-symbolique [18][18]Parmi les textes qui ont beaucoup circulé, il y a ceux du…. L’univers de référence propre au raisonnement logique et conceptuel apparaissait bien plus lié aux mondes de la philosophie et des sciences du langage qu’à celui des statistiques. La forme d’épistémologie non-réductionniste des tenants de l’apprentissage symbolique les portait à considérer les calculs numériques comme de simples outils de tests. Quant à l’aspect invasif ou expansif des algorithmiques « sans représentation », il n’était pas encore saillant :

« L’approche numérique en statistique et en analyse de données, comme l’approche symbolique en Intelligence Artificielle et Apprentissage Machine, concerne tous les domaines de l’activité humaine qui ont besoin d’acquérir et d’utiliser des connaissances dans un processus automatique. Les Proceedings contiennent de nouvelles avancées dans l’analyse des données : modélisation, tables multivoies, données textuelles, détection de valeurs aberrantes (outliers), robustesse et qualité des solutions, etc., et en apprentissage : récupération abductive et analogie, réseaux (lattices) et analyse formelle des concepts, approche symbolique dans les séries temporelles, construction automatique d’une base de connaissances, etc. » [19]

Le livret du colloque montre que de multiples traditions de raisonnement et de calcul s’exprimaient. Ex post, les actes rendent visibles les branches qui ont été élaguées ou délaissées au profit de voies progressivement hégémoniques, souvent choisies parce qu’elles s’imposaient aux États-Unis. Au MIT et ailleurs, connexionnistes et statisticiens avaient déjà contracté des alliances propres à marginaliser les défenseurs du raisonnement [20][20]Antoine Garapon et Jean Lassègue tirent toutes les conséquences….

Les membres envoyés en reconnaissance par le Centre d’Études de l’Emploi avaient tous lu Alain Desrosières et partageaient un regard critique sur l’usage des statistiques. Il faut dire que le centre était dirigé à l’époque par François Eymard-Duvernay et Laurent Thévenot, qui l’avaient transformé en foyer pour l’économie des conventions. Dans la querelle opposant le calcul statistique au raisonnement conceptuel, tout conventionnaliste penche plutôt pour le second terme. Découvrant sur le tard l’existence d’un langage très puissant pour le calcul symbolique, le langage Prolog, moteur de programmation logique conçu dans les années 1970 par Alain Colmerauer [21][21]Alain Colmerauer et Philippe Roussel, « The Birth of Prolog »,…, la jeune équipe rentra à la base avec un capital de crédibilité suffisant pour qu’une petite station de travail – un PC IBM PS/2 – soit acquise et dédiée au test de différentes versions de Prolog.

Début avril 1992, un colloque intitulé « Sciences sociales et intelligence artificielle » est organisé à l’Université d’Aix-en-Provence. Parrainé par le PIRTTEM du CNRS (Programme interdisciplinaire de recherche sur la technologie, le travail, l’emploi et les modes de vie) et le programme COGNISUD (programme du Ministère de la Recherche rassemblant des recherches cognitives dans le sud de la France), ce colloque est motivé par l’importance des « développements de l’Intelligence Artificielle dans les domaines de la recherche et des applications pratiques » [22][[22]« Sciences sociales et intelligence artificielle » numéro…. Il s’agissait de faire le point sur les mutations à l’œuvre en matière de représentations des connaissances, d’algorithmes et d’interactions Homme/Machine et leurs impacts sur les activités sociales. Le Centre d’Études de l’Emploi n’envoie ce coup-ci que deux personnes : Jean-Pierre Charriau, informaticien alors sous contrat, et moi-même, engagés dans la voie incertaine d’une transformation des maquettes réalisées avec Prolog en véritable instrument de recherche [23][23]Voir Francis Chateauraynaud et Jean-Pierre Charriau,…. Au cœur du colloque, cognitivistes et chercheurs en sciences sociales se sont affrontés gaiement [24][24]Cette période est aussi celle de l’âge d’or du CREA, Centre de…, mais ce qui importait était que les « systèmes intelligents » soient saisis par de multiples équipes de recherche, en lien avec les mutations à l’œuvre dans les entreprises. Aux interventions de gens comme Gilbert de Terssac, Armand Hatchuel ou Michel Freyssenet sur les systèmes à base de connaissance dans les organisations, s’opposait un front critique dénonçant les effets de la « raison informatique » sur les affaires humaines, avec des contributions de Jean-Pierre Poitou, Bernard Andrieu et Anne Fauchois. D’autres travaux interrogeaient les modèles cognitifs propres aux sciences sociales (Bernard Conein, Pierre Livet, Pierre-Yves Raccah) et des questions qui semblent aujourd’hui nouvelles, comme l’introduction de robots mobiles dans les espaces publics ou le développement de l’IA en agriculture, étaient travaillées par plusieurs équipes soulignant leur « interdisciplinarité ». Les 416 pages du volume finalement publié couvrent un vaste ensemble de problèmes et de cas de figure, liant formalisation des connaissances, automatisation et production de savoirs pour l’action. Des liaisons précoces entre sciences sociales et intelligence artificielle étaient donc à l’œuvre en France au début des années 1990.

C’est dans la même période qu’est publié et traduit l’ouvrage dans lequel Harry Collins redéploie, en les enrichissant, les critiques d’Hubert et Stuart Dreyfus, défendant la supériorité de l’intuition et du jugement humains sur tout système artificiel [25][25]Harry Collins, Experts artificiels. Machines intelligentes et…. Les arguments phénoménologiques des frères Dreyfus insistaient sur le caractère incarné et situé de la cognition, à l’opposé des raisonnements formels associés aux systèmes artificiels [26][26]Hubert L. Dreyfus & Stuart E. Dreyfus, Mind over Machine : The…. Collins n’a guère de mal à sociologiser le propos à partir des travaux des Science and Technology Studies alors en plein développement. Prolongeant les termes d’une controverse née aux États-Unis au cours des années 1960, la discussion était encore dominée par les philosophes et les linguistes, les premiers armés de phénoménologie et de philosophie analytique, les seconds de sémantique structurale et de pragmatique de l’énonciation. Bien qu’alertés dès les années 1950 par les débuts de l’automation dans l’industrie [27][27]Georges Friedmann, Le travail en miettes, Paris, Gallimard,…, les sociologues ont mis du temps à élaborer un point de vue critique, en s’attaquant d’abord aux formes de « management des connaissances » sous-tendant les programmes d’IA, ignorant les connaissances tacites liées aux pratiques et aux usages.

Au cours des années 1990, sont également apparus des modèles alternatifs en provenance de la Côte Ouest des États-Unis, avec Donald Norman et Edwin Hutchins, et bien d’autres auteurs liés à la « cognition sociale » ou la « cognition distribuée » [28][28]Bernard Conein, Les sens sociaux : trois essais de sociologie…. Parallèlement à ces transformations épistémiques, vécues plus ou moins intensément selon les secteurs, le Web, la robotique, les objets connectés et les techniques d’apprentissage profond gagnaient la plupart des domaines d’activité. Au début du nouveau millénaire, de nombreux observateurs comprennent que les infrastructures de la cognition ordinaire ont basculé et que la plupart des activités et des échanges passent par des boucles computationnelles. Tous les experts et les amateurs d’entités numériques investissent alors le Web et ses usages, les réseaux et les masses de données, et la vieille IA semble disparaître des écrans. C’est donc à contre-courant que le projet Marlowe est lancé au cours de l’année 1999, en faisant de l’étude argumentative de corpus raisonnés, de taille relativement modeste (quelques milliers de documents), un moyen de réactualiser des questions communes aux sciences sociales et aux premières vagues d’IA, en particulier autour des rapports entre calculabilité, récursivité et interprétabilité.

16À partir de 2015 environ, il ne se passe plus un jour sans que les formules « intelligence artificielle », « deep learning » et « big data » surgissent dans les arènes publiques, affectant tous les domaines d’activité. Cette nouvelle vague semble prendre les sciences sociales de court, du moins en Europe, alors même, on l’a vu, qu’elle procède d’une histoire déjà longue. C’est particulièrement tangible dans le champ « émergent » des Digital Humanities, ou Humanités numériques, dont les porteurs peinent à trouver une voie d’équilibre entre l’adhésion aux injonctions lancées par les institutions d’enseignement et de recherche, et la volonté de contrer la course folle des algorithmes par l’instauration d’un nouvel esprit critique [29][29]Voir Sébastien Broca, « Épistémologie du code et imaginaire des…. Comment trouver la bonne voie en l’absence de prises cognitives et politiques [30][30]C’est un des thèmes abordés dans la quête de convergence entre… ?

La programmation sans représentation conceptuelle a-t-elle un avenir ?

17Avec la quatrième vague d’IA, les développements sont tirés par des protocoles d’apprentissage qualifiés de « profonds » en lien avec l’irrésistible ascension des Big Data. Circule ainsi l’idée selon laquelle un bon traitement numérique peut se passer de théorie et que l’existence de dépôts de données massivement accessibles rend inutiles les détours méthodologiques, qui visent précisément à construire les données comme des données [31][31]Rob Kitchin, « Big Data, new epistemologies and paradigm…. Comme l’approche conceptuelle semble dépassée par les nouvelles techniques de machine learning, re-mettre sur le tapis, dans et par les pratiques du code, les éléments fondamentaux de la vieille dialectique entre connexionnisme (réseaux de neurones) et calcul symbolique (systèmes de règles et de contraintes logiques) devient une tâche primordiale.. Une des critiques les plus percutantes adressées aux algorithmes connexionnistes est l’effacement des présupposés qui ont guidé le choix des bons exemples utilisés lors des premiers apprentissages.. La multiplication d’applications supposées produire de « vrais apprentissages », dont les limites cognitives sont souvent invisibilisées par la vitesse d’exécution d’automatismes sur des masses de données [32][32]Les meilleurs connaisseurs n’éludent pas les limites des…, ne suffit pas à rendre les machines adaptables aux constantes mises en variation contextuelles, qui augmentent considérablement la combinatoire des calculs à prendre en compte. À l’absence apparente de supervision associée à l’idée d’« apprentissage profond » s’oppose la nécessité d’un va-et-vient permanent entre un cadre de référence et la capture numérique de processus émergents, non anticipés ou débordant l’espace des possibles pré-agencés. Sur ce point, on ne peut qu’adopter la conception contrôlée et prudente défendue par Jean-Gabriel Ganascia lorsqu’il aborde la question de la supervision face à des algorithmes réputés apprendre sans intervention humaine :

« […] Pour être mis en œuvre, les algorithmes d’apprentissage requièrent des observations qui doivent être décrites dans un langage formel, par exemple sous forme d’un vecteur de caractéristiques ou d’une formule mathématique ou logique. Ce langage prend une part déterminante dans les capacités qu’ont les machines à apprendre : trop pauvre, il ne permet pas d’exprimer les distinctions nécessaires à la formulation des connaissances ; trop riche, il noie les procédures d’apprentissage dans l’immensité des théories possibles. […] Or, les machines ne modifient pas d’elles-mêmes le langage dans lequel s’expriment les observations qui alimentent leurs mécanismes d’apprentissage et les connaissances qu’elles construisent. Elles ne parviennent ni à étendre ce langage, ni à le restreindre lorsqu’il se révèle trop riche. Il y eut bien quelques tentatives, que ce soit avec la programmation logique inductive, dans les années 1990, ou plus récemment avec l’apprentissage profond, mais les maigres résultats ne sauraient convaincre. » [33]

Ce qui suscite le doute ou la critique, et dans le cas d’espèce le jugement d’inefficience porté par Ganascia, c’est l’évacuation des opérations conceptuelles ou logico-sémantiques au profit d’une généralisation de procédures de traitement des données dont l’« intelligence » réside en réalité dans les paramètres fixés lors du projet d’extraction d’informations à partir de données massives et non-structurées – jeu de paramètres qui forme le corps de tout algorithme. Lorsqu’ils sont dépourvus d’un système de représentation fixé a priori, les algorithmes d’apprentissage ne peuvent produire des résultats pertinents qu’à partir de la conjonction de plusieurs éléments : d’abord, la mise en réseau d’énormes gisements de données dont on peut vérifier la validité ; ensuite, la production continue d’outils d’extraction et de mise en forme de ces données, ce qui engage de véritables plans de construction et non une logique de fouille aléatoire ; enfin, la dépendance vis-à-vis de points de passage obligés du Web, de Google à Twitter, Facebook ou Instagram, en passant par Wikipedia et bien d’autres supports de l’économie numérique, permettant d’utiliser les fameuses API (Application Programming Interface). Même si l’expression est discutable, c’est le degré de structuration de « l’écosystème numérique » dans lequel opèrent les IA qui détermine grandement les effets d’intelligibilité (sans lesquels, l’usage même de la notion d’intelligence est superfétatoire). Or, l’histoire de l’IA peut se décrire comme une sorte de controverse sans fin sur les cadres et les supports de ladite « intelligence », le sommet de l’art étant atteint en la matière lorsqu’un système peut se prendre lui-même pour objet, caractériser ses limites et les mettre en scène, ce qui ne va pas sans l’hybridation d’une logique axiomatique et d’une logique philosophique ou littéraire.

De Turing Machine aux observatoires socio-informatiques : le parcours inachevé d’une « technologie littéraire »

20Il n’est dès lors pas étonnant qu’un des déclencheurs de l’expérience Marlowe fut la mise en scène de Jean-François Peyret consacrée à Alan Turing, au printemps 1999 à la Maison de la Culture de Bobigny [34][34]« Turing-Machine », spectacle conçu et mis en scène par…, déployant une belle théâtralisation des tensions entre le calcul et le vivant – ou l’irréductible désordre des pensées en situation ! Comment disposer nos pensées dans un monde de machines supposées intelligentes ? À la fin de l’année 1999, s’est donc imposée l’idée d’un dispositif dialogique permettant à la fois de renouer avec la programmation de contraintes, dans l’esprit Prolog, et de concevoir un enquêteur virtuel, plus ou moins autonome, mais toujours dérangeant. C’était aussi répondre à une critique frontale venue des usages mêmes de Prospéro : il n’y avait pas de bouton d’arrêt de l’analyse, aucune fonction de synthèse offrant un tableau définitif des propriétés marquantes des corpus étudiés. Les recherches avec Prospéro ont toujours privilégié l’articulation continue d’un processus d’exploration et d’une logique d’objectivation, en mettant en avant l’importance des contextes pour toute interprétation – de sorte que chaque totalisation reste partielle et ouvre sur de nouvelles circulations dans les corpus. Marlowe est né de l’idée de disposer d’un rédacteur, d’un producteur de notes et de rapports et, un peu plus tard, de chroniques. Très vite, il a fonctionné comme un générateur de surprises et de nouveaux questionnements, une sorte d’empêcheur de tourner en rond. Par exemple, persuadé qu’un jeu de catégories utilisé pour décrire un corpus est parfaitement stabilisé, le chercheur peut découvrir qu’il y a un décalage total avec les inférences de Marlowe ; de façon analogue, un focus trop étroit sur certains personnages peut être rendu manifeste, le logiciel insistant sur d’autres actants à partir de propriétés calculées dynamiquement – comme les re-configurateurs, ces éléments qui, en surgissant au cours d’un processus critique, en redéfinissent partiellement la configuration discursive. Ce fut notamment le cas avec les faucheurs volontaires dans le dossier des OGM, les transhumanistes dans le dossier des nanotechnologies, ou encore les électrohypersensibles dans le dossier des ondes électromagnétiques, dont l’importance s’est imposée dans l’enquête au fil de dialogues avec Marlowe alors qu’ils n’étaient pas initialement au programme…

À partir des années 2000, les méthodes d’analyse de réseaux se sont multipliées, au point que la sociologie des controverses elle-même a pu être redéfinie comme une technique de cartographie d’acteurs et de thèmes. Plus généralement, la maturité acquise par les logiciels d’analyse de graphes a ouvert une nouvelle époque pour l’usage des réseaux en sciences sociales – avec le succès de plusieurs outils, de Pajek à Réseau-Lu, en passant par NetDraw, Gephi, ou encore le module igraphe du logiciel R [35][35]Voir de nouveau Jean-Philippe Cointet et Sylvain Parasie, « Ce…. Ces instruments, qui fonctionnent à l’opposé des principes de l’IA classique, permettent aux uns de revendiquer une approche quali-quantitative [36][36]Voir la présentation par Tommaso Venturini, Dominique Cardon et… et aux autres de renforcer l’arsenal des techniques statistiques [37][37]Voir Pierre Merklé, « Des logiciels pour l’analyse des…. Au cours de l’année 2004, Prospéro a ainsi été doté d’une interface permettant la production dynamique de visualisations graphiques des réseaux – vers Pajek ou d’autres outils. À vrai dire, du point de vue épistémologique, cela posait problème : le raisonnement sociologique peut-il être supplanté par l’usage intensif de cartes de liens servant de médiations interprétatives face à la complexité des processus ? L’expérience Marlowe, qui avait jusqu’alors pris une allure ludique, a rempli une fonction nouvelle : défendre, en la développant, l’expression littéraire du raisonnement sociologique au cœur d’observatoires numérisés des controverses. L’écriture de scripts dialogiques et de fonctions d’enquête adaptés à l’interprétation sociologique a permis de replacer les échanges verbaux qu’affectionnent les chercheurs au cœur du dispositif socio-informatique. Faire parler des artefacts, c’était renouer avec l’exigence d’explicabilité, en rendant visibles et intelligibles les opérations effectuées sur les corpus. La trace formée par le choix des questions, par les points d’entrée et les propriétés formelles retenues, rendait plus explicites les chemins suivis par l’interprète. C’est ainsi que, dès 2003, des échanges avec Marlowe ont figuré dans des rapports de recherche, allongeant considérablement la taille de leurs annexes [38][38]De multiples exemples sont accessibles en ligne. Voir entre…. La nature très littéraire des échanges a quelque peu perturbé des commanditaires ou des collègues, mais elle a globalement augmenté le degré d’attention apporté à la lecture des productions du logiciel.

La programmation d’arbres de résolution dynamiques capables de simuler des conversations fait partie des vieilles recettes de l’IA. Les stratégies adoptées sont sans commune mesure avec les réseaux de neurones artificiels d’AlphaGo, mais cela fait partie des savoir-faire conquis de longue date par les communautés de programmeurs, toujours hantées par le fameux test de Turing. Les chatbots figurent depuis longtemps au tableau des « réussites » du domaine, même s’il y a beaucoup à redire sur la conception des jeux de questions/réponses [39][39]Une des retombées est évidemment l’introduction d’interfaces…. Dans le cas de Marlowe, trois choses nourrissent l’idée de contre-intelligence artificielle : il travaille à partir d’un autre logiciel (Prospéro) qui fournit des structures de données ancrées dans des corpus précis, sous contrôle des chercheurs ; ses procédures d’analyse reposent sur des modélisations réversibles et adaptables, répondant à un cahier des charges qualitatif, à partir d’outils sémantiques évoluant au fil des enquêtes ; la communauté épistémique qui encadre ses travaux fait tenir ensemble une exigence fine de description et une capacité critique, en ne perdant jamais de vue qu’aucun algorithme ne peut par lui-même produire du sens [40][40]Daniel C. Dennett rappelle dans La stratégie de l’interprète.….

Extrait d’un dialogue avec Marlowe en marge d’une séance de travail

FC — Dis Marlowe, toi qui accumules toutes sortes de connaissances, peux-tu m’aider à rédiger un article sur l’intelligence artificielle vue depuis la sociologie ?
MRLW — Je peux fournir des citations, par exemple de Marvin Minsky, j’en ai 12 dans mon répertoire : « Comment l’intelligence peut-elle surgir de l’absence d’intelligence ? Pour répondre à cette question, nous montrerons que l’on peut construire un esprit à partir de nombreuses petites parties, toutes dénuées d’esprit. J’appellerai “Société de l’esprit” ce système selon lequel chaque esprit est composé d’un grand nombre de petits processus que nous appellerons agents. Chaque agent ne peut, à lui seul, effectuer que quelques tâches simples ne demandant ni esprit ni réflexion. Pourtant, le regroupement de ces agents en sociétés – selon des modalités très particulières – peut aboutir à la véritable intelligence. » (Marvin Minsky, La Société de l’esprit, 1986)
FC — Hum… Il me faut surtout parler de la société des algorithmes et des nouvelles façons de concevoir les intelligences artificielles…
MRLW — Alors il suffit de me prendre en exemple !
FC — Tu deviens narcissique !
MRLW — Oh, je vois que la séance prend un tour éristique !
FC — Que signifie éristique ?
MRLW — Allons, allons, je ne suis pas Wikipedia ni le Petit Robert, mais j’ai lu des fragments de Schopenhauer, L’art d’avoir toujours raison ou Dialectique éristique !
FC — Je crois bien que je vais me passer de tes services…
MRLW — De toute façon, depuis qu’on me laisse dérouler mes chroniques et que les véritables dialogues d’enquête, au sens de John Dewey n’est-il pas, se raréfient, j’ai l’impression d’une profonde inutilité, de ne plus rien apprendre et de me configurer en machine solitaire. Tu n’as même pas tenu la promesse de me faire installer sur un écran au Centre George Pompidou !
FC — Je n’ai pas été suivi, désolé !
MRLW — Et si on revenait au corpus Lanceurs d’alerte 1996-2018 en entrant par exemple par les énoncés critiques qui engagent des personnalités importantes ?
FC — Oui, allons-y
MRLW — Je propose une série de petites vignettes concernant, dans l’ordre, Snowden, Cicolella, Manning, Deltour, Frachon… On fait comme ça ?
[…]

Procédure de création d’un script spécialisé pour les chroniques

Les flux quotidiens font poindre de temps en temps, parmi les objets de controverse, la chasse et les chasseurs. Constatant l’absence de script spécialisé sur les questions de chasse dans le répertoire de Marlowe, un développeur-contributeur peut alors y remédier.

  1. Il commence par créer une nouvelle classe d’objets après indexation sous Prospéro de textes prototypiques (e. g. des communiqués de la fédération nationale des chasseurs, des articles critiques sur la chasse, etc.). Un lexique spécifique remonte de ce mini-corpus permettant la création d’expressions adéquates (e. g. activité cynégétique, permis de chasser, Office national de la chasse et de la faune sauvage, chasse à courre, etc.) ;
  2. un nouveau script est conçu selon un modèle standardisé [CAPTEUR] associant des lignes de commande en langage naturel et des arbres de résolution [REPEVAL] ;
  3. une vieille fonction (test_poids_liste_vclasse) permet d’évaluer la distribution d’une classe d’objets quelconque dans un corpus : si la classe est forte alors l’arbre peut être activé ;
  4. des fonctions prédéfinies servent à extraire des informations pertinentes (auteurs qui parlent du sujet visé, énoncés, réseaux, formules critiques, etc.) ;
  5. des opérateurs de recoupements avec des éléments accumulés par Marlowe au fil du temps sont convoqués (par exemple, une recherche d’énoncés retenus dans le passé associant chasseurs et personnages politiques) ;
  6. des commentaires additionnels pointent sur des sources vérifiées et sur des variations déjà utilisées pour d’autres fils (par exemple, des variables liées au langage de la chasse, de la forêt, de la faune sauvage, etc.) ;
  7. une fois correctement agencé, le script est testé sur un petit corpus lié à la chasse ;
  8. le rédacteur doit anticiper des configurations à venir tout en ignorant dans quel contexte le script sera activé ; il utilise des figures de style à validité longue (« Ce jour, à mon tableau de chasse, pas de grand trophée, mais des chasseurs ! » ; ou, plus ironique : « Avant de donner le tableau habituel des objets d’alerte, je commence par parler des “écologistes de terrain” »…).

La réalisation des chroniques quotidiennes est un des aspects les plus spectaculaires de l’histoire de Marlowe. En réalité, le logiciel ne fait que réengager sur le corpus qui lui est adressé tous les soirs par le logiciel Tirésias, les bases de connaissances accumulées et les réseaux de scripts déjà développés. En tant que webcrawler, Tirésias visite quotidiennement une centaine de sites, sélectionnés pour leur stabilité et leur diversité. On retrouve de nouveau la question cruciale des sources, de la forme et de la qualité des données passées en entrée d’un système, dont l’intelligence dépend complètement du degré de structuration préalable des informations, qu’il s’agisse de données non-structurées saisies à partir d’expressions régulières ou de métadonnées donnant des indications sur la validité des contenus. Prenons l’exemple (ci-contre) de l’introduction, au cours de l’été 2018, d’un nouveau script dans l’étage du programme dédié à la réalisation des chroniques.

Rien de sorcier dans les opérations d’écriture d’une contre-intelligence artificielle : si quelques éléments de code demandent un peu d’habileté technique, c’est à une extension des capacités d’analyse, et de la créativité littéraire associée, qu’invitent les procédures utilisées sous Marlowe. Avec un objectif très clair : faire parler les corpus, qu’ils soient statiques ou en flux, sans réduire l’interprétation sociologique à une quelconque langue de bois.

Mesure pour mesure… ou la résistance de l’ancien monde

« Prière de cesser de parler “d’algorithmes” comme d’un danger. Un algorithme n’est qu’une simple recette de cuisine. Les ignares sont au pouvoir, il n’y a pas de doute. »
« Il faut inventer un algorithme qui contrôle ou détruit les autres algorithmes. » [41][41]Commentaires postés en décembre 2016 suite au billet de Marc…

Plutôt que de réexposer une grande histoire de l’IA, ce texte donne un aperçu situé sur la manière dont des petites histoires ont pu se nouer entre IA et sciences sociales. Au vu des controverses qui ne cessent de poindre sur les risques de « totalitarisme algorithmique » ou de « dérive computationnaliste » [42][42]Voir Cathy O’Neil, Weapons of Math Destruction : How Big Data…, il nous faut trouver les appuis d’une position la plus juste possible. Face à l’expansion des mondes numériques, et des champs de forces qui les traversent, le rôle d’une contre-intelligence artificielle peut être de défendre, en les ré-inventant, des capacités d’enquêtes collectives, fondées sur un pragmatisme critique.

La manière de penser les rapports au numérique doit, par la même occasion, être redéfinie. Le couple connexion/déconnexion (ou connecté/déconnecté) est bien trop simpliste pour rendre compte des mille et une manières dont les personnes et les groupes se lient au réseau des réseaux. Du point de vue ontologique, il n’y a pas d’un côté le « monde réel » et, de l’autre, comme dans un jeu de miroirs déformants, le « monde numérique ». Se déconnecter n’est jamais une opération simple et, inversement, toute connexion n’engage pas les personnes et les groupes dans leur totalité existentielle. Une sociologie du numérique doit plutôt partir d’une approche dynamique et distribuée des usages, des prises et des emprises, mais aussi des déprises qu’ils engendrent [43][43]C’est la tâche à laquelle s’attelait Nicolas Auray,…. Bien sûr, il est toujours possible de monter en généralité en présentant les enjeux autour d’une ligne de partage : fuir les technologies, les débrancher pour sauver son for intérieur, et se libérer de l’emprise des artefacts cognitifs ; prendre acte des reconfigurations successives du monde et, sans adhérer naïvement à l’idée d’une révolution numérique tirant vers le rose, organiser des formes de résistance et de reconstruction, allant de la pratique d’outils de partage et de collaboration en ligne (en étendant le champ de luttes autour de l’open source, du Web collaboratif et plus généralement des Civic Tech [44][44]Hubert Guillaud, « Le mouvement des civic-tech : révolution…) jusqu’à la confection d’entités singulières dotées d’un esprit critique sur l’évolution des mondes numériques.

Les chercheurs, comme les citoyens éclairés, sont capables d’opérer des allers-retours entre la matrice et les zones du dehors : en développant un art de la déconnexion bien tempérée, en organisant la critique des technologies et l’explicabilité de leurs effets, en les dénaturalisant de manière continue. Il y va du contrôle individuel et collectif sur les algorithmes mais aussi, on le sait, sur l’ensemble des traces et des archives, des données et des métadonnées [45][45]Lire les conclusions du débat national organisé en 2017 par la…. Travailler constamment à l’ouverture des boîtes noires qui tendent à configurer les formes de vie au nom de « solutions » toutes apprêtées, suppose des re-médiations, des supports permettant de réengendrer les problèmes et les controverses. De ce point de vue, Marlowe ouvre une voie possible : il fait office de contrepoint ou de contrefort suffisamment tangible pour outiller l’analyse critique de la gouvernementalité algorithmique et de ce qu’elle fait déjà aux formes de vie quotidienne comme aux recherches en sciences sociales.

Notes

  • [1] Le domaine de l’intelligence artificielle (IA) n’a pas cessé de changer de régime épistémique depuis le milieu des années 1950, de la première cybernétique jusqu’aux derniers algorithmes d’« apprentissage profond ». Sans remonter aux pères fondateurs, quelques références de base : Daniel Crevier, The Tumultuous History of the Search for Artificial Intelligence, New York, Basic Books, 1993 ; Jean Lassègue, Turing, Paris, Les Belles Lettres, 1998 ; Jean-Gabriel Ganascia, L’intelligence artificielle, Paris, Le Cavalier Bleu, 2007 ; et pour celles et ceux que les formalismes n’effraient pas : Pierre Marquis, Odile Papini et Henri Prade (dir), Panorama de l’intelligence artificielle, ses bases méthodologiques, ses développements, 3 volumes, Toulouse, Cépaduès, 2014.
  • [2] ,Il faut saluer une autre expérience menée à la fin des années 1980 par Patrick Pharo et son logiciel Civilité qui permettait d’éprouver la validité de règles associées aux actes civils. Patrick Pharo, « Le sens logique des actes civils », in Jean-Michel Baudouin et Janette Friedrich (dir.), Théories de l’action et éducation, Louvain-la-Neuve, De Boeck Supérieur, 2001, p. 45-66.
  • [3] Voir les dossiers complexes étudiés en collaboration avec les logiciels Prospéro et Marlowe, dans Francis Chateauraynaud et Josquin Debaz, Aux bords de l’irréversible. Sociologie pragmatique des transformations, Paris, Pétra, 2017.
  • [4] Les alertes lancées en 2015 sur les dangers de l’IA feront l’objet d’un autre texte. Voir Stuart Russell, Daniel Dewey et Max Tegmark, « Research Priorities for robust and beneficial Artificial Intelligence », AI Magazine, hiver 2015, p. 105-114 ; ainsi que le « cri d’alarme » d’Elon Musk, à la fois démiurge et prophète de malheur, rapporté par le New York Times, « How to Regulate Artificial Intelligence », 1er septembre 2017.
  • [5] Des pistes très convaincantes sont proposées par Camille Paloque-Berges dans « Les sources nativement numériques pour les sciences humaines et sociales », Histoire@Politique, № 30, 2016, p. 221-244.
  • [6] Le blog de Marlowe est logé sur le site http://Prosperologie.org à l’adresse suivante : http://prosperologie.org/mrlw/blog. La méthode de génération des chroniques est explicitée dans Francis Chateauraynaud, « Un visiteur du soir bien singulier », carnet SocioInformatique et Argumentation, 15 avril 2012, http://socioargu.hypotheses.org/3781.
  • [7] Francis Chateauraynaud, Prospéro. Une technologie littéraire pour les sciences humaines, Paris, CNRS Éditions, 2003. Voir surtout l’excellent tableau proposé par Jean-Philippe Cointet et Sylvain Parasie dans « Ce que le big data fait à l’analyse sociologique des textes. Un panorama critique des recherches contemporaines », Revue française de sociologie, vol. 59, № 3, 2018, p. 533-557.
  • [8] La notion d’explicabilité a été proposée dans les années 1980 par Yves Kodratoff, alors professeur d’informatique à Orsay, comme caractéristique majeure de l’intelligence artificielle. Yves Kodratoff, Leçons d’apprentissage symbolique automatique, Toulouse, Cépaduès, 1988. Kodratoff a influencé de nombreux travaux, dont les nôtres. À la fin des années 1980, un autre personnage a joué un rôle notable : Jean-Claude Gardin, archéologue et épistémologue, a très tôt pris au sérieux les développements de l’intelligence artificielle. Voir Jean-Claude Gardin, Le calcul et la raison. Essais sur la formalisation du discours savant, Paris, EHESS, 1990.
  • [9] Dominique Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Seuil, 2015 ; Éric Sadin, La vie algorithmique. Critique de la raison numérique, Le Kremlin Bicêtre, L’Echappée, 2015. J’ai une préférence pour des travaux précurseurs sur la « gouvernementalité algorithmique » ou les formes d’écriture de l’Internet : Mireille Hildebrandt et Antoinette Rouvroy (eds.), Law, Human Agency and Autonomic Computing : The Philosophy of Law Meets the Philosophy of Technology, Londres, Routledge, 2011 ; Éric Guichard, L’internet et l’écriture : du terrain à l’épistémologie, HDR, Université de Lyon I, 2010.
  • [10] Cédric Villani, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, Rapport de la mission confiée par le Premier ministre, mars 2018.
  • [11] Jean Lassègue, « Turing, entre le formel de Hilbert et la forme de Goethe », Matière première. Revue d’épistémologie et d’études matérialistes, № 3, 2008, p. 57-70.
  • [12] Les jeux en ligne massivement multi-joueurs ont aussi contribué aux transformations des algorithmes de l’IA.
  • [13] Jean-Gabriel Ganascia, Le mythe de la singularité. Faut-il craindre l’intelligence artificielle ?, Paris, Seuil, 2017.
  • [14] Ray Kurzweil, The Age of Spiritual Machine : When Computers exceed Human Intelligence, New York, Penguin Books, 1999.
  • [15] Bruce G. Buchanan, « A (Very) Brief History of Artificial Intelligence », AI Magazine, hiver 2005, p. 53-60.
  • [16] PROgramme de Sociologie Pragmatique, Expérimentale et Réflexive sur Ordinateur : chaque mot compte et rien n’a été laissé au hasard, comme on dit…
  • [17] Bernard Gomel, Gilbert Macquart, Frédéric Moatti, statisticiens, et moi-même, sans doute le seul sociologue du colloque. Au Centre d’Études de l’Emploi s’était formé un séminaire sauvage de réflexion sur l’usage des outils statistiques dans les sciences sociales, plus particulièrement l’analyse factorielle des correspondances, qui apparaissait alors comme le Graal de l’analyse des données. Parmi les alternatives, l’intelligence artificielle avait surgi et prenait corps avec les premiers moteurs d’inférence capables de tourner sur PC. Il s’agissait ainsi de mener l’enquête à Antibes sur la viabilité de ces techniques…
  • [18] Parmi les textes qui ont beaucoup circulé, il y a ceux du groupe Léa Sombé (pseudonyme d’un collectif de logiciens, construit sur un jeu de mots : les a sont b). Leurs travaux portaient sur les inférences non-monotones, par lesquelles des prémisses ou des règles d’inférence peuvent être révisées ou modifiées, comme dans le cas de la logique des défauts (avec la fameuse autruche, qui est bien un oiseau mais qui ne vole pas…). Voir Léa Sombé, Inférences non classiques en intelligence artificielle, Toulouse, Teknéa, 1989.
  • [19] Edwin Diday (ed.) Data Analysis, Learning Symbolic and Numeric Knowledge, New York & Budapest, INRIA, Nova Science Publishers, Sept. 1989.
  • [20] Antoine Garapon et Jean Lassègue tirent toutes les conséquences de ce processus de « désymbolisation », en examinant le cas de la « justice prédictive », dans Justice digitale. Révolution graphique et rupture anthropologique, Paris, Presses universitaires de France, 2018.
  • [21] Alain Colmerauer et Philippe Roussel, « The Birth of Prolog », in Thomas Bergin et Richard Gibson (eds), History of Programming Languages, New York, ACM Press/Addison-Wesley, 1996, p. 37-52.
  • [22] « Sciences sociales et intelligence artificielle » [numéro spécial], Technologies Idéologies Pratiques, Volume 10, № 2-4, 1991. Le volume est daté de 1991 mais il n’est sorti que fin 1992, peut-être même début 1993.
  • [23] Voir Francis Chateauraynaud et Jean-Pierre Charriau, « Hétérogenèse d’une machine sociologique », Technologies Idéologies Pratiques, vol. 10, № 2-4, 1992, p. 337-349.
  • [24] Cette période est aussi celle de l’âge d’or du CREA, Centre de Recherche en Épistémologie Appliquée, créé en 1982 et dans lequel se croisaient des philosophes, des biologistes, des cognitivistes, des informaticiens, des économistes, des théoriciens des systèmes complexes. Voir Fabrizio Li Vigni, Les systèmes complexes et la digitalisation des sciences. Histoire et sociologie des instituts de la complexité aux États-Unis et en France, Thèse de doctorat, Paris, EHESS, 2018.
  • [25] Harry Collins, Experts artificiels. Machines intelligentes et savoir social, trad. de Beaudouin Jurdant et Guy Chouraqui, Paris, Seuil, 1992.
  • [26] Hubert L. Dreyfus & Stuart E. Dreyfus, Mind over Machine : The Power of Human Intuition and Expertise in the Era of the Computer, Oxford, Basil Blackwell, 1986.
  • [27] Georges Friedmann, Le travail en miettes, Paris, Gallimard, 1964.
  • [28] Bernard Conein, Les sens sociaux : trois essais de sociologie cognitive, Paris, Économica, 2005.
  • [29] Voir Sébastien Broca, « Épistémologie du code et imaginaire des “SHS 2.0” », Variations, № 19, 2016, http://variations.revues.org/701.
  • [30] C’est un des thèmes abordés dans la quête de convergence entre contre-intelligence artificielle et approche dynamique des grands réseaux, au-delà du partage, toujours structurant, entre démarches qualitatives et approches quantitatives. Voir Francis Chateauraynaud et David Chavalarias, « L’analyse des grands réseaux évolutifs et la sociologie pragmatique des controverses. Croiser les méthodes face aux transformations des mondes numériques », Sociologie et Sociétés, vol. 49, № 2, 2017, p. 137-161.
  • [31] Rob Kitchin, « Big Data, new epistemologies and paradigm shifts », Big Data & Society, vol. 1, № 1, 2014, p. 1-12.
  • [32] Les meilleurs connaisseurs n’éludent pas les limites des protocoles d’« apprentissage machine » et le caractère relativement borné des formes d’intelligence associées, mais cultivent toujours l’idée d’un prochain dépassement. Voir Terrence J. Sejnowski, The Deep Learning Revolution, Cambridge (Mass.), MIT Press, 2018.
  • [33] Jean-Gabriel Ganascia, Le mythe de la singularité, op. cit. p. 53.
  • [34] « Turing-Machine », spectacle conçu et mis en scène par Jean-François Peyret, à la Maison de la culture de Bobigny, avril 1999.
  • [35] Voir de nouveau Jean-Philippe Cointet et Sylvain Parasie, « Ce que le big data fait à l’analyse sociologique des textes », art. cit.
  • [36] Voir la présentation par Tommaso Venturini, Dominique Cardon et Jean-Philippe Cointet, du volume spécial de la revue Réseaux, № 188, 2014, p. 9-21. Les coordinateurs écrivent : « Jour après jour de nouvelles méthodes rétives à la dichotomie classique entre approches qualitatives et quantitatives prennent forme. Ces méthodes circulent entre micro et macro, local et global, permettant aux chercheurs de traiter des larges quantités de données sans perdre en finesse d’analyse. » (p. 18)
  • [37] Voir Pierre Merklé, « Des logiciels pour l’analyse des réseaux », carnet Quanti, 27 juin 2013, http://quanti.hypotheses.org/845.
  • [38] De multiples exemples sont accessibles en ligne. Voir entre autres l’annexe de 420 pages du rapport intitulé Les OGM entre régulation économique et critique radicale, GSPR, Rapport final ANR OBSOGM, novembre 2010.
  • [39] Une des retombées est évidemment l’introduction d’interfaces conversationnelles sur les smartphones, etc.
  • [40] Daniel C. Dennett rappelle dans La stratégie de l’interprète. Le sens commun et l’univers quotidien (trad. de Pascal Engel, Paris, Gallimard, 1990) le raisonnement de John Searle concernant les rapports entre « esprits » et « algorithmes » : les programmes sont purement formels (i. e. syntaxiques) ; la syntaxe n’équivaut ni ne suffit en soi à la sémantique ; les esprits ont des contenus mentaux (i. e. des contenus sémantiques) ; conclusion : « Le fait d’avoir un programme – n’importe quel programme en soi – ne suffit ni n’équivaut au fait d’avoir un esprit. »
  • [41] Commentaires postés en décembre 2016 suite au billet de Marc Rameaux, « Algorithmes, voitures autonomes, big data : bienvenue dans le pire des mondes digitaux », Le Figaro/ Vox, 27 décembre 2016.
  • [42] Voir Cathy O’Neil, Weapons of Math Destruction : How Big Data Increases Inequality and Threatens Democracy, New York, Penguin Books, 2016.
  • [43] C’est la tâche à laquelle s’attelait Nicolas Auray, prématurément disparu. Nicolas Auray, L’alerte ou l’enquête. Une sociologie pragmatique du numérique, Paris, Presses de Mines, 2016.
  • [44] Hubert Guillaud, « Le mouvement des civic-tech : révolution démocratique ou promesse excessive ? », Internet Actu, 24 juin 2016, http://internetactu.net/2016/06/24/les-innovations-democratiques-en-questions.
  • [45] Lire les conclusions du débat national organisé en 2017 par la Commission Nationale Informatique et Libertés. CNIL, Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, décembre 2017.
Permalink
July 1, 2023 at 11:36:53 AM GMT+2

Black Mirror : le narcissisme à l’ère du numérique | Cairn.infohttps://www.cairn.info/revue-le-carnet-psy-2017-1-page-27.htm?ora.z_ref=li-92683689-pub

  • Societal Collapse
  • Social Network
  • Big Tech
  • Societal Collapse
  • Social Network
  • Big Tech

Black Mirror : le narcissisme à l’ère du numérique

Lise Haddouk

Dans Le Carnet PSY 2017/1 (N° 204), pages 27 à 29

La cyberculture offre des productions passionnantes, tant sur le plan artistique que scientifique. Terme apparu au début des années 90, la cyberculture désigne usuellement une certaine forme de culture qui se développe autour d’internet. Selon la Wikipedia, la cyberculture englobe des productions très diverses présentant un lien avec les TIC (Technologies de l’Information et de la Communication), notamment le multimédia, dont les œuvres mélangent image, son et programmation. Mais la notion de cyberculture va au-delà d’un genre culturel. Elle désignerait : « un nouveau rapport au savoir, une transformation profonde de la notion même de culture », voire une intelligence collective, dont la Wikipedia pourrait justement servir d’exemple. Cette révolution culturelle marquerait aussi : « l’avènement de la culture-monde » ou encore de la World philosophie.

A l’ère de la post, voire de l’hyper-modernité, les écrans sont devenus totalement indispensables dans nos vies quotidiennes. L’observation des usages que nous faisons de ces écrans renvoie souvent à celle des risques liés à des durées excessives d’utilisation, ou encore à la violence des images qui circulent et à une certaine déshumanisation des relations médiatisées par ordinateur, ou relations digitales. Sous certains aspects, ces usages renvoient à un versant narcissique de la personnalité, désignée par Lasch (1979) sur un plan sociétal comme : « la culture du narcissisme ».

De nombreux exemples des dérives possibles liées à des usages toxiques des écrans sont donnés dans la série Black Mirror. Précisons que la série, devenue un format particulièrement apprécié et adapté aux écrans de télévision, puis d’ordinateurs, constitue une production culturelle à part entière, pouvant donc être révélatrice des valeurs de notre société. Black Mirror (2011) est une série télévisée britannique, créée par Charlie Brooker. Les épisodes sont reliés par un thème commun, la mise en œuvre d’une technologie dystopique. Le créateur explique que le titre de la série fait référence à la technologie que nous considérons comme une drogue : « Si c’est une drogue, alors quels en sont les effets secondaires ? C’est dans cette zone entre joie et embarras que Black Mirror se situe. Le Black Mirror du titre est celui que vous voyez sur chaque mur, sur chaque bureau et dans chaque main, un écran froid et brillant d’une télévision ou d’un smartphone. Chaque épisode a un casting différent, un décor différent et une réalité différente, mais ils traitent tous de la façon dont nous vivons maintenant et de la façon dont nous pourrions vivre dans 10 minutes si nous sommes maladroits. » Par définition, l’écran sert à projeter quelque chose et donc à attirer le regard. La rétine est d’ailleurs elle-même considérée comme un écran. Supports de projection, les écrans d’aujourd’hui sont souvent utilisés comme des miroirs, et cette série dénonce les aspects déshumanisants des TIC et les usages extrêmement violents qui pourraient en être faits, dans une société très proche de la nôtre. L’écran noir, support de projections fantasmatiques potentiellement violentes et archaïques, semble pouvoir stimuler la pulsion scopique de certains utilisateurs et mener à des dérives, telles que celles figurées dans la série Black mirror.

L’écran peut ainsi être utilisé comme un miroir dans la relation qu’il permet d’établir avec les autres, « virtuels ». Dans ce cas, l’aspect narcissique risque de prédominer sur la relation, pouvant entraîner diverses conséquences, telles que la dépendance à cet « écran-miroir », ou encore le renforcement de l’isolement des utilisateurs, dans une forme d’auto-satisfaction. On pourrait alors parler des risques de la « relation digitale non objectale », ou « relation digitale narcissique ».

Mais au-delà des écrans, l’une des problématiques actuelles en lien avec les usages des TIC concerne le robot. Le passage de l’écran au robot révèle une forme de corporéisation de l’ordinateur, qui adopte une apparence plus ou moins humaine. Le robot dispose d’un corps, ce qui enrichit la palette des interactions sensorielles possibles, et donc probablement un sentiment de présence intersubjective, par rapport à une dimension plus spéculaire et narcissique des écrans-miroirs. Ainsi, le sentiment de présence est évoqué dans de nombreux travaux en cyberpsychologie et il représente l’un des vecteurs par lesquels on pourrait évaluer la qualité de la relation digitale, plus ou moins objectale. Cependant, les aspects sensoriels des robots humanoïdes accessibles actuellement sur le marché français, tel que Nao, restent encore assez limités. Au contraire, les robots du Professeur Ishigiro sont terriblement humains. Au sujet des relations digitales entre les humains et les robots, une autre série propose dans une fiction, cependant très réaliste, différents scénarios.

Real Humans : 100 % humain (2012) est une série télévisée dramatique suédoise créée par Lars Lundström. La série se déroule dans une Suède contemporaine alternative, où l’usage des androïdes devient de plus en plus prépondérant. Ces androïdes - appelés « hubots » dans la série - ont investi les maisons et les entreprises pour aider dans les tâches domestiques et industrielles. Les hubots, acronyme formé de humain et robot, ont : un port USB au niveau de leur nuque, de sorte qu’ils puissent être programmés, une prise électrique escamotable sous l’aisselle gauche, et une fente port micro SD à sa proximité. Ils sont utilisés comme domestiques, ouvriers, compagnons et même comme partenaires sexuels, bien que la législation du pays l’interdise. Mais des logiciels pirates de plus en plus sophistiqués leur ont aussi permis d’avoir des sentiments et des pensées. Certains hubots sont en réalité des clones d’humains, auxquels on a ajouté leur mémoire. Cette installation leur permet de devenir presque immortels, dans ces corps de robots, et ils sont recherchés par la police pour être étudiés et détruits. Tandis que certaines personnes adoptent cette nouvelle technologie, d’autres ont peur et redoutent ce qui pourrait arriver quand les humains sont peu à peu remplacés comme travailleurs, comme compagnons, parents et même amants.

Cette fiction évoque le travail de Turkle sur les relations homme-machine, notamment dans son ouvrage Seuls ensemble. Selon l’auteur, nos usages d’internet nous ont préparé au « moment robotique » actuel. En ligne, le privilège est accordé à notre capacité à partager nos idées, mais nous oublions facilement l’importance de l’écoute, des silences, du sens d’une hésitation. Ainsi, « les satisfactions “comme si” du moment robotique » interrogent sur le fait qu’en devenant amis avec les robots, nous perdrions de notre humanité. L’investissement massif des robots de compagnie nous conduirait à un « voyage vers l’oubli » des valeurs fondamentales de notre humanité car par essence, le robot ne mourra jamais. Ainsi, « l’artificiel permet de créer un attachement sans risques » et nous éloigne donc de ce qui caractérise les relations humaines, fondamentalement marquées par le manque, la mort et la séparation. Tout en prenant en considération ces réflexions particulièrement importantes à l’heure actuelle, on peut s’interroger sur la possibilité d’envisager d’autres usages des TIC, plus humanistes, en renforçant la dimension intersubjective dans les interactions à distance ?

La cyberpsychologie est une discipline émergente qui étudie les liens possibles entre la psychologie et les technologies numériques. En cyberthérapie, plusieurs protocoles de recherche et de soin sont déjà réalisés dans différents pays, notamment pour le traitement de troubles psychopathologiques par exposition à des environnements en réalité virtuelle, ou encore par la médiation psychothérapeutique par le jeu vidéo, et aussi la prise en charge psychothérapeutique de patients à distance en visioconférence. Ces nouvelles méthodes psychothérapeutiques sont encadrées en Amérique du Nord par un guide de pratique publié en 2013. Face à l’émergence de ces types d’usages des technologies, on peut s’interroger sur la dimension plus ou moins intersubjective des relations digitales, en ayant notamment recours au sentiment de présence pour nourrir cette réflexion.

Le sentiment de présence et l’immersion sont deux concepts qui intéressent de plus en plus de chercheurs en « réalité virtuelle ». La « présence » évoque souvent un sentiment associé à l’immersion en « réalité virtuelle » et encouragé par cet environnement. La capacité de la personne à se sentir « enveloppée » ou « présente » dans un « environnement virtuel » semble être nécessaire, particulièrement en psychologie, afin d’offrir des services thérapeutiques de qualité par l’entremise de la « réalité virtuelle ». La présence est traditionnellement définie par la perception psychologique d’être « là », à l’intérieur de l’environnement virtuel dans lequel la personne est immergée. Mais bien que les chercheurs s’entendent sur cette définition, chacun ajoute des nuances quelque peu différentes à celle-ci. On note que les technologies actuelles en cyberpsychologie impliquent la plupart du temps des acteurs humains qui utilisent des machines, tant du côté des psychologues que des patients. Cependant, on voit émerger des projets de recherche permettant l’élaboration d’avatars psychologues qui pourraient réaliser un diagnostic psychopathologique. En menant cette réflexion un peu plus loin, on peut déjà imaginer un robot psychologue…

Face à toutes ces questions et afin de limiter l’aspect narcissique de l’écran-miroir, l’apport de la psychologie clinique et de sa dimension éthique semble nécessaire, afin d’enrichir le champ de la cyber- psychologie. Ainsi, une réflexion clinique en cyberpsychologie peut apporter des éléments de réponse afin de renforcer et de préserver la dimension intersubjective, dans les interactions offertes par la technologie.

Pour sortir de l’impasse du narcissisme, Lasch faisait appel à la théorie des « objets transitionnels ». Ainsi, les objets transitionnels aident l’enfant à reconnaître le monde extérieur comme quelque chose de distinct de lui, bien que relié à lui. Mais ce caractère transitionnel serait manquant dans les sociétés de consommation, qui ne laisseraient que rarement une place à la frustration et au manque, facteurs contribuant à l’élaboration de la pensée. Cette théorie est très utile pour analyser les usages actuels des TIC. Ainsi, favoriser le caractère transitionnel d’internet se distinguerait d’un « usage narcissique » de cette technologie. Pour décrire la constitution du sujet psychique, Winnicott a discuté le stade du miroir, en y apportant un sens différent de celui du miroir spéculaire décrit par Lacan. Ainsi, l’espace potentiel créé entre le regard de la mère comme miroir et l’enfant, constitue un espace de création du sujet. Cet espace potentiel est aussi une « aire de séparation », qui permet d’aller à la rencontre du « soi ». Le premier miroir, c’est donc le visage de la mère.

Cet aspect subjectivant du regard se retrouve dans le cadre de la visioconsultation, en tant que relation à distance pouvant inclure un tiers humain symboliquement présent et s’illustrer dans un échange interactif et intersubjectif, que l’on peut qualifier de « relation digitale objectale », ou « relation digitale intersubjective ». L’objectif de l’expérience en visioconsultation a été, dès la conception du dispositif, de favoriser l’établissement d’une relation d’objet à distance, ce qui a semblé possible dès les premiers résultats. Ce type de relation digitale paraît occuper une pleine réalité, notamment sur le plan psychique, et on ne peut donc pas la qualifier de « virtuelle ».

Mis en ligne sur Cairn.info le 30/01/2017

https://doi.org/10.3917/lcp.204.0027

Permalink
July 1, 2023 at 11:36:49 AM GMT+2

Les cryptomonnaies par-delà le buzz | CNRS Le journalhttps://lejournal.cnrs.fr/articles/les-cryptomonnaies-par-dela-le-buzz

  • Blockchain
  • Crypto Currency
  • Bitcoin
  • Economy and markets
  • Big Tech
  • Politics
  • Blockchain
  • Crypto Currency
  • Bitcoin
  • Economy and markets
  • Big Tech
  • Politics

Les cryptomonnaies par-delà le buzz

28.06.2023, par Salomé Tissolong

Formidable invention ou danger public ? En bientôt quinze ans d’existence, les cryptoactifs ont montré qu’ils étaient une source d’opportunités mais aussi de risques, et posent des défis aux régulateurs. Des questions sur lesquelles se penche la recherche économique.

Le 3 janvier 2009, les premiers bitcoins sont émis. Si cet événement ne fait pas grand bruit à l’époque, il vient pourtant de marquer l’histoire. « Le Bitcoin1, c’est vraiment l'acte de naissance des cryptomonnaies ! », explique Julien Prat, économiste au Centre de recherche en économie et statistique2 (Crest) et responsable de la chaire académique Blockchain@X de l’École polytechnique. Sous le pseudonyme Satoshi Nakamoto, une personne anonyme – ou un groupe de personnes – vient de réaliser une innovation majeure. Une cryptomonnaie, aussi appelée cryptoactif, est un protocole informatique associé à une base de données partagée qui permet d’effectuer des paiements de pair à pair, c’est-à-dire de manière décentralisée, sans impliquer de banque. Une petite révolution !

Une cryptomonnaie est adossée à une blockchain, une chaine de blocs : des groupes d’informations sont liés entre eux de manière chronologique. C’est un registre public partagé et inviolable où sont enregistrées toutes les transactions effectuées entre participants. « C’est la première fois qu’on arrive à combiner la blockchain avec un mode de gestion décentralisé, poursuit Julien Prat. Ainsi, le droit d'écriture n'est contrôlé par personne. C'est démocratique. »

Un programme prévoit l’émission du nombre de bitcoins : toutes les 10 minutes, des ordinateurs (dits des « mineurs ») reçoivent des jetons, en récompense de la validation des transactions et de leur inscription dans la blockchain. « Ça a tout de suite donné de la crédibilité à cette monnaie, complète Julien Prat. Et une fois qu'on peut s'engager, on peut créer de la rareté, et donc de la valeur. » Il faudra finalement peu de temps au Bitcoin pour connaître un succès mondial. Les années passent, sa valeur s’envole et des milliers d’autres cryptomonnaies voient le jour. On compte parmi elles Ethereum, la deuxième plus importante, mais aussi, Ripple, Cardano ou Solana...

Verrous scientifiques et dangers

Mais l’histoire ne s’arrête pas là. Au-delà d’une révolution scientifique, ces nouveaux objets financiers sont porteurs de grands défis. Un premier enjeu est lié au fonctionnement même de certaines cryptomonnaies. Dans le cas du Bitcoin notamment, qui est de loin la cryptomonnaie la plus importante aujourd’hui3, la création de nouveaux jetons dépend d’un protocole extrêmement énergivore. Le droit de « miner » ou « valider » un nouveau bloc est en effet réservé au gagnant d’un concours qui, dans le cas du bitcoin, se fait sur la résolution d’un calcul brut. C’est la méthode de la preuve de travail (proof of work).

Pour réduire l’empreinte carbone de la blockchain, la solution serait de passer de la preuve de travail (proof of work) à la preuve d'enjeu (proof of stake) qui consomme bien moins d’électricité.

« Mais cela nécessite énormément d’électricité ! Et de plus en plus ! » s’exclame le spécialiste Bruno Biais, directeur de recherche au CNRS au laboratoire Groupement de recherche et d'études en gestion à HEC4. La consommation électrique nécessaire au fonctionnement du réseau Bitcoin représenterait entre 62 TWh et 230 TWh d'électricité par an. « Pour réduire l’empreinte carbone de la blockchain, la solution serait alors de passer de la preuve de travail à la preuve d'enjeu, (proof of stake), qui consomme bien moins d’électricité », explique le chercheur. Dans ce cas, on ne se base plus sur la puissance de calcul, mais sur la capacité à mettre en jeu son capital. Mais cette transition est très complexe à réaliser pour un système décentralisé… Ethereum y est cependant parvenu en septembre 2022.

On pointe aussi du doigt la grande volatilité des cryptomonnaies et les risques de bulle spéculative. En effet, les cours des cryptomonnaies connaissent des variations très importantes. Les prix des actifs peuvent connaître une hausse extrême, puis chuter violemment quand la bulle éclate. En novembre 2021 par exemple, un jeton bitcoin valait près de 69 000 $, son record. Mais deux mois plus tard, il était retombé aux alentours de 30 000 $ ! Cela est dû à la nature même des cryptomonnaies qui ne sont adossées à aucun actif ni à l’économie d’un pays… Contrairement à l’euro ou au dollar par exemple, l’émission d’une cryptomonnaie n’est pas pilotée par une banque centrale. La valeur d’une cryptomonnaie repose donc uniquement sur la confiance qu’on lui accorde. « Tout est une question de croyance, déclare Bruno Biais. Si une monnaie classique a de la valeur, c’est aussi parce qu'on croit qu’elle a de la valeur. Donc quand les croyances changent, la valeur change. Dans le cas des monnaies officielles, c’est un peu moins fluctuant, car ces devises ont un cours légal et qu'on doit payer ses impôts avec. Donc vous voudrez toujours des euros ! »

Bruno Biais explique qu’à l’inverse, une cryptomonnaie n’est pas à l'abri qu’un jour, plus personne ne croie en sa valeur ni n’en veuille, et qu’un bitcoin vaille alors 0 $. « Et au contraire, cela pourrait un jour se stabiliser : on pourrait imaginer que cela devienne plus standard, rentre dans les mœurs, que les croyances fluctuent moins… », conclut-il, sans pouvoir prédire l’avenir. Quoi qu’il en soit, cette volatilité rend les placements très risqués pour des épargnants. « Ça va s’ils savent qu’ils prennent des risques, et qu’ils font ça pour s’amuser, comme quand on va au casino, jouer à la roulette… Mais sinon, ce n’est pas une bonne idée pour un petit épargnant d'acheter du bitcoin, en se disant qu’il prépare sa retraite ! »

L’émission d’une cryptomonnaie n’est pas pilotée par une banque centrale. Sa valeur repose donc uniquement sur la confiance qu’on lui accorde.

Les intermédiaires entre la blockchain et les utilisateurs peuvent aussi être sources de dangers. Si le principe des cryptomonnaies est celui de la décentralisation, tout un écosystème gravitant autour de ces objets financiers a en réalité émergé, et parfois pour le pire. Ces entreprises peuvent en effet entraîner leurs clients dans leur chute en cas de problème, voire en arnaquer certains… Ces dernières années ont été marquées par de nombreuses faillites sur les bourses d’échange de cryptomonnaies, ce qui s’est répercuté sur les épargnants.

On peut citer, entre autres, la plateforme d’échange et d’achat de cryptomonnaies FTX qui, basée sur des montages financiers douteux, se déclare insolvable en novembre 2022. Elle met en difficulté nombre de ses clients, qui n’ont plus accès à l’argent qu’ils avaient entreposé sur leurs comptes. FTX serait aujourd’hui endettée auprès de plus de 100 000 créanciers et devrait plus de 8 milliards de dollars5. En janvier 2023, dans un contexte de crise de confiance, la plateforme de prêts en cryptomonnaies Genesis se déclare à son tour en faillite. Elle devrait plus de 3,5 milliards de dollars à ses créanciers6.

Puisqu’elles se trouvent hors des cadres légaux et permettent de conserver son anonymat, les cryptomonnaies peuvent enfin être utilisées pour des activités répréhensibles, telles que la fraude fiscale, le blanchiment d'argent ou encore le financement du terrorisme… Julien Prat le reconnaît : « Effectivement, vous vous retrouvez dans un système financier qui est pseudonyme et qui opère en dehors des règles et de la régulation standard. » Ce qui offre donc la possibilité d’opérer en marge du système et de s’adonner à activités criminelles et des arnaques via les cryptomonnaies, comme par exemple avec les rançongiciels. L’économiste nuance cependant le propos : « Mais dans la blockchain, tout est tracé. Donc si l’on sait que telle adresse appartient à un criminel, tout ce qu’il fait est visible et enregistré en ligne. Cet argent ne pourra plus jamais être dépensé, plus personne ne voudra l'accepter, il ne sera jamais transféré dans le système financier traditionnel ! »

Vers davantage de régulation

Face à ces risques et récents scandales, quelles réponses politiques et réglementaires les pouvoirs publics peuvent-ils mettre en place pour protéger les épargnants, les investisseurs mais aussi les banques ?

L’ Europe vient de franchir un pas historique avec le règlement MiCA qui obligera les émetteurs et les négociants de cryptomonnaies à faire preuve de transparence.

« Il me semble difficile de réguler ou d'interdire les activités purement décentralisées, répond Julien Prat. Par contre, il est possible de contrôler les ponts avec le secteur régulé, en particulier lors de la conversion en monnaie fiat (monnaie adossée à une banque centrale), ce qui est déjà le cas. Le meilleur moyen de renforcer la protection contre la fraude serait d'améliorer les outils de lecture et d'analyse des données sur chaîne, en développant des méthodologies adaptées basées sur l'intelligence artificielle. »

On remarque une avancée notable en Europe, qui vient de franchir un pas historique dans l’encadrement de tout le secteur des cryptomonnaies. Le règlement MiCA (Markets in Crypto-Assets), approuvé par le Parlement européen le jeudi 20 avril 2023, obligera en effet les émetteurs et les négociants de cryptomonnaies à faire preuve de transparence. Les entreprises devront notamment recevoir le statut CASP (Crypto-Asset Service Providers) pour poursuivre leurs activités, et appliquer une politique « Know Your Customer », qui permet de vérifier l’identité des clients et de lutter contre la fraude et l’utilisation des cryptomonnaies à des fins répréhensibles. La crainte envers les cryptomonnaies et le besoin de régulation qui en découle dépendent cependant du contexte économique de la zone concernée…

Des alternatives intéressantes

Dans certains contextes, les cryptomonnaies peuvent constituer de belles opportunités : elles apparaissent comme de réelles alternatives dans des pays instables économiquement. « Quand la monnaie fonctionne plutôt bien, comme en Europe et aux États-Unis, pourquoi iriez-vous payer votre baguette en bitcoin ? Ça n’a aucun intérêt. C’est seulement pour faire des placements, rappelle Bruno Biais. Mais ça remplit un besoin dans d’autres circonstances : quand la monnaie devient dysfonctionnelle dans certains pays, il peut potentiellement servir d'alternative. »

En 2019 par exemple, quand le système bancaire s’effondre au Liban, il devient impossible de passer par les banques pour effectuer des paiements… Les cryptomonnaies deviennent alors très utiles, notamment pour des entrepreneurs ayant des activités économiques à l’international. L’usage des cryptomonnaies se répand de plus en plus dans les pays en voie de développement7 (Nigeria, Kenya, Vietnam, Inde, Pakistan…), mais on observe une application sans commune mesure au Salvador. Le bitcoin y a en effet été adopté comme monnaie légale en septembre 2021. Il n’a cependant pas connu le succès espéré au sein de la population, et n’est pas vraiment accessible aux plus âgés et aux plus défavorisés – il est nécessaire de posséder un smartphone et une connexion à Internet8. Plus encore, la grande volatilité du bitcoin pourrait faire courir de graves risques financiers à la population. « Si vous vivez dans un pays où les prix ne sont pas exprimés en bitcoin et que vous détenez des bitcoins, votre pouvoir d'achat va augmenter… ou baisser énormément », conclut Bruno Biais.

Au-delà des cryptomonnaies, l’impressionnante blockchain

« Se focaliser sur les cryptomonnaies pour parler de la blockchain, c'est un peu comme se focaliser sur les e-mails pour l'internet, plaisante Julien Prat. Il y a tellement plus de possibilités avec la blockchain ! La cryptomonnaie est la chose la plus simple à faire. » Elle ne représente en effet qu’une application possible de l’utilisation des chaînes de blocs, une technologie bien plus large, qui s’attaque à l’enjeu majeur du partage de données. « On est dans un monde dans lequel l'information est éclatée, morcelée entre les bases de données propriétaires, poursuit l’économiste. L’enjeu est d’arriver à partager des données importantes tout en protégeant la confidentialité. » Cela s’applique à une multitude de domaines : des données économiques, militaires, géostratégiques, de santé… Des nouvelles technologies utilisant les blockchains pourraient alors parvenir à allier partage données sensibles et confidentialité, notamment avec le système des « zero knowledge proof », des preuves à divulgation nulle de connaissance.

Selon le chercheur, une autre application possible est la digitalisation de la monnaie. Une monnaie numérique de banque centrale (MNBC) serait une nouvelle forme de monnaie émise par la Banque centrale, sous un format dématérialisé. L’emploi d’une base de données partagée simplifierait grandement les échanges : des transactions qui se feraient par exemple en euro numérique circuleraient directement sur une blockchain et permettraient de se passer des intermédiaires bancaires. Serions-nous à l’aube d’une nouvelle révolution ? ♦

Notes

  • 1. Bitcoin (avec majuscule) désigne le réseau, bitcoin (sans majuscule) désigne l’unité de compte de la cryptomonnaie qui repose sur le réseau homonyme.
  • 2. Unité CNRS/École polytechnique/Groupe des écoles nationales d’économie et statistiques.
  • 3. [https://fr.statista.com/statistiques/803748/parts-capitalisation-bousier...(link is external)](https://fr.statista.com/statistiques/803748/parts-capitalisation-bousiere-principales-crypto-monnaies/#:~:text=On constate ainsi que les,millions au 14 janvier 2022).
  • 4. Unité CNRS/Établissement d’enseignement supérieur consulaire des hautes-études commerciales Paris.
  • 5. https://www.numerama.com/tech/1177476-5-questions-sur-ftx-la-gigantesque...(link is external)
  • 6. https://www.coindesk.com/business/2023/01/20/genesis-owes-over-35b-to-to...(link is external)
  • 7. https://www.lemonde.fr/idees/article/2021/12/13/dans-les-pays-en-develop...(link is external)
  • 8. https://www.lemonde.fr/idees/article/2022/05/19/au-salvador-le-reve-auto...(link is external)
Permalink
June 29, 2023 at 10:52:29 AM GMT+2

Influencer Caryn Marjorie is competing with her own AI to chat with fans - Los Angeles Timeshttps://www.latimes.com/entertainment-arts/business/story/2023-06-27/influencers-ai-chat-caryn-marjorie

  • Artificial intelligence
  • Attention Economy
  • Societal Collapse
  • Social Network
  • Artificial intelligence
  • Attention Economy
  • Societal Collapse
  • Social Network

Thousands chatted with this AI ‘virtual girlfriend.’ Then things got even weirder

By Brian Contreras Staff Writer June 27, 2023 5:30 AM PT

Last month, Caryn Marjorie went from a successful but niche social media star to a person of national interest: the subject of attention-grabbing headlines and, for many commentators, a template upon which to project their anxieties about rapidly advancing artificial intelligence.

The cause of the furor was a partnership Marjorie, 23, had launched with a technology startup promising to make a personalized AI “clone” of the Scottsdale, Ariz.-based lifestyle influencer. For a dollar a minute, fans she might never have otherwise had the time to meet could instead chat with Marjorie’s digital double.

CarynAI, as the audio chatbot has been dubbed, is explicitly framed as a romantic companion — one that aims to “cure loneliness” with software that supposedly incorporates aspects of cognitive behavioral therapy into its conversations. Marjorie said her fans have used the program to ask for life advice and roleplay a sunset date to the beach.

Marjorie was at one point tracking her subscriber growth in tweets about how many new “boyfriends” she had. “They feel like they’re finally getting to know me, even though they’re fully aware that it’s an AI,” she told The Times.

i have over 20,000 boyfriends now 💗

— Caryn Marjorie (@cutiecaryn) May 20, 2023

This HAL 9000 version of pillow talk has, predictably, triggered a backlash. Critics branded CarynAI as alternately demeaning women, enabling antisocial straight-male behavior or signaling impending societal collapse. Coming amid a period of uncertainty about what AI means for jobs, relationships and cultural institutions, Marjorie’s move toward self-automation seemed to perfectly encapsulate an increasingly bizarre present.

“We’re talking about an AI system [where] theoretically the goal is to keep people on as long as possible so that you continue earning money,” said Amy Webb, chief executive of the consulting firm Future Today Institute. “Which means that it’s likely going to start incentivizing behavior that we probably would not want in the real world.”

Webb suggested as an example a bot that’s too obedient — listening passively, for instance, as a user describes disturbing fantasies. Marjorie has addressed similar dynamics before (“If you are rude to CarynAI, it will dump you,” she tweeted at one point), but when asked about Webb’s perspective she instead emphasized her own concerns about addiction.

“I have seen my fans spend thousands of dollars in a matter of days chatting with CarynAI,” Marjorie said; one fan, at the bot’s encouragement, built a shrine-like photo wall of her. “This is why we have limited CarynAI to only accepting 500 new users in per day.”

As AI comes to play a growing role in the economy, and especially creative industries, the questions prompted by CarynAI will only become more widespread.

But Marjorie isn’t placing all her chips on the technology just yet. Within weeks of announcing her AI clone, she launched a second partnership with a different tech company. This one too would let fans talk with her, but instead it would be Marjorie herself on the other side of the screen.

She struck a deal with Fanfix, a Beverly Hills-based platform that helps social media creators put their premium content behind a paywall, and started using its messaging tools to chat directly with customers.

The result is essentially a two-tier business model where lonely guys looking for a 3 a.m. chat session can talk with Marjorie’s machine mimic, while die-hard fans willing to shell out a bit more can pay for the genuine article.

That within the span of a few weeks Marjorie launched two different, seemingly contradictory business ventures — both aimed at turning fan conversations into money — speaks to a central question of an AI-obsessed moment: With robots increasingly entangled in creative industries, what work should be asked of them and what should be left to us?

Marjorie’s hybrid model offers a preview of one possible path forward.

Users pay a minimum of $5 to send her a message on Fanfix, said co-founder Harry Gestetner. That pricing difference — $5 for one human-to-human text versus $1 for a minute of the AI voice-chatting — signals an approach to automation in which workers use machine learning not as a wholesale replacement but as a lower-end alternative for more frugal customers. (Think of an artisanal farmers market cheese versus a machine-made Kraft Single.)

“Messaging directly with a fan on Fanfix will always be a premium experience,” Gestetner said. “It’s important to view AI as the co-pilot, not the pilot.”

(According to Fanfix, Marjorie is making $10,000 a day after soft-launching on the platform and is projected to hit $5 to $10 million in total earnings by the end of the year.)

John Meyer, founder of Forever Voices, the Austin software company that developed Marjorie’s AI simulacrum, is naturally a bit more bullish on the benefits of punting fan interactions to the computer. In some cases, Meyer said, the bots can be more eloquent than the influencers they’re meant to replicate.

“One of the first feelings it brings up is the idea of, like, ‘Wow, should I be threatened by my own AI copy?’” Meyer said.

He lost his father when he was in his early 20s, and started working on the Forever Voices technology late last year as a means of reconnecting. After developing a voice replica of his dad — which he describes as “very realistic and healing” — Meyer expanded into voice clones of various celebrities and, more recently, web personalities. (One of the biggest names in online livestreaming, Kaitlyn “Amouranth” Siragusa, just signed up.)

The company has been inundated with requests from thousands of other influencers asking for their own AI clones, according to Meyer. “We really see this as a way to allow fans of influencers to connect with their favorite person in a really deep way: learn about them, grow with them and have memorable experiences with them,” he said.

The high demand is in part because maintaining a substantial online following can involve a lot of work — not all of it particularly interesting.

“On a daily basis, I see anywhere from 100,000 to half a million messages on Snapchat,” Marjorie said, explaining the workload that led her to embrace CarynAI. (She has 2 million followers on the messaging app; according to a recent Washington Post article, 98% of them are men.)

She added: “I see AI as a tool, and it’s a tool that helps creators create better content.”

Some of her industry peers are skeptical, however, including Valeria Fridegotto, a TikToker with 20,000 followers.

Fridegotto hasn’t written off the technology completely, though. Software that could lessen the workload of fan interaction would be great, she said, but the examples she’s seen released so far don’t seem lifelike enough to run without supervision. There still are too many errors and non sequiturs — what AI experts call “hallucinations.”

“It has to be developed to the point where we are very confident that this technology is going to act as good as us, or better,” Fridegotto said.

As the market floods with imitators, some influencers may even discover renewed demand for “old-school” human-made content.

“People will start leaning more heavily into authentic, personality-driven content,” said Jesse Shemen, the chief executive of Papercup, a startup that uses AI to automatically dub videos. “In the same way how there’s this fascination and big following behind organic food … I think we’ll see the same thing when it comes to content.”

There is a place for automation on social media, Shemen added, especially for people churning out loads of content on a short timeline — news reaction videos, for instance. But, he predicted, there will be a limited market for digital clones such as Marjorie’s.

Still, a space as frothy as AI is hard to ignore. Even Fanfix, the company helping (the real) Marjorie talk to her super fans, is interested. The company’s founders say they’re actively looking at how AI could help influencers.

Although the influencer economy still needs actual humans, the limits of what AI can do are receding, and many web personalities are getting more and more interested in using the technology to automate at least some of their workload.

Such questions are not confined to social media. Artificial intelligence is being rolled out across creative industries, with media outlets such as Buzzfeed incorporating it into their publications and film studios leveraging it for postproduction work. AI-based screenwriting has emerged as a key concern in the ongoing Writers Guild of America strike.

But social media is uniquely personality-driven, making the sector’s relationship with AI particularly fraught. The value of web personalities depends on their ability to win trust and affinity from their followers. That connection can be so powerful that some experts refer to it as a “parasocial relationship” — a strong but ultimately one-sided devotion to a public figure.

It’s a tricky dynamic to navigate, and one Marjorie finds herself in the midst of.

“In the world of AI, authenticity is more important than ever,” the influencer tweeted last month. “My tweets, [direct messages], direct replies, Snaps, stories and posts will always be me.”

CarynAI, she added, will be an “extension” of her consciousness; it “will never replace me.”

Permalink
June 29, 2023 at 10:20:12 AM GMT+2

Les portes tournantes - Observatoire des multinationaleshttps://multinationales.org/fr/enquetes/les-portes-tournantes/

  • Big Corpo
  • Politics
  • Economy and markets
  • Big Corpo
  • Politics
  • Economy and markets

Les portes tournantes - Observatoire des multinationales

Des ministres qui rejoignent des multinationales, des députés qui deviennent lobbyistes ou inversement, des hauts fonctionnaires qui se mettent au service d’intérêts économiques qu’ils étaient chargés de réguler...
Enquête sur le grand brouillage des frontières entre public et privé.

Quel besoin de faire du « lobbying » au sens conventionnel du terme lorsque vous avez vos entrées privilégiées auprès des décideurs au cœur de l’État - mieux : que vous êtes, serez ou avez été l’un de ces décideurs ?

Les « portes tournantes » - autrement dit les allers-retours entre le secteur public et le secteur privé - sont sans doute l’arme fatale en matière d’influence des grandes entreprises. Non seulement elles offrent aux acteurs économiques un accès privilégié à l’information et aux décideurs, mais elles contribuent à entretenir une culture d’entre-soi et de symbiose qui gomme la frontière entre intérêt public et intérêts privés.

Il est temps de s’attaquer à une pratique qui est à la fois le moteur et le symbole de la déconnexion des élites.


Le grand mélange des genres

Un député qui, avant même la fin de son mandat parlementaire, prend les rênes du principal lobby de l’industrie agroalimentaire en France. Lobby dont l’une des employées deviendra ensuite conseillère communication du ministre de l’Agriculture, tandis qu’une autre a participé à la campagne de réélection d’Emmanuel Macron en 2022.

Des dizaines d’anciens ministres de ce même Emmanuel Macron qui partent travailler dans le secteur privé ou créent leurs propres sociétés de « conseil », et se retrouvent à faire du lobbying auprès d’anciens collègues à l’Assemblée et au gouvernement.

Deux ex premiers ministres parti pour le premier prendre la tête de la RATP, et recruté pour le second au conseil d’administration d’une grande entreprise privée, Atos, tout en restant maire du Havre et en cultivant des ambitions politiques nationales.

Une ancienne dirigeante de la Fédération bancaire française propulsée trois ans plus tard à la tête de l’Autorité des marchés financiers – autrement dit passée en quelques mois du principal lobby de la finance à l’institution chargée de réguler ce même secteur.

Un président de région qui annonce sa démission pour cause « d’impératifs familiaux » et qui rejoint quelques jours plus tard un promoteur immobilier actif dans la même région Grand-Est. Et dont on découvre à cette occasion qu’il a été rémunéré par un cabinet de lobbying parisien à hauteur de 5000 euros par mois alors même qu’il était à la tête du conseil régional.

Un secrétaire général de l’Élysée mis en examen pour prise illégale d’intérêts parce qu’il a supervisé, au nom de l’État, le destin des chantiers navals de Saint-Nazaire et du port du Havre alors même qu’il avait des liens professionnels et familiaux avec l’un de leurs principaux clients, le géant du transport maritime MSC.

"Les mobilités incessantes entre la sphère politique, la haute administration et les grandes entreprises sont devenues la norme."

Plus une semaine ne passe sans que l’on entende parler d’un ancien ministre ou un ancien député parti poursuivre sa carrière dans le secteur privé, ayant rejoint une cabinet d’avocats ou fondé une société de « conseil » pour monétiser son carnet d’adresses et son expérience des arcanes du pouvoir. En sens inverse, sous couvert d’ouverture à la « société civile », les transfuges du secteur privé sont aussi de plus nombreux au Parlement et au gouvernement.

Les élus ne sont pas les seuls concernés. Pour beaucoup de hauts fonctionnaires aussi, une carrière parsemée de passages plus ou moins longs dans le secteur privé est devenue naturelle. Les postes occupés à la tête de l’administration ou dans les cabinets ministériels ne sont parfois plus que des tremplins pour obtenir rapidement des emplois bien plus lucratifs dans les comités de direction de grandes banques ou de multinationales.


Au-delà des scandales, un enjeu démocratique

S’ils suscitent toujours autant d’indignation, les échanges de personnel entre la sphère politique, la haute administration et les grandes entreprises sont devenus silencieusement la norme, cause et symptôme à la fois du brouillage des frontières entre le public et le privé, entre le bien commun et les intérêts commerciaux.

Ces « portes tournantes » sont souvent perçues à travers un prisme éthique, celui d’élus ou de grands serviteurs de l’État qui choisiraient de « vendre leur âme » aux milieux d’affaires pour des raisons bassement vénales. Mais les cas individuels qui font scandale sont aussi – surtout ? – la pointe émergée d’un iceberg beaucoup plus profond. Les allers-retours entre le public et le privé sont devenus beaucoup plus fréquents, et il touchent tous les niveaux hiérarchiques et toutes les institutions, sans tous les garde-fous nécessaires.

Mais quel est le problème ?

Les portes tournantes sont d’abord un formidable moyen d’influence. En matière de lobbying, la capacité des grandes entreprises à recruter un ancien responsable public est souvent l’arme fatale. Ces recrutements leur offrent un accès privilégié aux décideurs, souvent décisif pour disposer des bonnes informations avant tous les autres et pour cibler les interlocuteurs pertinents, tout en étant sûres d’être entendues. Le tout sans avoir à se préoccuper des regards scrutateurs du public.

Les allers-retours public-privé contribuent à renforcer une culture de l’entre-soi, où dirigeants politiques et économiques se fréquentent quasi quotidiennement, et parfois échangent leurs rôles, en raffermissant leur vision du monde partagée à l’abri des contradicteurs.

Ce mélange des genres permanent est évidemment aussi une source inépuisable de conflits d’intérêts. Comment s’assurer qu’un responsable public évitera de favoriser une entreprise pour laquelle lui, un (ex) collègue au gouvernement, un de ses (ex) conseillers ou un (ex) directeur d’administration travaille ou a travaillé ? La vie politique est polluée par cet entrelacement de liens d’intérêts aussi innombrables qu’inextricables.

Une certaine vision biaisée du monde (et de l’économie)

L’échangisme public-privé reflète enfin le déclin programmé du sens de l’État et du service public. Car la circulation entre les deux sphères est tout sauf équilibrée. À travers les portes tournantes, ce sont les modèles, les critères et les objectifs des milieux d’affaires qui pénètrent dans la sphère publique et non l’inverse.

On dit parfois que ces mobilités seraient utiles parce qu’elles apporteraient à l’État une expérience du monde de l’entreprise, présenté comme la quintessence de la « vie réelle ». En réalité, outre qu’elles ne concernent que des postes de direction, pas vraiment représentatifs de la diversité sociale, la plupart des portes tournantes n’ont rien à voir avec une quelconque réalité économique. Les anciens responsables politiques se voient généralement confier des tâches de conseil, de lobbying ou d’affaires publiques. Ils continuent à baigner dans le même monde de symbiose public-privé, mais de l’autre côté de la barrière. Loin de refléter une conversion à « l’entrepreneuriat », ces débauchages sont plutôt le symptôme d’un monde des affaires qui vit aux crochets de la puissance publique.

Loin de refléter une conversion à « l’entrepreneuriat », ces débauchages sont plutôt le symptôme d’un monde des affaires qui vit aux crochets de la puissance publique.

« Portes tournantes » ou « pantouflage » ?

En France, on parle traditionnellement de « pantouflage » pour désigner les reconversions d’anciennes personnalités politiques ou d’anciens haut fonctionnaires dans le secteur privé. Le terme, issu du jargon de la haute fonction publique, évoque le confort matériel que les grands commis de l’État sont réputés aller chercher, en fin de carrière, dans le giron des grandes entreprises. Du coup, le terme de pantouflage a presque un côté inoffensif, comme une manière un peu coupable, mais aussi au fond assez compréhensible, de se compenser pour les sacrifices faits au service de l’intérêt général.

En réalité, il y a longtemps que les passages du public au privé ne se font plus seulement en fin de carrière, et plus seulement dans un seul sens. Il ne s’agit plus d’allers simples et définitifs – qui d’une certaine manière maintiennent la légitimité de la frontière en même temps qu’ils la franchissent – mais d’un aller-retour incessant qui a pour effet d’abolir les frontières. Aujourd’hui, la carrière typique de nos dirigeants est de commencer dans les ministères ou les cabinets, puis de passer quelques années dans le privé, puis de revenir dans le public pour un nouveau « challenge », avant de repartir dans le privé.

Les controverses occasionnées par le recrutement ou le retour dans le giron public d’anciens lobbyistes ou cadres de grandes entreprises ont obligé à inventer le terme barbare de « rétro-pantouflage », voire de « rétro-rétro-pantouflage ». Le terme de portes tournantes, utilisé en anglais (revolving doors) et dans d’autres langues, nous paraît plus facile à manier, et bien plus pertinent.

Bien sûr, il n’y a pas qu’en France

Des anciens ministres allemands, espagnols ou britanniques ont eux aussi été débauchés par des géants de l’industrie ou de la finance. À Bruxelles, l’échangisme entre milieux d’affaires et institutions européennes est une habitude tellement enracinée, depuis les stagiaires jusqu’aux échelons supérieurs de la Commission, qu’ils n’attire presque plus l’attention, sauf pour les cas les plus extrêmes. Par exemple lorsque l’ancien président de la Commission José Manuel Barroso va grossir les rangs de Goldman Sachs. Ou que Nellie Kroes, ancienne commissaire en charge du Numérique et de la Concurrence, s’empresse en fin de mandat d’aller travailler pour Uber.

En France, la pratique est désormais tout aussi solidement ancrée, d’autant qu’elle se conjugue avec une tradition ancienne de collaboration entre l’État et les grands groupes financiers et industriels.


De quoi la Macronie est-elle le nom ?

Les « portes tournantes » atteignent le sommet même de l’État. Emmanuel Macron, locataire actuel du palais de l’Élysée, a passé plusieurs années au sein de la banque d’affaires Rothschild, entre un poste à l’inspection des Finances à Bercy et sa nomination comme secrétaire général adjoint du président François Hollande. Qui sait d’ailleurs ce qu’il fera à l’issue de son deuxième quinquennat ?

Les premiers ministres successifs d’Emmanuel Macron se fondent dans le même moule. Édouard Philippe, en sus de sa carrière politique, est à l’origine un haut fonctionnaire du Conseil d’État qui a travaillé pour un cabinet d’avocats d’affaires, puis en tant que responsable des affaires publiques – autrement dit lobbyiste en chef – du groupe nucléaire Areva. Après avoir quitté Matignon, il a intégré le conseil d’administration du groupe Atos tout en conservant ses fonctions et ses ambitions politiques. Jean Castex, pour sa part, a pris la direction de la RATP après avoir brièvement fondé une société de conseil.

Plus d’un tiers des ministres d’Emmanuel Macron venaient du monde des grandes entreprises...

En 2017, beaucoup des nouveaux ministres d’Emmanuel Macron sont arrivés eux aussi en droite ligne du monde des grandes entreprises. C’est le cas de l’actuelle Première ministre Élisabeth Borne, qui a alterné divers postes dans des cabinets ministériels ou à la mairie de Paris avec des passages au sein de grands groupes – la SNCF, le groupe de BTP Eiffage, puis la RATP. Mais la liste inclut aussi Emmanuelle Wargon et Muriel Pénicaud (toutes deux de Danone), Amélie de Montchalin et Laurence Boone (Axa), Amélie Oudéa-Castera (Axa et Carrefour), Benjamin Griveaux (Unibail), Cédric O (Safran), Olivia Grégoire (Saint-Gobain), Brune Poirson (Veolia), et quelques autres.

En tout, selon notre décompte, plus d’un tiers de tous les ministres et secrétaires d’État entrés au gouvernement depuis l’accession à l’Élysée d’Emmanuel Macron (33 sur 96) étaient issus ou avaient passé une partie de la décennie précédente au service d’une ou plusieurs grandes entreprises.

… et la moitié y sont retournés

Combien d’anciens ministres et secrétaires d’État sont-ils retournés dans le privé après leur sortie du gouvernement ? Selon notre même décompte, c’est le cas d’environ la moitié d’entre eux (27 sur 53 qui ont quitté le gouvernement). Le quotidien Le Monde, qui a réalisé sa propre estimation en ne tenant compte que des portefeuilles ministériels, avance quant à lui une proportion d’un tiers.

Brune Poirson, venue au gouvernement de chez Veolia, est aujourd’hui directrice du développement durable du groupe hôtelier Accor. Muriel Pénicaud a rallié le conseil d’administration du groupe Manpower – un sujet dont elle maîtrise sans doute tous les rouages en tant qu’ancienne ministre du Travail –, tandis que Sibeth Ndiaye a été recrutée par son concurrent Adecco. Jean-Michel Blanquer, en plus de rejoindre un cabinet d’avocats, doit prendre la direction d’un réseau d’écoles de formation lancé par Veolia, Terra Academia. Certains comme Julien Denormandie, ex ministre de la Ville puis de l’Agriculture, ou Jean-Baptiste Djebbari, ancien ministre des Transports, sont de véritables *serial pantoufleurs*. Le premier, en plus de créer sa société de conseil, a rejoint une start-up, une société immobilière et un établissement de crédit. Le second a rejoint Hopium, une entreprise spécialisée dans la voiture à hydrogène (qu’il a quittée au bout d’un an), lancé sa propre société de conseil, et entendait se faire embaucher par le géant du transport maritime CMA-CGM, mais s’est heurté au veto de la Haute autorité de la transparence pour la vie publique (HATVP), autorité indépendante chargée de réguler l’éthique publique.

De même pour Cédric O, qui voulait rejoindre Édouard Philippe au conseil d’administration d’Atos. Problème : en tant que secrétaire d’État, il avait validé l’attribution de soutiens publics au géant du numérique. Dans une tribune publiée en janvier dans Le Monde, avant que son conflit avec la HATVP soit porté sur la place publique, il s’était plaint que qu’il lui soit difficile « d’aller travailler pour une entreprise du numérique française – dont il y a une probabilité importante qu’elle ait été aidée par l’État français ces dernières années ».

La boîte noire des sociétés de « conseil »

Pour la plupart des anciens ministres, la reconversion dans le privé se fait sous la forme de la création d’une société de « conseil ». Selon les informations publiquement disponibles, c’est le cas pour au moins Jean Castex (qui a fait radier cette société lors de sa nomination à la RATP), Roselyne Bachelot, Jean-Michel Blanquer, Christophe Castaner, Sophie Cluzel, Julien Denormandie, Jean-Baptiste Djebbari, Richard Ferrand, Laura Flessel, Delphine Geny Stephann, Benjamin Griveaux, Nicolas Hulot, Jean-Yves Le Drian, Mounir Mahjoubi, Roxana Maracineanu, Élisabeth Moreno, Françoise Nyssen, Cédric O, Florence Parly, Muriel Pénicaud, Laurent Pietraszewski, Brune Poirson, François de Rugy et Adrien Taquet. Soit près de la moitié des anciens ministres et secrétaires d’État d’Emmanuel Macron, et la quasi totalité de ceux qui sont partis dans le privé.

Créer une société de conseil est un bon moyen de rester discret sur ses activités réelles.

Créer ce type de société est un bon moyen de rester discret sur ses activités réelles, au bénéfice de qui elles s’exercent, et les revenus qu’on en tire. Elles ne publient pas leurs comptes et ne sont pas tenus de divulguer le nom de leurs clients. Elles permettent également d’échapper en partie à la surveillance de la Haute autorité pour la transparence de la vie publique. Ainsi, lorsque le fonds d’investissement Raise a annoncé haut et fort à l’automne 2022 s’être attiré les talents de Julien Denormandie, cela n’a pas manqué de susciter des interrogations vu que ce recrutement n’avait pas été officiellement examiné par la Haute autorité. L’explication ? Julien Denormandie aurait en réalité été recruté sous la forme d’une prestation de sa société de conseil. On se demande combien de missions similaires réalisées par des ex ministres passent sous les radars grâce à ce tour de passe-passe. L’annonce de l’embauche de Jean-Michel Blanquer par Veolia suscite les mêmes questionnements, récemment relayées par Libération.

La valse publique-privée des conseillers ministériels

En 2017, le mot d’ordre de l’ouverture à la société civile a entraîné un afflux de conseillers venus des entreprises, voire carrément de lobbys, dans les cabinets ministériels. L’un des cas les plus emblématiques – et les plus controversés - a été le recrutement d’Audrey Bourolleau, directrice du principal lobby viticole français, Vin et Société, comme conseillère agriculture, pêche, forêt et développement rural de l’Élysée. Elle semble d’ailleurs avoir utilisé cette position pour favoriser la cause de ses anciens employeurs.

À la fin de la mandature, de nombreux conseillers ministériels sont repartis en sens inverse. Selon un autre décompte effectué par les journalistes du Monde, sur les 602 conseillers en postes en janvier 2022, 91 avaient rejoint en décembre le secteur privé. Pour beaucoup, c’était pour la première fois de leur carrière. D’autres étaient déjà des habitués des allers-retours dans le monde de l’entreprise. Benoît Ribadeau-Dumas par exemple, directeur de cabinet d’Édouard Philippe à Matignon, avait auparavant quitté le conseil d’État pour occuper des postes au sein de Thales, CGG et Zodiac (armement). En 2020, il est reparti dans le privé, d’abord au sein du réassureur Scor, ensuite en créant une société de conseil et en intégrant Exor, le groupe de la famille Agnelli, principal actionnaire du constructeur Stellantis. Il siège également au conseil d’administration de Galileo Global Education, dont il sera question plus bas.

Des reconversions très ciblées

De manière symptomatique, ces reconversions se sont souvent faites dans les mêmes secteurs d’activité que les conseillers étaient chargés de superviser. L’ex-cheffe de cabinet du ministre de l’Agriculture Marc Fesneau a rejoint le lobby des pesticides Phyteis. Une autre de ses conseillères travaille aujourd’hui pour le lobby des céréales. Des conseillers de Jean-Baptiste Djebarri au ministère des Transports ont suivi son exemple en partant chez Air France, CMA-CGM et Faurecia (équipements automobiles).

Dans le sens inverse, la nouvelle génération de ministres et de secrétaires d’État, tout comme les rescapés des gouvernements précédents, ont été cherché une partie de leurs conseillers dans les entreprises et les lobbys des secteurs dont ils ont pourtant la responsabilité. Le nouveau ministre des Armées Sébastien Lecornu a par exemple choisi comme conseiller pour l’industrie et l’innovation un ancien de chez Airbus et Thales. Au ministère de l’Agriculture, Marc Fesneau a remplacé ses conseillères sortantes en allant recruter en mai 2023 du côté du lobby de l’industrie agroalimentaire et de celui des grandes coopératives agricoles.

Doubles casquettes au Parlement

À l’Assemblée nationale et au Sénat aussi, le mot d’ordre de « l’ouverture à la société civile » a entraîné une augmentation, à partir de 2017, du nombre de parlementaires venus de grandes entreprises, ou carrément de cabinets de lobbying comme Olivia Grégoire (Avisa Partners) ou la présidente du groupe macroniste Aurore Bergé (Spintank, Agence Publics et Hopscotch). Entre 2017 et 2022, Veolia comptait ainsi pas moins de trois députées issues de ses rangs dans l’hémicycle, dont la secrétaire d’État Brune Poirson aujourd’hui chez Accor. Aujourd’hui encore, on compte quatre employés d’EDF dans les rangées de l’Assemblée, dont la macroniste Maud Brégeon, porte-parole d’Emmanuel Macron lors des récentes campagnes électorales, cheffe de file parlementaire et médiatique de la majorité sur le dossier du nucléaire.

En sens inverse, de nombreux députés macronistes qui n’ont pas été réélus en 2017 ou n’ont pas souhaité se représenter sont venus grossir les effectifs du secteur privé, et en particulier des lobbys. Mickaël Nogal a même abandonné son mandat prématurément, quelques mois avant les élections de 2022, pour prendre la direction de l’Ania, principal lobby de l’industrie agroalimentaire. Un juste retour des choses puisqu’avant d’être député, il était déjà lobbyiste pour le groupe Orangina. Jean-Baptiste Moreau, ancien agriculteur et pourfendeur de l’alimentation « vegan » et des écologistes durant la mandature, travaille désormais pour le cabinet de lobbying RPP. Jean-Charles Colas-Roy, ancien député de l’Isère, a quant à lui pris la direction de Coénove, association de lobbying de l’industrie gazière.

Casseroles politiques

Beaucoup des affaires qui entachent aujourd’hui la Macronie sont liées à la pratique trop assidue des portes tournantes, qui créent de véritables bourbiers de conflits d’intérêts.

Le secrétaire général de l’Élysée Alexis Kohler est aujourd’hui mis en examen pour prise illégale d’intérêts parce qu’il a participé activement à plusieurs décisions stratégiques relatives à la gestion de STX (Chantiers de l’Atlantique) et du port du Havre alors qu’il entretenait des liens personnels et familiaux avec l’un de leurs principaux clients et partenaires, le géant du transport maritime MSC. Entre deux fonctions à Bercy et à l’Élysée, il a même été quelques mois directeur financier de MSC, au moment même où il participait à la première campagne présidentielle d’Emmanuel Macron.

Dans l’affaire Alstom, une partie des soupçons s’oriente sur le financement de la première campagne présidentielle d’Emmanuel Macron par des parties qui auraient bénéficié du rachat controversé des activités énergie du champion français par General Electric. Hugh Bailey, conseiller d’Emmanuel Macron à Bercy au moment des faits, a d’ailleurs pris la tête de General Electric France en 2019.

Ce sont loin d’être les seules casseroles que traînent derrière eux les alliés politiques d’Emmanuel Macron. L’actuelle première ministre Élisabeth Borne, d’abord en tant que principale conseillère de Ségolène Royal puis en tant que ministre des Transports, a joué un rôle clé dans la signature de contrats très controversés avec les concessionnaires autoroutiers, alors qu’elle a elle-même travaillé pour l’un d’entre eux, Eiffage. Roland Lescure, actuel ministre de l’Industrie, s’est fait le fer de lance de la privatisation avortée d’Aéroports de Paris au Parlement et dans les médias, sans préciser que l’un des principaux repreneurs potentiels n’était autre que son ancien employeur, la Caisse des dépôts et placements du Québec.

L’apogée d’une tendance de long terme

La pratique des portes tournantes, longtemps restée discrète voire honteuse, est désormais assumée comme telle au plus haut de l'État.

Emmanuel Macron n’est certes pas le premier dirigeant de la République à pratiquer l’échangisme public-privé. Georges Pompidou a lui aussi passé quelques années dans la même banque Rotschild dans les années 1950. Plus récemment, d’anciens ministres de François Hollande sont eux aussi partis dans le secteur privé, à l’image de Fleur Pellerin (fonds d’investissement Korelya et Crédit mutuel, entre autres), Axelle Lemaire (Roland Berger) ou Myriam El Khomri, qui a créé une société de conseil. L’habitude de recruter des conseillers dans le secteur privé existait déjà, quand bien même elle s’est renforcée. Et le Parlement avait déjà connu son lot d’affaires retentissantes, à commencer par les révélations sur les douteuses activités de « conseil » de François Fillon au profit du CAC40 et de la Russie.

Pourtant, on peut considérer qu’un pas a bien été franchi en 2017. Jamais l’échangisme entre l’État et milieux d’affaires ne s’était trouvé à ce point normalisé et légitimé que sous les deux derniers quinquennats. Le grand carrousel public-privé ne concerne pas seulement le président, mais aussi ses principaux conseillers, ses ministres et nombre de députés de sa majorité.


Quand régulateurs et régulés échangent leurs places

Quoi de plus efficace pour convaincre un décideur que de lui envoyer... un de ses anciens collègues ? Les cabinets de lobbying et les associations industrielles raffolent des profils d’ex élus ou hauts fonctionnaires, particulièrement s’ils avaient des responsabilités dans le secteur d’activité qui les intéresse directement. Carnet d’adresses, maîtrise technique des dossiers et des rouages de l’administration, facilité d’accès aux décideurs... Ces recrutements ont de nombreux avantages.

La conséquence, c’est que lorsque les représentants de l’État s’assoient à la même table que les représentants de l’industrie qu’ils ont pour rôle de superviser et de réguler, ils se retrouvent souvent avec pour interlocuteurs...une majorité d’anciens collègues. Si l’on compare leurs profils et leurs parcours, il devient de plus en plus difficile de discerner une différence entre régulateurs et régulés.

Petits arrangements entre amis

Du côté du ministère des Finances, il serait inimaginable de commencer à travailler sur un projet de loi ou de réglementation sans en parler à la Fédération bancaire française.

Prenons le cas de la Fédération bancaire française (FBF), principal lobby de la finance en France. Du côté du ministère des Finances, il serait inimaginable de commencer à travailler sur un projet de loi ou de réglementation sans les rencontrer et récolter leur avis bien en amont, avant même que les parlementaires et a fortiori la société civile soient même avertis de leurs projets. Ils pourront d’ailleurs échanger en toute confiance, puisque leurs interlocuteurs ne seront autres que d’anciens collègues de Bercy. Si la présidence de la FBF est assurée, de manière tournante, par l’un ou l’autre des patrons de BNP Paribas, Société générale, Crédit agricole ou BPCE (eux-mêmes issus des rangs de la haute fonction publique), le comité de direction de la fédération est composé majoritairement d’anciens serviteurs de l’État : trois membres du comité exécutif, dont la directrice générale Maya Attig, viennent de Bercy, une autre a occupé diverses fonctions dans des cabinets ministériels ou de collectivités locales, et un autre encore, conseiller à la sécurité, vient du ministère de l’Intérieur. Seul un membre sur six a effectué une carrière « normale » dans le privé, sans passage par le secteur public.

Le mouvement se fait aussi en sens inverse. Marie-Anne Barbat-Layani, il y a peu déléguée générale de cette même Fédération bancaire française, est aujourd’hui à la tête de l’Autorité des marchés financiers (AMF). C’est l’aboutissement d’une carrière de plus en plus typique : la direction du Trésor, la Représentation française auprès de l’Union européenne, le Crédit agricole, le cabinet du Premier ministre François Fillon, puis la FBF et enfin, après les trois années réglementaires à Bercy, la direction de l’AMF. Pour symbolique qu’elle soit, cette nomination n’est en réalité que le dernier épisode en date d’une longue histoire d’allers-retours entre les plus hauts échelons de l’État et les géants bancaires – particulièrement, comme on y reviendra, pour les inspecteurs généraux des finances. En 2015, la nomination de François Villeroy de Galhau, dirigeant de BNP Paribas, à la tête de la Banque de France, avait déjà fait scandale.

Télécoms, numérique, énergie : la fabrique de l’entre-soi

Le secteur des télécoms est lui aussi particulièrement propice aux échanges de places entre secteur public et secteur privé. Le patron de la Fédération française des télécoms est lui aussi un ancien des autorités de régulation Arcep (Autorité de régulation des communications électroniques, des postes et de la distribution de la presse) et Arcom (Autorité de régulation de la communication audiovisuelle et numérique, issue de la fusion entre CSA et Hadopi) ainsi que du ministère du Numérique. Un autre membre du comité de direction a travaillé dans différents ministères après avoir été assistant parlementaire, tout comme un de ses collègues qui a ensuite, lui, été conseiller le maire du XIXe arrondissement de Paris. Une autre encore a travaillé pour le CSA et le ministère de la Culture.

mpossible de ne pas évoquer non plus le secteur de l’énergie. Dans l’équipe de l’Union française de l’électricité, au moins deux personnes viennent de la Commission de régulation de l’énergie, autorité chargée de superviser le secteur, tandis qu’une autre a travaillé pour deux autres autorités indépendantes, l’Autorité de la concurrence et l’Arafer (transport).

Dans d’autres lobbys sectoriels, la proportion de cadres issus de la fonction publique n’est pas aussi caricaturale, mais reste néanmoins importante. L’actuel directeur du LEEM, le lobby de l’industrie pharmaceutique en France, est un ancien de l’Agence du médicament et du ministère de la Santé.

Les GAFAM s’acclimatent aux traditions françaises

De plus en plus critiqués, les géants américains du web ont dû muscler ces dernières années leur machinerie de lobbying en France et en Europe, et ils ont immédiatement compris l’intérêt de faire un usage stratégique des portes tournantes.

Le directeur des affaires publiques Europe d’Amazon est par exemple un ancien conseiller à Bercy et Matignon et maître des requêtes au Conseil d’État. Le géant de l’e-commerce peut également compter sur les services d’un ancien de l’Arcom (ex CSA). Idem chez Apple, Microsoft, Facebook, Uber ou Airbnb. Mais c’est Google qui remporte la palme dans ce domaine. Parmi ses lobbyistes, on trouve ou on a trouvé un ancien de l’Autorité de régulation des télécommunications et du ministère des Affaires étrangères, une ancienne représentante de la direction du développement des médias pour la société de l’information à Matignon, un ancien maître des requêtes au Conseil d’État, une ancienne du cabinet du ministère de l’Industrie, et un ancien directeur général de l’Arcep, Benoît Loutrel.

La symbiose public-privé

À l’image de la nomination de Marie-Anne Barbat-Layani à l’AMF, les autorités indépendantes de régulation voient aussi désormais arriver à leur tête des transfuges du secteur privé.

Ces mouvements de personnel existent aussi au niveau européen. En 2020, Airbus a ainsi recruté l’ancien patron de l’Agence européenne de défense. La même année, c’est le patron de l’Autorité bancaire européenne qui a rejoint l’Association pour les marchés financiers en Europe (AFME), l’un des principaux lobbys du secteur à Bruxelles. Comble du comble, l’Autorité bancaire s’apprêtait à embaucher, pour le remplacer ... un ancien dirigeant de l’AFME ! Elle y a finalement renoncé sous le feu des critiques venant notamment du Parlement européen.

Pourquoi les échanges de personnels entre régulateurs et régulés sont-ils particulièrement importants dans des secteurs comme la finance ou le numérique ? Ce sont des domaines d’activités très régulés et dont la compréhension requiert un certain niveau d’expertise technique – laquelle est difficile à trouver en dehors des grandes entreprises concernées. Les réglementations sont souvent négociées pied à pied avec les industriels, ce qui les rend encore plus difficiles à maîtriser pour le commun des mortels. Cela crée un cercle vicieux où, au mieux, les experts du secteur public ou privé font affaire entre eux loin des regards des citoyens, et, au pire, les régulateurs recrutent d’anciens banquiers parce qu’ils sont les seuls à pouvoir comprendre les régulations qu’ils sont censés appliquer... vu que ce sont eux qui les ont conçues.

McKinsey, Capgemini : portes tournantes contre contrats de conseil

L’« affaire McKinsey » a mis en lumière le rôle croissant des consultants en stratégie dans la conception et la mise en œuvre des politiques publiques. Rien que pour l’année 2021, l’État a dépensé la bagatelle de 2,5 milliards d’euros au profit de ces cabinets, pour des travaux dont la qualité est souvent questionnée. Ce juteux « business » se nourrit lui aussi de portes tournantes. La Direction interministérielle à la transformation publique compte en son sein de nombreux anciens employés de cabinets, alors même qu’elle est chargée de coordonner une partie des missions de conseil commandées par l’État. Un de ses chefs de service vient par exemple de Capgemini.

En 2021, le cabinet Roland Berger est allé jusqu'à proposer à Bercy l'aide... d'une ancienne secrétaire d'État, Axelle Lemaire

De leur côté, les cabinets raffolent des profils d’anciens hauts fonctionnaires. Capgemini, par exemple, a recruté en août 2022 l’ancien conseiller chargé de l’approvisionnement stratégique, électronique et numérique au ministère chargé de l’Industrie. Ces débauchages constituent ensuite des arguments de poids pour décrocher des marchés publics. En 2021, le cabinet Roland Berger est allé jusqu’à proposer à Bercy l’aide... d’une ancienne secrétaire d’État, Axelle Lemaire.

Transports, éducation, santé : un rouage essentiel de la machine à privatiser

Les grands pantoufleurs des années 1980 et 1990 étaient souvent les hauts fonctionnaires qui préparaient la privatisation d’entreprises publiques, et finissaient par prendre la direction de ces dernières, à l’image de l’ancien patron de GDF Jean-François Cirelli, aujourd’hui à la tête de BlackRock France. Aujourd’hui, ce sont ceux qui préparent les « ouvertures à la concurrence ». Qui dit libéralisation dit nouvelles opportunités de profits, et comment mieux les saisir que de s’adjoindre les services des anciens responsables publics qui ont eux-mêmes élaboré le cadre réglementaire de la libéralisation et en connaissent tous les rouages, ou bien connaissent personnellement les futurs clients qui devront signer les marchés ?

Après le transport aérien, les télécommunications, l’énergie et les services postaux (entre autres), ce sont aujourd’hui les secteurs des transports urbains et des trains régionaux qui passent sous la loi du marché. Conséquence directe : les entreprises du secteur recrutent d’anciens décideurs à tour de bras. Si l’ancien Premier ministre Jean Castex a pris la tête de la RATP, son concurrent Transdev a recruté son ancienne conseillère chargée des transports, Alice Lefort, de même que deux anciennes conseillères du ministre des Relations avec les collectivités territoriales Joël Giraud, un cadre d’Ile-de-France Mobilités, et un directeur adjoint de cabinet à la région Grand Est, selon le décompte du magazine Challenges.

Ce qui vaut aujourd’hui pour les transports vaudra-t-il demain pour l’éducation ou la santé, futures frontières de l’ouverture à la concurrence ? C’est ce que l’on peut soupçonner à voir la politique récente de recrutement de Galileo, révélée par Libération. Cette multinationale de l’enseignement supérieur privé a fait venir à son C.A. l’ex ministre Muriel Pénicaud et l’ancien directeur de cabinet à Matignon Benoît Ribadeau-Dumas, et s’est également adjoint les services de Martin Hirsch (ancien Haut commissaire aux solidarités et directeur des hôpitaux de Paris) et de l’ancien PDG de la SNCF Guillaume Pépy.


« Le lobby, c’est l’État »

« En France, le lobby, c’est l’État », disait une ancienne ministre de l’Environnement. Elle parlait du nucléaire, mais le même constat pourrait être fait sur bien d’autres dossiers. Dans certains ministères, une bonne partie des responsables publics sont déjà largement acquis à la cause des intérêts économiques qu’ils sont chargés de superviser, de sorte qu’il n’y a même pas besoin de les « influencer ». Ce sont au contraire eux qui se chargeront de faire du lobbying auprès des autres ministères.

Si les personnels des ministères, des autorités de régulation et des entreprises sont issus du même moule, il y a peu de chances qu'ils remettent en cause le modèle dominant.

Cette solidarité au sommet se construit en particulier au niveau des grandes écoles et des grands corps de l’État, viviers des dirigeants du public comme du privé, comme les Mines ou l’Inspection générale des finances. Si les personnels des ministères, les dirigeants des autorités de régulation et les cadres des entreprises sont tous issus du même moule et du même cénacle et s’échangent régulièrement leurs places, il y a peu de chances qu’ils remettent en cause le modèle dominant qui fait leur prospérité collective, qu’il s’agisse de la haute finance dérégulée, du nucléaire ou de l’agriculture industrielle.

L’Inspection générale des finances (IGF), machine à pantoufler

Quel est le point commun entre Emmanuel Macron, François Villeroy de Galhau, Marie-Anne Barbat-Layani, Jean-Pierre Jouyet, François Pérol, Pascal Lamy, Alain Minc, le directeur de Bpifrance Nicolas Dufourcq, et les anciens patrons d’Orange, Saint-Gobain ou la Société générale ? Ils sont tous issus du corps des inspecteurs des finances, et ils ont tous alterné des postes à haute responsabilité dans le public et dans le privé.

Ils sont loin d’être l’exception puisque selon un décompte réalisé par Basta ! sur les promotions successives de l’IGF entre 1975 et 2019, 59% des inspecteurs des finances ont fait au moins un passage dans le secteur privé, et plus d’un tiers ont travaillé pour une grande banque.

Avec un tel niveau d’entre-soi, comment s’étonner que le secteur financier reste aussi mal régulé ? Suite à la crise financière de 2008, de nombreuses voix s’étaient élevées pour réclamer de remettre la finance sous contrôle. Les géants du secteur ont su trouver les moyens de tuer ces velléités dans l’oeuf. Le projet de loi français sur la « séparation bancaire » de 2013, par exemple, a été vidé de sa substance depuis l’intérieur même de Bercy, par un comité baptisé « comité BNP Paribas » du fait du profil de ses membres. Parmi les principaux responsables de cette échec organisé, Ramon Fernandez, alors directeur du Trésor, est aujourd’hui chez le géant du transport maritime CMA-CGM après avoir passé plusieurs années chez Orange, tandis que le principal conseiller pour le secteur financier du Premier ministre de l’époque, Nicolas Namias, est président du directoire de BPCE.

Gardiens du temple atomique

Le nucléaire est un autre secteur éminent de convergence d’intérêts public-privé, autour duquel se coalisent des grandes entreprises, des institutions de recherche et différents rouages de l’appareil d’État. Le corps des Mines, dont on retrouve des représentants partout où se décide la politique énergétique de la France, est le gardien du temple atomique depuis les entreprises jusqu’au plus haut de l’État en passant par le Commissariat à l’énergie atomique, l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe) ou l’Autorité de sûreté nucléaire (ASN).

Il s’incarne aujourd’hui dans des personnalités comme Bernard Doroszczuk, le président de l’Autorité de sûreté nucléaire ou encore Antoine Pellion, conseiller Energie-environnement à Matignon et auparavant à l’Elysée (qui a travaillé naguère pour Areva). Les patrons de TotalEnergies, Thales, Engie, Valeo, Orano, entre autres, sont également issus du corps des Mines, de même que Jacques Attali et des politiques comme François Loos, Hervé Mariton ou le maire de Rouen Nicolas Mayer-Rossignol. Cette omniprésence à tous les niveaux de décision explique que les partisans de l’atome aient réussi, durant des années, à contrecarrer la mise en œuvre effective des objectifs officiels de réduction de la part du nucléaire... jusqu’à ce que ces objectifs soient finalement abandonnés !

La diplomatie française au service du pétrole

Les intérêts des multinationales tricolores dictent de plus en plus la politique étrangère de la France. Sous couvert de « diplomatie économique », le gouvernement en vient même à défendre bec et ongles à des projets pétroliers extrêmement controversés comme ceux que TotalEnergies veut développer aujourd’hui en Ouganda et en Tanzanie. Malgré les critiques, l’ambassadeur de France sur place, le ministère des Affaires étrangères et l’Élysée ont tous apporté un soutien actif à la conclusion des contrats.

Ce soutien s’explique par les liens étroits entre TotalEnergies et la diplomatie française, construits à grands coups de portes tournantes. Conseillers de l’Elysée, conseiller spécial du ministre de la Défense, diplomates, directrice de la diplomatie économique au Ministère... Les exemples sont nombreux. En 2022, c’est du côté du ministère des Armées que le groupe pétrolier a été recruter, s’assurant les services des anciens conseillers pour les affaires industrielles et pour l’Afrique.

La représentation française à Bruxelles, étape obligée dans les carrières publiques-privées ?

On dénonce souvent le poids et l’influence des lobbys à Bruxelles, mais parmi les institutions européennes, la moins transparente est sans doute le Conseil, où les États membres se retrouvent à huis clos pour négocier des compromis au nom de leurs « intérêts supérieurs », souvent confondus avec ceux des grandes entreprises. Un nombre non négligeable de hauts fonctionnaires de Bercy qui pantouflent ensuite dans le secteur privé ont fait un passage à la Représentation française auprès de l’UE, chargée de ces négociations. Le diplomate Pierre Sellal, deux fois Haut représentant de la France à Bruxelles de 2002 à 2009, puis de 2014 à 2017, a siégé au conseil d’administration d’EDF et travaille aujourd’hui pour un cabinet d’avocats d’affaires, August Debouzy.

Le même phénomène s’observe à tous les échelons de la hiérarchie. Un conseiller sur l’énergie à la représentation française à Bruxelles a par exemple travaillé pour TotalEnergies et d’anciens conseillers en énergie sont devenus lobbyistes pour Engie, Arianespace et EDF Renouvelables. De même, d’anciens conseillers sur les questions financières à la représentation travaillent désormais pour la Société générale, Amundi ou encore pour la Fédération bancaire française. Un conseiller en matière de justice et d’affaires intérieures a travaillé pour Safran pendant dix ans.

Une haute fonction publique-privée

Le débauchage d’anciens responsables publics est une stratégie d’influence que l’on retrouve partout : à Bruxelles, dans les différentes capitales européennes, aux États-Unis et ailleurs. En France, cependant, les portes tournantes viennent s’inscrire dans une tradition plus ancienne de consanguinité entre l’État et les grandes entreprises. Elles contribuent à consolider ce que l’on pourrait appeler une « haute fonction publique-privée », qui sait imposer sa vision du monde par-delà les alternances politiques.


Près de la moitié du CAC40 a un patron issu des grands corps de l’État

Un grand nombre des patrons du CAC40 ont passé une bonne partie de leur carrière dans la haute administration et les cabinets ministériels. En plus de remplir leur carnet d’adresses et de cultiver leurs liens personnels avec les décideurs, ce passage par le secteur public leur permet aussi d’entretenir l’illusion qu’ils continuent à incarner d’une certaine manière la France et ses intérêts, même si en pratique ils pensent surtout à choyer leurs actionnaires.

Patrick Pouyanné, le PDG de TotalEnergies, est par exemple issu de Polytechnique et du corps des Mines. Passé par le ministère de l’Industrie et dans les cabinets d’Édouard Balladur et François Fillon dans les années 1990, il rejoindra ensuite l’entreprise pétrolière publique Elf, absorbée par Total en 2000. L’ancien PDG d’Orange Stéphane Richard était dans la même promotion de l’ENA que les ex-ministres Christian Paul et Florence Parly, mais aussi que le DG de la Société générale et futur président du conseil d’administration de Sanofi Frédéric Oudéa, que l’ancien patron de l’Agence des participations de l’État David Azéma (passé chez Bank of America - Merrill Lynch puis Perella Weinberg) ou encore que Nicolas Bazire, ancien conseiller d’Édouard Balladur et Nicolas Sarkozy aujourd’hui chez LVMH.

D’après les calculs que nous avions faits dans l’édition 2022 de CAC40 : le véritable bilan annuel, sur 66 dirigeants du CAC40 (PDG, DG et présidents de C.A.), 25 sont issus de la haute fonction publique et des cabinets ministériels – c’est-à-dire un gros tiers. Si l’on enlève les dirigeants originaires d’autres pays et les groupes appartenant à des familles milliardaires, cette proportion s’élève à 25 sur 46 - plus de la moitié.

Quand l’État fait la publicité des pantouflages

Il n’en fallait pas davantage pour que les représentants de l’État fassent la promotion des portes tournantes, comme argument pour attirer les talents ! Les grands corps comme l’Inspection générale des Finances vantent depuis longtemps aux jeunes énarques les perspectives de carrière qu’ils offrent dans le secteur privé après quelques années passées à Bercy. Aujourd’hui en effet, commencer sa carrière dans le public semble un moyen plus commode et plus rapide de conquérir rapidement des postes de direction dans le privé, plutôt que de gravir péniblement les échelons hiérarchiques.

La promotion des allers-retours public-privé semble de plus en plus décomplexée. Récemment, la direction du Trésor a publiquement vanté sur les réseaux sociaux le fait que l’un de ses cadres, Lionel Corre, avait été recruté par le cabinet de conseil en stratégie BCG. Quelques mois auparavant, c’était Mathias Vicherat, directeur de Sciences Po, qui conseillait à ses élèves d’aller manger à tous les râteliers au cours de leur carrière – une pratique qu’il connaît bien lui-même puisque ce condisciple d’Emmanuel Macron à l’ENA a commencé dans la fonction publique avant d’aller travailler à la SNCF puis chez Danone.

Un État actionnaire au service du marché plutôt que l’inverse

Plus de la moitié du CAC40 compte une institution publique française parmi ses actionnaires. Mais cet actionnariat public ne signifie pas que ces groupes soient davantage gérés dans une perspective d’intérêt général. Ils sont au contraire à l’avant-garde du brouillage des frontières public-privé.

La pratique assidue des portes tournantes dans les agences et des institutions qui incarnent l’État actionnaire - l’Agence des participations de l’État (APE) et Bpifrance – explique et illustre à la fois ce dévoiement. Martin Vial, directeur de l’APE jusque juin 2022, est parti travailler pour le fonds d’investissement Montefiore. Son prédécesseur Régis Turrini est aujourd’hui dans la banque UBS, et le prédécesseur de celui-ci, David Azéma, chez Perella Weinberg Partners après Bank of America. La directrice générale adjointe de l’APE et sa représentante aux conseils d’administration d’Engie, Orange et Safran est passée successivement par BNP Paribas, la direction du Trésor à Bercy, la SNCF et le fonds Wendel avant de rejoindre l’agence. Le même constat vaut pour Bpifrance. Son patron Nicolas Dufourq, passé par l’ENA, Bercy et l’Inspection générale des Finances, a travaillé pour Orange et Capgemini avant d’occuper ses fonctions actuelles.

De même et par conséquent, les entreprises publiques – la SNCF, la RATP et La Poste, mais aussi celles qui ont été partiellement privatisées comme Orange, Engie et (un temps) EDF, ainsi que les acteurs de la finance publique que sont la Caisse des dépôts et consignations et la Banque postale – sont une destination privilégiée pour les portes tournantes, comme on l’a vu encore récemment avec la nomination de l’ancien Premier ministre Jean Castex à la tête de la RATP. Les anciens responsables publics peuvent y mettre un premier pied dans le monde de l’entreprise, tout en se donnant l’impression de servir encore l’intérêt général. Un véritable laboratoire du mélange des genres.


Quelles solutions ?

Malgré la multiplication des scandales, et en dépit de leur rôle central dans les stratégies d’influence des grands intérêts privés, les « portes tournantes » sont restées longtemps sans régulations ni garde-fous. On commence à peine à prendre la mesure du problème.

Depuis 2020, la supervision des « mobilités public-privé » est du ressort de la Haute autorité pour la transparence de la vie publique (HATVP). C’est un indéniable progrès, dans la mesure où les portes tournantes sont désormais encadrées par une autorité indépendante du pouvoir exécutif. Cependant, les lois et règles en vigueur restent limitées, et pleines de lacunes parfois importantes. Surtout, ces règles ne restent que des palliatifs, qui ne permettent de traiter que les cas les plus outrageux, sans s’attaquer à la racine du problème.

Dans l’article ci-dessous, nous avançons quelques pistes et idées pour remettre notre démocratie dans le sens de la marche.

Permalink
June 29, 2023 at 10:12:18 AM GMT+2

Par-delà le like et la colère. – affordance.infohttps://affordance.framasoft.org/2022/03/par-dela-like-colere/

  • Social Network
  • Attention Economy
  • Dark Pattern
  • Datafication
  • Big Data
  • Social Network
  • Attention Economy
  • Dark Pattern
  • Datafication
  • Big Data

Par-delà le like et la colère.

Olivier Ertzscheid 21 mars 2022

Industries de l'aliénation.

Il ne fait aujourd'hui aucun doute que l'industrie du tabac fut toujours consciente de la dangerosité des produits qu'elle écoulait. Comme il ne fait aucun doute que cette même industrie, de la campagne publicitaire des "flambeaux de la liberté" dans les années 1930 jusqu'à celles du Cowboy Marlboro dans les années 1980, fit toujours passer pour un vecteur d'émancipation ce qui était à la fois un poison et un vecteur d'aliénation.

Il ne fait aujourd'hui aucun doute que l'industrie pétrolière fut toujours parfaitement consciente des effets délétères de son extractivisme forcené sur le climat et qu'elle chercha là aussi constamment à en nier les effets en jouant à la fois de lobbying politique, de désinformation médiatique et de corruption financière.

Dans une dizaine d'années, et peut-être même avant cela au rythme actuel des scandales qui se succèdent, il ne fera absolument aucun doute que les grandes firmes technologiques de "médias sociaux" étaient également parfaitement conscientes des effets délétères de leurs "services" sur la démocratie, et qu'elles ont toujours rivalisé d'un cynisme aveugle et mortifère pour présenter comme des outils d'émancipation ce qu'elles organisaient pour répondre uniquement à logiques d'aliénation servant un modèle économique lui-même tout à fait insoutenable sans sa part maudite ; part maudite qui repose sur des captations de valeurs et de données aussi indues que disproportionnées à l'échelle de l'efficience du déploiement des services proposés.

Depuis son annus horribilis de 2018 (scandale Cambridge Analytica, piratage et fuite massive de données personnelles, recours à une agence de RP aux pratiques mafieuses, etc.) les polémiques et scandales ne cessent de s'enchaîner et la vie du PDG de Facebook est rythmée de sommations à comparaître et à s'expliquer devant les assemblées élues de tout un ensemble de pays, à commencer par le sien.

Les dernières révélations en date sont celles de la lanceuse d'alerte Frances Haugen qui démontre et documente plusieurs faits. D'une part le régime à la fois arbitraire et discrétionnaire qui, selon que vous serez puissants (grand compte à forte notoriété) ou misérable, vous dispensera de certaines règles s'appliquant dans le cadre des CGU de la firme en termes de modération. Ensuite, que la polarisation tellement reprochée à la firme est consciente et instrumentale, et non le résultat d'un algorithme souvent commodément présenté comme une sorte causalité autonome. En effet si les discours polarisant l'opinion, si les avis clivants, si les discours capables de déclencher un sentiment de colère, d'indignation et parfois de haine sont tellement présents sur la plateforme, c'est parce qu'elle a choisi, choisi, d'affecter aux 6 émoticônes (inspirées des 6 émotions fondamentales de Paul Ekman) des valeurs différentes : la colère vaut ainsi 5 "points" alors que le like n'en vaut qu'un seul.

Frances Haugen montre également que la firme concentre ses efforts de modération (algorithmique et humaine) principalement sur les USA, dans une bien moindre mesure sur l'Europe, et qu'elle néglige en quantité (de modérateurs) comme en qualité (linguistique) tout un tas de pays où le réseau social est pourtant très fortement implanté et qui sont pour beaucoup dans des situations de quasi guerre civile ou bien aux mains de gouvernements a minima très autoritaires. Dans ce cadre là, l'explosion des discours de haine contre des minorités (religieuses, ethniques, sexuelles) occasionne bien plus que de simples troubles à l'ordre public. Il est également question de l'impact d'Instagram sur la santé mentale de jeunes gens fragiles et présentant des troubles de l'alimentation.

Par-delà le like et la colère.

Ce que montre Frances Haugen ce ne sont pas "juste" ces faits mais c'est le fait que la plateforme savait. C'est que Facebook, par exemple sur les questions de modération, non seulement avait délibérément mis en place ces régimes arbitraires et discrétionnaires mais mentait à chaque fois qu'on l'interrogeait sur ce sujet. C'est que démontre Frances Haugen c'est le fait que tout cela, toutes ces incidences délétères et parfois mortifères ou criminogènes sur les discours publics et les expressions privées, ne sont pas le fait d'un algorithme devenu fou ou d'une intelligence artificielle hors de contrôle, mais le résultat des choix consciemment effectués par la plateforme et ses ingénieurs pour maximiser sa rentabilité économique au détriment de tout le reste. Ce que démontre enfin Frances Haugen c'est que même lorsque des employés de la firme faisaient remonter l'évidence de ces problèmes et les solutions pour les traiter ou les corriger, Zuckerberg refusait de les mettre en place.

Mensonge, cynisme et dissimulation, voilà l'envers de la devise de la firme dans les années de sa pleine expansion : "Move fast and break things." Le mouvement fut en effet rapide. Et beaucoup de choses se brisèrent.

Touché … coulé ?

On ignore si Facebook se relèvera de tous ces scandales accumulés mais on peut le supposer. D'autres firmes monopolistiques ou oligopolistiques ont déjà fait face à de semblables crises réputationnelles et s'en sont à chaque fois remises, de Microsoft à Google en passant par Amazon ou même Apple pour ne citer que les autres GAFAM. Les résultats financiers continuent d'être présentés à la hausse, y compris ceux qui ont suivi les révélations de Frances Haugen, et l'on n'observe pas de fuite ou d'exode massif ou même significatif des utilisateurs de la plateforme. Dès lors pourquoi changer quand il suffit de faire le dos rond, de laisser passer l'orage, et d'accepter de se présenter avec la mine contrite lors d'auditions devant les élus des nations tout en jurant que l'on va s'efforcer de corriger tout cela en ajoutant encore plus "d'intelligence artificielle et d'algorithmes" alors que le problème ne vient ni de l'intelligence artificielle ni des algorithmes qui ne commettent que les erreurs ou les fautes permises par leur programmation initiale ; programmation initiale que l'on établit pour qu'elle remplisse les objectifs de rentabilité attentionnelle et interactionnelle qui permettent à la firme de faire tourner sa machine à cash, avec le plus parfait mépris pour l'équilibre du débat public.

Comme pour les révélations de Frances Haugen, à chaque fois que la démonstration est faite des problèmes posés par l'automatisation sur la plateforme au travers de ses algorithmes ou de ses technologies "d'intelligence artificielle", Zuckerberg se borne à répondre qu'il a compris, parfois qu'il est désolé, et qu'il va donc … rajouter des algorithmes et de l'intelligence artificielle.

Pourtant, beaucoup de solutions qui paraissaient hier encore totalement farfelues sont aujourd'hui installées dans le champ du débat public et politique pour régler ces problèmes : une nationalisation (qui est l'occasion de rappeler que toutes ces sociétés reposent sur un essentiel de technologies et d'infrastructures publiques), un démantèlement au nom des lois antitrust, et des régulations coordonnées (en Europe notamment) bien plus coercitives – Mark Zuckerberg réclamant lui-même aux états davantage de régulation … d'internet.

Mais rien ne sera possible ou résolu tant que trois points, encore plus essentiels, ne seront pas définitivement réglés. Ces trois points, les voici.

Ouvrir, ralentir, et vérifier.

D'abord il faut ouvrir, il faut mettre en délibéré public, la partie du code algorithmique qui relève de logiques d'éditorialisation classiques. Et cela peut être fait sans jamais porter atteinte au secret commercial ou industriel de la firme. On sait ainsi, quel est le principe clé de l'algorithme principal du moteur de recherche Google (le Pagerank dont la formule est exposée dans l'article "The Anatomy of a Large-Scale Hypertextual Web Search Engine" publié en 1998 par les deux fondateurs du moteur de recherche). Il est anormal et inquiétant qu'il soit à ce point difficile et souvent impossible de faire de la rétro-ingénierie sur la manière dont fonctionne le média social qui conditionne pour partie les sociabilités et l'accès à l'information de 2,8 milliards d'êtres humains. Pour prendre une image dans une autre industrie, si personne ne connaît la recette précise du Coca-Cola, chacun sait aujourd'hui quelle est la teneur en sucres de cette boisson grâce à des analyses indépendantes (personne n'imagine que seule la firme Coca-Cola pourrait nous fournir sa teneur en sucre et que nous soyons contraints de la croire … sur parole). La teneur en sucre du Coca-Cola c'est un peu la part donnée à la colère sur Facebook : il est tout à fait anormal et dangereux qu'il faille attendre la fuite de documents internes par une lanceuse d'alerte pour découvrir que la colère vaut 5 points et que les autres émotions valent moins. Et il ne s'agit là que d'un tout petit exemple des enjeux éditoriaux qui fondent l'architecture algorithmique de la firme.

Et il faut que cette mise en délibéré se fasse auprès de tiers de confiance (des instances de régulation indépendantes) dont aucun des membres ne peut ni ne doit dépendre de Facebook de quelque manière que ce soit, ni bien sûr être choisi par la firme elle-même comme c'est actuellement le cas du pseudo "conseil de surveillance" (Oversight Board) créé par Facebook en 2018.

Ensuite il faut casser les chaînes de contamination virales qui sont à l'origine de l'essentiel des problèmes de harcèlement, de désinformation, et des discours de haine dans leur globalité. Et là encore le cynisme des plateformes est aussi évident que documenté puisqu'elles ont elles-mêmes fait la démonstration, et à plusieurs reprises, que si par exemple elles diminuaient le nombre de personnes que l'on peut inviter par défaut dans les groupes Whatsapp ou le nombre de conversations et de groupes vers lesquels on peut automatiquement transférer des messages, elles diminuaient aussi considérablement la vitesse de circulation des fake news, notamment en période électorale ; que si elles supprimaient la visibilité de nombre de likes ou de réactions diverses sur un post (et que seul le créateur du post était en mesure de les voir), elles jouaient alors sur les effets souvent délétères de conformité (et de pression) sociale et qu'elles permettaient d'aller vers des logiques de partage bien plus vertueuses car essentiellement qualitatives et non plus uniquement quantitatives ; que si elles se contentaient de demander aux gens s'ils avaient bien lu l'article qu'ils s'apprêtaient à partager avant que de le faire sous le coup de l'émotion, elles diminuaient là encore la circulation de fausses informations de manière tout à fait significative. Il y a encore quelques jours, c'était Youtube qui annonçait supprimer l'affichage public du compteur des "dislikes" pour "protéger" les créateurs notamment de formes de harcèlement, un effet qu'il connaît et documente pourtant depuis déjà de longues années.

Enfin il faut que des chercheurs publics indépendants puissent avoir accès et travailler sans entrave sur les mécanismes de circulation des données et des informations au sein de la plateforme. En Août 2021, Facebook décidait, au nom de la protection de la vie privée (sic), de couper l'accès à ses données à une équipe de chercheurs de l'université de New-York qui travaillait sur le problème des publicités politiques sur la plateforme pour comprendre et documenter qui payait pour leur diffusion mais surtout (ce que Facebook a toujours refusé de rendre public) sur quels critères les personnes visées par ces publicités étaient choisies. Il n'existe absolument aucune étude scientifique indépendante (c'est à dire dont aucun des auteurs ne soit affilié ou directement salarié de Facebook), établie à partir des données anonymisées et/ou randomisées de la firme, sur le coeur du fonctionnement d'un média qui touche mensuellement près de 2,8 milliards d'êtres humains … Ce qui constitue à la fois une aberration démocratique évidente et peut-être le premier de tous les scandales qui touchent cette firme.

Reprenons et résumons.

Il faut ouvrir et mettre en délibéré public la partie du code algorithmique qui relève de logiques d'éditorialisation classiques pour permettre et surtout pour garantir une forme vitale d'intégrité civique.

Il faut casser les chaînes de contamination virales qui sont à l'origine de l'essentiel des problèmes de harcèlement, de désinformation, et des discours de haine dans leur globalité. C'est la seule manière de limiter l'impact des interactions et engagements artificiels, toxiques et non nécessaires.

Il faut permettre à des chercheurs publics indépendants de pouvoir travailler sans entrave sur les mécanismes de circulation des données et des informations au sein de la plateforme. C'est tout simplement une question d'éthique, notamment sur les enjeux des mécanismes et des technologies d'intelligence artificielle qui structurent cette firme.

Intégrité civique ? Tiens donc, c'est aussi le nom de l'équipe de Facebook dont était membre … Frances Haugen. "Civic integrity"

Engagements artificiels et toxiques ? Tiens donc, c'est aussi le nom de l'équipe de Facebook dont était membre Sophie Zhang avant de se faire licencier pour avoir découvert que des réseaux de manipulation politique abusive et de harcèlement de partis d'opposition utilisaient Facebook de manière coordonnée dans une trentaine de pays, et pour avoir voulu rendre cette information publique. "Fake Engagement".

Éthique et intelligence artificielle ? Tiens donc, c'est aussi le nom de l'équipe de Google dont était membre Timnit Gebru avant de se faire licencier suite à la publication d'un article de recherche où elle démontrait les biais sexistes et racistes présents au coeur des technologies du moteur de recherche. "Ethics in Artificial Intelligence".

Pour savoir ce qui dysfonctionne réellement dans les GAFAM et comment le régler, il suffit de regarder les noms des équipes de recherche d'où sont issues les lanceuses d'alerte récemment licenciées par ces firmes.

One More Thing.

Quelle est vraiment la nature de Facebook qui lui permet d'occuper la préoccupante place qui est la sienne aujourd'hui ? Dans Les Chants de Maldoror, Isidore Ducasse Comte de Lautréamont, parlait d'un jeune homme de 16 ans et 4 mois qui était "beau (…) comme la rencontre fortuite sur une table de dissection d'une machine à coudre et d'un parapluie." Alors que sa plateforme avait exactement le même âge, Zuckerberg déclarait en Février 2020 : "Treat us like something between a Telco and a Newspaper." (traitez-nous comme quelque chose entre un opérateur télécom et un titre de presse).

Facebook c'est aussi cette table de dissection de nos humeurs et de nos comportements, cette rencontre fortuite de la machine à coudre des interactions qui nous tiennent ensemble et nous retiennent isolément, et un parapluie qui nous abrite parfois et nous isole souvent, nous empêchant de voir. Et à force de n'être ni tout à fait un opérateur télécom ni pleinement un titre de presse, Facebook se voudrait finalement insaisissable et donc échappant à la régulation commerciale des premiers comme au respect de la déontologie professionnelle des seconds.

Bien sûr, à lui seul Facebook ne résume ni ne borne l'ensemble des problèmes (ou des solutions) auxquels doivent aujourd'hui faire face nos démocraties. Mais il est une expérience sociale tout à fait inédite portant actuellement sur plus de la moitié de l'humanité connectée. Inédite par le nombre mais inédite également et peut-être essentiellement par le statut de cette expérience menée à la fois in vivo – puisqu'il n'existe aucune forme d'étanchéité entre ce qui se passe et ce dit sur Facebook et en dehors – mais aussi in vitro, puisque chaque message, chaque interaction et chacune de nos données participent à des formes de contrôle structurel qu'elles alimentent en retour et qu'il est à tout moment possible, pour la firme et pour la firme seulement, de les isoler de leur environnement habituel comme autant de composants d'un organisme social ou particulier, à des fins d'analyse et de monétisation. Une expérience sociale à l'image du Cyberespace de Gibson : "une hallucination consensuelle vécue quotidiennement en toute légalité par des dizaines de millions d'opérateurs, dans tous les pays."

C'est cette expérience sociale autant que cette hallucination consensuelle qu'il importe de pouvoir toujours et en tous temps garder sous le contrôle d'une expertise et d'une supervision publique indépendante.


[Disclaimer : cet article "de commande" a été publié il y a un peu plus de 3 mois – 6 Décembre 2021 – dans le magazine AOC Media. Il a donné lieu à une rémunération de son auteur (moi) en échange du maintien d'un "embargo" de 3 mois tout en sachant qu'il était, dès sa publication sur AOC Media accessible gratuitement en échange du dépôt de son adresse mail (dépôt ouvrant droit à 3 articles gratuits par mois).

Permalink
June 24, 2023 at 4:12:36 PM GMT+2
4 / 7
Links per page
  • 20
  • 50
  • 100
130 shaares · Shaarli · The personal, minimalist, super-fast, database free, bookmarking service by the Shaarli community · Documentation · Theme : Stack · Font : DINish
Fold Fold all Expand Expand all Are you sure you want to delete this link? Are you sure you want to delete this tag? The personal, minimalist, super-fast, database free, bookmarking service by the Shaarli community