Delete Set public Set private Add tags Delete tags
  Add tag   Cancel
  Delete tag   Cancel
  • Cyberpunk is the way
  • My links
  • Tags
  • pics
  • Daily
  • RSS
  • Login
Filter untagged links

Comment des prédateurs exploitent la sexualité virtuelle des mineurs ?https://www.ladn.eu/media-mutants/predateurs-exploitent-sexualite-virtuelle-mineurs/

  • Social Network
  • Societal Collapse
  • Social Network
  • Societal Collapse

« Les enfants grandissent trop vite » : comment la sexualité virtuelle des mineurs est exploitée sur les réseaux

Par David-Julien Rahmil - Le 21 juin 2023

Perçue comme anecdotique il y a sept ans, l'exploitation sexuelle des mineurs en ligne à travers le partage de nudes est devenue un problème systémique et généralisé. On a voulu comprendre pourquoi.

Cet article accompagne la sortie de la revue n°33 de L'ADN consacrée aux différentes formes d'exploitation des enfants en ligne. Il est le résultat d'une longue enquête menée auprès d'associations d'aide aux victimes de cyberviolence et de victimes de grooming. Retrouvez la revue de L'ADN sur notre boutique en ligne.

« Et si mes copains reçoivent mes photos, je fais quoi ? » Dans l'oreillette de Mathilde, on devine une voix paniquée. C'est celle d'un adolescent anonyme que nous appellerons Arthur. Il a décidé d'appeler le 3018, la plateforme d'aide téléphonique contre les cyberviolences après avoir été berné par un brouteur. Ces arnaqueurs professionnels qui agissent depuis des pays d'Afrique comme la Côte d'Ivoire ou le Bénin exploitent en ce moment une nouvelle combine. Après avoir piraté des comptes Instagram de jeunes filles, ils utilisent ces derniers pour draguer des collégiens et des lycéens sur les réseaux et les inciter à envoyer des nudes ou à se masturber face à leur webcam. C'est ce qui est arrivé à Arthur qui s'est ensuite trouvé sous la menace d'un chantage : celui de payer quelques centaines d'euros ou de prendre le risque de voir ses photos intimes partagées à ses amis et ses parents. Il se retrouve maintenant face au mur et aussi face à sa honte et sa colère de s'être fait berner.

Comme les cinq autres écoutants dans la salle, Mathilde sait employer le ton et les mots qui rassurent. D'une voix posée, elle indique à Arthur qu'il n'est pas le seul à s'être fait avoir et le déculpabilise en lui indiquant qu'il n'a rien fait de mal. Elle lui dit aussi qu'il ne risque pas grand-chose, tant qu'il ne paye pas. « Ces gens sont surtout là pour ferrer les victimes qui veulent bien payer, explique-t-elle. Si tu payes ce qu'ils demandent, ils ne vont pas s'arrêter et vont continuer à te demander des sommes de plus en plus importantes. D'après notre expérience, ils diffusent très rarement les images quand ils font face à un refus et ils passent rapidement à quelqu'un d'autre, malheureusement. » Elle le conseille aussi d'en parler avec ses amis et de les prévenir au cas où ils recevraient des photos de lui. Dans ce cas, ils doivent prendre une capture de l'image et du nom du compte qui l'a envoyé pour que la plateforme puisse envoyer une demande de bannissement. 

L'affolante montée de l'agression sexuelle en ligne

Des cas comme celui d'Arthur, le 3018 en traite de manière quotidienne. Ouvert depuis 2021, le numéro  de la plateforme apparaît dorénavant sur les cahiers de correspondance des collégiens et des lycéens. Gérée par l’association e-Enfance qui existe depuis 17 ans, cette plateforme reçoit environ 80 appels par jour, soit 25 000 appels par an. 60 % des demandes concernent le cyberharcèlement, le chantage à la webcam ou la diffusion de nudes. En un an, l’association a aussi permis la suppression de 10 000 contenus ou comptes malveillants sur les réseaux. Installé dans un coin du plateau téléphonique, Vincent, le coordinateur de la plateforme d'écoute, résume la situation. « Le harcèlement et la publication de nudes, qu'on appelle souvent revenge porn, existe depuis longtemps, indique-t-il. Mais depuis le confinement, nous avons eu une explosion d'agressions sexuelles par écran interposé.  Il y a eu beaucoup de comptes fisha, ces comptes tenus par d'autres adolescents ou de jeunes adultes sur Snapchat, ou Telegram et sur lesquels sont publiés des photos de nudes de jeunes filles. On a fait supprimer 3000 comptes en 2021 et à peu près le même chiffre en 2022. »

Au-delà des résultats mis en avant par le 3018, il est toutefois difficile de quantifier réellement le phénomène en France tant ce dernier n'est pas étudié de manière systématique. On sait tout au plus que 20 % des 6-18 ans ont déjà été confrontés à des situations de cyberharcèlement selon une enquête menée en juin 2021 par Audirep pour l’association e-Enfance. Mais quand on fait le tour des associations de terrain confrontées à ces problématiques, toutes sont unanimes : les cas de cyberviolences sexuelles comme la publication de nudes ou la sextortion ont explosé depuis 2020 et touchent des enfants de plus en plus jeunes. Ce constat empirique est confirmé par des études internationales. Selon la National Society for the Prevention of Cruelty to Children, les cas de crimes sexuels en ligne touchant les mineurs ont augmenté de 84 % entre 2018 et 2022 et toucheraient plus particulièrement les adolescents de 12 à 15 ans. Une autre étude, italienne celle-là, indique que deux enfants sur 10 de moins de 13 ans sont concernés par ces agressions à caractère sexuel en ligne, autant les garçons que les filles. 

Des débuts de vie sexuelle virtuels

Plusieurs facteurs expliquent ce phénomène. D'après Clara, la psychologue et coordinatrice adjointe du 3018, l'enfermement forcé de 2020 a accéléré une tendance qui progressait déjà auparavant : les jeunes débutent leur première expérimentation sexuelle sur les réseaux et par écran interposé. « Quand on échange avec eux au téléphone, on se rend compte que tout l'aspect de la rencontre hors écrans devient très secondaire, explique-t-elle. Le fait de pouvoir s'inventer une identité en ligne et d'avoir accès via le smartphone à une quantité invraisemblable d'autres personnes fait qu'ils vont beaucoup plus investir dans une forme de sexualité virtuelle. À travers les écrans, on peut projeter une image idéale de soi, mais on peut aussi plus facilement mentir, jouer sur les sentiments et manipuler les autres sans avoir vraiment conscience des conséquences. » Cet investissement de la vie sexuelle et amoureuse est confirmé par Margot Déage, docteure en sociologie et auteur de l'ouvrage À l'école des mauvaises réputations qui traite de la vie secrète des collégiens sur les réseaux. « La première chose qui frappe avec cette classe d’âge, c’est le contrôle et la surveillance qu’ils exercent entre eux, au sein du collège indique-t-elle. Ils sont toujours en train de se juger et ils ont donc du mal à se rapprocher les uns des autres pour forger des relations amicales ou amoureuses. Du coup, les réseaux permettent d'être discret et de forger de nouvelles formes de relations tout en échappant à la pression du groupe. Les ados y trouvent une liberté d'expression augmentée pour le meilleur et pour le pire. »  

Si ces échanges pouvaient être relativement platoniques avant 2020, ils sont devenus beaucoup plus « épicés » ces dernières années. Jugé marginal en 2015, l'envoi de nudes est à présent totalement banalisé chez les collégiens d'après Nora Fraisse, fondatrice de l'association Marion la main tendue qui lutte contre le cyberharcèlement. « C'est un peu comme le joint qu'il fallait fumer au lycée pour être cool, raconte-t-elle. Le nude est devenu une sorte de passage obligatoire pour montrer qu'on est dans le coup. On le fait en grande partie parce qu'il y a une pression du groupe et qu'on ne veut pas paraître coincé. » D'après une étude de la firme Thorn spécialisée dans la protection des enfants sur Internet, le pourcentage d'enfants âgé de 9 à 13 ans considérant que le partage de nudes entre pairs est normal est passé de 13 % à 21 % en l'espace de 2 ans. Le chiffre monte à 26 % quand il s'agit de garçons. La même étude indique que 26 % des enfants de 12 à 17 ans ont déjà reçu au moins une fois des nudes tandis que 15 % indiquent en avoir envoyé. Ces chiffres sont considérés comme étant sous-estimés. 

Il faut « nuder » pour être cool

Comment expliquer une telle banalisation ? Beaucoup d'associations pointent du doigt un accès à la pornographie en ligne rendu plus facile de par l'individualisation des écrans, mais aussi une sexualisation toujours plus importante au sein des représentations médiatiques, notamment sur les comptes des influenceuses issus de la téléréalité. « On est dans un monde qui glorifie des personnages d'escort girl comme Zahia tandis que le travail du sexe sur les plateformes comme OnlyFans est devenu banal, indique Nora Fraise. S'ajoute à cela le visionnage d'images pornographiques qui arrive de plus en plus tôt, vers l'âge de 10 ans. Toutes ces petites choses cumulées peuvent expliquer cette tendance. » Pour Victor, écoutant au 3018, c'est surtout le laisser faire des parents qui sont responsables. « Au cours de mes conversations, je me suis rendu compte à quel point les enfants sont laissés à eux-mêmes, explique-t-il. J'ai discuté avec une enfant de 12 ans qui m'a raconté qu'une personne l'avait contactée par hasard et lui avait demandé de lui envoyer des nudes et elle lui a envoyé. Il y a une forme de simplicité d'accès au corps des enfants via les écrans parce qu'ils imitent beaucoup le monde de l'influence qui a un rapport au corps très démonstratif. Les enfants qui voient ça veulent jouer aux grands et sont alors dans l'imitation. » Ce phénomène de changement de comportement est d'ailleurs bien connu dans le marketing du jouet sous le terme de « KGOY » pour l'expression « kids getting older younger » (les enfants grandissent de plus en plus vite). Théorisé dans les années 90, ce concept indiquait que les enfants s'intéressaient plus tôt aux loisirs qui intéressaient auparavant les générations précédentes à un âge plus avancé. La même chose peut s'appliquer à l'explosion médiatique qui passe par les plateformes vidéo.

Si l'envoi de nudes entre adolescents consentants n’est pas un problème en soi, ce sont bien évidemment les dérives de ces pratiques et leur aspect presque systématique qui inquiète. La première conséquence directe est celle du repartage de photos auprès de ses amis et que l'on appelle abusivement du revenge porn. Statistiquement, ce repartage se fait plus dans l'idée d'impressionner les copains ou de les faire rire plutôt que de se venger. Elle occasionne toutefois des cas harcèlement scolaire et de « slut shaming » qui touchent principalement les filles qui sont accusées d'avoir eu des comportements trop sexuels. 

Quand les prédateurs en profitent

Cette normalisation des nudes augmente aussi les cas de grooming en ligne, une méthode de prédation sexuelle qui consiste à manipuler sa victime en se faisant  passer pour ami, un protecteur ou une relation amoureuse dans le but d'obtenir des images ou des vidéos à caractère sexuel. C'est ce qui est notamment arrivé à Camille, une jeune étudiante en droit qui avait 15 ans au moment des faits. Après avoir noué une relation avec un correspondant anglais de 17 ans, ce dernier lui a envoyé une photo de son sexe et lui a demandé en retour un nude. À force d'insister, et pour ne pas briser ce début de relation, Camille a accepté, sans montrer son visage. Son copain a alors utilisé cette dernière comme moyen de pression pour lui demander de plus en plus de photos ainsi que des vidéos en live qu'il visionnait avec ses copains. « Ça a duré un peu plus de 6 mois avec une fréquence quotidienne, explique-t-elle. Il fallait que je sois à sa disposition, à la minute, peu importe où j'étais. Il est devenu comme une sorte de marionnettiste. Il ne m'a jamais demandé de l'argent, mais il voulait que je lui obéisse. » Là encore, la sensation de honte prévaut largement par rapport à la victimisation. « J'ai eu une vraie dissociation entre ce qui se passait à l'époque pendant que j'étais sous son emprise et ce qui se passait en réalité. J'ai longtemps considéré que ce qu'il me faisait n'était pas grave, car je considérais que c'était ma faute. Je me sentais à la fois coupable et complice ».

Cette méthode qui est à la fois utilisée par des mineurs ou des adultes débouche par la mise en place d'une véritable exploitation d'images à caractère sexuel produite par les plus jeunes. Cette exploitation se fait par l'intermédiaire de ce qu'on appelle les comptes fisha, mis en place sur Snapchat ou Telegram. Souvent privés et accessibles par invitation, ces fils de discussion permettent à un ou plusieurs individus de partager des images qu'ils ont collectées eux-mêmes ou que des followers leur envoient. C'est la même logique que l'on retrouve aussi sur les forums de contenu pédophile présent sur le darkweb, d'après le journaliste norvégien Håkon F. Høydal, qui a signé plusieurs enquêtes sur ce milieu. « La plupart des gens qui pratiquent ce type de partage d'images ou de vidéos le font comme s'ils échangeaient des cartes Pokemon, explique-t-il. Les contenus sont à la fois le produit et la monnaie. Ils ne gagnent pas d'argent, mais une forme de crédibilité et de statut social au sein de ces groupes. » Ce dernier remarque par ailleurs le partage de plus en plus fréquent de vidéos tournées par les enfants eux-mêmes par l'intermédiaire d'une webcam. « Les prédateurs ont compris qu'avec la technologie, les jeunes ont trouvé de nouvelles méthodes pour explorer leur sexualité, indique-t-il. Ils vont s'accrocher à cette curiosité et emmener les enfants dans le monde sexuel des adultes en les approchant par snapchat, ou sur des plateformes de jeux vidéo puis les inciter à se masturber en donnant des instructions. C'est une pratique qui peut apporter beaucoup de mal physique, mais aussi mental aux victimes. »

Au vu de ce tour d’horizon, les mesures annoncées pour limiter l’accès des mineurs aux sites pornographiques font l’effet d’une goutte d’eau dans l’océan. À présent que les jeunes ados démarrent leur vie sexuelle de manière virtuelle, il est peut-être temps pour les adultes de se mettre à jour et d’amorcer un vrai dialogue.

Permalink
June 21, 2023 at 9:00:29 PM GMT+2

Inside the AI Factory: the humans that make tech seem human - The Vergehttps://www.theverge.com/features/23764584/ai-artificial-intelligence-data-notation-labor-scale-surge-remotasks-openai-chatbots

  • Artificial intelligence
  • Big Tech
  • Gig Worker
  • Artificial intelligence
  • Big Tech
  • Gig Worker

AI Is a Lot of Work

As the technology becomes ubiquitous, a vast tasker underclass is emerging — and not going anywhere.

By Josh Dzieza, an investigations editor covering tech, business, and climate change. Since joining The Verge in 2014, he’s won a Loeb Award for feature writing, among others.


A few months after graduating from college in Nairobi, a 30-year-old I’ll call Joe got a job as an annotator — the tedious work of processing the raw information used to train artificial intelligence. AI learns by finding patterns in enormous quantities of data, but first that data has to be sorted and tagged by people, a vast workforce mostly hidden behind the machines. In Joe’s case, he was labeling footage for self-driving cars — identifying every vehicle, pedestrian, cyclist, anything a driver needs to be aware of — frame by frame and from every possible camera angle. It’s difficult and repetitive work. A several-second blip of footage took eight hours to annotate, for which Joe was paid about $10.

Then, in 2019, an opportunity arose: Joe could make four times as much running an annotation boot camp for a new company that was hungry for labelers. Every two weeks, 50 new recruits would file into an office building in Nairobi to begin their apprenticeships. There seemed to be limitless demand for the work. They would be asked to categorize clothing seen in mirror selfies, look through the eyes of robot vacuum cleaners to determine which rooms they were in, and draw squares around lidar scans of motorcycles. Over half of Joe’s students usually dropped out before the boot camp was finished. “Some people don’t know how to stay in one place for long,” he explained with gracious understatement. Also, he acknowledged, “it is very boring.”

But it was a job in a place where jobs were scarce, and Joe turned out hundreds of graduates. After boot camp, they went home to work alone in their bedrooms and kitchens, forbidden from telling anyone what they were working on, which wasn’t really a problem because they rarely knew themselves. Labeling objects for self-driving cars was obvious, but what about categorizing whether snippets of distorted dialogue were spoken by a robot or a human? Uploading photos of yourself staring into a webcam with a blank expression, then with a grin, then wearing a motorcycle helmet? Each project was such a small component of some larger process that it was difficult to say what they were actually training AI to do. Nor did the names of the projects offer any clues: Crab Generation, Whale Segment, Woodland Gyro, and Pillbox Bratwurst. They were non sequitur code names for non sequitur work.

As for the company employing them, most knew it only as Remotasks, a website offering work to anyone fluent in English. Like most of the annotators I spoke with, Joe was unaware until I told him that Remotasks is the worker-facing subsidiary of a company called Scale AI, a multibillion-dollar Silicon Valley data vendor that counts OpenAI and the U.S. military among its customers. Neither Remotasks’ or Scale’s website mentions the other.

Much of the public response to language models like OpenAI’s ChatGPT has focused on all the jobs they appear poised to automate. But behind even the most impressive AI system are people — huge numbers of people labeling data to train it and clarifying data when it gets confused. Only the companies that can afford to buy this data can compete, and those that get it are highly motivated to keep it secret. The result is that, with few exceptions, little is known about the information shaping these systems’ behavior, and even less is known about the people doing the shaping.

For Joe’s students, it was work stripped of all its normal trappings: a schedule, colleagues, knowledge of what they were working on or whom they were working for. In fact, they rarely called it work at all — just “tasking.” They were taskers.

The anthropologist David Graeber defines “bullshit jobs” as employment without meaning or purpose, work that should be automated but for reasons of bureaucracy or status or inertia is not. These AI jobs are their bizarro twin: work that people want to automate, and often think is already automated, yet still requires a human stand-in. The jobs have a purpose; it’s just that workers often have no idea what it is.


The current AI boom — the convincingly human-sounding chatbots, the artwork that can be generated from simple prompts, and the multibillion-dollar valuations of the companies behind these technologies — began with an unprecedented feat of tedious and repetitive labor.

In 2007, the AI researcher Fei-Fei Li, then a professor at Princeton, suspected the key to improving image-recognition neural networks, a method of machine learning that had been languishing for years, was training on more data — millions of labeled images rather than tens of thousands. The problem was that it would take decades and millions of dollars for her team of undergrads to label that many photos.

Li found thousands of workers on Mechanical Turk, Amazon’s crowdsourcing platform where people around the world complete small tasks for cheap. The resulting annotated dataset, called ImageNet, enabled breakthroughs in machine learning that revitalized the field and ushered in a decade of progress.

Annotation remains a foundational part of making AI, but there is often a sense among engineers that it’s a passing, inconvenient prerequisite to the more glamorous work of building models. You collect as much labeled data as you can get as cheaply as possible to train your model, and if it works, at least in theory, you no longer need the annotators. But annotation is never really finished. Machine-learning systems are what researchers call “brittle,” prone to fail when encountering something that isn’t well represented in their training data. These failures, called “edge cases,” can have serious consequences. In 2018, an Uber self-driving test car killed a woman because, though it was programmed to avoid cyclists and pedestrians, it didn’t know what to make of someone walking a bike across the street. The more AI systems are put out into the world to dispense legal advice and medical help, the more edge cases they will encounter and the more humans will be needed to sort them. Already, this has given rise to a global industry staffed by people like Joe who use their uniquely human faculties to help the machines.

Over the past six months, I spoke with more than two dozen annotators from around the world, and while many of them were training cutting-edge chatbots, just as many were doing the mundane manual labor required to keep AI running. There are people classifying the emotional content of TikTok videos, new variants of email spam, and the precise sexual provocativeness of online ads. Others are looking at credit-card transactions and figuring out what sort of purchase they relate to or checking e-commerce recommendations and deciding whether that shirt is really something you might like after buying that other shirt. Humans are correcting customer-service chatbots, listening to Alexa requests, and categorizing the emotions of people on video calls. They are labeling food so that smart refrigerators don’t get confused by new packaging, checking automated security cameras before sounding alarms, and identifying corn for baffled autonomous tractors.

“There’s an entire supply chain,” said Sonam Jindal, the program and research lead of the nonprofit Partnership on AI. “The general perception in the industry is that this work isn’t a critical part of development and isn’t going to be needed for long. All the excitement is around building artificial intelligence, and once we build that, it won’t be needed anymore, so why think about it? But it’s infrastructure for AI. Human intelligence is the basis of artificial intelligence, and we need to be valuing these as real jobs in the AI economy that are going to be here for a while.”

The data vendors behind familiar names like OpenAI, Google, and Microsoft come in different forms. There are private outsourcing companies with call-center-like offices, such as the Kenya- and Nepal-based CloudFactory, where Joe annotated for $1.20 an hour before switching to Remotasks. There are also “crowdworking” sites like Mechanical Turk and Clickworker where anyone can sign up to perform tasks. In the middle are services like Scale AI. Anyone can sign up, but everyone has to pass qualification exams and training courses and undergo performance monitoring. Annotation is big business. Scale, founded in 2016 by then-19-year-old Alexandr Wang, was valued in 2021 at $7.3 billion, making him what Forbes called “the youngest self-made billionaire,” though the magazine noted in a recent profile that his stake has fallen on secondary markets since then.

This tangled supply chain is deliberately hard to map. According to people in the industry, the companies buying the data demand strict confidentiality. (This is the reason Scale cited to explain why Remotasks has a different name.) Annotation reveals too much about the systems being developed, and the huge number of workers required makes leaks difficult to prevent. Annotators are warned repeatedly not to tell anyone about their jobs, not even their friends and co-workers, but corporate aliases, project code names, and, crucially, the extreme division of labor ensure they don’t have enough information about them to talk even if they wanted to. (Most workers requested pseudonyms for fear of being booted from the platforms.) Consequently, there are no granular estimates of the number of people who work in annotation, but it is a lot, and it is growing. A recent Google Research paper gave an order-of-magnitude figure of “millions” with the potential to become “billions.”

Automation often unfolds in unexpected ways. Erik Duhaime, CEO of medical-data-annotation company Centaur Labs, recalled how, several years ago, prominent machine-learning engineers were predicting AI would make the job of radiologist obsolete. When that didn’t happen, conventional wisdom shifted to radiologists using AI as a tool. Neither of those is quite what he sees occurring. AI is very good at specific tasks, Duhaime said, and that leads work to be broken up and distributed across a system of specialized algorithms and to equally specialized humans. An AI system might be capable of spotting cancer, he said, giving a hypothetical example, but only in a certain type of imagery from a certain type of machine; so now, you need a human to check that the AI is being fed the right type of data and maybe another human who checks its work before passing it to another AI that writes a report, which goes to another human, and so on. “AI doesn’t replace work,” he said. “But it does change how work is organized.”

You might miss this if you believe AI is a brilliant, thinking machine. But if you pull back the curtain even a little, it looks more familiar, the latest iteration of a particularly Silicon Valley division of labor, in which the futuristic gleam of new technologies hides a sprawling manufacturing apparatus and the people who make it run. Duhaime reached back farther for a comparison, a digital version of the transition from craftsmen to industrial manufacturing: coherent processes broken into tasks and arrayed along assembly lines with some steps done by machines and some by humans but none resembling what came before.

Worries about AI-driven disruption are often countered with the argument that AI automates tasks, not jobs, and that these tasks will be the dull ones, leaving people to pursue more fulfilling and human work. But just as likely, the rise of AI will look like past labor-saving technologies, maybe like the telephone or typewriter, which vanquished the drudgery of message delivering and handwriting but generated so much new correspondence, commerce, and paperwork that new offices staffed by new types of workers — clerks, accountants, typists — were required to manage it. When AI comes for your job, you may not lose it, but it might become more alien, more isolating, more tedious.


Earlier this year, I signed up for Scale AI’s Remotasks. The process was straightforward. After entering my computer specs, internet speed, and some basic contact information, I found myself in the “training center.” To access a paying task, I first had to complete an associated (unpaid) intro course.

The training center displayed a range of courses with inscrutable names like Glue Swimsuit and Poster Macadamia. I clicked on something called GFD Chunking, which revealed itself to be labeling clothing in social-media photos.

The instructions, however, were odd. For one, they basically consisted of the same direction reiterated in the idiosyncratically colored and capitalized typography of a collaged bomb threat.

“DO LABEL items that are real and can be worn by humans or are intended to be worn by real people,” it read.

“All items below SHOULD be labeled because they are real and can be worn by real-life humans,” it reiterated above photos of an Air Jordans ad, someone in a Kylo Ren helmet, and mannequins in dresses, over which was a lime-green box explaining, once again, “DO Label real items that can be worn by real people.”

I skimmed to the bottom of the manual, where the instructor had written in the large bright-red font equivalent of grabbing someone by the shoulders and shaking them, “THE FOLLOWING ITEMS SHOULD NOT BE LABELED because a human could not actually put wear any of these items!” above a photo of C-3PO, Princess Jasmine from Aladdin, and a cartoon shoe with eyeballs.

Feeling confident in my ability to distinguish between real clothes that can be worn by real people and not-real clothes that cannot, I proceeded to the test. Right away, it threw an ontological curveball: a picture of a magazine depicting photos of women in dresses. Is a photograph of clothing real clothing? No, I thought, because a human cannot wear a photograph of clothing. Wrong! As far as AI is concerned, photos of real clothes are real clothes. Next came a photo of a woman in a dimly lit bedroom taking a selfie before a full-length mirror. The blouse and shorts she’s wearing are real. What about their reflection? Also real! Reflections of real clothes are also real clothes.

After an embarrassing amount of trial and error, I made it to the actual work, only to make the horrifying discovery that the instructions I’d been struggling to follow had been updated and clarified so many times that they were now a full 43 printed pages of directives: Do NOT label open suitcases full of clothes; DO label shoes but do NOT label flippers; DO label leggings but do NOT label tights; do NOT label towels even if someone is wearing it; label costumes but do NOT label armor. And so on.

There has been general instruction disarray across the industry, according to Milagros Miceli, a researcher at the Weizenbaum Institute in Germany who studies data work. It is in part a product of the way machine-learning systems learn. Where a human would get the concept of “shirt” with a few examples, machine-learning programs need thousands, and they need to be categorized with perfect consistency yet varied enough (polo shirts, shirts being worn outdoors, shirts hanging on a rack) that the very literal system can handle the diversity of the real world. “Imagine simplifying complex realities into something that is readable for a machine that is totally dumb,” she said.

The act of simplifying reality for a machine results in a great deal of complexity for the human. Instruction writers must come up with rules that will get humans to categorize the world with perfect consistency. To do so, they often create categories no human would use. A human asked to tag all the shirts in a photo probably wouldn’t tag the reflection of a shirt in a mirror because they would know it is a reflection and not real. But to the AI, which has no understanding of the world, it’s all just pixels and the two are perfectly identical. Fed a dataset with some shirts labeled and other (reflected) shirts unlabeled, the model won’t work. So the engineer goes back to the vendor with an update: DO label reflections of shirts. Soon, you have a 43-page guide descending into red all-caps.

“When you start off, the rules are relatively simple,” said a former Scale employee who requested anonymity because of an NDA. “Then they get back a thousand images and then they’re like, Wait a second, and then you have multiple engineers and they start to argue with each other. It’s very much a human thing.”

The job of the annotator often involves putting human understanding aside and following instructions very, very literally — to think, as one annotator said, like a robot. It’s a strange mental space to inhabit, doing your best to follow nonsensical but rigorous rules, like taking a standardized test while on hallucinogens. Annotators invariably end up confronted with confounding questions like, Is that a red shirt with white stripes or a white shirt with red stripes? Is a wicker bowl a “decorative bowl” if it’s full of apples? What color is leopard print? When instructors said to label traffic-control directors, did they also mean to label traffic-control directors eating lunch on the sidewalk? Every question must be answered, and a wrong guess could get you banned and booted to a new, totally different task with its own baffling rules.

Most of the work on Remotasks is paid at a piece rate with a single task earning anywhere from a few cents to several dollars. Because tasks can take seconds or hours, wages are hard to predict. When Remotasks first arrived in Kenya, annotators said it paid relatively well — averaging about $5 to $10 per hour depending on the task — but the amount fell as time went on.

Scale AI spokesperson Anna Franko said that the company’s economists analyze the specifics of a project, the skills required, the regional cost of living, and other factors “to ensure fair and competitive compensation.” Former Scale employees also said pay is determined through a surge-pricing-like mechanism that adjusts for how many annotators are available and how quickly the data is needed.

According to workers I spoke with and job listings, U.S.-based Remotasks annotators generally earn between $10 and $25 per hour, though some subject-matter experts can make more. By the beginning of this year, pay for the Kenyan annotators I spoke with had dropped to between $1 and $3 per hour.

That is, when they were making any money at all. The most common complaint about Remotasks work is its variability; it’s steady enough to be a full-time job for long stretches but too unpredictable to rely on. Annotators spend hours reading instructions and completing unpaid trainings only to do a dozen tasks and then have the project end. There might be nothing new for days, then, without warning, a totally different task appears and could last anywhere from a few hours to weeks. Any task could be their last, and they never know when the next one will come.

This boom-and-bust cycle results from the cadence of AI development, according to engineers and data vendors. Training a large model requires an enormous amount of annotation followed by more iterative updates, and engineers want it all as fast as possible so they can hit their target launch date. There may be monthslong demand for thousands of annotators, then for only a few hundred, then for a dozen specialists of a certain type, and then thousands again. “The question is, Who bears the cost for these fluctuations?” said Jindal of Partnership on AI. “Because right now, it’s the workers.”

To succeed, annotators work together. When I told Victor, who started working for Remotasks while at university in Nairobi, about my struggles with the traffic-control-directors task, he told me everyone knew to stay away from that one: too tricky, bad pay, not worth it. Like a lot of annotators, Victor uses unofficial WhatsApp groups to spread the word when a good task drops. When he figures out a new one, he starts impromptu Google Meets to show others how it’s done. Anyone can join and work together for a time, sharing tips. “It’s a culture we have developed of helping each other because we know when on your own, you can’t know all the tricks,” he said.

Because work appears and vanishes without warning, taskers always need to be on alert. Victor has found that projects pop up very late at night, so he is in the habit of waking every three hours or so to check his queue. When a task is there, he’ll stay awake as long as he can to work. Once, he stayed up 36 hours straight labeling elbows and knees and heads in photographs of crowds — he has no idea why. Another time, he stayed up so long his mother asked him what was wrong with his eyes. He looked in the mirror to discover they were swollen.

Annotators generally know only that they are training AI for companies located vaguely elsewhere, but sometimes the veil of anonymity drops — instructions mentioning a brand or a chatbot say too much. “I read and I Googled and found I am working for a 25-year-old billionaire,” said one worker, who, when we spoke, was labeling the emotions of people calling to order Domino’s pizza. “I really am wasting my life here if I made somebody a billionaire and I’m earning a couple of bucks a week.”

Victor is a self-proclaimed “fanatic” about AI and started annotating because he wants to help bring about a fully automated post-work future. But earlier this year, someone dropped a Time story into one of his WhatsApp groups about workers training ChatGPT to recognize toxic content who were getting paid less than $2 an hour by the vendor Sama AI. “People were angry that these companies are so profitable but paying so poorly,” Victor said. He was unaware until I told him about Remotasks’ connection to Scale. Instructions for one of the tasks he worked on were nearly identical to those used by OpenAI, which meant he had likely been training ChatGPT as well, for approximately $3 per hour.

“I remember that someone posted that we will be remembered in the future,” he said. “And somebody else replied, ‘We are being treated worse than foot soldiers. We will be remembered nowhere in the future.’ I remember that very well. Nobody will recognize the work we did or the effort we put in.”


Identifying clothing and labeling customer-service conversations are just some of the annotation gigs available. Lately, the hottest on the market has been chatbot trainer. Because it demands specific areas of expertise or language fluency and wages are often adjusted regionally, this job tends to pay better. Certain types of specialist annotation can go for $50 or more per hour.

A woman I’ll call Anna was searching for a job in Texas when she stumbled across a generic listing for online work and applied. It was Remotasks, and after passing an introductory exam, she was brought into a Slack room of 1,500 people who were training a project code-named Dolphin, which she later discovered to be Google DeepMind’s chatbot, Sparrow, one of the many bots competing with ChatGPT. Her job is to talk with it all day. At about $14 an hour, plus bonuses for high productivity, “it definitely beats getting paid $10 an hour at the local Dollar General store,” she said.

Also, she enjoys it. She has discussed science-fiction novels, mathematical paradoxes, children’s riddles, and TV shows. Sometimes the bot’s responses make her laugh; other times, she runs out of things to talk about. “Some days, my brain is just like, I literally have no idea what on earth to ask it now,” she said. “So I have a little notebook, and I’ve written about two pages of things — I just Google interesting topics — so I think I’ll be good for seven hours today, but that’s not always the case.”

Each time Anna prompts Sparrow, it delivers two responses and she picks the best one, thereby creating something called “human-feedback data.” When ChatGPT debuted late last year, its impressively natural-seeming conversational style was credited to its having been trained on troves of internet data. But the language that fuels ChatGPT and its competitors is filtered through several rounds of human annotation. One group of contractors writes examples of how the engineers want the bot to behave, creating questions followed by correct answers, descriptions of computer programs followed by functional code, and requests for tips on committing crimes followed by polite refusals. After the model is trained on these examples, yet more contractors are brought in to prompt it and rank its responses. This is what Anna is doing with Sparrow. Exactly which criteria the raters are told to use varies — honesty, or helpfulness, or just personal preference. The point is that they are creating data on human taste, and once there’s enough of it, engineers can train a second model to mimic their preferences at scale, automating the ranking process and training their AI to act in ways humans approve of. The result is a remarkably human-seeming bot that mostly declines harmful requests and explains its AI nature with seeming self-awareness.

Put another way, ChatGPT seems so human because it was trained by an AI that was mimicking humans who were rating an AI that was mimicking humans who were pretending to be a better version of an AI that was trained on human writing.

This circuitous technique is called “reinforcement learning from human feedback,” or RLHF, and it’s so effective that it’s worth pausing to fully register what it doesn’t do. When annotators teach a model to be accurate, for example, the model isn’t learning to check answers against logic or external sources or about what accuracy as a concept even is. The model is still a text-prediction machine mimicking patterns in human writing, but now its training corpus has been supplemented with bespoke examples, and the model has been weighted to favor them. Maybe this results in the model extracting patterns from the part of its linguistic map labeled as accurate and producing text that happens to align with the truth, but it can also result in it mimicking the confident style and expert jargon of the accurate text while writing things that are totally wrong. There is no guarantee that the text the labelers marked as accurate is in fact accurate, and when it is, there is no guarantee that the model learns the right patterns from it.

This dynamic makes chatbot annotation a delicate process. It has to be rigorous and consistent because sloppy feedback, like marking material that merely sounds correct as accurate, risks training models to be even more convincing bullshitters. An early OpenAI and DeepMind joint project using RLHF, in this case to train a virtual robot hand to grab an item, resulted in also training the robot to position its hand between the object and its raters and wiggle around such that it only appeared to its human overseers to grab the item. Ranking a language model’s responses is always going to be somewhat subjective because it’s language. A text of any length will have multiple elements that could be right or wrong or, taken together, misleading. OpenAI researchers ran into this obstacle in another early RLHF paper. Trying to get their model to summarize text, the researchers found they agreed only 60 percent of the time that a summary was good. “Unlike many tasks in [machine learning] our queries do not have unambiguous ground truth,” they lamented.

When Anna rates Sparrow’s responses, she’s supposed to be looking at their accuracy, helpfulness, and harmlessness while also checking that the model isn’t giving medical or financial advice or anthropomorphizing itself or running afoul of other criteria. To be useful training data, the model’s responses have to be quantifiably ranked against one another: Is a bot that helpfully tells you how to make a bomb “better” than a bot that’s so harmless it refuses to answer any questions? In one DeepMind paper, when Sparrow’s makers took a turn annotating, four researchers wound up debating whether their bot had assumed the gender of a user who asked it for relationship advice. According to Geoffrey Irving, one of DeepMind’s research scientists, the company’s researchers hold weekly annotation meetings in which they rerate data themselves and discuss ambiguous cases, consulting with ethical or subject-matter experts when a case is particularly tricky.

Anna often finds herself having to choose between two bad options. “Even if they’re both absolutely, ridiculously wrong, you still have to figure out which one is better and then write words explaining why,” she said. Sometimes, when both responses are bad, she’s encouraged to write a better response herself, which she does about half the time.

Because feedback data is difficult to collect, it fetches a higher price. Basic preferences of the sort Anna is producing sell for about $1 each, according to people with knowledge of the industry. But if you want to train a model to do legal research, you need someone with training in law, and this gets expensive. Everyone involved is reluctant to say how much they’re spending, but in general, specialized written examples can go for hundreds of dollars, while expert ratings can cost $50 or more. One engineer told me about buying examples of Socratic dialogues for up to $300 a pop. Another told me about paying $15 for a “darkly funny limerick about a goldfish.”

OpenAI, Microsoft, Meta, and Anthropic did not comment about how many people contribute annotations to their models, how much they are paid, or where in the world they are located. Irving of DeepMind, which is a subsidiary of Google, said the annotators working on Sparrow are paid “at least the hourly living wage” based on their location. Anna knows “absolutely nothing” about Remotasks, but Sparrow has been more open. She wasn’t the only annotator I spoke with who got more information from the AI they were training than from their employer; several others learned whom they were working for by asking their AI for its company’s terms of service. “I literally asked it, ‘What is your purpose, Sparrow?’” Anna said. It pulled up a link to DeepMind’s website and explained that it’s an AI assistant and that its creators trained it using RLHF to be helpful and safe.


Until recently, it was relatively easy to spot bad output from a language model. It looked like gibberish. But this gets harder as the models get better — a problem called “scalable oversight.” Google inadvertently demonstrated how hard it is to catch the errors of a modern-language model when one made it into the splashy debut of its AI assistant, Bard. (It stated confidently that the James Webb Space Telescope “took the very first pictures of a planet outside of our own solar system,” which is wrong.) This trajectory means annotation increasingly requires specific skills and expertise.

Last year, someone I’ll call Lewis was working on Mechanical Turk when, after completing a task, he received a message inviting him to apply for a platform he hadn’t heard of. It was called Taskup.ai, and its website was remarkably basic: just a navy background with text reading GET PAID FOR TASKS ON DEMAND. He applied.

The work paid far better than anything he had tried before, often around $30 an hour. It was more challenging, too: devising complex scenarios to trick chatbots into giving dangerous advice, testing a model’s ability to stay in character, and having detailed conversations about scientific topics so technical they required extensive research. He found the work “satisfying and stimulating.” While checking one model’s attempts to code in Python, Lewis was learning too. He couldn’t work for more than four hours at a stretch, lest he risk becoming mentally drained and making mistakes, and he wanted to keep the job.

“If there was one thing I could change, I would just like to have more information about what happens on the other end,” he said. “We only know as much as we need to know to get work done, but if I could know more, then maybe I could get more established and perhaps pursue this as a career.”

I spoke with eight other workers, most based in the U.S., who had similar experiences of answering surveys or completing tasks on other platforms and finding themselves recruited for Taskup.ai or several similarly generic sites, such as DataAnnotation.tech or Gethybrid.io. Often their work involved training chatbots, though with higher-quality expectations and more specialized purposes than other sites they had worked for. One was demonstrating spreadsheet macros. Another was just supposed to have conversations and rate responses according to whatever criteria she wanted. She often asked the chatbot things that had come up in conversations with her 7-year-old daughter, like “What is the largest dinosaur?” and “Write a story about a tiger.” “I haven’t fully gotten my head around what they’re trying to do with it,” she told me.

Taskup.ai, DataAnnotation.tech, and Gethybrid.io all appear to be owned by the same company: Surge AI. Its CEO, Edwin Chen, would neither confirm nor deny the connection, but he was willing to talk about his company and how he sees annotation evolving.

“I’ve always felt the annotation landscape is overly simplistic,” Chen said over a video call from Surge’s office. He founded Surge in 2020 after working on AI at Google, Facebook, and Twitter convinced him that crowdsourced labeling was inadequate. “We want AI to tell jokes or write really good marketing copy or help me out when I need therapy or whatnot,” Chen said. “You can’t ask five people to independently come up with a joke and combine it into a majority answer. Not everybody can tell a joke or solve a Python program. The annotation landscape needs to shift from this low-quality, low-skill mind-set to something that’s much richer and captures the range of human skills and creativity and values that we want AI systems to possess.”

Last year, Surge relabeled Google’s dataset classifying Reddit posts by emotion. Google had stripped each post of context and sent them to workers in India for labeling. Surge employees familiar with American internet culture found that 30 percent of the labels were wrong. Posts like “hell yeah my brother” had been classified as annoyance and “Yay, cold McDonald’s. My favorite” as love.

Surge claims to vet its workers for qualifications — that people doing creative-writing tasks have experience with creative writing, for example — but exactly how Surge finds workers is “proprietary,” Chen said. As with Remotasks, workers often have to complete training courses, though unlike Remotasks, they are paid for it, according to the annotators I spoke with. Having fewer, better-trained workers producing higher-quality data allows Surge to compensate better than its peers, Chen said, though he declined to elaborate, saying only that people are paid “fair and ethical wages.” The workers I spoke with earned between $15 and $30 per hour, but they are a small sample of all the annotators, a group Chen said now consists of 100,000 people. The secrecy, he explained, stems from clients’ demands for confidentiality.

Surge’s customers include OpenAI, Google, Microsoft, Meta, and Anthropic. Surge specializes in feedback and language annotation, and after ChatGPT launched, it got an influx of requests, Chen said: “I thought everybody knew the power of RLHF, but I guess people just didn’t viscerally understand.”

The new models are so impressive they’ve inspired another round of predictions that annotation is about to be automated. Given the costs involved, there is significant financial pressure to do so. Anthropic, Meta, and other companies have recently made strides in using AI to drastically reduce the amount of human annotation needed to guide models, and other developers have started using GPT-4 to generate training data. However, a recent paper found that GPT-4-trained models may be learning to mimic GPT’s authoritative style with even less accuracy, and so far, when improvements in AI have made one form of annotation obsolete, demand for other, more sophisticated types of labeling has gone up. This debate spilled into the open earlier this year, when Scale’s CEO, Wang, tweeted that he predicted AI labs will soon be spending as many billions of dollars on human data as they do on computing power; OpenAI’s CEO, Sam Altman, responded that data needs will decrease as AI improves.

Chen is skeptical AI will reach a point where human feedback is no longer needed, but he does see annotation becoming more difficult as models improve. Like many researchers, he believes the path forward will involve AI systems helping humans oversee other AI. Surge recently collaborated with Anthropic on a proof of concept, having human labelers answer questions about a lengthy text with the help of an unreliable AI assistant, on the theory that the humans would have to feel out the weaknesses of their AI assistant and collaborate to reason their way to the correct answer. Another possibility has two AIs debating each other and a human rendering the final verdict on which is correct. “We still have yet to see really good practical implementations of this stuff, but it’s starting to become necessary because it’s getting really hard for labelers to keep up with the models,” said OpenAI research scientist John Schulman in a recent talk at Berkeley.

“I think you always need a human to monitor what AIs are doing just because they are this kind of alien entity,” Chen said. Machine-learning systems are just too strange ever to fully trust. The most impressive models today have what, to a human, seems like bizarre weaknesses, he added, pointing out that though GPT-4 can generate complex and convincing prose, it can’t pick out which words are adjectives: “Either that or models get so good that they’re better than humans at all things, in which case, you reach your utopia and who cares?”


As 2022 ended, Joe started hearing from his students that their task queues were often empty. Then he got an email informing him the boot camps in Kenya were closing. He continued training taskers online, but he began to worry about the future.

“There were signs that it was not going to last long,” he said. Annotation was leaving Kenya. From colleagues he had met online, he heard tasks were going to Nepal, India, and the Philippines. “The companies shift from one region to another,” Joe said. “They don’t have infrastructure locally, so it makes them flexible to shift to regions that favor them in terms of operation cost.”

One way the AI industry differs from manufacturers of phones and cars is in its fluidity. The work is constantly changing, constantly getting automated away and replaced with new needs for new types of data. It’s an assembly line but one that can be endlessly and instantly reconfigured, moving to wherever there is the right combination of skills, bandwidth, and wages.

Lately, the best-paying work is in the U.S. In May, Scale started listing annotation jobs on its own website, soliciting people with experience in practically every field AI is predicted to conquer. There were listings for AI trainers with expertise in health coaching, human resources, finance, economics, data science, programming, computer science, chemistry, biology, accounting, taxes, nutrition, physics, travel, K-12 education, sports journalism, and self-help. You can make $45 an hour teaching robots law or make $25 an hour teaching them poetry. There were also listings for people with security clearance, presumably to help train military AI. Scale recently launched a defense-oriented language model called Donovan, which Wang called “ammunition in the AI war,” and won a contract to work on the Army’s robotic-combat-vehicle program.

Anna is still training chatbots in Texas. Colleagues have been turned into reviewers and Slack admins — she isn’t sure why, but it has given her hope that the gig could be a longer-term career. One thing she isn’t worried about is being automated out of a job. “I mean, what it can do is amazing,” she said of the chatbot. “But it still does some really weird shit.”

When Remotasks first arrived in Kenya, Joe thought annotation could be a good career. Even after the work moved elsewhere, he was determined to make it one. There were thousands of people in Nairobi who knew how to do the work, he reasoned — he had trained many of them, after all. Joe rented office space in the city and began sourcing contracts: a job annotating blueprints for a construction company, another labeling fruits despoiled by insects for some sort of agricultural project, plus the usual work of annotating for self-driving cars and e-commerce.

But he has found his vision difficult to achieve. He has just one full-time employee, down from two. “We haven’t been having a consistent flow of work,” he said. There are weeks with nothing to do because customers are still collecting data, and when they’re done, he has to bring in short-term contractors to meet their deadlines: “Clients don’t care whether we have consistent work or not. So long as the datasets have been completed, then that’s the end of that.”

Rather than let their skills go to waste, other taskers decided to chase the work wherever it went. They rented proxy servers to disguise their locations and bought fake IDs to pass security checks so they could pretend to work from Singapore, the Netherlands, Mississippi, or wherever the tasks were flowing. It’s a risky business. Scale has become increasingly aggressive about suspending accounts caught disguising their location, according to multiple taskers. It was during one of these crackdowns that my account got banned, presumably because I had been using a VPN to see what workers in other countries were seeing, and all $1.50 or so of my earnings were seized.

“These days, we have become a bit cunning because we noticed that in other countries they are paying well,” said Victor, who was earning double the Kenyan rate by tasking in Malaysia. “You do it cautiously.”

Another Kenyan annotator said that after his account got suspended for mysterious reasons, he decided to stop playing by the rules. Now, he runs multiple accounts in multiple countries, tasking wherever the pay is best. He works fast and gets high marks for quality, he said, thanks to ChatGPT. The bot is wonderful, he said, letting him speed through $10 tasks in a matter of minutes. When we spoke, he was having it rate another chatbot’s responses according to seven different criteria, one AI training the other.

Permalink
June 20, 2023 at 11:00:32 PM GMT+2

La vidéosurveillance intelligente fera ses premiers pas aux JO et sera expérimentée jusqu’en juin 2025https://www.lemonde.fr/sport/article/2022/12/22/la-videosurveillance-intelligente-fera-ses-premiers-pas-aux-jo-et-sera-experimentee-jusqu-en-juin-2025_6155402_3242.html

  • Police State
  • global spying
  • Control the Masses
  • Police State
  • global spying
  • Control the Masses

La vidéosurveillance intelligente fera ses premiers pas aux JO et sera expérimentée jusqu’en juin 2025

Un projet de loi, adopté en conseil des ministres, comporte un certain nombre de dérogations ou d’expérimentations en matière de sécurité, publicité, ou transport.

Par Philippe Le Coeur Publié le 22 décembre 2022 à 13h00, modifié le 07 avril 2023 à 14h31

Le projet de loi relatif aux Jeux olympiques-paralympiques propose de tester la mise en œuvre d’algorithmes d’intelligence artificielle en appui de caméras de vidéoprotection afin de détecter « des situations anormales ». FRED TANNEAU / AFP

Officiellement, c’est un texte ne recélant que des « points très techniques ». Avec un objectif : procéder à des aménagements législatifs jugés nécessaires au bon déroulement des Jeux olympiques et paralympiques en 2024 (du 26 juillet au 11 août, puis du 28 août au 8 septembre). Que cela concerne le cadre des compétitions, mis aussi – voire surtout – l’environnement de l’événement.

Le projet de loi relatif aux Jeux, qui a été adopté en conseil des ministres jeudi 22 décembre, et qui sera soumis au Sénat en janvier 2023, consiste à faire adopter, à travers dix-neuf articles, une succession de dérogations ou d’expérimentations.

Au-dela de leur technicité revendiquée, un certain nombre de ces dispositions – dont le vote par le Parlement est attendu au premier semestre 2023 – pourraient cependant avoir une portée loin d’être anodine. Il en va ainsi en matière de sécurité, l’un des enjeux majeurs de ces Jeux.

Si le recours à la reconnaissance faciale est explicitement exclu dans le texte du projet de loi, celui-ci propose d’instaurer un cadre juridique « expérimental et temporaire » pour « améliorer » les dispositifs de vidéosurveillance, en mettant en œuvre des algorithmes d’intelligence artificielle aptes à détecter « des situations anormales ». Cela concernera les lieux accueillant les compétitions mais aussi les moyens de transport.

Le temporaire s’étendra néanmoins bien au-delà des seuls Jeux, jusqu’au 30 juin 2025. Le gouvernement considère qu’il faudra quelques mois d’utilisation dans le cadre d’autres événements (sportifs, festifs, culturels) exposés à des risques d’actes terroristes ou d’atteintes graves à la sécurité des personnes pour pouvoir faire un bilan du fonctionnement de cet outil. « Gérer les mouvements de foule »

Avec ces « algorithmes intelligents, mais anonymisés, on peut gérer les mouvements de foule dans les transports », avait expliqué la ministre des sports et des Jeux olympiques et paralympiques, Amélie Oudéa-Castéra, le 12 octobre devant les sénateurs. Newsletter « Sport » Enquêtes, reportages, analyses : l’actualité du sport dans votre boîte e-mail chaque samedi S’inscrire

« Il s’agit de cibler non pas tel ou tel individu, mais des personnes répondant à tel signalement, ou encore des catégories de gestes, comme la dégradation de biens publics », avait détaillé, quelques jours plus tard au Sénat également, le ministre de l’intérieur, Gérald Darmanin.

Le texte du projet de loi précise en l’occurrence qu’il s’agit, avec ces traitements algorithmiques, de procéder « exclusivement à un signalement d’attention, strictement limité à l’indication du ou des événements qu’ils ont été programmés pour détecter ». L’utilisation de cet outil ne pourra déboucher sur « aucune décision individuelle ou acte de poursuite ».

Si Mme Oudéa-Castéra a assuré que ces dispositifs devront être examinés par la Commission nationale de l’informatique et des libertés et le Conseil d’Etat, ils apparaissent tout aussi « graves » que la reconnaissance faciale, en matière de libertés publiques, aux yeux de certains spécialistes de ce sujet.

« C’est une surveillance biométrique de tout le monde, tout le temps. Ces logiciels permettent de faire des analyses très poussées des personnes », a fait valoir, dans un entretien au Parisien le 26 novembre, Bastien Le Querrec, juriste et membre de La Quadrature du Net, disant redouter que les Jeux ne soient qu’un galop d’essai qui se prolonge.

Le projet de loi autorise aussi l’utilisation des scanners corporels dans les stades, comme c’est le cas dans les aéroports, et renforce l’arsenal des sanctions pénales avec des interdictions judiciaires de stade qui seront « désormais une mesure complémentaire obligatoire et non plus facultative pour un certain nombre d’infractions liées à des violences ou perturbations lors de rencontres sportives ». Lire aussi : Article réservé à nos abonnés Jeux olympiques 2024 : le « défi sécuritaire » de la cérémonie d’ouverture sur la Seine Ouverture des commerces le dimanche

Autre sujet « sensible » : le travail dominical dans les commerces. Le projet de loi vise à autoriser, entre le 1er juin et le 30 septembre 2024, les commerçants des communes accueillant des sites de compétition ainsi que des communes situées à proximité, d’ouvrir le dimanche durant la période des Jeux. Cela ne pourra se faire que sur la base du volontariat des salariés et en s’inscrivant dans le cadre du droit du travail pour ce qui concerne les rémunérations (deux fois le salaire).

Pour Paris, cette demande avait notamment été formulée par Florence Berthout, la maire (Horizons) du 5e arrondissement. « Il faut que tout le monde puisse en profiter, qu’il n’y ait pas une distorsion de concurrence entre ceux qui sont dans les bonnes zones [zones touristiques internationales] et les autres, entre grandes enseignes et tout petits commerces », a plaidé l’élue, mi-novembre, au Conseil de Paris.

Ne cachant pas que son objectif est que la période test des Jeux puisse déboucher sur quelque chose de durable, elle a reçu l’appui d’Olivia Grégoire, qui, « en tant que ministre du commerce, en tant qu’élue de Paris », s’est dite, le 11 décembre sur France 3, « favorable à ce que nos commerces puissent ouvrir tous les dimanches dans le cadre des Jeux olympiques ».

Quant à la possibilité d’aller au-delà des Jeux et de modifier la loi qui autorise les commerces à ouvrir douze dimanches dans l’année, la ministre a déclaré y être « favorable », tout en précisant que « ce n’est pas à l’ordre du jour ». Licences pour les taxis adaptés aux personnes handicapées

Le projet de loi propose aussi que certaines règles régissant la publicité soient mises entre parenthèses durant les trois mois du relais de la flamme olympique (à partir d’avril 2024). Il s’agira de permettre aux sponsors de cette opération (dont Coca-Cola) de disposer de panneaux publicitaires à proximité de monuments historiques, quinze jours en amont du passage de la flamme et sept jours après. Lire aussi : Article réservé à nos abonnés JO 2024 : le relais de la flamme mobilisera une soixantaine de départements, mais son coût suscite des tensions

En matière de transports, c’est à la création de nouvelles licences de taxis que le gouvernement veut procéder : celles-ci concerneront ceux qui se seront équipés spécifiquement pour transporter des personnes handicapées.

La mesure viendra compléter le plan d’aide visant à rendre mille taxis accessibles aux personnes en situation de mobilité réduite – il n’y en a que deux cents référencés actuellement –, l’accessibilité étant l’un des engagements forts des organisateurs des Jeux et des pouvoirs publics.

Permalink
June 20, 2023 at 10:35:46 PM GMT+2

Un psychothérapeute italien condamné à de la prison pour avoir induit de faux souvenirs – Réalités Biomédicaleshttps://www.lemonde.fr/blog/realitesbiomedicales/2022/12/12/un-psychotherapeute-italien-condamne-a-de-la-prison-pour-avoir-induit-de-faux-souvenirs/

  • Psychology
  • Control the Masses
  • Psychology
  • Control the Masses

Un psychothérapeute italien condamné à de la prison pour avoir induit de faux souvenirs

C’est l’histoire de Sara (le prénom a été modifié), une adolescente de 15 ans, dont les parents ont divorcé. Nous sommes en 2015. A vrai dire, tout a commencé quelques années plus tôt, en 2003, lorsque sa mère fait appel, pour la première fois, aux services sociaux pour obtenir un soutien économique dans un contexte de relation parentale conflictuelle.

Lors d’une rencontre avec les travailleurs sociaux, la mère de Sara les informe que sa fille a été victime d’abus sexuel de la part de son petit ami, également adolescent. Les faits sont portés à la connaissance du procureur et une enquête est ouverte à l’encontre de l’ami de Sara. L’adolescente n’entend pas être mêlée à l’affaire criminelle et en veut beaucoup à sa mère d’avoir trahi sa confiance en divulguant des éléments de sa vie.

Les services sociaux vont la questionner de manière intensive avant même qu’elle ne soit entendue par la justice. Durant ces entretiens, l’adolescente déclare éprouver beaucoup de honte à devoir raconter ce qu’elle a vécu et finit par réaliser à quel point tout cela l’a affectée. Plus tard, les services sociaux informent Sara qu’elle a été agressée sexuellement dans son enfance par un ami de son père, alors même que l’adolescente ne garde aucun souvenir de ce qui s’est passé.

Quelques mois plus tard, Sara est confiée par ces services sociaux aux bons soins d’un psychothérapeute, le Dr X, qui exerce dans un centre privé. L’établissement en question se situe à Reggio Emilia, non loin de Bologne, dans la région d’Emilie-Romagne. Agréé par la municipalité, il est fréquemment sollicité par les services sociaux pour des affaires concernant des enfants à problèmes.

Les séances de thérapie débutent en février 2016. Sara raconte ce qu’elle a vécu. Le thérapeute va alors la convaincre à penser que les épisodes qu’elle relate sont liés à des abus sexuels commis par un ami de son père lorsqu’elle avait cinq ou six ans, événements dont elle n’avait aucun souvenir avant cette psychothérapie. Les séances sont enregistrées sur bandes-vidéo, ce qui se révélera crucial, par la suite, pour documenter la dynamique de l’implantation de faux souvenirs.

Les séances avec le Dr X se poursuivent jusqu’à octobre 2016. Au cours de quatorze entretiens, le thérapeute revient plusieurs fois sur les supposés abus sexuels dont Sara aurait été victime à plusieurs reprises et explique que ses problèmes actuels seraient la conséquence de ces abus. Plus précisément, Sara va être poussée à se souvenir de l’abus perpétré par son ex-petit ami âgé de 13-14 ans, d’une récente agression par un camarade de classe et d’un abus sexuel commis par l’ami de son père, dont elle a été victime durant son enfance.

Durant les entretiens, les questions posées à Sara par le Dr X sont difficiles à comprendre pour la jeune adolescente dans la mesure où le thérapeute utilise une syntaxe complexe. Par ailleurs, le thérapeute fait de longs monologues destinés à persuader la jeune fille qu’elle a réellement été abusée sexuellement par son petit ami et par l’ami de son père.

De longues questions suggestives

Extrait des échanges entre le Dr X et Sara, tels que retranscrits par des criminologues belges et des psychologues néerlandais et italiens qui relatent cette histoire dans un article paru en septembre 2022 dans le Journal of Forensic Sciences, revue américaine de médecine légale :

Dr. X : Mmh, des hommes plus âgés, tu dis, hein ? (…) mais il est possible que des hommes plus âgés t’aient fait du mal dans le passé.

Sara : (hoche la tête)

Dr. X : Hein, hein… alors, pour éviter de tels risques désagréables, tu as imaginé mettre de la distance avec tout le monde… n’est-ce pas ?

Dr. X : ...d’une certaine manière, ton père est aussi lié à de mauvaises expériences de maltraitance et d’abus ?

Dr X : Il a posé ses mains sur toi. Donc, c’était un manque de respect, un sérieux manque de respect. Je comprends que ton histoire… oui, en effet, ce n’est pas toi…ce n’est pas ta vie qui est nulle hein, hein, ces hommes que tu as rencontrés sont nuls ! Tu as l’impression de mélanger les deux choses, hein ?

Dr X : C’est l’ami de ton père qui posait ses mains d’une manière dérangeante ?

Sara : Oui.

Dr. X : Sur ton corps, hein ?

Sara : M-hm, m-hm.

Selon les auteurs qui rapportent les tenants et aboutissants de cette affaire criminelle, « du fait des interventions thérapeutiques suggestives, Sara a eu tendance à adhérer aux déclarations et suggestions du psychothérapeute et a fréquemment changé ses réponses afin de se conformer à ce qu’il attendait ». Exemple : Dr X : « d’une certaine façon, il a commis un acte sexuel ». Sarah : « Oui ».

Henry Otgaar (faculté de droit et de criminologie de l’université de Louvain, Belgique) et ses collègues psychologues des universités de Maastricht (Pays-Bas), de Bari et de Padoue (Italie) soulignent que Sara avait une attitude « très passive » lorsqu’elle répondait aux questions du thérapeute et ne lui répondait souvent que par un simple mot (« Oui »), alors même que le Dr X lui posait de longues questions suggestives.

Le thérapeute fait de longues phrases. Il parle environ trois fois plus que sa jeune patiente. Il ressort des enregistrements vidéo que le Dr X utilise plus de 3 200 mots, quand Sara n’en prononce que 1 200. Le thérapeute emploie environ 21 mots dans une phrase alors que Sara se contente d’en utiliser 12, avec pour conséquence un réel déséquilibre dans la quantité d’information partagée entre le thérapeute et sa patiente.

Répondre à des questions longues, utilisant une grammaire compliquée pour une jeune enfant, a pu entraver la communication entre les deux et inciter Sara à adhérer aux propos de la personne ayant autorité, en l’occurrence son thérapeute.

Thérapie EMDR

Au cours des séances, Sara a également suivi une thérapie EMDR (eye movement desensitization and reprocessing), souvent utilisée dans la prise en charge d’un trouble psychotraumatique. Cette méthode de psychothérapie consiste à traiter des mémoires douloureuses à l’aide, notamment, de mouvements des yeux. La thérapie EMDR se focalise sur les aspects émotionnels, cognitifs et corporels liés à la mémoire traumatique. Le patient doit voir en image son traumatisme, afin de « le revivre » d’une certaine façon. Le thérapeute stimule alors latéralement les yeux du patient, en lui demandant de suivre du regard son doigt de droite à gauche et vice-versa durant plusieurs secondes. Il a été montré que cette procédure oculaire réduit la vivacité et la charge émotionnelle liées à la mémoire autobiographique, et pour ainsi dire permet au cerveau de « digérer » l’événement traumatisant. Des études ont cependant indiqué que la thérapie EMDR pouvait altérer la qualité et la quantité de la mémoire et potentiellement faciliter la création de faux souvenirs.

Au fur et à mesure des séances de thérapie EMDR, dans l’esprit de Sara, l’image de son père vient progressivement chevaucher celle de l’ami de son père, comme étant son agresseur sexuel lorsqu’elle était toute petite. C’est ainsi que Sara déclare à son thérapeute : « Euh…. je ne sais pas pourquoi mais… il m’est arrivé assez souvent… Euh… que je confonde l’ami de mon père avec mon père ».

Au cours des séances avec le Dr X, l’image de l’agresseur sexuel, initialement identifié comme étant l’ami du père de Sara, a commencé à devenir celle de son propre père. Sara déclare alors : « Je ne peux… Je ne peux pas comprendre pourquoi ces deux types se ressemblent autant ». La fillette ne parvient pas à distinguer ce qui arrivait avec son père de ce qui s’est passé avec l’ami de son père. « Je ne sais pas pourquoi je vois beaucoup de similarité avec mon père, donc je ne sais pas », dit-elle alors. À la 14e et dernière séance, la fille reconnaît que son père est le seul agresseur.

« À un certain moment, Sara semblait de plus en plus confuse et incertaine quant à savoir si l’agresseur était l’ami du père ou le père lui-même. Une fois les séances thérapeutiques terminées, Sara a été invitée par les travailleurs sociaux à continuer de rencontrer le Dr. X deux fois par mois. En octobre 2017, le tribunal des mineurs a déchu le père de Sara de son autorité parentale », indiquent les auteurs.

Deux ans plus tard, en octobre 2019, la mère et la sœur de Sara ont rapporté aux enquêteurs que la fille avait un comportement radicalement différent. Elle était devenue irritable et agressive, fréquentait des gens peu recommandables et se droguait. Elle refusait de voir son père et entretenait une relation très conflictuelle avec sa mère. Sara finit par rencontrer son père en août 2019.

Implantation de faux souvenirs d’abus sexuel commis par le père

En novembre 2021, le Dr X (68 ans) a été reconnu coupable, par la justice italienne, d’avoir infligé lors de sa pratique de sérieux dommages psychologiques à sa jeune patiente, d’abus de pouvoir et de fraude dans la prise en charge. Le Dr. X a été accusé d’avoir utilisé des questions fortement suggestives affectant les déclarations de Sara dans un cadre thérapeutique pour prouver la survenue d’un abus sexuel commis par son père qui n’a jamais eu lieu.

« Le Dr X et ses collègues ont utilisé des techniques psychologiques non éthiques et manipulatrices visant à laver le cerveau des enfants afin d’amener les victimes à se souvenir qu’elles avaient été abusées sexuellement par leurs parents. Parmi ces techniques, l’accent était mis sur l’utilisation d’entretiens très suggestifs et sur l’altération des souvenirs traumatiques par des pratiques EMDR », déclarent les auteurs.

Avant de débuter les séances avec son thérapeute, Sara n’avait aucun souvenir d’avoir été agressée sexuellement par son père. Elle déclarait uniquement avoir eu des rapports sexuels avec son petit ami.

L’analyse des dialogues entre Sara et son thérapeute illustre les changements dans la mémoire de la jeune adolescente au fil des séances. En effet, au début, Sara expliquait clairement ne pas se souvenir d’avoir été victime d’abus sexuel par l’ami de son père et que cette information provenait uniquement des services sociaux. Plus précisément, Sara déclarait alors n’avoir aucun souvenir relatif à une supposée agression sexuelle. Elle se rappelait juste qu’elle portait une robe rose et était assise sur le canapé à côté de l’ami de son père. L’image que Sara a fournie était floue et n’était pas placée dans l’espace et le temps. De plus, Sara ne se souvenait pas de ce à quoi cette image, dans sa mémoire, faisait référence. Elle ne savait pas ce qui s’était spécifiquement passé à cette occasion.

Cependant, au fur et à mesure des séances avec le Dr. X, la mémoire de la jeune fille va changer. Elle va progressivement accepter le scénario d’abus sexuel formulé par le thérapeute, celui-ci lui disant notamment : « Il est possible que des hommes âgés t’aient fait du mal dans le passé ». Dans la mémoire de Sara, l’abus commis par l’ami du père va devenir progressivement plus clair et finir par être intégré comme ayant réellement été vécu par elle-même, Sara déclarant alors : « ça s’est transformé … non plus en une image mais en un petit film ».

Alors qu’au début des séances, Sara évoquait seulement quelques détails (le canapé, la robe rose, l’ami de son père), au fil de la thérapie, Sara en a fourni un plus grand nombre (le visage de cet homme, ses mains), allant même jusqu’à en ajouter d’autres dans son récit, tel que la main de l’ami de son père lui touchant les parties intimes.

Au cours du procès, il s’est avéré que les enfants, confiés aux bons soins de ce thérapeute ou d’une de ses collègues, appartenaient à des familles pauvres ou à problèmes. « Parmi les techniques utilisées, le ou la thérapeute se déguisait en un mauvais personnage des contes de fées les plus célèbres et, habillé(e) ainsi, jouait le rôle de père/mère de l’enfant dans une sorte d’approche cathartique. Les enfants confrontés à de tels personnages étaient amenés à croire que leurs parents étaient dangereux, menaçants, abuseurs, de sorte que seul le fait de les affronter dans un tel acte symbolique pouvait les libérer de leur malaise », précisent les auteurs de l’article.

Peine d’emprisonnement

Alors que le procureur avait initialement requis une peine d’emprisonnement de six ans, le tribunal a finalement condamné le Dr. X à quatre ans de prison. Le thérapeute a fait appel.

Il a également écopé d’une interdiction d’exercer des fonctions publiques pendant une période de cinq ans et de pratiquer la psychologie et la psychothérapie pendant deux ans. Le tribunal a motivé son verdict en déclarant que de faux souvenirs ont été implantés par des « méthodes hautement suggestives et inductrices » afin que Sara soit convaincue d’avoir été sexuellement abusée par son père.

Selon les auteurs de l’article, cette affaire criminelle jugée – une première en Italie – pose la question de savoir si des psychothérapeutes doivent utiliser des techniques suggestives lors des séances de thérapie. Et de citer une étude américaine publiée en 2019 dans Clinical Psychological Science qui indiquait que 9 % des 2 326 patients en thérapie s’étaient vus interrogés sur l’existence de souvenirs refoulés. Cela souligne avec force « la nécessité d’une formation appropriée et de programmes éducatifs pour les thérapeutes sur la science de la mémoire », estiment Henry Otgaar et ses collègues criminologues et psychologues.

Sur le plan médical, ce cas montre que, lors de séances de thérapie, des techniques d’entretiens inappropriées peuvent avoir un impact délétère sur la santé mentale des patients. Cela a été le cas pour Sara dont la vie a été profondément affectée et dont les relations familiales ont été bouleversées.

Concernant les implications sur le plan légal de la fabrique de faux souvenirs, les auteurs concluent que « lorsque les professionnels du droit (juges, avocats, procureurs) ont des doutes ou des questions concernant l’exactitude des témoignages de victimes, de témoins et de suspects présumés, ils devraient consulter des experts de la mémoire. Ces experts peuvent fournir aux tribunaux des informations sur la fiabilité de la mémoire en règle générale ou dans le cadre d’une affaire ».

Charlatans français

Signalons, qu’en France, un psychothérapeute, a été reconnu coupable par la justice en juin 2022 d’avoir induit de faux souvenirs traumatisants. Il a été condamné à un an de prison avec sursis pour abus de faiblesse, le parquet n’hésitant pas à le qualifier de « charlatan ». Cet « humanothérapeute » demandait à ses patients de se déshabiller intégralement pendant de longues et éprouvantes séances, dans le but de revivre des traumatismes prétendument enfouis dans leur mémoire.

En mai 2017, une kinésithérapeute a été condamnée à un an de prison avec sursis pour avoir induit, chez des patientes, de faux souvenirs d’abus sexuels qu’elles auraient subis pendant l’enfance. Ces femmes avaient décrit un mécanisme d’emprise mentale. Les faux souvenirs concernaient en majorité des faits d’inceste ou de maltraitance subis durant l’enfance. L’une des plaignantes avait accusé à tort son père de l’avoir violée.

Marc Gozlan (Suivez-moi sur Twitter, Facebook, LinkedIn, Mastodon, et sur mon autre blog ‘Le diabète dans tous ses états’, consacré aux mille et une facettes du diabète – déjà trente billets).

Pour en savoir plus :

Otgaar H, Curci A, Mangiulli I, et al. A court ruled case on therapy-induced false memories. J Forensic Sci. 2022 Sep;67(5):2122-2129. doi: 10.1111/1556-4029.15073

Otgaar H, Houben STL, Rassin E, Merckelbach H. Memory and eye movement desensitization and reprocessing therapy: a potentially risky combination in the courtroom. Memory. 2021 Oct;29(9):1254-1262. doi: 10.1080/09658211.2021.1966043

Leer A, Engelhard IM. Side effects of induced lateral eye movements during aversive ideation. J Behav Ther Exp Psychiatry. 2020 Sep;68:101566. doi: 10.1016/j.jbtep.2020.101566

Houben STL, Otgaar H, Roelofs J, et al. Increases of correct memories and spontaneous false memories due to eye movements when memories are retrieved after a time delay. Behav Res Ther. 2020 Feb;125:103546. doi: 10.1016/j.brat.2019.103546

Patihis L, Pendergrast MH. Reports of recovered memories of abuse in therapy in a large age-representative US national sample: therapy type and decade comparisons. Clin Psych Sci. 2019;7(1):3–21.

Mazzoni G, Memon A. Imagination can create false autobiographical memories. Psychol Sci. 2003 Mar;14(2):186-8. doi: 10.1046/j.1432-1327.1999.00020.x

Kaplan R, Manicavasagar V. Is there a false memory syndrome? A review of three cases. Compr Psychiatry. 2001 Jul-Aug;42(4):342-8. doi: 10.1053/comp.2001.24588

Loftus EF. Memories for a past that never was. Current Directions in Psychological Science. 1997;6(3):60–65.

Garry M, Manning CG, Loftus EF, Sherman SJ. Imagination inflation: Imagining a childhood event inflates confidence that it occurred. Psychon Bull Rev. 1996 Jun;3(2):208-14. doi: 10.3758/BF03212420

Ceci SJ, Bruck M. Suggestibility of the child witness: a historical review and synthesis. Psychol Bull. 1993 May;113(3):403-39. doi: 10.1037/0033-2909.113.3.403

Sur le web :

Le thérapeute accusé de fabriquer des faux souvenirs condamné à de la prison avec sursis (Le Monde, 12 juin 2022)

Une kiné condamnée à un an de prison avec sursis pour avoir induit de faux souvenirs (France Info, 25 mai 2017)

Permalink
June 20, 2023 at 10:31:27 PM GMT+2

La privatisation de nos senshttps://ploum.net/2023-06-07-privatisation-de-nos-sens.html

  • Societal Collapse
  • Control the Masses
  • Societal Collapse
  • Control the Masses

La privatisation de nos sens

par Ploum le 2023-06-07

J’ai déjà glosé ad nauseam sur nos nuques penchées en permanence sur un petit rectangle en plastique, sur notre attention aspirée pour se cantonner à un minuscule écran ne nous montrant que ce que deux ou trois monopoles mondiaux veulent bien nous transmettre.

L’idée, explorée dans Printeurs, que ces monopoles se branchent directement dans nos cerveaux pour les influencer semble encore de la science-fiction.

Pourtant, la capture de nos sens a déjà commencé.

Avez-vous observé le nombre de personnes se baladant avec des écouteurs blancs dans les oreilles et ne les retirant pas pour converser voire même pour passer à la télévision ? Ces personnes vivent dans un environnement en « réalité augmentée ». Ils peuvent entendre un mélange des sons virtuels et des sons réels. Ce mélange étant contrôlé… par les monopoles qui vendent ces écouteurs.

Porter ce genre d’écouteur revient à littéralement vendre sa perception à des entreprises publicitaires (oui, Apple est une entreprise qui vit de la pub, même si c’est essentiellement de la pub pour elle-même). Un jour, vous vous réveillerez avec des publicités dans l’oreille. Ou bien vous ne comprendrez pas un discours, car certaines parties auront été censurées.

Ce n’est pas une potentialité éloignée, c’est l’objectif avoué de ces technologies.

Après l’audition, c’est au tour de la vue d’être attaquée à traves des lunettes de réalité augmentée.

Les publicités pour la nouvelle mouture Apple montrent des gens souriants, portant les lunettes pour participer à des vidéoconférences tout en semblant profiter de la vie. Fait amusant : personne d’autre dans ces conférences factices ne semble porter ce genre de lunettes.

Parce que ce n’est pas encore socialement accepté. Ne vous inquiétez pas, ils y travaillent. Il a fallu 20 ans pour que porter des écouteurs en public passe de psychopathe asocial à adolescent branché. C’est d’ailleurs la raison pour laquelle les lunettes Apple sont si chères : elles deviennent une marque de statut, un objet de luxe. Les premières personnes que vous verrez dans la rue les portant seront celles qui ont de l’argent à dépenser et tiennent à le faire savoir. Ce qui entrainera fatalement la popularisation des modèles meilleur marché.

Dans Tantzor, paru en 1991, Paul-Loup Sulitzer se moquait déjà de cet aspect en racontant la vie d’un entrepreneur russe qui vendait des faux écouteurs verts fluo bon marché aux gens qui ne savaient pas se payer un walkman. Pour pouvoir faire comme tout le monde, pour avoir l’air de posséder un walkman.

Porter un casque audio et visuel dans la rue deviendra un jour ou l’autre une norme acceptable. Ce qui ne serait pas un problème si la technologie n’était pas complètement contrôlée par ces morbides monopoles qui veulent transformer les humains en utilisateurs, en clients passifs.

Ils ont réussi à le faire en grande partie avec Internet. Ils sont désormais en train de s’attaquer à la grande pièce au plafond bleu en privatisant graduellement nos interactions avec le réel : le transport de nos corps à travers les voitures individuelles, les interactions humaines à travers les messageries propriétaires, l’espionnage de nos faits, paroles et gestes jusque dans nos maisons et désormais le contrôle direct de nos sens.

La technologie peut paraitre terrifiante à certains. Mais elle est merveilleuse quand on en est acteur. Elle n’est pas la cause.

Nous avons, à un moment, accepté que la technologie appartenait à une élite éthérée et que nous n’en étions que les utilisateurs. Que les outils pouvaient avoir un propriétaire différent de son utilisateur. Les luddites l’avaient bien compris dans leur chair. Marx en a eu l’intuition. Personne ne les a entendus.

Tant que nous restons soumis aux dictats du marketing, tant que nous acceptons la pression sociale provenant parfois de nos proches, nous sommes condamnés à rester des utilisateurs de la technologie, à devenir des utilisateurs de notre propre corps, de notre propre cerveau.

Permalink
June 20, 2023 at 5:49:49 PM GMT+2

Activation des appareils à distance, les dangers de l’article 3 du projet de loi justice | L'Humanitéhttps://www.humanite.fr/societe/justice/activation-des-appareils-distance-les-dangers-de-l-article-3-du-projet-de-loi-justice-798733

  • global spying
  • Privacy Rights
  • Politics
  • Police State
  • global spying
  • Privacy Rights
  • Politics
  • Police State

Activation des appareils à distance, les dangers de l’article 3 du projet de loi justice

Le projet de réforme de la justice d’Éric Dupond-Moretti sera examiné ce mardi par la Chambre haute. Pourtant, l’article 3 fait débat, nous explique Vincent Nioré, vice-bâtonnier du barreau de Paris.
Publié le Mardi 13 juin 2023 Eugénie Barbezat

Le projet de réforme de la justice d’Éric Dupond-Moretti sera examiné ce mardi par la Chambre haute. Pourtant, l’article 3 fait débat, nous explique Vincent Nioré, vice-bâtonnier du barreau de Paris.

Avec l’argument de «limiter les risques pris par les enquêteurs» et de «s’adapter aux évolutions de la délinquance», l’article 3 du projet de loi d’Éric Dupond-Moretti prévoit d’autoriser le déclenchement à distance des micros et caméras des téléphones, ordinateurs et autres appareils connectés, à l’insu des personnes visées.

Déjà utilisée par les services de renseignements, cette technique, dont le fonctionnement est couvert par le secret-défense, serait autorisée dans les affaires de terrorisme, de délinquance et de criminalité organisées. Une dérive dangereuse, alerte Me Vincent Nioré, vice-­bâtonnier du barreau de Paris et cosignataire d’un rapport du Conseil de l’ordre, qui voit dans cette disposition une atteinte grave au respect de la vie privée, au secret professionnel et aux droits de la défense.

Quel danger pointez-vous avec l’article 3 de la loi justice ?

La chancellerie souhaite introduire dans notre droit de nouvelles techniques au service des enquêteurs, en l’occurrence l’activation à distance des appareils électroniques, et plus précisément des smartphones. Or, aujourd’hui, investiguer dans un téléphone portable équivaut à une perquisition et doit obéir à des règles très particulières. Pour les crimes et délits de droit commun, punis d’au moins cinq ans d’emprisonnement, il est prévu un système d’activation à distance, en vue de la localisation en temps réel du téléphone, à l’insu du possesseur ou du propriétaire.

En l’état, rien n’est précisé sur les conditions dans lesquelles les magistrats instructeurs ou les procureurs pourraient demander l’utilisation de cet outil au juge des libertés et de la détention (JLD). En matière de géolocalisation, la chambre criminelle de la Cour de cassation exige déjà la condition de l’existence d’un risque imminent de dépérissement des preuves ou d’atteinte grave aux personnes ou aux biens. On sait seulement que, dans le nouveau texte, la prohibition de l’activation à distance n’est formulée expressément que pour les députés, les sénateurs, les avocats et les magistrats.

Mais cela n’est pas le cas pour les journalistes, détenteurs du secret des sources. Par ailleurs, ne sont pas explicitement exemptés de collecte de données les lieux d’exercice protégés habituellement par les articles 56-1, 56-2, 56-3 et 56-5 du Code de procédure pénale que sont les cabinets d’avocats et les locaux de presse et de communication audiovisuelle, les études de notaire, d’huissier, les cabinets de médecin, les locaux de magistrat et d’arbitre… C’est une carence dangereuse.

Quelles conséquences pourrait avoir ce défaut de protection ?

Cette carence induit qu’il peut y avoir une violation du secret du délibéré du magistrat, du secret médical, du secret professionnel de l’avocat et, bien sûr, du secret des sources. Et ce risque de violation du secret est encore accru quand l’affaire concerne la criminalité organisée : une disposition de la loi prévoit ce même système d’activation à distance des appareils électroniques afin de permettre la captation de données, de sons et d’images dans les affaires plus lourdes. Il suffirait d’activer à distance, par exemple, le téléphone du client d’un avocat dans le cabinet de ce dernier pour que toute la conversation soit écoutée,­ y compris les propos de l’avocat, voire de confrères à proximité. C’est attentatoire au libre exercice des droits de la défense et au secret professionnel.

Il est pourtant déjà possible de placer des suspects sur écoute ou même d’installer des micros chez eux…

Aujourd’hui, l’article 706-96 du Code de procédure pénale prévoit la possibilité, en matière de criminalité organisée, de sonoriser un lieu privé pour y recueillir des paroles confidentielles, dans le cadre d’affaires très lourdes comme la traite d’êtres humains, différents crimes en bande organisée, la délinquance financière, le terrorisme, etc.

Les services de police peuvent ainsi placer des micros et des caméras dans un appartement, dans le cadre de l’enquête, avec l’autorisation du JLD, pour une période strictement limitée. C’est dans ce contexte que vient s’intégrer l’activation à distance des appareils électroniques. Ce procédé est, à mon sens, une mesure intrusive terrible. Mais, comme il est rendu possible par la technique, le législateur veut s’en emparer. Soit. Mais il faudrait alors des garanties très fortes pour protéger les libertés publiques quant aux conditions exigées pour cette activation et quant à la protection des lieux protégés et des personnes investies d’un secret.

Qu’est-ce qui pourrait être mis en place ?

Ce que nous voulons, c’est une prohibition de principe de la collecte pour ces personnes et ces lieux. Le secret des sources, le secret professionnel de l’avocat, le secret médical et celui du délibéré sont des valeurs fondamentales du respect de la démocratie judiciaire. Il faut que la chancellerie revoie sa copie, que je trouve déviante et attentatoire notamment à la vie professionnelle de l’avocat, du journaliste et à la vie privée d’une manière générale.

On ne retrouve pas, dans le projet de loi du gouvernement, les conditions exigées par la chambre criminelle en matière de géolocalisation, à savoir la description circonstanciée des faits et des raisons précises justifiant cette mesure par le magistrat qui réclame cette mise en place. Aujourd’hui, pour ordonner une perquisition dans un lieu protégé, un magistrat doit démontrer l’existence d’indices antérieurs de la participation du suspect à la réalisation d’une infraction.

Dans la nouvelle loi, aucune condition n’est exigée, il suffirait que ces mesures soient simplement réputées «utiles à l’enquête» pour que l’activation des téléphones puisse être mise en œuvre. Avec des risques de nullité, si les données collectées au moyen de cette activation à distance l’ont été dans un des lieux protégés que j’évoquais plus haut. Au final, cet article 3 est bien une disposition aussi scélérate que délétère.

Quels types d’abus redoutez-vous si ce texte était adopté ?

En pratique, nous, avocats pénalistes, savons déjà que, dans le cadre d’écoutes « classiques », il arrive que la conversation d’un avocat avec son client soit captée, retranscrite et versée dans une procédure à charge. L’avocat doit alors déposer une requête en nullité devant la chambre d’instruction. J’ai bien peur que la nouvelle loi ne sanctuarise cette dérive. Nous nous battrons de toutes nos forces pour qu’il n’en soit jamais ainsi.

Permalink
June 20, 2023 at 5:28:46 PM GMT+2

In China, AI-Generated Fashion Models Are Hugely Popular — and Sexisthttps://www.sixthtone.com/news/1012991

  • Artificial intelligence
  • Societal Collapse
  • Mass Consumption
  • Big Tech
  • Artificial intelligence
  • Societal Collapse
  • Mass Consumption
  • Big Tech

In China, AI-Generated Fashion Models Are Hugely Popular — and Sexist

China’s fashion models are rapidly being replaced by doe-eyed, big-breasted, AI-generated bots. Women are horrified.

By Shu Xinrou

The model in the picture immediately draws the eye. Slim, busty, and dressed only in a black lace bra and stockings, she smiles seductively as she poses for the camera on a sandy beach. Her fair skin, smooth as porcelain, glows under the sunshine.

She looks too perfect to be real — and she isn’t. Look closely, and her fingers give her away: The nail on her index finger is misplaced, while her thumbnail bends strangely, like a failed retouch job.

Artificial intelligence-generated images like this one have taken China’s fashion industry by storm in recent months. Doe-eyed, big-breasted AI bots are rapidly replacing human models in magazines, store catalogs, and online advertising campaigns. They’re also mesmerizing users on Chinese social media, with the hashtag #AIModel receiving millions of views.

But the trend is already generating controversy. Almost without exception, the AI models conform to a certain — highly sexualized — ideal of female beauty: one that prizes tiny waists, wide hips, and visible cleavage. Many Chinese women say they find the images disturbing — and worry that AI fashion will reinforce toxic, unrealistic beauty standards.

AI models are not unique to China, and the concept isn’t brand-new either. Levi’s recently launched a campaign featuring AI-generated images, while an AI model featured on the cover of Vogue’s Singapore edition in March. But the technology has caught on far quicker here than in most other countries.

The Chinese tech giant Alibaba rolled out a free digital fashion model generator on its e-commerce platforms as early as 2020. The tool — named Taji — allows vendors to select from 100 virtual models of varying ages and ethnicities. Then, they can upload their product photos, and Taji will generate a series of images of the model wearing the clothes in the photos. As of the end of 2022, more than 29,000 vendors had used Taji to produce over 1.6 million AI-generated images, according to an Alibaba report.

The figure is likely far higher today. As elsewhere, the launch of ChatGPT this past November led to a surge in interest in AI content generation in China. Chinese illustrators say they are now regularly receiving inquiries from e-commerce vendors interested in commissioning AI-generated fashion shoots.

The ‘male gaze’ for AI models is definitely a problem.
— Jeff Ding, academic

In March, illustrator Liu Jun posted a video on the Chinese video platform Bilibili explaining how to create photorealistic fashion images using the AI-powered design software Stable Diffusion. The video went viral, racking up more than 150,000 views overnight.

Over the next few weeks, more than 30 companies reached out to Liu to ask about his AI model service, Liu told Sixth Tone. Another illustrator, surnamed Pan, said that 15 Taobao stores and clothing factories had approached him, while another 600 vendors had joined his AI model chat group on the social app WeChat.

Chinese fashion companies tend to be interested in AI models for the same reason: They’re cheap. A human model is typically paid 1,400-1,600 yuan ($200-$225) per hour in China. Factoring in other expenses like makeup artists, photographers, and studio hire, an eight-hour shoot usually costs vendors around 36,000 yuan.

Taji, by contrast, is free. Even commissioning professional AI illustrators — who can produce far more photorealistic and individually tailored images — is far cheaper. Pan said he charges 50 yuan per image, with a minimum of 30 images per order: a total cost of 1,500 yuan. What’s more, AI models don’t get tired, have no schedule conflicts, and are not affected by the weather.

But these AI models often look eerily similar. Overwhelmingly, they are either white women with blue eyes, blond hair, and long legs; or Asian models with wide eyes, big boobs, and a slender figure. Experts caution that this is a feature of AI-generated content: It tends to amplify the cultural biases that already exist in society.

“The ‘male gaze’ for AI models is definitely a problem,” said Jeff Ding, an assistant professor at the George Washington University whose research focuses on China’s AI industry. “Since existing gender biases permeate procedures, algorithms, and design, artificial intelligence technology can replicate and reproduce gender inequality.”

This isn’t an inevitable process, however. Illustrators can generate any kind of AI model that they choose. All they have to do is to collect a data set of images in the desired style, and use it to train a machine learning model. The model will then generate new images by replicating patterns and characteristics from the data set.

“The algorithm and data set are the most important factors when generating images of AI models,” said Liu. “There are no fixed standards to determine what the models look like — their appearance is usually decided by the audience.”

The issue is that illustrators — and their clients — are mostly choosing to use data sets crammed with photos of sexually objectified women. Illustrators work on the AI art software Stable Diffusion, which generates images based on a selected machine learning model. Many opt to use ChilloutMix, a pre-trained model on the AI database Civitai, supplemented by the keyword “doll-likeness.”

Selecting these options will automatically produce images of conventionally attractive Asian women, usually scantily clad and showing large amounts of cleavage. It’s the same model that companies use to create “AI girlfriends.”

To prevent the trend from getting worse, it’s important for women to speak up against it on social media.
— Stephanie Yingyi Wang, academic

Gender experts are concerned about the social harm “doll-likeness” AI models may cause. China is already seeing a spike in cases of eating disorders among girls and young women, which is being fueled by extreme “beauty challenges” popularized on social media.

Stephanie Yingyi Wang, an assistant professor who teaches gender and sexuality at St. Lawrence University, said that AI models could make the problem worse. “Doll-likeness” images set even more unrealistic beauty standards, which will trigger more body shame and anxiety among young women. She urged women to call out companies using AI models that “exploit women.”

“To prevent the trend from getting worse, it’s important for women to speak up against it on social media,” said Wang.

That is already starting to happen. A recent viral post about AI models on the microblogging platform Weibo sparked amazement among many users, but also backlash. Soon after, Xu Ke, a master’s student at the China Academy of Art, took to the social platform Xiaohongshu to denounce the sexism inherent in many AI models.

“Can creators be aware that images of female models should serve females?” Xu wrote.

The post quickly generated more than 2,000 likes and a flood of comments from women expressing their disgust with companies using stereotypical AI models. “They’d better sell those clothes to men,” one comment read. “I’ll block the stores that use this kind of image,” another user wrote.

Many Chinese women who spoke with Sixth Tone held similar views. “I was immediately disgusted by the images (in the viral Weibo post),” said Zheng Le, a 30-year-old from east China’s Jiangxi province. “Their looks and body shapes are so unrealistic and sexual.”

“From my perspective, it’s not a good advertisement for the lingerie line — the images of the AI models looked like pictures of porn stars,” said Irene Pan, a 25-year-old who lives in the eastern city of Hangzhou.

The question is whether this criticism will convince Chinese fashion companies to overhaul their advertising practices. Until now, the ecosystem in which AI models are commissioned and created has been dominated by men, according to Xu.

“The AI models in that Weibo post were created by a man, and those who endorsed the technology in the comments section were also men,” said Xu. “The discussion of AI models was led by men.”

From my perspective, it’s not a good advertisement for the lingerie line — the images of the AI models looked like pictures of porn stars.
— Irene Pan, consumer

Xu is optimistic that change will come in time. Women are the target audience for many of the ad campaigns using AI models, and she is confident that most female consumers “are not attracted by AI models at all.”

Lin, a fashion model from east China’s Zhejiang province, said she was confident that AI would never totally replace human models. “AI models are emotionless,” said Lin, who gave only her surname for privacy reasons. “Female customers shop at certain Taobao stores because they’re fans of the models. If they replace human models with AI, e-commerce vendors are going to lose a portion of their customers.”

Rising public awareness of sexism in AI, meanwhile, may lead to fundamental, long-term shifts in China’s advertising industry, Xu said. Companies could be pressured into producing more diverse, and less problematic, types of AI models.

“More women are speaking up against the male gaze problem,” she said. “Maybe in the future, more women will contribute to AI-generated content and train machine learning models from a feminist perspective.”

Editor: Dominic Morgan.

Permalink
June 20, 2023 at 5:05:38 PM GMT+2

Communiqué de la SIF sur ChatGTP et les modèles génératifs - SIFhttps://www.societe-informatique-de-france.fr/2023/03/chatgtp-et-les-modeles-generatifs/

  • Artificial intelligence
  • Artificial intelligence

Communiqué de la SIF sur ChatGTP et les modèles génératifs

Publié le 06 mars 2023

La mise en accès ouvert de ChatGPT par la société OpenAI a réussi le double tour de force d'amener à la une des médias le sujet des modèles génératifs ("MG" – c'est-à-dire les modèles d'IA qui génèrent du contenu) en intelligence artificielle, mais aussi de provoquer une curiosité, des réactions, et des inquiétudes parfois extrêmes du public. La Société informatique de France prend position par ce communiqué : au-delà d'une forme d'engouement massif et non raisonné pour une technologie déjà en gestation depuis des années, l'impact sociétal potentiellement considérable de celle-ci demande à être accompagné.

Que sont les modèles génératifs de texte ?

Les MGs de texte comme ChatGPT (GPT signifiant Generative Pre-trained Transformer ou Transformateur génératif pré-entraîné) sont construits par l'apprentissage d'associations de mots dans leur contexte, c'est-à-dire dans des phrases, et ce sur des quantités de données gigantesques. Leur tâche est de prévoir et de proposer les meilleurs mots et phrases suivant ceux proposés par un utilisateur. L'avancée de ChatGPT (mais aussi celle de Bard de Google, ou de tous les autres déjà annoncés) vient du modèle de langage GPT-3 (LAMDA pour Bard), entraîné sur des volumes massifs de phrases prises sur le Web, suivi d'une phase complémentaire pour affiner les "meilleures" réponses à proposer. Ainsi, ChatGPT propose un modèle de langage complété d'une fonctionnalité d'agent conversationnel (chatbot).

Nous sommes donc ici face à un système qui s’appuie sur des probabilités pour générer la suite la plus probable au regard des mots qui précèdent et des données d’apprentissage en rapport avec la question posée. Par exemple : “je suis étudiant… à l’université” est plus probable que “je suis étudiant… à Bali”. Il faut bien insister sur le fait que ceci ne résulte en rien d'un mécanisme "intelligent" ou "conscient" doté de la capacité de raisonner. Les MGs manipulent ainsi des suites de mots, mais pas des assertions logiques ou des éléments de calcul : la notion de justesse ou de vérité du résultat proposé est totalement absente du mécanisme en question. De ce fait, les MGs sont aussi "bons" (ou "mauvais") que les données ayant servi à les entraîner : ils ne savent que ce qu'ils ont appris. Par exemple, ChatGPT, entraîné sur des données jusque fin 2021, ignore tout ou presque de ce qui s'est passé depuis, même si l'agent conversationnel qui lui est associé continue à évoluer en continu grâce aux données des conversations avec les utilisateurs.

Il est également important de souligner que de tels modèles génératifs sont presque tous fournis et opérés actuellement par quelques très grandes entreprises (Microsoft, Google, Meta-Facebook, Baidu). Ils ne sont ainsi pas neutres : le commanditaire a en pratique toute latitude de les modeler sur les sujets qui lui importent ou ne lui nuisent pas, stratégiquement ou économiquement ; c'est lui qui décide ce qu'il est convenable de dire ou ne pas dire, comme c'est déjà le cas pour les moteurs de recherche. Lesquels moteurs de recherche vont d'ailleurs se trouver profondément transformés par l'incorporation de MGs, comme le montre la guerre désormais déclarée entre Microsoft-ChatGPT et Google-Bard.

Des usages qui se multiplient

Comme avec les outils génératifs d'images (type Dall-E, MidJourney, Stable Diffusion), les possibilités offertes par les MGs de texte comme ChatGPT sont nombreuses, et de nouveaux usages apparaissent quotidiennement. On peut imaginer que cela va transformer les tâches de rédaction de textes : courriels, rapports techniques, articles journalistiques, etc. L'écriture de code informatique et plus généralement le développement logiciel le serait également comme le montre l'introduction par Microsoft de Copilot dans GitHub. Certains de ces usages potentiels sont bien reçus, d'autres moins. En effet, ces outils soulèvent de nombreuses questions comme le risque de perturber l'emploi, ou des problèmes de copyright (rappelons que le modèle de langage est entraîné sur des données du Web, qui peuvent être protégées). Dans des domaines comme l'éducation ou les ressources humaines, ils questionnent aussi les formes classiques d'évaluation, depuis les notations d'examen jusqu'à l'appréciation de lettres de motivation.

Pour tenter de dédramatiser le débat, une analogie peut cependant être faite entre l'apparition de ces outils et l'invention des dictionnaires à partir du XVIIe siècle : l'apparition du dictionnaire simple a été suivie par celle du dictionnaire des synonymes, puis de celui des citations – le plus proche des outils que nous discutons ici. Jugée comme disruptive au départ, l'utilisation de ces dictionnaires a été progressivement intégrée au processus rédactionnel courant. Une différence majeure avec les MGs de texte est la nature aléatoire de ces derniers, qui permet des variations significatives dans les réponses lorsque des questions similaires sont posées. Si les textes produits n'ont aucun caractère de vérité, ils peuvent néanmoins constituer une excellente source d'inspiration, ou permettre d'étoffer et de mettre en forme rapidement une trame grossière donnée par l'utilisateur, laissant ce dernier se concentrer sur l'aspect le plus créatif de son propos. Ces MGs doivent ainsi être vus comme de simples assistants de rédaction de textes qui doivent toujours être relus, vérifiés, complétés par l'utilisateur.

Une telle assistance a cependant le travers de pouvoir se faire passer pour ce qu'elle n'est pas. Une classe d'élèves pourrait s'en servir pour répondre au même sujet de dissertation, sans que le professeur n'ait l'impression de corriger deux fois la même copie (en effet, il est encore impossible de détecter automatiquement qu'un texte a été produit par un MG, même si des recherches dans ce sens sont en cours). Des enseignants pourraient ainsi se trouver en difficulté face à ces outils, dont ils soupçonneraient l'usage sans pouvoir véritablement le prouver. De même, ces technologies pourraient permettre à un lobby de créer automatiquement un grand nombre de pages web défendant – mais de manière légèrement différente – la même thèse. Plutôt que de vouloir interdire les MGs, la SIF recommande un accompagnement de leur usage pédagogique, qui passe bien sûr par une phase de formation et de démystification : une charte d'usage devrait alors être proposée pour réguler le recours aux MGs.

Conclusion

De nombreuses questions sont toujours en suspens. Tout d'abord, ces outils nécessitent des moyens considérables pour leur entraînement puis leur utilisation, qu'il faut questionner à l'heure d'une nécessaire sobriété numérique (empreinte carbone tout particulièrement). Les avancées de la recherche en informatique permettront-elles à terme de réduire ces coûts ? De plus, ils sont pour le moment aux mains de grands industriels non européens. Au-delà de la question des biais dans les résultats fournis, l'avantage compétitif, mais surtout les impacts géopolitiques attendus de l'accroissement de leur efficacité et de leur usage devraient pousser l'Europe à prendre les mesures nécessaires pour maîtriser ses propres outils. Pourrait-on alors imaginer de concevoir et de mettre en ligne, au niveau européen, des modèles génératifs au service de tous, fondés sur la recherche publique, le partage, la mise en commun de logiciels et de données d'apprentissage ? La Commission européenne comme l'Agence Nationale de la Recherche viennent d'ailleurs de lancer des appels à projet de recherche sur les MGs.

Pour la génération de texte, le génie est sorti de sa boîte : ces outils sont une opportunité créative, permettant de réduire les tâches répétitives et les coûts, et on voit mal pourquoi on devrait s'en passer. L'esprit critique s'impose plus que jamais sans bloquer pour autant la créativité que ces MGs peuvent stimuler. On devra sans doute en réguler les utilisations problématiques, mais surtout, il convient aux institutions d'accompagner les usagers, et de faciliter la compréhension des objectifs et des limites de ces systèmes. La SIF plaide donc pour la formation des jeunes aux outils numériques et à l'informatique, et ce dès l'école et le collège, et plus généralement pour un accompagnement éclairé de la population, tout au long de la vie et pour le plus grand nombre.

Permalink
June 20, 2023 at 4:55:22 PM GMT+2

ChatGPT Is a Blurry JPEG of the Web | The New Yorkerhttps://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web

  • Artificial intelligence
  • Enshitification
  • Big Data
  • Big Tech
  • Artificial intelligence
  • Enshitification
  • Big Data
  • Big Tech

ChatGPT Is a Blurry JPEG of the Web

OpenAI’s chatbot offers paraphrases, whereas Google offers quotes. Which do we prefer?

By Ted Chiang February 9, 2023

In 2013, workers at a German construction company noticed something odd about their Xerox photocopier: when they made a copy of the floor plan of a house, the copy differed from the original in a subtle but significant way. In the original floor plan, each of the house’s three rooms was accompanied by a rectangle specifying its area: the rooms were 14.13, 21.11, and 17.42 square metres, respectively. However, in the photocopy, all three rooms were labelled as being 14.13 square metres in size. The company contacted the computer scientist David Kriesel to investigate this seemingly inconceivable result. They needed a computer scientist because a modern Xerox photocopier doesn’t use the physical xerographic process popularized in the nineteen-sixties. Instead, it scans the document digitally, and then prints the resulting image file. Combine that with the fact that virtually every digital image file is compressed to save space, and a solution to the mystery begins to suggest itself.

Compressing a file requires two steps: first, the encoding, during which the file is converted into a more compact format, and then the decoding, whereby the process is reversed. If the restored file is identical to the original, then the compression process is described as lossless: no information has been discarded. By contrast, if the restored file is only an approximation of the original, the compression is described as lossy: some information has been discarded and is now unrecoverable. Lossless compression is what’s typically used for text files and computer programs, because those are domains in which even a single incorrect character has the potential to be disastrous. Lossy compression is often used for photos, audio, and video in situations in which absolute accuracy isn’t essential. Most of the time, we don’t notice if a picture, song, or movie isn’t perfectly reproduced. The loss in fidelity becomes more perceptible only as files are squeezed very tightly. In those cases, we notice what are known as compression artifacts: the fuzziness of the smallest JPEG and MPEG images, or the tinny sound of low-bit-rate MP3s.

Xerox photocopiers use a lossy compression format known as JBIG2, designed for use with black-and-white images. To save space, the copier identifies similar-looking regions in the image and stores a single copy for all of them; when the file is decompressed, it uses that copy repeatedly to reconstruct the image. It turned out that the photocopier had judged the labels specifying the area of the rooms to be similar enough that it needed to store only one of them—14.13—and it reused that one for all three rooms when printing the floor plan.

The fact that Xerox photocopiers use a lossy compression format instead of a lossless one isn’t, in itself, a problem. The problem is that the photocopiers were degrading the image in a subtle way, in which the compression artifacts weren’t immediately recognizable. If the photocopier simply produced blurry printouts, everyone would know that they weren’t accurate reproductions of the originals. What led to problems was the fact that the photocopier was producing numbers that were readable but incorrect; it made the copies seem accurate when they weren’t. (In 2014, Xerox released a patch to correct this issue.)

I think that this incident with the Xerox photocopier is worth bearing in mind today, as we consider OpenAI’s ChatGPT and other similar programs, which A.I. researchers call large language models. The resemblance between a photocopier and a large language model might not be immediately apparent—but consider the following scenario. Imagine that you’re about to lose your access to the Internet forever. In preparation, you plan to create a compressed copy of all the text on the Web, so that you can store it on a private server. Unfortunately, your private server has only one per cent of the space needed; you can’t use a lossless compression algorithm if you want everything to fit. Instead, you write a lossy algorithm that identifies statistical regularities in the text and stores them in a specialized file format. Because you have virtually unlimited computational power to throw at this task, your algorithm can identify extraordinarily nuanced statistical regularities, and this allows you to achieve the desired compression ratio of a hundred to one.

Now, losing your Internet access isn’t quite so terrible; you’ve got all the information on the Web stored on your server. The only catch is that, because the text has been so highly compressed, you can’t look for information by searching for an exact quote; you’ll never get an exact match, because the words aren’t what’s being stored. To solve this problem, you create an interface that accepts queries in the form of questions and responds with answers that convey the gist of what you have on your server.

What I’ve described sounds a lot like ChatGPT, or most any other large language model. Think of ChatGPT as a blurry JPEG of all the text on the Web. It retains much of the information on the Web, in the same way that a JPEG retains much of the information of a higher-resolution image, but, if you’re looking for an exact sequence of bits, you won’t find it; all you will ever get is an approximation. But, because the approximation is presented in the form of grammatical text, which ChatGPT excels at creating, it’s usually acceptable. You’re still looking at a blurry JPEG, but the blurriness occurs in a way that doesn’t make the picture as a whole look less sharp.

This analogy to lossy compression is not just a way to understand ChatGPT’s facility at repackaging information found on the Web by using different words. It’s also a way to understand the “hallucinations,” or nonsensical answers to factual questions, to which large language models such as ChatGPT are all too prone. These hallucinations are compression artifacts, but—like the incorrect labels generated by the Xerox photocopier—they are plausible enough that identifying them requires comparing them against the originals, which in this case means either the Web or our own knowledge of the world. When we think about them this way, such hallucinations are anything but surprising; if a compression algorithm is designed to reconstruct text after ninety-nine per cent of the original has been discarded, we should expect that significant portions of what it generates will be entirely fabricated.

This analogy makes even more sense when we remember that a common technique used by lossy compression algorithms is interpolation—that is, estimating what’s missing by looking at what’s on either side of the gap. When an image program is displaying a photo and has to reconstruct a pixel that was lost during the compression process, it looks at the nearby pixels and calculates the average. This is what ChatGPT does when it’s prompted to describe, say, losing a sock in the dryer using the style of the Declaration of Independence: it is taking two points in “lexical space” and generating the text that would occupy the location between them. (“When in the Course of human events, it becomes necessary for one to separate his garments from their mates, in order to maintain the cleanliness and order thereof. . . .”) ChatGPT is so good at this form of interpolation that people find it entertaining: they’ve discovered a “blur” tool for paragraphs instead of photos, and are having a blast playing with it.

Given that large language models like ChatGPT are often extolled as the cutting edge of artificial intelligence, it may sound dismissive—or at least deflating—to describe them as lossy text-compression algorithms. I do think that this perspective offers a useful corrective to the tendency to anthropomorphize large language models, but there is another aspect to the compression analogy that is worth considering. Since 2006, an A.I. researcher named Marcus Hutter has offered a cash reward—known as the Prize for Compressing Human Knowledge, or the Hutter Prize—to anyone who can losslessly compress a specific one-gigabyte snapshot of Wikipedia smaller than the previous prize-winner did. You have probably encountered files compressed using the zip file format. The zip format reduces Hutter’s one-gigabyte file to about three hundred megabytes; the most recent prize-winner has managed to reduce it to a hundred and fifteen megabytes. This isn’t just an exercise in smooshing. Hutter believes that better text compression will be instrumental in the creation of human-level artificial intelligence, in part because the greatest degree of compression can be achieved by understanding the text.

To grasp the proposed relationship between compression and understanding, imagine that you have a text file containing a million examples of addition, subtraction, multiplication, and division. Although any compression algorithm could reduce the size of this file, the way to achieve the greatest compression ratio would probably be to derive the principles of arithmetic and then write the code for a calculator program. Using a calculator, you could perfectly reconstruct not just the million examples in the file but any other example of arithmetic that you might encounter in the future. The same logic applies to the problem of compressing a slice of Wikipedia. If a compression program knows that force equals mass times acceleration, it can discard a lot of words when compressing the pages about physics because it will be able to reconstruct them. Likewise, the more the program knows about supply and demand, the more words it can discard when compressing the pages about economics, and so forth.

Large language models identify statistical regularities in text. Any analysis of the text of the Web will reveal that phrases like “supply is low” often appear in close proximity to phrases like “prices rise.” A chatbot that incorporates this correlation might, when asked a question about the effect of supply shortages, respond with an answer about prices increasing. If a large language model has compiled a vast number of correlations between economic terms—so many that it can offer plausible responses to a wide variety of questions—should we say that it actually understands economic theory? Models like ChatGPT aren’t eligible for the Hutter Prize for a variety of reasons, one of which is that they don’t reconstruct the original text precisely—i.e., they don’t perform lossless compression. But is it possible that their lossy compression nonetheless indicates real understanding of the sort that A.I. researchers are interested in?

Let’s go back to the example of arithmetic. If you ask GPT-3 (the large-language model that ChatGPT was built from) to add or subtract a pair of numbers, it almost always responds with the correct answer when the numbers have only two digits. But its accuracy worsens significantly with larger numbers, falling to ten per cent when the numbers have five digits. Most of the correct answers that GPT-3 gives are not found on the Web—there aren’t many Web pages that contain the text “245 + 821,” for example—so it’s not engaged in simple memorization. But, despite ingesting a vast amount of information, it hasn’t been able to derive the principles of arithmetic, either. A close examination of GPT-3’s incorrect answers suggests that it doesn’t carry the “1” when performing arithmetic. The Web certainly contains explanations of carrying the “1,” but GPT-3 isn’t able to incorporate those explanations. GPT-3’s statistical analysis of examples of arithmetic enables it to produce a superficial approximation of the real thing, but no more than that.

Given GPT-3’s failure at a subject taught in elementary school, how can we explain the fact that it sometimes appears to perform well at writing college-level essays? Even though large language models often hallucinate, when they’re lucid they sound like they actually understand subjects like economic theory. Perhaps arithmetic is a special case, one for which large language models are poorly suited. Is it possible that, in areas outside addition and subtraction, statistical regularities in text actually do correspond to genuine knowledge of the real world?

I think there’s a simpler explanation. Imagine what it would look like if ChatGPT were a lossless algorithm. If that were the case, it would always answer questions by providing a verbatim quote from a relevant Web page. We would probably regard the software as only a slight improvement over a conventional search engine, and be less impressed by it. The fact that ChatGPT rephrases material from the Web instead of quoting it word for word makes it seem like a student expressing ideas in her own words, rather than simply regurgitating what she’s read; it creates the illusion that ChatGPT understands the material. In human students, rote memorization isn’t an indicator of genuine learning, so ChatGPT’s inability to produce exact quotes from Web pages is precisely what makes us think that it has learned something. When we’re dealing with sequences of words, lossy compression looks smarter than lossless compression.

A lot of uses have been proposed for large language models. Thinking about them as blurry JPEGs offers a way to evaluate what they might or might not be well suited for. Let’s consider a few scenarios.

Can large language models take the place of traditional search engines? For us to have confidence in them, we would need to know that they haven’t been fed propaganda and conspiracy theories—we’d need to know that the JPEG is capturing the right sections of the Web. But, even if a large language model includes only the information we want, there’s still the matter of blurriness. There’s a type of blurriness that is acceptable, which is the re-stating of information in different words. Then there’s the blurriness of outright fabrication, which we consider unacceptable when we’re looking for facts. It’s not clear that it’s technically possible to retain the acceptable kind of blurriness while eliminating the unacceptable kind, but I expect that we’ll find out in the near future.

Even if it is possible to restrict large language models from engaging in fabrication, should we use them to generate Web content? This would make sense only if our goal is to repackage information that’s already available on the Web. Some companies exist to do just that—we usually call them content mills. Perhaps the blurriness of large language models will be useful to them, as a way of avoiding copyright infringement. Generally speaking, though, I’d say that anything that’s good for content mills is not good for people searching for information. The rise of this type of repackaging is what makes it harder for us to find what we’re looking for online right now; the more that text generated by large language models gets published on the Web, the more the Web becomes a blurrier version of itself.

There is very little information available about OpenAI’s forthcoming successor to ChatGPT, GPT-4. But I’m going to make a prediction: when assembling the vast amount of text used to train GPT-4, the people at OpenAI will have made every effort to exclude material generated by ChatGPT or any other large language model. If this turns out to be the case, it will serve as unintentional confirmation that the analogy between large language models and lossy compression is useful. Repeatedly resaving a JPEG creates more compression artifacts, because more information is lost every time. It’s the digital equivalent of repeatedly making photocopies of photocopies in the old days. The image quality only gets worse.

Indeed, a useful criterion for gauging a large language model’s quality might be the willingness of a company to use the text that it generates as training material for a new model. If the output of ChatGPT isn’t good enough for GPT-4, we might take that as an indicator that it’s not good enough for us, either. Conversely, if a model starts generating text so good that it can be used to train new models, then that should give us confidence in the quality of that text. (I suspect that such an outcome would require a major breakthrough in the techniques used to build these models.) If and when we start seeing models producing output that’s as good as their input, then the analogy of lossy compression will no longer be applicable.

Can large language models help humans with the creation of original writing? To answer that, we need to be specific about what we mean by that question. There is a genre of art known as Xerox art, or photocopy art, in which artists use the distinctive properties of photocopiers as creative tools. Something along those lines is surely possible with the photocopier that is ChatGPT, so, in that sense, the answer is yes. But I don’t think that anyone would claim that photocopiers have become an essential tool in the creation of art; the vast majority of artists don’t use them in their creative process, and no one argues that they’re putting themselves at a disadvantage with that choice.

So let’s assume that we’re not talking about a new genre of writing that’s analogous to Xerox art. Given that stipulation, can the text generated by large language models be a useful starting point for writers to build off when writing something original, whether it’s fiction or nonfiction? Will letting a large language model handle the boilerplate allow writers to focus their attention on the really creative parts?

Obviously, no one can speak for all writers, but let me make the argument that starting with a blurry copy of unoriginal work isn’t a good way to create original work. If you’re a writer, you will write a lot of unoriginal work before you write something original. And the time and effort expended on that unoriginal work isn’t wasted; on the contrary, I would suggest that it is precisely what enables you to eventually create something original. The hours spent choosing the right word and rearranging sentences to better follow one another are what teach you how meaning is conveyed by prose. Having students write essays isn’t merely a way to test their grasp of the material; it gives them experience in articulating their thoughts. If students never have to write essays that we have all read before, they will never gain the skills needed to write something that we have never read.

And it’s not the case that, once you have ceased to be a student, you can safely use the template that a large language model provides. The struggle to express your thoughts doesn’t disappear once you graduate—it can take place every time you start drafting a new piece. Sometimes it’s only in the process of writing that you discover your original ideas. Some might say that the output of large language models doesn’t look all that different from a human writer’s first draft, but, again, I think this is a superficial resemblance. Your first draft isn’t an unoriginal idea expressed clearly; it’s an original idea expressed poorly, and it is accompanied by your amorphous dissatisfaction, your awareness of the distance between what it says and what you want it to say. That’s what directs you during rewriting, and that’s one of the things lacking when you start with text generated by an A.I.

There’s nothing magical or mystical about writing, but it involves more than placing an existing document on an unreliable photocopier and pressing the Print button. It’s possible that, in the future, we will build an A.I. that is capable of writing good prose based on nothing but its own experience of the world. The day we achieve that will be momentous indeed—but that day lies far beyond our prediction horizon. In the meantime, it’s reasonable to ask, What use is there in having something that rephrases the Web? If we were losing our access to the Internet forever and had to store a copy on a private server with limited space, a large language model like ChatGPT might be a good solution, assuming that it could be kept from fabricating. But we aren’t losing our access to the Internet. So just how much use is a blurry JPEG, when you still have the original?

More Science and Technology

  • Can we stop runaway A.I.?
  • Saving the climate will depend on blue-collar workers. Can we train enough of them before time runs out?
  • There are ways of controlling A.I.—but first we need to stop mythologizing it.
  • A security camera for the entire planet.
  • What’s the point of reading writing by humans?
  • A heat shield for the most important ice on Earth.
  • The climate solutions we can’t live without.
Permalink
June 20, 2023 at 4:48:49 PM GMT+2

Affaire du 8 décembre : le chiffrement des communications assimilé à un comportement terroriste – La Quadrature du Nethttps://www.laquadrature.net/2023/06/05/affaire-du-8-decembre-le-chiffrement-des-communications-assimile-a-un-comportement-terroriste/

  • Cryptography
  • Politics
  • Police State
  • Privacy Rights
  • Cryptography
  • Politics
  • Police State
  • Privacy Rights

Affaire du 8 décembre : le chiffrement des communications assimilé à un comportement terroriste

Cet article a été rédigé sur la base d’informations relatives à l’affaire dite du “8 décembre”1 dans laquelle 7 personnes ont été mises en examen pour « association de malfaiteurs terroristes » en décembre 2020. Leur procès est prévu pour octobre 2023. Ce sera le premier procès antiterroriste visant « l’ultragauche » depuis le fiasco de l’affaire Tarnac2.

L’accusation de terrorisme est rejetée avec force par les inculpé·es. Ces dernier·es dénoncent un procès politique, une instruction à charge et une absence de preuves. Ils et elles pointent en particulier des propos decontextualisés et l’utilisation à charge de faits anodins (pratiques sportives, numériques, lectures et musiques écoutées…)3. De son côté la police reconnaît qu’à la fin de l’instruction – et dix mois de surveillance intensive – aucun « projet précis » n’a été identifié4.

L’État vient d’être condamné pour le maintien à l’isolement du principal inculpé pendant 16 mois et dont il n’a été libéré qu’après une grève de la faim de 37 jours. Une seconde plainte, en attente de jugement, a été déposée contre les fouilles à nu illégales et répétées qu’une inculpée a subies en détention provisoire5.

De nombreuses personnalités, médias et collectifs leur ont apporté leur soutien6.

C’est dans ce contexte que nous avons été alerté du fait que, parmi les faits reprochés (pour un aperçu global de l’affaire, voir les références en notes de bas de page7), les pratiques numériques des inculpé·es, au premier rang desquelles l’utilisation de messageries chiffrées grand public, sont instrumentalisées comme autant de « preuves » d’une soi-disant « clandestinité » qui ne peut s’expliquer que par l’existence d’un projet terroriste.

Nous avons choisi de le dénoncer.

« Tous les membres contactés adoptaient un comportement clandestin, avec une sécurité accrue des moyens de communications (applications cryptées, système d’exploitation Tails, protocole TOR permettant de naviguer de manière anonyme sur internet et wifi public). »

DGSI

« L’ensemble des membres de ce groupe se montraient particulièrement méfiants, ne communiquaient entre eux que par des applications cryptées, en particulier Signal, et procédaient au cryptage de leurs supports informatiques […]. »

Juge d’instruction

Ces deux phrases sont emblématiques de l’attaque menée contre les combats historiques de La Quadrature du Net dans l’affaire du 8 décembre que sont le droit au chiffrement8 des communications9, la lutte contre l’exploitation des données personnelles par les GAFAM10, le droit à l’intimité et la vie privée ainsi que la diffusion et l’appropriation des connaissances en informatique11.

Mêlant fantasmes, mauvaise foi et incompétence technique, les éléments qui nous ont été communiqués révèlent qu’un récit policier est construit autour des (bonnes) pratiques numériques des inculpé·es à des fins de mise en scène d’un « groupuscule clandestin » et « conspiratif ».

Voici quelques-unes des habitudes numériques qui sont, dans cette affaire, instrumentalisées comme autant de « preuves » de l’existence d’un projet criminel12:

– l’utilisation d’applications comme Signal, WhatsApp, Wire, Silence ou ProtonMail pour chiffrer ses communications ;

– le recours à des outils permettant de protéger sa vie privée sur Internet comme un VPN, Tor ou Tails ;

– le fait de se protéger contre l’exploitation de nos données personnelles par les GAFAM via des services comme /e/OS, LineageOS, F-Droid ;

– le chiffrement de supports numériques ;

– l’organisation et la participation à des sessions de formation à l’hygiène numérique ;

– la simple détention de documentation technique.

Alors que le numérique a démultiplié les capacités de surveillance étatiques13, nous dénonçons le fait que les technologies qui permettent à chacun·e de rétablir un équilibre politique plus que jamais fragilisé soient associées à un comportement criminel à des fins de scénarisation policière.

Le chiffrement des communications assimilé à un signe de clandestinité

Loin d’être un aspect secondaire de l’affaire, le lien supposé entre pratiques numériques et terrorisme apparaît dans la note de renseignements à l’origine de toute cette affaire.

Dans ce document, par lequel la DGSI demande l’ouverture d’une enquête préliminaire, on peut lire : « Tous les membres contactés adoptaient un comportement clandestin, avec une sécurité accrue des moyens de communications (applications cryptées, système d’exploitation Tails, protocole TOR permettant de naviguer de manière anonyme sur internet et wifi public). »

Cette phrase apparaîtra des dizaines de fois dans le dossier. Écrite par la DGSI, elle sera reprise sans aucun recul par les magistrat·es, au premier titre desquels le juge d’instruction mais aussi les magistrat·es de la chambre de l’instruction et les juges des libertés et de la détention.

Durant la phase d’enquête, l’amalgame entre chiffrement et clandestinité est mobilisé pour justifier le déploiement de moyens de surveillance hautement intrusifs comme la sonorisation de lieux privés. La DGSI les juge nécessaires pour surveiller des « individus méfiants à l’égard du téléphone » qui « utilisent des applications cryptées pour communiquer ».

Après leurs arrestations, les mis·es en examen sont systématiquement questionné·es sur leur utilisation des outils de chiffrement et sommé·es de se justifier : « Utilisez-vous des messageries cryptées (WhatsApp, Signal, Telegram, ProtonMail) ? », « Pour vos données personnelles, utilisez-vous un système de chiffrement ? », « Pourquoi utilisez-vous ce genre d’applications de cryptage et d’anonymisation sur internet ? ». Le lien supposé entre chiffrement et criminalité est clair: « *Avez-vous fait des choses illicites par le passé qui nécessitaient d’utiliser ces chiffrements et protections ?* », « *Cherchez-vous à dissimuler vos activités ou avoir une meilleure sécurité ?* ». Au total, on dénombre plus de 150 questions liées aux pratiques numériques.

Et preuve de l’existence d’« actions conspiratives »

À la fin de l’instruction, l’association entre chiffrement et clandestinité est reprise dans les deux principaux documents la clôturant : le réquisitoire du Parquet national antiterroriste (PNAT) et l’ordonnance de renvoi écrite par le juge d’instruction.

Le PNAT consacrera un chapitre entier aux « moyens sécurisés de communication et de navigation » au sein d’une partie intitulée… « Les actions conspiratives ». Sur plus de quatre pages le PNAT fait le bilan des « preuves » de l’utilisation par les inculpé·es de messageries chiffrées et autres mesures de protection de la vie privée. L’application Signal est particulièrement visée.

Citons simplement cette phrase : « *Les protagonistes du dossier se caractérisaient tous par leur culte du secret et l’obsession d’une discrétion tant dans leurs échanges, que dans leurs navigations sur internet. L’application cryptée signal était utilisée par l’ensemble des mis en examen, dont certains communiquaient exclusivement [surligné dans le texte] par ce biais.* ».

Le juge d’instruction suivra sans sourciller en se livrant à un inventaire exhaustif des outils de chiffrement qu’ont « reconnu » – il utilisera abondamment le champ lexical de l’aveu – utiliser chaque mis·e en examen : « Il reconnaissait devant les enquêteurs utiliser l’application Signal », « X ne contestait pas utiliser l’application cryptée Signal », « Il reconnaissait aussi utiliser les applications Tails et Tor », « Il utilisait le réseau Tor […] permettant d’accéder à des sites illicites ».

Criminalisation des connaissances en informatique

Au-delà du chiffrement des communications, ce sont aussi les connaissances en informatique qui sont incriminées dans cette affaire : elles sont systématiquement assimilées à un facteur de « dangerosité ».

La note de la DGSI, évoquée ci-dessus, précise ainsi que parmi les « profils » des membres du groupe disposant des « compétences nécessaires à la conduite d’actions violentes » se trouve une personne qui posséderait de « solides compétences en informatique et en communications cryptées ». Cette personne et ses proches seront, après son arrestation, longuement interrogé·es à ce sujet.

Alors que ses connaissances s’avéreront finalement éloignées de ce qu’avançait la DGSI – elle n’est ni informaticienne ni versé·e dans l’art de la cryptographie – le juge d’instruction n’hésitera pas à inscrire que cette personne a « *installé le système d’exploitation Linux sur ses ordinateurs avec un système de chiffrement* ». Soit un simple clic sur « oui » quand cette question lui a été posée lors de l’installation.

La simple détention de documentation informatique est elle aussi retenue comme un élément à charge. Parmi les documents saisis suite aux arrestations, et longuement commentés, se trouvent des notes manuscrites relatives à l’installation d’un système d’exploitation grand public pour mobile dégooglisé (/e/OS) et mentionnant diverses applications de protection de la vie privée (GrapheneOS, LineageOS, Signal, Silence, Jitsi, OnionShare, F-Droid, Tor, RiseupVPN, Orbot, uBlock Origin…).

Dans le procès-verbal où ces documents sont analysés, un·e agent·e de la DGSI écrit que « ces éléments confirment [une] volonté de vivre dans la clandestinité. ». Le PNAT suivra avec la formule suivante : « Ces écrits constituaient un véritable guide permettant d’utiliser son téléphone de manière anonyme, confirmant la volonté de X de s’inscrire dans la clandestinité, de dissimuler ses activités […]. ».

Ailleurs, la DGSI écrira que « […] *la présence de documents liés au cryptage des données informatiques ou mobiles [dans un scellé]* » matérialisent « *une volonté de communiquer par des moyens clandestins.* ».

Et de leur transmission

L’incrimination des compétences informatiques se double d’une attaque sur la transmission de ces dernières. Une partie entière du réquisitoire du PNAT, intitulée « La formation aux moyens de communication et de navigation sécurisée », s’attache à criminaliser les formations à l’hygiène numérique, aussi appelées « Chiffrofêtes » ou « Cryptoparties ».

Ces pratiques collectives et répandues – que La Quadrature a souvent organisées ou relayées – contribuent à la diffusion des connaissances sur les enjeux de vie privée, de sécurisation des données personnelles, des logiciels libres et servent à la réappropriation de savoirs informatiques par toutes et tous.

Qu’est-il donc reproché à ce sujet dans cette affaire ? Un atelier de présentation de l’outil Tails, système d’exploitation grand public prisé des journalistes et des défenseurs·ses des libertés publiques. Pour le PNAT c’est lors de cette formation que « *X les a dotés de logiciels sécurisés et les a initiés à l’utilisation de moyens de communication et de navigation internet cryptés, afin de leur garantir l’anonymat et l’impunité* ». Le lien fait entre droit à la vie privée et impunité, corollaire du fantasme policier d’une transparence totale des citoyen·nes, a le mérite d’être clair.

Le PNAT ajoutera: « X ne se contentait pas d’utiliser ces applications [de protection de la vie privée], il apprenait à ses proches à le faire ». Phrase qui sera reprise, mot pour mot, par le juge d’instruction.

Pire, ce dernier ira jusqu’à retenir cette formation comme un des « *faits matériels* » caractérisant « *la participation à un groupement formé* […] *en vue de la préparation d’actes de terrorisme* », tant pour la personne l’ayant organisé – « en les formant aux moyens de communication et de navigation internet sécurisés » – que pour celles et ceux l’ayant suivi – « en suivant des formations de communication et de navigation internet sécurisés ».

De son côté, la DGSI demandera systématiquement aux proches des mis·es en examen si ces dernier·es leur avaient recommandé l’utilisation d’outils de chiffrement : « Vous ont-ils suggéré de communiquer ensemble par messageries cryptées ? », « C’est lui qui vous a demandé de procéder à l’installation de SIGNAL ? ».

Une réponse inspirera particulièrement le PNAT qui écrira : « *Il avait convaincu sa mère d’utiliser des modes de communication non interceptables comme l’application Signal.* »

« Êtes-vous anti-GAFA? »

Même la relation à la technologie et en particulier aux GAFAM – contre lesquels nous sommes mobilisés depuis de nombreuses années – est considérée comme un signe de radicalisation. Parmi les questions posées aux mis·es en examen, on peut lire : « Etes-vous anti GAFA ? », « Que pensez-vous des GAFA ? » ou encore « Eprouvez-vous une certaine réserve vis-à-vis des technologies de communication ? ».

Ces questions sont à rapprocher d’une note de la DGSI intitulée « La mouvance ultra gauche » selon laquelle ses « membres » feraient preuve « d’une grand culture du secret […] et une certaine réserve vis-à-vis de la technologie ».

C’est à ce titre que le système d’exploitation pour mobile dégooglisé et grand public /e/OS retient particulièrement l’attention de la DGSI. Un SMS intercepté le mentionnant sera longuement commenté. Le PNAT indiquera à son sujet qu’un·e inculpé·e s’est renseigné·e à propos d’un « nouveau système d’exploitation nommé /e/ […] garantissant à ses utilisateurs une intimité et une confidentialité totale ».

En plus d’être malhonnête – ne pas avoir de services Google n’implique en rien une soi-disante « confidentialité totale » – ce type d’information surprend dans une enquête antiterroriste.

Une instrumentalisation signe d’incompétence technique ?

Comment est-il possible qu’un tel discours ait pu trouver sa place dans un dossier antiterroriste ? Et ce sans qu’aucun des magistrat·es impliqué·es, en premier lieu le juge d’instruction et les juges des libertés et de la détention, ne rappelle que ces pratiques sont parfaitement légales et nécessaires à l’exercice de nos droits fondamentaux ? Les différentes approximations et erreurs dans les analyses techniques laissent penser que le manque de compétences en informatique a sûrement facilité l’adhésion générale à ce récit.

À commencer par celles de la DGSI elle-même, dont les rapports des deux centres d’analyses techniques se contredisent sur… le modèle du téléphone personnel du principal inculpé.

Quant aux notions relatives au fonctionnement de Tor et Tails, bien qu’au centre des accusations de « clandestinité », elles semblent bien vagues.

Un·e agent·e de la DGSI écrira par exemple, semblant confondre les deux : « *Thor* [sic] *permet de se connecter à Internet et d’utiliser des outils réputés de chiffrement de communications et des données. Toutes les données sont stockées dans la mémoire RAM de l’ordinateur et sont donc supprimées à l’extinction de la machine* ». Ne serait-ce pas plutôt à Tails que cette personne fait allusion?

Quant au juge d’instruction, il citera des procès verbaux de scellés relatifs à des clés Tails, qui ne fonctionnent pas sur mobile, comme autant de preuves de connaissances relatives à des « techniques complexes pour reconfigurer son téléphone afin de le rendre anonyme ». Il ajoutera par ailleurs, tout comme le PNAT, que Tor permet de « naviguer anonymement sur internet grâce au wifi public » – comme s’il pensait qu’un wifi public était nécessaire à son utilisation.

La DGSI, quant à elle, demandera en garde à vue les « identifiants et mots de passe pour Tor » – qui n’existent pas – et écrira que l’application « Orbot », ou « Orboot » pour le PNAT, serait « un serveur ‘proxy’ TOR qui permet d’anonymiser la connexion à ce réseau ». Ce qui n’a pas de sens. Si Orbot permet bien de rediriger le trafic d’un téléphone via Tor, il ne masque en rien l’utilisation faite de Tor14.

Les renseignements intérieurs confondent aussi Tails avec le logiciel installé sur ce système pour chiffrer les disques durs – appelé LUKS – lorsqu’elle demande: « Utilisez vous le système de cryptage “Tails” ou “Luks” pour vos supports numériques ? ». S’il est vrai que Tails utilise LUKS pour chiffrer les disques durs, Tails est un système d’exploitation – tout comme Ubuntu ou Windows – et non un « système de cryptage ». Mentionnons au passage les nombreuses questions portant sur « les logiciels cryptés (Tor, Tails) ». Si Tor et Tails ont bien recours à des méthodes chiffrement, parler de « logiciel crypté » dans ce contexte n’a pas de sens.

Notons aussi l’utilisation systématique du terme « cryptage », au lieu de « chiffrement ». Si cet abus de langage – tel que qualifié par la DGSI sur son site – est commun, il trahit l’amateurisme ayant conduit à criminaliser les principes fondamentaux de la protection des données personnelles dans cette affaire.

Que dire enfin des remarques récurrentes du juge d’instruction et du PNAT quant au fait que les inculpé·es chiffrent leurs supports numériques et utilisent la messagerie Signal ?

Savent-ils que la quasi-totalité des ordinateurs et téléphones vendus aujourd’hui sont chiffrés par défaut15? Les leurs aussi donc – sans quoi cela constituerait d’ailleurs une violation du règlement européen sur la protection des données personnelles16.

Quant à Signal, accuseraient-ils de clandestinité la Commission Européenne qui a, en 2020, recommandé son utilisation à son personnel17**?** Et rangeraient-ils du côté des terroristes le rapporteur des nations Unies qui rappelait en 2015 l’importance du chiffrement pour les droits fondamentaux18 ? Voire l’ANSSI et la CNIL qui, en plus de recommander le chiffrement des supports numériques osent même… mettre en ligne de la documentation technique pour le faire19 ?

En somme, nous ne pouvons que les inviter à se rendre, plutôt que de les criminaliser, aux fameuses « Chiffrofêtes » où les bases des bonnes pratiques numériques leur seront expliquées.

Ou nécessité d’un récit policier ?

Si un tel niveau d’incompétence technique peut permettre de comprendre comment a pu se développer un fantasme autour des pratiques numériques des personnes inculpé·es, cela ne peut expliquer pourquoi elles forment le socle du récit de « clandestinité » de la DGSI.

Or, dès le début de l’enquête, la DGSI détient une quantité d’informations considérables sur les futur·es mis·es en examen. À l’ère numérique, elle réquisitionne les données détenues par les administrations (Caf, Pôle Emploi, Ursaff, Assurance-Maladie…), consulte les fichiers administratifs (permis de conduire, immatriculation, SCA, AGRIPPA), les fichiers de police (notamment le TAJ) et analyse les relevés téléphoniques (fadettes). Des réquisitions sont envoyées à de nombreuses entreprises (Blablacar, Air France, Paypal, Western Union…) et le détail des comptes bancaires est minutieusement analysé20.

À ceci s’ajoutent les informations recueillies via les mesures de surveillances ayant été autorisées – comptant parmi les plus intrusives que le droit permette tel la sonorisation de lieux privés, les écoutes téléphoniques, la géolocalisation en temps réel via des balises gps ou le suivi des téléphones, les IMSI catcher – et bien sûr les nombreuses filatures dont font l’objet les « cibles ».

Mais, alors que la moindre interception téléphonique évoquant l’utilisation de Signal, WhatsApp, Silence ou Protonmail fait l’objet d’un procès-verbal – assorti d’un commentaire venant signifier la « volonté de dissimulation » ou les « précautions » témoignant d’un « comportement méfiant » – comment expliquer que la DGSI ne trouve rien de plus sérieux permettant de valider sa thèse parmi la mine d’informations qu’elle détient ?

La DGSI se heurterait-elle aux limites de son amalgame entre pratiques numériques et clandestinité ? Car, de fait, les inculpé·es ont une vie sociale, sont déclarées auprès des administrations sociales, ont des comptes bancaires, une famille, des ami·es, prennent l’avion en leur nom, certain·es travaillent, ont des relations amoureuses…

En somme, les inculpé·es ont une vie « normale » et utilisent Signal. Tout comme les plus de deux milliards d’utilisateurs et utilisatrices de messageries chiffrées dans le monde21. Et les membres de la Commission européenne…

Chiffrement et alibi policier

La mise en avant du chiffrement offre un dernier avantage de choix au récit policier. Elle sert d’alibi pour expliquer l’absence de preuves quant à l’existence d’un soi-disant projet terroriste. Le récit policier devient alors : ces preuves existent, mais elles ne peuvent pas être déchiffrées.

Ainsi le juge d’instruction écrira que si les écoutes téléphoniques n’ont fourni que « quelques renseignements utiles », ceci s’explique par « l’usage minimaliste de ces lignes » au profit d’« applications cryptées, en particulier Signal ». Ce faisant, il ignore au passage que les analyses des lignes téléphoniques des personnes inculpées indiquent une utilisation intensive de SMS et d’appels classiques pour la quasi-totalité d’entre elles.

Ce discours est aussi appliqué à l’analyse des scellés numériques dont l’exploitation n’amène pas les preuves tant espérées. Suite aux perquisitions, la DGSI a pourtant accès à tout ou partie de six des sept téléphones personnels des inculp·ées, à cinq comptes Signal, à la majorité des supports numériques saisis ainsi qu’aux comptes mails et réseaux sociaux de quatre des mis·es en examen. Soit en tout et pour tout des centaines de gigaoctets de données personnelles, de conversations, de documents. Des vies entières mises à nu, des intimités violées pour être offertes aux agent·es des services de renseignements.

Mais rien n’y fait. Les magistrat·es s’attacheront à expliquer que le fait que trois inculpé·es refusent de fournir leurs codes de déchiffrement – dont deux ont malgré tout vu leurs téléphones personnels exploités grâce à des techniques avancées – entrave « le déroulement des investigations » et empêche « de caractériser certains faits ». Le PNAT ira jusqu’à regretter que le refus de communiquer les codes de déchiffrement empêche l’exploitation… d’un téléphone cassé et d’un téléphone non chiffré. Après avoir tant dénoncé le complotisme et la « paranoïa » des inculpé·es, ce type de raisonnement laisse perplexe22.

Antiterrorisme, chiffrement et justice préventive

Il n’est pas possible de comprendre l’importance donnée à l’association de pratiques numériques à une soi-disant clandestinité sans prendre en compte le basculement de la lutte antiterroriste « d’une logique répressive à des fins préventives »23 dont le délit « d’association de malfaiteurs terroristes en vue de » (AMT) est emblématique24. Les professeur·es Julie Alix et Oliver Cahn25 évoquent une « métamorphose du système répressif » d’un droit dont l’objectif est devenu de « faire face, non plus à une criminalité, mais à une menace ».

Ce glissement vers une justice préventive « renforce l’importance des éléments recueillis par les services de renseignements »26 qui se retrouvent peu à peu libres de définir qui représente une menace « selon leurs propres critères de la dangerosité »27.

Remplacer la preuve par le soupçon, c’est donc substituer le récit policier aux faits. Et ouvrir la voie à la criminalisation d’un nombre toujours plus grands de comportements « ineptes, innocents en eux-mêmes »28 pour reprendre les mots de François Sureau. Ce que critiquait déjà, en 1999, la Fédération internationale des droits humains qui écrivait que « n’importe quel type de “preuve”, même insignifiante, se voit accorder une certaine importance »29.

Et c’est exactement ce qu’il se passe ici. Des habitudes numériques répandues et anodines sont utilisées à charge dans le seul but de créer une atmosphère complotiste supposée trahir des intentions criminelles, aussi mystérieuses soient-elles. Atmosphère dont tout laisse à penser qu’elle est, justement, d’autant plus nécessaire au récit policier que les contours des intentions sont inconnus.

À ce titre, il est particulièrement frappant de constater que, si la clandestinité est ici caractérisée par le fait que les inculpé·es feraient une utilisation « avancée » des outils technologiques, elle était, dans l’affaire Tarnac, caractérisée par le fait… de ne posséder aucun téléphone portable30. Pile je gagne, face tu perds31.

Toutes et tous terroristes

À l’heure de conclure cet article, l’humeur est bien noire. Comment ne pas être indigné·e par la manière dont sont instrumentalisées les pratiques numériques des inculpé·es dans cette affaire ?

Face au fantasme d’un État exigeant de toute personne une transparence totale au risque de se voir désignée comme « suspecte », nous réaffirmons le droit à la vie privée, à l’intimité et à la protection de nos données personnelles. Le chiffrement est, et restera, un élément essentiel pour nos libertés publiques à l’ère numérique.

Soyons clair: cette affaire est un test pour le ministère de l’intérieur. Quoi de plus pratique que de pouvoir justifier la surveillance et la répression de militant·es parce qu’ils et elles utilisent WhatsApp ou Signal?

Auditionné par le Sénat suite à la répression de Sainte-Soline, Gérald Darmanin implorait ainsi le législateur de changer la loi afin qu’il soit possible de hacker les portables des manifestant·es qui utilisent « Signal, WhatsApp, Telegram » en des termes sans équivoque: « Donnez-nous pour la violence des extrêmes les mêmes moyens que le terrorisme ».

Pour se justifier, il avançait qu’il existe « une paranoia avancée très forte dans les milieux d’ultragauche […] qui utilisent des messageries cryptées » ce qui s’expliquerait par une « culture du clandestin ». Un véritable copier-coller de l’argumentaire policier développé dans l’affaire du 8 décembre. Affaire qu’il citera par ailleurs – au mépris de toute présomption d’innocence – comme l’exemple d’un « attentat déjoué » de « l’ultragauche »32 pour appuyer son discours visant à criminaliser les militant·es écologistes.

Voici comment la criminalisation des pratiques numériques s’inscrit dans la stratégie gouvernementale de répression de toute contestation sociale. Défendre le droit au chiffrement, c’est donc s’opposer aux dérives autoritaires d’un pouvoir cherchant à étendre, sans fin, les prérogatives de la lutte « antiterroriste » *via* la désignation d’un nombre toujours plus grand d’ennemis intérieurs33.

Après la répression des personnes musulmanes, des « écoterroristes », des « terroristes intellectuels », voici venu la figure des terroristes armé·es de messageries chiffrées. Devant une telle situation, la seule question qui reste semble être : « Et toi, quel·le terroriste es-tu ? ».

Permalink
June 20, 2023 at 4:45:17 PM GMT+2

La publicité, ou comment transformer l’être humain en rouage docile de la machine capitaliste – réveil-mutinhttps://reveilmutin.wordpress.com/2015/06/07/la-publicite-une-entreprise-totalitaire/

  • Enshitification
  • Mass Consumption
  • Big Corpo
  • Societal Collapse
  • Ads Madness
  • Attention Economy
  • Enshitification
  • Mass Consumption
  • Big Corpo
  • Societal Collapse
  • Ads Madness
  • Attention Economy

La publicité, ou comment transformer l’être humain en rouage docile de la machine capitaliste

« La publicité est partout, à tel point qu’elle est devenue invisible pour l’homo economicus que nous sommes. Nous croyons la dominer alors que nous la subissons. Mais c’est bien elle qui joue avec nous, qui s’impose pour modeler nos comportements et notre environnement. »

« Nous ne mettons pas en cause les activités publicitaires en tant que mise à disposition du public d’informations commerciales, mais nous refusons la violence et la manipulation dont usent les procédés publicitaires, auquel nul ne peut échapper et qui diffusent en permanence l’idéologie dominante. »

La publicité, un matraquage auquel personne ne doit échapper

« La publicité se conjugue avec matraquage (et c’est un point commun avec les techniques des régimes dictatoriaux). Elle est totalitaire car elle cherche à envahir la totalité de l’espace avec des panneaux (souvent surdimensionnés) qui accaparent notre environnement, des affiches recouvrant tout un immeuble, dix publicités identiques à la suite dans le métro, des « tunnels » publicitaires de 20 minutes à la télévision ou à la radio etc. Il devient difficile de poser son regard sur un paysage libre de publicité. Elle s’immisce dans les films à la télévision ou au cinéma en les coupant ou en les pénétrant, plus discrètement, puisque les entreprises payent les cinéastes pour y montrer leurs produits.

La publicité envahit le temps également. Elle rythme toute la vie collective sur le mode de la consommation avec les commémorations, les fêtes, les événements réels ou factices. Tout est bon pour faire consommer. De la même façon, la publicité se saisit de tous les âges de l’existence individuelle pour en faire des moments de consommation, avec les enfants avides de jouets, les adolescents couverts de marques, les hommes motorisant leur vie et devenant fan de gadgets en tout genre, les femmes avec la mode et la beauté mais aussi la ménagère, la mère de famille ou encore les personnes âgées invitées à préparer leur avenir. Si notre espace est accaparé par la publicité, notre temporalité est rythmé par les slogans publicitaires, signe que notre civilisation glisse doucement mais sûrement vers un totalitarisme publicitaire puisqu’il est difficile d’y échapper (frontalement ou indirectement (…)). »

Un maillon essentiel du système capitaliste

« La publicité n’est pas neutre car elle existe pour promouvoir le système capitaliste et un modèle de société fondé sur la consommation. Elle contribue à déconstruire notre réflexion pour mieux nous aliéner. L’omniprésence de la publicité vise à réduire la totalité de l’être humain à la seule dimension de la consommation.

Loin d’être synonyme de liberté, la publicité participe à façonner l’idéologie dominante, à la soutenir afin que chacun prenne part à l’effort de Croissance. Elle est un maillon essentiel de l’activité économique. La publicité suscite le besoin, matraque pour ne pas dire impose un mode de vie. Elle est un rouage essentiel pour créer davantage de besoins, rendre obsolètes les produits, renouveler notre imaginaire afin de nous nourrir de nouveautés et abreuver le système en croissance par la mise en avant de biens et de services marchands. La publicité nous manipule plus qu’elle n’informe.

Modeler nos pensées et nos comportements pour nous conformer à l’impératif de Croissance

« La mainmise de la publicité sur la société est insidieuse puisqu’elle fait de la consommation un fondement de notre société, en nous incitant à penser en terme de consommation. Surtout, en plus de vouloir nous faire dépenser, la publicité vise à nous faire dé-penser en divulguant à feu doux l’idéologie capitaliste, de façon discrète et sournoise à tel point que nous n’avons toujours pas conscience d’être embrigadé. Elle est complice d’une vaste manipulation afin de tout marchandiser et asseoir la société de Croissance, l’alimenter sans cesse en nouveautés, créer de nouveaux besoins et acter l’obsolescence. Elle développe une idéologie et un mode de vie qui n’est pas neutre car directement au service du capitalisme. »

« [La publicité] a recours sans cesse aux sophismes de l’image, falsifie le sens des mots, déstructure l’ordre logique. Ce langage, dès le plus jeune âge, façonne ainsi des modes de pensée qui sont à l’opposé de la raison cartésienne. La règle publicitaire, qui oblige à faire du produit un spectacle, conduit ainsi l’enfant à confondre l’image et la chose, le visible et le réel. Règne ensuite la culture de l’amalgame : la publicité pratique cette rhétorique de l’association selon laquelle n’importe quelle valeur peut être associée à n’importe quel produit (la beauté du sport par exemple à la célébration de boissons alcoolisées). La rythmique publicitaire (jingles, chocs et frissons), les montages chaotiques et “déments”, en tentant de happer au lieu de convaincre, en nous saisissant viscéralement pour contourner nos résistances conscientes, font prédominer les conduites-réflexes sur toute démarche réfléchie. En liaison avec la trépidation médiatique et les oripeaux de la société du spectacle, c’est toute une relation au monde fondée sur l’adhésion sensorielle et le refus de penser que tisse la publicité dans la “conscience collective“. Ce mode de pensée instaure le règne de l’impensé. »

« L’omniprésence quantitative du phénomène publicitaire entraîne (…) un changement qualitatif dans sa façon d’imposer ses modèles : sa norme paraît “ normale ”. Pour mieux faire passer son message, la publicité a su évoluer en abandonnant le ton impératif pour introduire le mode indicatif. Celui-ci est, finalement, plus contraignant que le mode impératif dans la mesure où l’on ne peut pas se distancier de ses ordres. Qui plus est, cette normalité est commune à tous : la collectivité semble s’y être déjà pliée. Les modèles de consommation deviennent alors d’autant plus coercitifs qu’ils sont supposés massivement répandus. »

Une entreprise totalitaire

« La publicité, sous ses aspects festifs et joyeux, sympathiques et drôles, est une dangereuse propagande qui casse, image après image, le sens de la vie. »

« La publicité est une machine à casser la personne humaine. Elle ne veut plus d’humains, de citoyens, elle veut des consommateurs. La publicité réduit chacun de nous à un moyen : la consommation. La publicité nous impose la fausse idée que l’unique sens de la vie est la consommation. »

« [Le] phénomène publicitaire ne consiste pas en une simple somme d’annonces disparates : elle est un système. Et ce système, si on l’observe bien, non seulement tend à occuper la totalité du champ des activités humaines – y compris ses aspects les plus immatériels – dans la seule consommation. À deux niveaux, celui de l’invasion quantitative et celui de la pénétration idéologique, la publicité est bien une entreprise totalitaire.

« La publicité participe activement à la fabrication d’un modèle de société en imaginant un bonheur formaté fondé sur la consommation. La publicité célèbre l’ordre des « décideurs » et le bonheur des consommations inutiles. Au-delà de la manipulation et du mépris, la publicité dévoile une philosophie cynique qui entend transformer le monde en marchandise. La voix de la publicité est insidieuse car invisible et douce, nous sommes éduqués avec ou alors elle nous fait rêver et, elle contribue à imposer un « totalitarisme tranquille » c’est-à-dire un mode de vie imposé où la norme est la règle et ne pas la respecter signifie l’exclusion et où les victimes sont les bourreaux sans que nous puissions nous condamner. Articulation essentielle de la société capitaliste, la publicité fait plus que soutenir, elle guide la société.’

« Nous aurions pu penser que le chômage, l’exclusion, la pauvreté freineraient l’exhibition du discours publicitaire et feraient taire les sirènes de la surconsommation. Il n’en est rien. Qu’importe la « fracture » sociale, puisqu’on s’adresse à la majorité nantie ! Qu’importe si des centaines de milliers d’individus sont forcées de contempler chaque jour des modèles d’existence qui leur sont rendues inaccessibles par leur exclusion ! On ne s’émeut pas de cette violence quotidienne. Après tout, pourquoi refuserait-on aux pauvres de rêver à ce que possèdent les riches : n’est-ce pas ce qui se fait dans le tiers-monde ? A l’ordre économique, qui a pour effet d’exclure les pauvres, s’adjoint désormais l’ordre publicitaire, qui a pour fonction de nous les faire oublier. »

Avilir l’être humain, le réduire à un simple rouage

« La « culture publicité » n’existe pas, la publicité c’est l’anti-culture. Si la culture nous humanise et ré-enchante le monde, la publicité réduit l’homme à un tube digestif dont l’unique fonction est de consommer. Avec la culture, l’homme devient autonome tandis qu’avec la publicité, plus on y est soumis, plus on devient « accro» et conditionné. Loin d’essayer de tendre à la réflexion des individus, la publicité infantilise nos actes et ce dès l’enfance, en fidélisant les enfants. Il est tellement simple d’exploiter commercialement les rêves des jeunes que cela s’apparente à du dressage tant ce qui est inculqué précocement reste comme une valeur intangible pour l’individu ainsi formaté. Les publicitaires ont l’ambition de nous conditionner et d’occuper l’espace psychique. Souvenons-nous de cet ancien patron de TF1 (chaîne de télévision le plus regardée en Europe) qui expliquait que son travail consistait à élaborer des programmes pour préparer les esprits au message publicitaire. »

« La publicité est (…) une monstrueuse opération de formatage qui vise à faire régresser l’individu afin d’en faire un être docile dépourvue de sens critique et facilement manipulable. Au-delà de sa fonction commerciale immédiate, la publicité est donc bien un enjeu véritable car elle participe à faire régresser l’humain, que ce soit dans son action ou sa réflexion. Elle rabaisse les personnes au rang de simples consommateurs qui commencent par consommer des produits puis consomment d’autres humains (management, violence, exploitations diverses …) et finissent par se consommer eux-mêmes (dopages, sectes, opérations de chirurgie esthétique …). »

Uniformiser les modes de vie et détruire les cultures

« La publicité, loin d’une culture en soi, détruit les cultures existantes pour uniformiser les besoins et les comportements. Elle façonne des identités communes à tous en simulant des différences qui sont davantage des moyens pour nous faire croire que nous avons le choix.

D’ailleurs, la diversité des cultures du monde dérange la publicité puisqu’elle peut être considérée comme un frein à la soif de profits des annonceurs. La publicité veut détruire les cultures en imposant des produits et des modes de vie standardisés sur toute la surface de la Terre. Chacun sur la planète devra consommer de façon identique et beaucoup. La publicité ne supporte pas les peuples qui veulent faire de la diversité de leur culture une richesse. La publicité veut créer un monde non pas universel, mais uniforme, tout en glorifiant, de façon trompeuse, la différence, quand elle ne rêve que d’indifférenciation. »

Une pollution et un gaspillage immenses

« L’omniprésence de la publicité nous oppresse, tout comme elle nous conditionne. Elle normalise nos comportements et représentent autant une occupation illicite de notre espace qu’un gaspillage intolérable d’autant plus qu’il n’est souvent ni voulu, ni attendu.

La publicité, par son essence même, contribue au pillage perpétré par le capitalisme du désastre, notamment des ressources naturelles. En outre, en produisant son verbiage malsain, la publicité pollue de multiples façons notamment par une pollution visuelle et énergétique. »

« De façon intrinsèque, la publicité participe au pillage planétaire organisée par le capitalisme. En effet, le système publicitaire monopolise toujours plus l’espace public. Il parasite les activités culturelles et pervertit les manifestations sportives. Par ailleurs, la publicité sacrifie la santé et l’écosystème au commerce, occulte les conséquences sanitaires, et se moque du principe de précaution (en vendant tout produit, peu importe le risque). La publicité incite à la surconsommation, au gaspillage, à la pollution et fait souvent l’apologie de comportements irresponsables et individualistes. Elle est source de surendettement, de délinquance et de violence pour les plus démunis et les plus réactifs à son discours intrusifs.

« La publicité a toujours privilégié le support de l’affichage à tel point que, désormais, les affiches publicitaires sont incrustées dans nos villes, nos campagnes et nos transports. Elles sont omniprésentes, géantes, souvent illuminées et sont donc dévoreuses d’espace public et d’énergie.

Cette débauche graphique gêne la vue, salit notre cadre de vie, réduit notre liberté de penser et limite notre faculté de rêver. La confiscation de l’espace public et son exploitation mercantile sont d’autant plus inadmissibles que la loi qualifie les paysages de « bien commun de la nation » et que les dispositions régissant l’affichage publicitaire sont intégrées au livre V du Code de l’environnement, intitulé « Prévention des pollutions, des risques et des nuisances ». Ainsi, même le législateur considère l’affichage publicitaire comme une pollution ! Par l’affichage, le système publicitaire s’immisce dans notre quotidien de la façon la plus évidente et la plus violente également. »

Sortir de la publicité pour sortir de la société de croissance

« Pour sortir de la société de croissance, sortir de la publicité est un préalable obligatoire. Lutter contre la publicité est donc, avant tout, un combat idéologique. »

Extraits de l’article « Sortir de la publicité » de Christophe Ondet.

(L’article en intégralité : http://www.projet-decroissance.net/?p=342 )

Permalink
June 20, 2023 at 4:41:22 PM GMT+2

A Tale of Unwanted Disruption: My Week Without Amazon | by Brandon Jackson | Jun, 2023 | Mediumhttps://medium.com/@bjax_/a-tale-of-unwanted-disruption-my-week-without-amazon-df1074e3818b

  • Smart Home
  • Big Tech
  • Big Corpo
  • Smart Home
  • Big Tech
  • Big Corpo

A Tale of Unwanted Disruption: My Week Without Amazon

These are only my thoughts and opinions.

On Wednesday, May 31, 2023, I finally regained access to my Amazon account after an unexpected and unwarranted lockout that lasted nearly a week, from Thursday, May 25. This wasn’t just a simple inconvenience, though. I have a smart home, and my primary means of interfacing with all the devices and automations is through Amazon Echo devices via Alexa. This incident left me with a house full of unresponsive devices, a silent Alexa, and a lot of questions.

I do want to note that since I host many of my own local services and many devices are local only. I only lost the ability to use Alexa. My home was fine as I just used Siri or locally hosted dashboard if I wanted to change a light’s color or something of that nature. However, this was a huge over reaction and I’m hoping we as consumers get more protections and will truly be able to own our devices. I go over this more here.

Unpacking the Cause

The sequence of events that led to this digital exile began innocuously enough. A package was delivered to my house on Wednesday, May 24, and everything seemed fine. The following day, however, I found that my Echo Show had signed out, and I was unable to interact with my smart home devices. My initial assumption was that someone might have attempted to access my account repeatedly, triggering a lockout. I use a fairly old email address for my Amazon account, and it’s plausible that an old password might have been exposed in a past data breach. However, I currently use strong, auto-generated passwords via Apple and employ two-factor authentication with an authenticator app, so unauthorized access seemed unlikely.

I swiftly checked my other accounts (social media, streaming apps, etc.) to ensure I hadn’t been compromised. All seemed normal, with no flood of notifications from Microsoft Authenticator that would indicate an attempted breach. Puzzled, I followed the advice of the Amazon app and dialed the customer service number it provided. That’s when things began to take a surreal turn.

An Unexpected Accusation

The representative told me I should have received an email, which I indeed found in my inbox. It was from an executive at Amazon. As I dialed the number provided in the email, I half-wondered if Amazon was experiencing some issues and I was unwittingly falling into a scam.

When I connected with the executive, they asked if I knew why my account had been locked. When I answered I was unsure, their tone turned somewhat accusatory. I was told that the driver who had delivered my package reported receiving racist remarks from my “Ring doorbell” (it’s actually a Eufy, but I’ll let it slide).

Addressing the Problem

Here’s where things got even more baffling. First, I have multiple cameras recording everything that happens on my property. If the driver’s claims were accurate, I could easily verify them with video footage. Second, most delivery drivers in my area share the same race as me and my family. It seemed highly unlikely that we would make such remarks. Finally, when I asked what time the alleged incident occurred, I realized it was practically impossible for anyone in my house to have made those comments, as nobody was home around that time (approximately 6:05 PM).

I reviewed the footage and confirmed that no such comments had been made. Instead, the Eufy doorbell had issued an automated response: “Excuse me, can I help you?” The driver, who was walking away and wearing headphones, must have misinterpreted the message. Nevertheless, by the following day, my Amazon account was locked, and all my Echo devices were logged out.

Let me be clear: I fully support Amazon taking measures to ensure the safety of their drivers. However, I question why my entire smart home system had to be rendered unusable during their internal investigation (Clarification, I wrote this from the perspective of the average user. My entire system was fine but only due to me self hosting many services and that should not have to be the norm/expected of everyone). It seems more sensible to impose a temporary delivery restriction or purchasing ban on my account. Submitting video evidence from multiple angles right after my initial call with the executive appeared to have little impact on their decision to disable my account.

The Fallout

This incident has led me to question my relationship with Amazon. After nearly a decade of loyalty, I’ve been given a harsh reminder that a misunderstanding can lead to such drastic measures. It seems more reasonable to handle such issues in a more compartmentalized way, rather than a blanket shutdown of all services.

Due to this experience, I am seriously considering discontinuing my use of Amazon Echo devices and will caution others about this incident. This ordeal has made a case for a more personalized home assistant system, perhaps utilizing Raspberry Pi devices scattered around the house.

The Resolution

Despite promptly submitting video evidence immediately upon learning of the issue, my account remained locked. The timing couldn’t have been worse: the onset of Memorial day weekend was approaching, and I was keen to resolve the issue before the long weekend. However, despite numerous calls and emails, it wasn’t until Friday afternoon that I received confirmation that the investigation had started. I was told to expect a response within two business days, meaning not until Tuesday of the following week at the earliest.

In the end, my account was unlocked on Wednesday, with no follow-up email to inform me of the resolution. This incident stands as a stark reminder of the need for better customer service and a more nuanced approach to incident management.

Through sharing my experience, I hope to encourage Amazon to reform and rethink their approach to handling such situations in the future. It’s essential for customers to feel confident in the security and reliability of their services, especially when those services are integral to the functionality of their homes. It’s time for Amazon to take a more customer-focused approach to problem-solving and conflict resolution.

Update: For those saying I’m okay with this happening to a anyone else, I’m not. No matter how abhorrent their views or beliefs are. If someone bought and paid for a device they should be able to use it. At least on their own property/ if it doesn’t hurt anyone else. I’m only pushing this story so that this WONT happen to any one else. Regardless of their race, religion, beliefs, if you paid for it you should OWN it.

Update: I was not truly in the dark for a week. My smart home runs mostly locally and Alexa really is just a polymorphic interface. I was just able to use Siri. Though out of habit I’d sometimes say “alexa” only for her to remind me she’s locked out.

Permalink
June 20, 2023 at 4:35:01 PM GMT+2

Scammers are now using AI to sound like family members. It’s working. - The Washington Posthttps://www.washingtonpost.com/technology/2023/03/05/ai-voice-scam/

  • Artificial intelligence
  • Deepfake
  • Societal Collapse
  • Artificial intelligence
  • Deepfake
  • Societal Collapse

They thought loved ones were calling for help. It was an AI scam.

Scammers are using artificial intelligence to sound more like family members in distress. People are falling for it and losing thousands of dollars.

The man calling Ruth Card sounded just like her grandson Brandon. So when he said he was in jail, with no wallet or cellphone, and needed cash for bail, Card scrambled to do whatever she could to help.

“It was definitely this feeling of … fear,” she said. “That we’ve got to help him right now.”

Card, 73, and her husband, Greg Grace, 75, dashed to their bank in Regina, Saskatchewan, and withdrew 3,000 Canadian dollars ($2,207 in U.S. currency), the daily maximum. They hurried to a second branch for more money. But a bank manager pulled them into his office: Another patron had gotten a similar call and learned the eerily accurate voice had been faked, Card recalled the banker saying. The man on the phone probably wasn’t their grandson.

That’s when they realized they’d been duped.

“We were sucked in,” Card said in an interview with The Washington Post. “We were convinced that we were talking to Brandon.”

As impersonation scams in the United States rise, Card’s ordeal is indicative of a troubling trend. Technology is making it easier and cheaper for bad actors to mimic voices, convincing people, often the elderly, that their loved ones are in distress. In 2022, impostor scams were the second most popular racket in America, with over 36,000 reports of people being swindled by those pretending to be friends and family, according to data from the Federal Trade Commission. Over 5,100 of those incidents happened over the phone, accounting for over $11 million in losses, FTC officials said.

Advancements in artificial intelligence have added a terrifying new layer, allowing bad actors to replicate a voice with an audio sample of just a few sentences. Powered by AI, a slew of cheap online tools can translate an audio file into a replica of a voice, allowing a swindler to make it “speak” whatever they type.

Experts say federal regulators, law enforcement and the courts are ill-equipped to rein in the burgeoning scam. Most victims have few leads to identify the perpetrator and it’s difficult for the police to trace calls and funds from scammers operating across the world. And there’s little legal precedent for courts to hold the companies that make the tools accountable for their use.

“It’s terrifying,” said Hany Farid, a professor of digital forensics at the University of California at Berkeley. “It’s sort of the perfect storm … [with] all the ingredients you need to create chaos.”

Although impostor scams come in many forms, they essentially work the same way: a scammer impersonates someone trustworthy — a child, lover or friend — and convinces the victim to send them money because they’re in distress.

But artificially generated voice technology is making the ruse more convincing. Victims report reacting with visceral horror when hearing loved ones in danger.

It’s a dark impact of the recent rise in generative artificial intelligence, which backs software that creates texts, images or sounds based on data it is fed. Advances in math and computing power have improved the training mechanisms for such software, spurring a fleet of companies to release chatbots, image-creators and voice-makers that are strangely lifelike.

AI voice-generating software analyzes what makes a person’s voice unique — including age, gender and accent — and searches a vast database of voices to find similar ones and predict patterns, Farid said.

It can then re-create the pitch, timbre and individual sounds of a person’s voice to create an overall effect that is similar, he added. It requires a short sample of audio, taken from places such as YouTube, podcasts, commercials, TikTok, Instagram or Facebook videos, Farid said.

“Two years ago, even a year ago, you needed a lot of audio to clone a person’s voice,” Farid said. “Now … if you have a Facebook page … or if you’ve recorded a TikTok and your voice is in there for 30 seconds, people can clone your voice.”

Companies such as ElevenLabs, an AI voice synthesizing start-up founded in 2022, transform a short vocal sample into a synthetically generated voice through a text-to-speech tool. ElevenLabs software can be free or cost between $5 and $330 per month to use, according to the site, with higher prices allowing users to generate more audio.

ElevenLabs burst into the news following criticism of its tool, which has been used to replicate voices of celebrities saying things they never did, such as Emma Watson falsely reciting passages from Adolf Hitler’s “Mein Kampf.” ElevenLabs did not return a request for comment, but in a Twitter thread the company said it’s incorporating safeguards to stem misuse, including banning free users from creating custom voices and launching a tool to detect AI-generated audio.

But such safeguards are too late for victims like Benjamin Perkin, whose elderly parents lost thousands of dollars to a voice scam.

His voice-cloning nightmare started when his parents received a phone call from an alleged lawyer, saying their son had killed a U.S. diplomat in a car accident. Perkin was in jail and needed money for legal fees.

The lawyer put Perkin, 39, on the phone, who said he loved them, appreciated them and needed the money. A few hours later, the lawyer called Perkin’s parents again, saying their son needed $21,000 in Canadian dollars (U.S. $15,449) before a court date later that day.

Perkin’s parents later told him the call seemed unusual, but they couldn’t shake the feeling they’d really talked to their son.

The voice sounded “close enough for my parents to truly believe they did speak with me,” he said. In their state of panic, they rushed to several banks to get cash and sent the lawyer the money through a bitcoin terminal.

When the real Perkin called his parents that night for a casual check-in, they were confused.

It’s unclear where the scammers got his voice, although Perkin has posted YouTube videos talking about his snowmobiling hobby. The family has filed a police report with Canada’s federal authorities, Perkin said, but that hasn’t brought the cash back.

“The money’s gone,” he said. “There’s no insurance. There’s no getting it back. It’s gone.”

Will Maxson, an assistant director at the FTC’s division of marketing practices, said tracking down voice scammers can be “particularly difficult” because they could be using a phone based anywhere in the world, making it hard to even identify which agency has jurisdiction over a particular case.

Maxson urged constant vigilance. If a loved one tells you they need money, put that call on hold and try calling your family member separately, he said. If a suspicious call comes from a family member’s number, understand that, too, can be spoofed. Never pay people in gift cards, because those are hard to trace, he added, and be wary of any requests for cash.

Eva Velasquez, the chief executive of the Identity Theft Resource Center, said it’s difficult for law enforcement to track down voice-cloning thieves. Velasquez, who spent 21 years at the San Diego district attorney’s office investigating consumer fraud, said police departments might not have enough money and staff to fund a unit dedicated to tracking fraud.

Larger departments have to triage resources to cases that can be solved, she said. Victims of voice scams might not have much information to give police for investigations, making it tough for officials to dedicate much time or staff power, particularly for smaller losses.

“If you don’t have any information about it,” she said, “where do they start?”

Farid said the courts should hold AI companies liable if the products they make result in harms. Jurists, such as Supreme Court Justice Neil M. Gorsuch, said in February that legal protections that shield social networks from lawsuits might not apply to work created by AI.

For Card, the experience has made her more vigilant. Last year, she talked with her local newspaper, the Regina Leader-Post, to warn people about these scams. Because she didn’t lose any money, she didn’t report it to the police.

Above all, she said, she feels embarrassed.

“It wasn’t a very convincing story,” she said. “But it didn’t have to be any better than what it was to convince us.”

Permalink
June 20, 2023 at 4:26:41 PM GMT+2

« 95% des projets NFT ne valent plus rien » : après l'emballement, la désillusion - Numeramahttps://www.numerama.com/tech/1395898-deux-ans-apres-lemballement-que-reste-t-il-des-nft.html

  • Crypto Currency
  • Non Fungible Token
  • Big Tech
  • Crypto Currency
  • Non Fungible Token
  • Big Tech

« 95% des projets NFT ne valent plus rien » : après l’emballement, la désillusion

Les NFT ont connu leur heure de gloire en 2021 et en début 2022. Mais depuis, les ventes sont en chute libre, des projets ont disparu, et certains se retrouvent avec des NFT qui ne valent plus rien. D’autres ont fait fortune grâce aux tokens. Les propriétaires de NFT nous racontent.

Le projet de NFT WorkerTown, lancé fin 2021, ressemblait à de nombreux autres. Dans ce jeu play to earn, les joueurs pouvaient acheter de petits personnages pixelisés et compléter des tâches pour gagner des tokens de crypto-monnaies. Le jeu avait levé plus de 750 000 dollars et avait attiré une communauté de plusieurs milliers de personnes, dont celui que l’on connait sous le pseudo Sungie. Le Français avait investi une centaine d’euros dans le NFT, et fut même pendant un temps modérateur en chef de la communauté sur Internet.

Puis, en avril 2022, les deux fondateurs sont partis avec l’argent, raconte aujourd’hui Sungie. Les comptes Twitter et Instagram du projet ont disparu, le groupe Discord a été supprimé. « Un mec calé en blockchain a regardé les transactions, et il a vu que tout l’argent du portefeuille du projet avait été retiré d’un coup. Les deux co-créateurs du projet se sont enfuis avec un peu plus d’un million d’euros, au bout de 7 mois de boulot et un mois de lancement », se souvient-il, amer.

Sur un groupe Telegram, les derniers membres de la communauté sont nombreux à utiliser le terme de « rug pull », une forme d’arnaque dans laquelle les dirigeants partent avec la caisse, tirant le tapis de sous les pieds des participants. « L’équipe s’est retrouvée démunie et volée, au même titre que les utilisateurs, qui portaient de grands espoirs dans ce jeu. J’y croyais, et j’y ai investi, pour au final, [me retrouver avec] un rugpull des plus classiques », regrette-t-il. « C’était un épisode traumatisant.»

Sungie n’est pas le seul dans ce cas. Après l’explosion de la popularité des NFT, de très nombreux projets et collections ont vu le jour, beaucoup promettant des retours sur investissement importants et un gameplay révolutionnaire. D’autres espéraient remplacer les Bored Ape Yacht Club, la collection de NFT la plus populaire et la plus chère à ce jour. Parmi les acheteurs, la grande majorité était à la recherche d’argent facile, attirée par les records de vente des NFT ou convaincue par des influenceurs d’investir dans leurs idées.

Aujourd’hui, plus de deux ans après l’arrivée des NFT, il ne reste plus grand chose de cet ancien marché qui pesait des milliards de dollars. Après un bear market qui a fait plonger la valeur du bitcoin de plus de 50 %, et des faillites spectaculaires de géants de la crypto, les ventes de NFT sont au plus bas. Même si certains ont réussi à faire fortune, une large partie des projets lancés pendant la période faste des NFT ont disparu, ou rencontrent des difficultés à se maintenir. Pour les investisseurs qui n’ont pas pu vendre à temps, et qui se retrouvent avec des NFT sans valeur, il y a surtout des regrets.

« Je me suis faite à l’idée de ne jamais revoir mon argent »

C’est la collection de NFT Badass Ape Guild qui a convaincu Selma d’investir. Lancée fin 2021, la collection, qui met en scène des singes au design largement inspiré par les Bored Apes, devait s’accompagner d’un métaverse, et devait à terme regrouper plusieurs jeux. « Beaucoup de points m’ont mise en confiance », nous confie la francophone, avec qui nous nous sommes entretenue par écrit. La collection, hébergée sur la blockchain de Binance, disposait d’un Discord, d’un site internet, d’objectifs clairs, d’un compte Twitter très actif… Rassurée, Selma a acheté pour plus de 2 000 euros de NFT dans cette collection.

Le projet a pris de l’importance et gagné en popularité. Au moment de la mise en vente des NFT, ils atteignaient un prix plancher de 400 dollars et enregistraient un volume de vente de 1,2 million de dollars. Binance avait même inclus la collection dans un tweet promotionnel, pour inciter ses clients à se mettre aux NFT.

Puis, petit à petit, la communication s’est arrêtée sur Twitter, et les participants au groupe Discord se sont retrouvés livrés à eux-mêmes. « Il y a eu beaucoup de promesses de la part du créateur », indique Selma, « mais aujourd’hui, il s’est volatilisé après avoir empoché un paquet de thunes ». La collection a été laissée à l’abandon, et « aujourd’hui, un NFT de cette collection ne vaut même pas 1 euro », alors qu’ils valaient encore plusieurs centaines de dollars chacun il y a quelques mois. « Je me suis faite à l’idée que je ne reverrai jamais mon argent », a-t-elle commenté sur le Discord du groupe, où ils sont nombreux dans le même cas.

« Au-delà de ma frustration, ce qui me chagrine, c’est que la plateforme de Binance n’a pas de dispositif face à des cas de scam [arnaque] aussi énormes, et il y en a plein d’autres… » Numerama, qui a essayé de contacter les équipes de Badass Ape Guild et de Binance, n’a pas reçu de réponse de leur part.

Sungie et Selma sont loin d’être des cas isolés. L’impressionnant succès des NFT a attiré un grand nombre de personnes mal intentionnées, attirées par la promesse d’argent rapide, et des consommateurs peu avertis sur les dangers du milieu des cryptos. Les dérives étaient si nombreuses en début d’année 2022 qu’Opensea, la principale plateforme de vente de NFT, avait déclaré que « 80 % des fichiers créés étaient des œuvres plagiées, des fausses collections, et des spams. »

Depuis, de nombreux articles ont dénoncé des projets de NFT louches, ayant laissé leurs participants sur la paille. Il faut cependant faire la différence entre les arnaques, comme les rug pulls que Sungie et Selma ont vus, et les projets n’ayant pas pu aboutir pour d’autres raisons. Il n’y avait pas que des escrocs dans le lot : certains créateurs de projets n’ont simplement pas eu les moyens d’aller jusqu’au bout de leur ambition.

Les entreprises obligées de se réinventer pour survivre

Pour les projets lancés au plus haut de la mode des NFT, l’argent coulait à flots. Selon Crunchbase, les entreprises spécialisées dans les NFT ont levé 2,9 milliards de dollars sur l’année 2021, et 2,1 milliards seulement pendant le premier trimestre 2022 — sans compter les projets ayant récolté de l’argent directement avec les ventes. Un nombre impressionnant de grandes entreprises se sont également lancées dans le milieu, telles que Coca-Cola, Adidas, Samsung, Louis Vuitton, Lacoste, et bien d’autres encore.

Depuis, la manne s’est tarie. La mode est passée, les scandales et arnaques ont terni la réputation du milieu, et les nombreuses faillites d’entreprises de la crypto ont refroidi les investisseurs. « Le milieu NFT n’est plus du tout aussi tendance qu’il ne l’était l’année dernière », écrivait Crunchbase dans un article publié en novembre 2022. « Moins d’accords sont conclus, pour beaucoup moins d’argent ». Seuls 131 millions de dollars ont été investis lors du dernier trimestre 2022, et 78 millions pour le premier trimestre 2023, selon Metaverse Post.

Entre les manques de fonds et la baisse drastique des ventes, même certains projets soutenus par de grandes entreprises n’ont pas survécu. En octobre 2022, CNN a ainsi mis fin à son aventure dans les NFT en fermant sa plateforme de vente, au grand dam des acheteurs. Pour les plus petits projets, la situation est encore plus difficile.

Chez Solid, une entreprise française spécialisée dans l’impression de NFT que Numerama avait rencontré en avril 2022 lors du Paris NFT Day, « on a beaucoup plus de mal qu’à la fin 2021, en effet », reconnait Max, au téléphone. « Le marché des NFT s’est bien calmé en volume, en prix, en activité, en création… donc ça a un très fort impact sur nous. On a ressenti très vite en 2022 que c’était en baisse », se souvient le fondateur. « Avant, on ne prospectait presque pas, on n’avait pas de plan marketing. On s’est mis désormais à mettre en place des plans de ressources, on a pas mal pivoté aussi.»

« Les NFT sont toujours là »

L’entreprise continue de travailler en partenariat avec des entreprises s’étant lancées dans les NFT, comme Yves Saint-Laurent, ou Mugler, mais s’appuie aussi sur un nouveau business plan. « Aujourd’hui, on s’occupe de gérer les communautés digitales des créateurs de contenus », explique Max. « Les NFT sont un support pour ces communautés-là, et elles ont envie d’avoir des expériences en physique. Donc nous, on s’occupe de l’impression des NFT, de l’événementiel, des cadeaux, etc. On fait des salons, on crée des événements pour le lancement de nouvelles collections NFT… Le marché n’est pas aussi fort qu’en 2021 et 2022, mais les NFT sont toujours là. »

Il y a tout de même des limites. « Le métaverse, ça n’est plus à la mode », admet ainsi Gauthier Bros. Le fondateur de Metaverse Weapon Factory (une entreprise qui vendait des NFT d’armes virtuelles), que nous avions également rencontré en 2022, n’est cependant pas défaitiste. « Ceux qui étaient dans le milieu pour la technologie sont restés. Nous, on voit un intérêt à avoir une propriété sur des objets numériques, donc on reste.»

Le fabricant d’armes en NFT, qui n’a pas encore sorti de collection, n’est pas inquiet sur le futur. « Ce projet NFT, c’est en parallèle de notre entreprise principale, Atayen. Notre but n’était donc pas de sortir un truc trop vite, mais de montrer un produit fini, qui a du sens.» Il continue cependant de travailler sur le développement « d’un générateur d’objets en 3D pour produire des armes, des véhicules et des animaux de compagnie », qui doivent, à terme, être vendus et utilisés dans toutes sortes de jeux vidéo différents.

Même si le métaverse n’est plus une notion qui fait rêver, Gauthier Bros estime qu’il y a un marché pour les NFT dans les jeux. « Imaginez avoir des objets réutilisables dans plusieurs environnements ! Pour nous, c’est le futur. Même pour les développeurs, cela serait génial de ne pas avoir à refaire les mêmes armes 12 000 fois ».

Il en veut également pour preuve le marché des skins sur le jeu Counter-Strike, où certains items s’arrachent à plus de 100 000 dollars. « Le marché pour des armes en NFT est là, mais pour l’instant, c’est jeu par jeu, et c’est dommage de devoir acheter deux fois un AR-15. Je crois que le futur, c’est un marché transversal. Les joueurs voudront des objets vraiment à eux. Il y a une demande pour les NFT, mais bon, si des gens achètent une photo d’un singe en espérant devenir milliardaires, c’est sûr qu’ils vont perdre de l’argent ».

« Aujourd’hui, 95 % des projets NFT ne valent plus rien »

Malgré ce qu’assure Gauthier, certains ont bien réussi à faire fortune grâce à l’achat et à la vente de NFT. Benjamin, un ex-trader, a acheté pour « plus de 100 000 euros de NFT », et a fait « d’énormes retours sur investissement.» « J’avais une méthode de trading avant, que j’ai appliquée aux NFT, sans affect. J’en ai acheté tellement que j’ai gardé moins de 5 min que je ne les ai plus en tête ,» raconte-t-il. Il a tout de même acheté des tokens par intérêt, « mais à chaque fois que j’ai acheté avec de l’affect, j’ai perdu. » Aujourd’hui, il ne lui reste plus que quelques NFT « de cœur », et il a revendu tous les autres.

Benjamin, qui a réussi à échapper aux gros des escroqueries grâce à sa méthode, admet cependant qu’il y a eu « une énorme déception de la part du public. Beaucoup de projets n’ont pas tenu leurs promesses, et beaucoup d’arnaques visaient en priorité les personnes qui n’y connaissaient rien.»

Bountydreams est, lui aussi, arrivé dans le monde des NFT après y avoir été attiré par les sommes records empochées lors des ventes. « Je me suis renseigné sur la tech, et je me suis complètement pris de passion pour le sujet en un mois. Je suis passé d’un mec dont le but était de revendre le plus cher à quelqu’un, à une personne vraiment convaincue par le projet. Aujourd’hui, j’ai des NFT qui valent une fortune que je ne vendrai pour rien au monde », assène-t-il, lui qui possède 2 NFT de la collection des Bored Ape.

« Je pense qu’en tout, j’ai acheté 4 000 NFT. J’ai beaucoup revendu au début, et je me suis fait pas mal d’argent. Je pense que j’ai facilement multiplié mon investissement de départ par 2 000. Ça a changé ma vie, tout simplement.» Aujourd’hui, même s’il a vendu la majorité de ce qu’il a acheté, il possède toujours près de 700 NFT, « certains pour de l’investissement à long terme, d’autres, pour ma collection personnelle ».

Néanmoins, « aujourd’hui, 95 % des projets NFT qui se sont lancés sur les dernières années ne valent plus rien. Cela ne vaut pas le coup. Le prix des Bored Apes a été divisé par 4 par rapport à leur pic, et même la plupart des gros projets de 2022 ont vu leur prix divisé par 10 en moyenne. »

Même si le marché n’est pas au beau fixe, Bountydreams et Benjamin sont persuadés que ce n’est pas vraiment la fin des NFT. « Le marché s’est vraiment calmé, mais il y a toujours beaucoup d’argent qui tourne dans le milieu. Les événements de 2022 ont fait peur au grand public, et c’est normal, mais je n’ai jamais été inquiet personnellement. Il y a toujours un futur pour les entreprises », assure-t-il. « Pour le tracking de data, pour les tickets dans l’événementiel, il y a des opportunités. »

Benjamin prédit, lui, que le marché risque de stagner pendant encore quelque temps. « Il y a besoin de nouvelles initiatives fraiches. Après la hype, maintenant il faut construire des projets avec une vraie utilité, comme dans les jeux vidéo, par exemple. En tout cas, ça n’est pas la fin des NFT », pronostique-t-il. D’autres n’abondent pas dans ce sens. Sungie l’assure : « Les NFT, je n’y mets plus jamais les pieds. »

Permalink
June 20, 2023 at 4:23:06 PM GMT+2

Why Does Everything On Netflix Look Like That?https://www.vice.com/en/article/ake3j5/why-does-everything-on-netflix-look-like-that

  • Cultural Downfall
  • Cultural Uniformism
  • Enshitification
  • Cultural Downfall
  • Cultural Uniformism
  • Enshitification

Why Does Everything On Netflix Look Like That?

Even if you don’t know what to look for, you’ll probably be able to guess if something was created for Netflix just based on a few frames.

Against all odds, Netflix’s adaptation of The Sandman is a very good show. But why does it look like that?

You know what I’m talking about—the so-called “Netflix Look.” Netflix’s in-house produced television shows and movies tend to all have the same look and feel, to the point that it’s sometimes really distracting. Although it’s hard to pinpoint what exactly makes all Netflix shows look the same, a few things stand out: The image in general is dark, and the colors are extremely saturated; Especially in scenes at night, there tends to be a lot of colored lighting, making everything look like it’s washed in neon even if the characters are inside; Actors look like the makeup is caked on their faces, and details in their costumes like puckering seams are unusually visible; Most annoying to me, everything is also shot in an extremely conventional way, using the most conventional set ups to indicate mystery or intrigue as possible—to indicate that something weird is going on the framing always has a dutch angle, for example—or more often just having everyone shot in a medium close up.

Much like you can instantly recognize a Syfy channel production by its heavy reliance on greenscreen but not as expensive computer-generated special effects, or a Hallmark movie by it’s bright, fluffy, pastel look, Netflix productions also have recognizable aesthetics. Even if you don’t know what to look for, it’s so distinct that you’ll probably be able to guess whether or not something was created for Netflix just based on a few frames.

The Sandman, despite having great writing and great acting, suffers from these aspects of the Netflix look. Although the main character’s domain is the world of dreams, often in the show dramatic moments are reduced to scenes of characters talking in a medium close up. Fans of the show have also gotten frustrated by the show’s aspect ratio, which makes the frames look like they’ve been stretched upward. Tom Sturridge’s face looks especially made up as Dream—his lips are so red they’re almost distracting. Worst of all are the muddy colors, especially because the comic that The Sandman is adapting had such an exuberant color palette.

J. D. Connor, an associate professor in Cinema and Media Studies at USC, told Motherboard that the reasons for the Netflix look are varied, but one important reason is that Netflix requests some basic technical specifications from all its productions, which include things like what cameras to use, Netflix’s minimum requirements for the resolution of the image, and what percentage of the production can use a non-approved camera.

“It started as a big topic in the cinematographer community,” Connor told Motherboard in a phone call. “Netflix had an accepted camera list for its Netflix branded products. The initial list, while there were ostensibly open parameters for what cameras might qualify, there really were only like two. And yes, you can do a ton within those parameters. But it meant that this was one way that the uniformity emerged, was through their real insistence on that.”

Netflix’s list of approved cameras on their Partner Help Center website now has a lot more cameras than just two. The company explained in a video why it has a list of approved cameras, with Netflix camera systems specialist Krys Pyrgrocki saying, unhelpfully, “One of the biggest priorities for us as a studio is helping our filmmakers do their very best work. We want our filmmakers to not just feel enabled, but also encouraged to use the latest and greatest capture technologies out there to tell their stories.”

Connor says that these cameras are important to Netflix products beyond just wanting creators to use new technology.

“The other thing that really drove a lot of this was, they did what they call future proofing their content. They wanted it all to be shot in 4K HDR, ” he said.

It isn’t a totally unreasonable idea to want to make sure Netflix content still looks good when 4K televisions become more common, but it does limit your options as a filmmaker in terms of what technology you can actually use. 4K video files are also extremely large, and when compressed through streaming, that compression changes how the image looks to the streamer. It’s also important to note that Netflix, which chargers customers more for the full 4K experience (a basic subscription costs $9.99 a month while the Premium “Ultra HD (4K)” subscription costs $19.99 a month), also has a financial incentive to increase the amount of 4K content in its catalog.

“When it gets compressed, and jams through the cable pipe, or the fiber to get to your television, Netflix takes as much information out of that as they can through compression in order to reduce the amount of data that's going through, so you have a smoother streaming experience,” he said. “One of the weird things that happens when you have a very high resolution image, in general, when you shrink the amount of information the edges get sharper.”

Connor said to think about it in terms of movies from the 70s, whose visual effects look great on a huge screen, because the film grain blurs some of the details, but much worse on a smaller television.

“But when you take a movie like the original Superman or something and put it on television, all the edges get really sharp, all the blue screen looks really hacky,” he said. ”Something quite similar happens when you take a big 4K image and you jam it through a massively compressed amount of data to put it on TV.”

All of this helps to explain why the Netflix productions look uncanny. But some of the unpolished details are due to a more mundane issue: money.

Connor described the budgets on Netflix projects as being high, but in an illusory way. This is because in the age of streaming, “above the line” talent like big name actors or directors get more of the budget that’s allotted to Netflix projects because they won’t get any backend compensation from the profits of the film or television show.

“They're over compensated at the beginning,” Connor said. “That means that all of your above the line talent now costs, on day one that the series drops, 130 percent of what it costs somewhere else. So your overall budget looks much higher, but in fact, what's happened is to try to save all that money, you pull it out of things like design and location.”

“So the pandemic hurts, the technology of capture and then post production standardization hurts, the budget point squeezes all the design side stuff, and that hurts,” Connor continued.

Connor pointed out that there are many projects on streaming services that skimp on things like production design, and that some of this is due to ongoing impacts from the pandemic. But it can be particularly noticeable in Netflix productions because it happens so often.

“Red Notice to me is like the pinnacle of this sort of thing I’m talking about. It cost a fortune because they had to pay the stars a ton. It was shot in the pandemic, so they're cutting around absences in ways that are at times very, very funny,” Connor continued. “And the whole thing just looks when I watched it on my TV, and I have a fairly good TV, I thought it looked just horrible, beginning to end. A sort of brutal experience.”

That’s not to say that the Netflix look is always bad. There are a lot of kinds of projects that Netflix makes, ranging from the prestige work of Martin Scorsese to schmaltzy young adult fare like The Kissing Booth. When you’re making a young adult romance story, the Netflix look doesn’t feel totally out of place. In fact, it’s not too far off from what shows produced for the CW, like Riverdale, already look like. When you’re watching The Sandman, which is based on a beloved and very experimental comic, it comes off as totally incongruous with the story that they’re trying to tell. The technical specifications that Netflix enforces on its productions wouldn’t feel so out of place in a different genre of story.

“It all, kind of, totally works with the Adam Sandler comedies,” Connor said. “The budget point is fine, because Adam Sandler gets all the money, and like, the things just look fine. Nobody is making really theatrical comedies anymore, that whole market segment is just vaporized. And you know, I kind of want to live in a world where there's a Hubie Halloween rolling out in mid October and my theaters but like, barring that…”

Television and movies also, generally speaking, don’t have to look like that. Connor repeatedly mentioned Tokyo Vice as an example of a show with particularly rich production design, and other works on HBO, like the drama Station Eleven and the comedy Rap Shit, also put a great deal of time and care into their visual presentation. Shows like The Bear on Hulu, nominally a comedy, is extremely considered in how it frames its characters, and builds out its kitchen set with a lot of personal details. As streaming television, these shows will also always suffer from what happens to images when they’re compressed—but these shows are also shot in ways where that’s not as noticeable to the streamer on the other side.

Permalink
June 20, 2023 at 4:20:08 PM GMT+2

The contagious visual blandness of Netflixhttps://haleynahman.substack.com/p/132-the-contagious-visual-blandness

  • Enshitification
  • Mass Consumption
  • Cultural Uniformism
  • Cultural Downfall
  • Enshitification
  • Mass Consumption
  • Cultural Uniformism
  • Cultural Downfall

The contagious visual blandness of Netflix

Last week I saw M3GAN, the new horror-comedy starring Allison Williams and a robot-doll in a blond wig. I liked it enough. The doll character is genuinely well-done—a seemingly hard-to-nail mix of creepy and campy—but I walked out of the theater with a vaguely empty feeling. I couldn’t quite place it until I started talking with my friends about where the movie was set, and I realized I had no idea. One answer is somewhere in Silicon Valley, given its bald critique of big tech. It didn’t actually feel like Silicon Valley, though. It didn’t feel like anywhere at all. (Update: I’ve been informed it’s set in Seattle, although it didn’t feel like there either.) Every backdrop was generic and crisp: the scrubbed tech-compound where Gemma (Allison Williams) works; the bland, Wayfair-decorated house she lives in; the clean, non-specific streets she drives on. I thought little of this while watching. The movie looked expensive and professional, or at least had the hallmarks of those things: glossy, filtered, smooth. Only after it ended did it occur to me that it seemed, like so many other contemporary movies and shows, to exist in a phony parallel universe we’ve come to accept as relevant to our own.

To be clear, this isn’t about whether the movie was “realistic.” Movies with absurd, surreal, or fantastical plots can still communicate something honest and true. It’s actually, specifically, about how movies these days look. That is, more flat, more fake, over-saturated, or else over-filtered, like an Instagram photo in 2012, but rendered in commercial-like high-def. This applies to prestige television, too. There are more green screens and sound stages, more CGI, more fixing-it-in-post. As these production tools have gotten slicker and cheaper and thus more widely abused, it’s not that everything looks obviously shitty or too good to feel true, it’s actually that most things look mid in the exact same way. The ubiquity of the look is making it harder to spot, and the overall result is weightless and uncanny. An endless stream of glossy vehicles that are easy to watch and easier to forget. I call it the “Netflix shine,” inspired by one of the worst offenders, although some reading on the topic revealed others call it (more boringly) the “Netflix look.”

In a 2022 Vice piece called “Why Does Everything on Netflix Look Like That,” writer Gita Jackson describes the Netflix look as unusually bright and colorful, or too dark, the characters lit inexplicably by neon lights, everything shot at a medium close-up. Jackson discovered this aesthetic monotony is in part due to the fact that Netflix requires the same “technical specifications from all its productions.” This is of course an economic choice: more consistency = less risk. They’ve also structured their budgets to favor pre-production costs like securing top talent. So despite the fact that their budgets are high, they’re spending it all on what is essentially marketing, pulling resources away from things like design and location. This style-over-substance approach is felt in most things Netflix makes, and it’s being replicated across the industry. (For more proof of concept, Rachel Syme’s recent New Yorker profile of Netflix Global Head of Television Bela Bajaria is perfectly tuned and genuinely chilling. I’m still thinking about her “Art is Truth” blazer and lack of jet lag despite constant world travel. She’s a walking metaphor.)

I’m not a film buff, so I write this from a layman’s perspective. But every time I watch something made before 2000, it looks so beautiful to me—not otherworldly or majestic, but beautiful in the way the world around me is beautiful. And I don’t think I’m just being nostalgic. Consider these two popular rom-com movies stills: The first from When Harry Met Sally, shot on film in 1989, the second from Moonshot, shot digitally in 2022.

The latter is more polished and “perfect,” but to what effect? It looks strange, surreal, both dim and bright at the same time. Everything is inexplicably blue or yellow, and glows like it’s been FaceTuned. Meg Ryan and Billy Crystal, meanwhile, are sitting in a downtown New York deli that actually exists. The image is a little grainy, the lighting falling somewhere in the normal daytime range, and they look like regular human beings. The table’s lopsided, the kitchen’s bent out of shape—the charm is earned. Today the restaurant might be built on a sound stage, or shot in front of a green screen, the appearance of daylight added in post-production. They could make it look convincing and moody, but it would lack character. It would feel somehow outside the world we inhabit every day, because it would be.

At the risk of using an anonymous Redditor as an expert, lol, I found a comment under a thread called “Why do movies look so weird now?” that captures a lot of these same complaints:

“Everyone is lit perfectly and filmed digitally on raw and tweaked to perfection. It makes everything have a fake feeling to it. Commercials use the same cameras and color correction so everything looks the same. Every shot looks like it could be used in a stock photo and it looks completely soulless. No film grain, no shadows on faces, and no wide shots. I have a theory that going from tungsten to LED lighting added to this as well. Tungsten allows for more accurate color in camera but LEDs are cheaper, cooler, and more convenient. So the solution is to film on a nice digital camera and fix the color in post. However, this makes for less creativity on set and less use of shadows. Green screens make it worse as they also require flatter lighting to work. Marvel films are very obviously mostly made in post and they all look very flat and not real. Even shitty low-budget 90's comedies look better and I think this can be attributed to the lighting.”

Another user mentioned that shooting on film required a level of forethought, planning, and patience that digital simply doesn’t. Similar to the predicament brought on by smartphone cameras and our now-endless photo rolls, the result is more, sure, and at higher fidelity, but not necessarily better. A photo today has never been worth less. I’ve long believed that constraints can improve creative work. But today’s shrinking production budgets, paired with the limitlessness of computer technology, aren’t inspiring scrappiness. They’re inspiring laziness. It’s too easy to fix things in post. Why wait around all day for the light to be just right when you can make it look half as good in Final Cut Pro for half the price? There’s an expansive possibility to digitization that defies the logic of constraint.

That the film and TV industry is obsessed with making as much money as possible isn’t a surprise. But as with any cost-cutting strategy, the approach is necessarily an expression of priorities. What’s worth the trouble? What isn’t? Looking at what studios are and aren’t willing to spend on today paints a pretty unflattering (if predictable) picture of modern values. And what’s interesting is how recognizable those values are across other pillars of culture. To name a few: the idea that imperfection is inhibitive to beauty; an over-emphasis on growth, speed, ease, and innovation; a cynical over-reliance on marketing; a lack of interest in locality and place; the funneling of resources to the top; the focus on content over form, entertainment over art. I could be talking about anything here—the beauty and cosmetics industry, tech, corporate America, manufacturing, social media, politics, labor disputes.

I’m not saying the proliferation of shitty-looking shows and movies will bring about our cultural downfall, only that they express, in a satisfyingly literal way, a specific wrong-think that’s pervading our off-screen lives, too. Most usefully, their hollowness offers, by way of counter-example, a key to what does feel meaningful: texture, substance, imperfection, slowing down, taking the scenic route, natural light, places you can touch, making more considered creative choices, making less. There’s a certain momentum to the mid right now, but there are other ways forward, if we’re willing to indulge them.

Permalink
June 20, 2023 at 4:08:24 PM GMT+2

Éducation. Un an d’IA à l’université, un an de chaos et de confusionhttps://www.courrierinternational.com/article/education-un-an-d-ia-a-l-universite-un-an-de-chaos-et-de-confusion

  • Artificial intelligence
  • Education
  • Societal Collapse
  • Artificial intelligence
  • Education
  • Societal Collapse

Éducation. Un an d’IA à l’université, un an de chaos et de confusion

Vu des campus, il est à peu près impossible de distinguer les usages légitimes de l’intelligence artificielle et ses utilisations frauduleuses. Le concepteur de jeux vidéo et universitaire Ian Bogost en fait le constat pour le magazine américain “The Atlantic” : plus personne ne sait ce qu’est la pédagogie à l’ère des IA génératives.

“Cent pour cent intelligence artificielle” (IA). Voilà la conclusion du logiciel concernant la copie d’un étudiant. Un enseignant du cursus que je dirige [en cinéma, médias et ingénierie à l’université Washington, à Saint-Louis] est tombé sur ce résultat et m’a demandé quoi faire. Un deuxième a fait remonter le même constat – 100 % IA – pour un autre devoir du même étudiant, et s’est demandé : “Qu’est-ce que ça veut dire ?” Je n’en savais rien. Je ne sais toujours pas.

La question en appelle quantité d’autres : peut-on être certain qu’un étudiant a eu recours à une IA ? Que signifie au juste “utiliser une IA” pour composer un texte ? À partir de quel niveau cela relève-t-il de la tricherie ? Sans compter que le logiciel qui avait incriminé l’étudiant n’est pas exempt d’interrogations de notre part : Canvas, notre plateforme pour l’enseignement, fonctionne avec Turnitin, un programme bien connu de détection du plagiat qui vient d’intégrer un nouvel algorithme d’identification de l’IA. Les accusations de tricherie émanent donc elles-mêmes d’un assemblage de boîtes noires de technologies pour l’éducation.

Voilà à quoi ressemble la fin de cette première année universitaire de l’ère ChatGPT : un maelstrom d’incriminations et de confusion. Ces dernières semaines, j’ai discuté avec des dizaines de professeurs et d’étudiants aujourd’hui confrontés à un déferlement de “tricheries à l’IA”. Leurs récits m’ont laissé pantois. Vu des campus, tout semble indiquer qu’il est à peu près impossible de différencier les usages légitimes de l’IA de ses utilisations frauduleuses, ou d’identifier les tricheurs.

L’aide aux devoirs dans les choux

Il fut un temps où les étudiants se passaient des copies de devoir ou d’examen. Puis, avec Internet, ils ont commencé à sous-traiter leurs exercices. Plusieurs services en ligne ont commercialisé ces prestations. Aujourd’hui, des élèves peuvent acheter des réponses auprès d’un site d’“aide aux devoirs” comme Chegg – une pratique qu’ils appellent “chegging”. L’arrivée à l’automne dernier des chatbots dopés à l’IA a ringardisé ces méthodes de tricherie. “Nous pensons que [ChatGPT] affecte notre taux de croissance”, a reconnu le PDG de Chegg au début de mai. L’entreprise a depuis perdu près de 1 milliard de dollars de sa valeur sur le marché.

Ce bouleversement pourrait toutefois être une aubaine pour d’autres sociétés. En 2018, Turnitin engrangeait déjà plus de 100 millions de dollars de recettes annuelles en aidant les professeurs à détecter la tricherie. Son logiciel, intégré à la plateforme sur laquelle les étudiants soumettent leurs devoirs, compare chaque copie avec une base de données (comprenant les devoirs d’autres étudiants déjà transmis à Turnitin) et signale les éventuels copieurs. Turnitin, qui revendique plus de 15 000 institutions et établissements utilisateurs dans le monde, a été racheté en 2019 pour 1,75 milliard de dollars [1,63 milliard d’euros]. Le mois dernier, il a intégré un module de détection d’IA à son logiciel. Les mesures pour contrer l’IA se mettent en place – avec le concours d’autres IA.

Alors que s’achève le premier semestre des chatbots, le nouveau logiciel de Turnitin signale un déluge de tricheries : cette copie a été “rédigée à 18 % par une IA”, celle-là est “100 % IA”. Mais que signifient réellement ces chiffres ? Aussi étrange – et même stupéfiant – que cela puisse paraître, on ne sait pas vraiment. Dans tous les cas de devoirs “100 % IA” qui m’ont été signalés, les étudiants affirment ne pas avoir laissé ChatGPT ou toute autre IA rédiger la totalité de leur travail.

98 % de certitude

Turnitin soutient pourtant que ce signalement signifie effectivement que 100 % du document – c’est-à-dire chacune des phrases qui le composent – a été généré par un programme informatique. Avec un degré de certitude de 98 %. Une porte-parole de l’entreprise reconnaît par e-mail que “les textes rédigés avec des programmes utilisant des algorithmes ou d’autres outils informatiques”, notamment des correcteurs de syntaxe et des traducteurs automatiques, peuvent être signalés à tort comme frauduleux. De même que certains écrits “authentiques” peuvent ressembler à s’y méprendre à des contenus générés par des IA. “Certaines personnes écrivent juste de manière très prévisible”, précise-t-elle. Le logiciel tient-il compte de toutes ces limites quand il annonce 98 % de certitude ?

Mais peut-être n’est-ce pas là le problème, car Turnitin décline toute responsabilité quant aux conclusions tirées de ses signalements. “Nous ne donnons qu’un chiffre censé aider l’enseignant à déterminer si une copie nécessite un examen plus approfondi ou une discussion avec l’élève”, précise la porte-parole.

“L’enseignement reste une activité fondamentalement humaine.”

L’entreprise propose donc un guide pour aider les humains à gérer le risque “minime” de faux positifs. Et, évidemment, elle recommande l’utilisation d’autres services de Turnitin.

Autrement dit, l’étudiant de mon cursus dont les copies ont été signalées “100 % IA” a utilisé un peu d’IA, beaucoup d’IA ou peut-être une dose intermédiaire. Mais pour ce qui est des questions sous-jacentes – de quelle manière l’étudiant a-t-il eu recours à l’IA ? et a-t-il eu tort de le faire ? – nous, enseignants, sommes comme toujours livrés à nous-mêmes.

Certains étudiants s’appuient probablement à 100 % sur une IA pour faire tout le travail sans avoir à fournir le moindre effort. Mais bon nombre utilisent ChatGPT ou autres outils du même tonneau pour générer des idées, recevoir une aide lorsqu’ils se sentent coincés, reformuler des paragraphes délicats ou corriger la syntaxe.

Aux examens, “tout sauf l’IA”

Où se situe la limite ? Matthew Boedy, professeur d’anglais à l’université de Géorgie du Nord, m’a parlé d’un étudiant tellement désinvesti qu’il lui arrivait d’assister aux cours en pyjama. Lorsque, au printemps, ce dernier lui a remis une dissertation particulièrement bien ficelée, Matthew Boedy a soupçonné qu’un chatbot était en jeu, ce que l’outil de vérification d’OpenAI [l’entreprise derrière ChatGPT] a confirmé. Interrogé, l’étudiant a admis qu’il ne savait pas par où commencer et avait donc demandé à ChatGPT de rédiger une introduction puis de lui recommander des sources. En l’absence d’une charte établie sur la tricherie à l’IA, Boedy a parlé du sujet de la dissertation avec l’étudiant et lui a attribué une note sur la base de cette conversation.

Un étudiant en sciences informatiques à l’université Washington de Saint-Louis, où j’enseigne, a observé une évolution quelque peu paradoxale des consignes d’examen : au début de la pandémie, les étudiants pouvaient avoir leurs livres et leurs notes pendant l’épreuve, aujourd’hui on peut utiliser “n’importe quoi, sauf l’IA”. (Je ne divulgue par les noms des étudiants de sorte qu’ils parlent en toute franchise de leurs usages de l’IA.) Cet étudiant, qui est également professeur assistant, sait parfaitement que les machines peuvent faire à peu près tous les devoirs et exercices techniques de son cursus, et même certains travaux conceptuels. Mais tirer parti de ces technologies lui paraît “moins immoral que de payer pour Chegg ou ce genre de service”, m’explique-t-il. Un étudiant qui utilise un chatbot effectue un minimum de travail – et se prépare au monde de demain.

L’IA est si tentante

Un autre étudiant, en sciences politiques à l’université Pomona [en Californie], m’explique qu’il utilise l’IA pour tester ses idées. Pour un devoir sur le colonialisme au Moyen-Orient, il a formulé une thèse et demandé à ChatGPT ce qu’il en pensait. “Il m’a dit que j’avais tort, alors j’ai commencé à débattre avec lui, et ChatGPT m’a donné des contre-arguments sérieux, que j’ai ensuite pris en compte dans mon travail.” Cet étudiant se sert également du bot pour trouver des sources. “Je considère ChatGPT à la fois comme un collaborateur et comme un interlocuteur intéressé”, résume-t-il.

Son usage de l’IA semble à la fois malin et parfaitement honnête. Sauf que s’il emprunte un peu trop de réponses à l’IA, Turnitin risque de signaler son travail comme frauduleux. Un enseignant n’a pas les moyens de savoir si ses étudiants ont fait un usage nuancé de la technologie ou si leurs devoirs sont une pure escroquerie. Pas de problème, me direz-vous, il suffit de développer une relation de confiance mutuelle et d’aborder le sujet ouvertement avec eux. Cela ressemble à une bonne idée, mais l’IA risque fort de faire apparaître des divergences d’intérêt entre enseignants et étudiants. “L’IA est dangereuse parce qu’elle est extrêmement tentante”, résume Dennis Jerz, professeur à l’université Seton Hill, à Greensburg, en Pennsylvanie. Pour les étudiants qui ne sont pas investis dans leurs études, les résultats n’ont même pas à être bons, il suffit qu’ils soient passables, et rapides à obtenir.

“L’IA facilite surtout la production de travail médiocre.”

Du côté des enseignants, on redoute déjà de voir les étudiants remettre en question l’intérêt même de faire des devoirs. De fait, leur travail n’en devient que plus difficile. “C’est tellement démoralisant, confirme un professeur d’anglais installé en Floride. En septembre dernier, j’adorais mon travail, en avril, j’ai décidé d’arrêter complètement.” Les devoirs qu’il proposait étaient tout ce qu’il y a de plus classique : dissertation, bibliographie, exposé, essai. De son point de vue, l’IA a ouvert une bataille entre étudiants et professeurs où l’absurde le dispute à l’inutile. “Avec des outils comme ChatGPT, les étudiants pensent qu’ils n’ont plus aucune raison de développer des compétences”, résume l’enseignant. Et tandis que certains de ses étudiants reconnaissent se servir de ChatGPT pour faire leurs devoirs – l’un d’eux a même admis s’en servir systématiquement –, lui se demande pourquoi il perd son temps à noter des textes rédigés par une machine que ses étudiants n’ont peut-être même pas pris la peine de lire. La sensation d’inutilité mine sa pédagogie.

“Je suis effondré. J’adore enseigner et j’ai toujours aimé être en classe, mais avec ChatGPT plus rien n’a de sens.”

Le sentiment de perte qu’il décrit est trop profond et existentiel pour être compensé par une quelconque forme d’intégrité académique. Il témoigne de la fin d’une relation particulière – certes déjà sur le déclin – entre élèves et professeurs. “L’IA a déjà tellement bouleversé notre manière d’être en classe que je ne m’y retrouve plus”, dit-il. À l’en croire, l’IA marque moins le début d’une ère nouvelle qu’elle n’est le coup de grâce porté à un métier déjà à genoux en raison des coupes budgétaires, des violences par arme à feu, de l’interventionnisme d’État, du déclin économique, de la course aux diplômes et tout le reste. Cette nouvelle technologie déferle sur un secteur gravement fragilisé et semble transformer l’école en un lieu absurde où l’enseignement n’est plus qu’un rouage dans une grande machine.

Retrouver l’humain

On répète à l’envi que l’IA va obliger les enseignants à s’adapter. Athena Aktipis, professeure en psychologie à l’université d’État de l’Arizona, y a effectivement vu l’occasion de restructurer son enseignement pour laisser la part belle au débat et aux projets définis par les étudiants eux-mêmes. “Les élèves me disent qu’ils se sentent plus humains dans ce cours que dans n’importe quel autre”, explique-t-elle.

Reste que pour de nombreux étudiants l’université n’est pas seulement le lieu où rédiger des travaux, et la possibilité de prendre parfois la tangente offre une autre manière de se sentir humain. L’étudiant au devoir “100 % IA” a reconnu avoir passé son texte au correcteur de syntaxe et demandé à ChatGPT d’améliorer certains passages. Il semblait avoir fait passer l’efficacité avant la qualité. “Parfois, j’ai envie d’aller faire du basket, parfois, j’ai envie de faire de la musculation”, répond-il alors que je lui demande de partager ses impressions sur l’IA pour cet article. Cela peut sembler choquant : on va à l’université pour apprendre, et cela implique de faire des devoirs ! Sauf qu’un mélange de facteurs de stress, de coûts et autres causes extérieures ont créé une vaste crise de la santé mentale sur les campus. Et pour cet étudiant, l’IA est un des rares moyens de réduire ce stress.

Cela vaut également pour les professeurs. Eux aussi peuvent être tentés d’utiliser les chatbots pour se simplifier la vie ou les dispenser de certaines tâches qui les détournent de leurs objectifs. Reste que la plupart s’inquiètent de voir leurs étudiants finir en dindons de la farce – et fulminent d’être pris entre deux feux. Selon Julian Hanna, enseignant en culture à l’université de Tilbourg, aux Pays-Bas, les étudiants qui utilisent l’IA de manière sophistiquée sont ceux qui en tireront le plus de bénéfices – mais ce sont aussi ceux qui avaient déjà le plus de chances de réussir, tandis que les autres risquent d’être encore plus désavantagés. “Je pense que les meilleurs élèves n’en ont pas besoin ou craignent d’être repérés – ou les deux.” Les autres risquent d’apprendre moins qu’avant. Autre facteur à prendre en considération : les étudiants dont l’anglais n’est pas la langue maternelle sont plus susceptibles d’utiliser des correcteurs de syntaxe ou de demander à ChatGPT de reformuler leurs textes. Le cas échéant, ils seront aussi surreprésentés parmi les tricheurs présumés.

Quoi qu’il en soit, la course aux armements ne fait que commencer. Les étudiants seront tentés d’abuser de ChatGPT, et les universités tenteront de les en empêcher. Les professeurs pourront accepter certains recours à l’IA et en interdire d’autres, mais leurs choix seront influencés par le logiciel qu’on leur donnera.

Les universités aussi peineront à s’adapter. La plupart des théories sur l’intégrité académique reposent sur la reconnaissance du travail des personnes, non des machines. Il va falloir mettre à jour le code d’honneur de la vieille école, et les examinateurs chargés d’enquêter sur les copies suspectes devront se pencher sur les mystères des “preuves” logicielles de détection des IA. Et puis, tout changera à nouveau. Le temps de mettre au point un nouveau mode de fonctionnement, la technologie, aussi bien que les pratiques, aura probablement évolué. Pour rappel : ChatGPT n’est là que depuis six mois.

Ian Bogost Lire l’article original "AI ‘Cheating’ Is More Bewildering Than Professors Imagined - The Atlantic"

Permalink
June 20, 2023 at 11:22:01 AM GMT+2

EDF ou l’histoire d’une débâcle françaisehttps://www.lemonde.fr/economie/article/2022/09/29/edf-ou-l-histoire-d-un-naufrage-francais_6143752_3234.html

  • Energy
  • Economy and markets
  • Politics
  • Energy
  • Economy and markets
  • Politics

EDF ou l’histoire d’une débâcle française

Par Isabelle Chaperon Publié hier à 20h10, mis à jour à 10h52 Temps de Lecture 8 min.

Incertitudes politiques et difficultés technologiques ont contribué à la débâcle industrielle que connaît l’énergéticien français. Luc Rémont, qui succédera prochainement à Jean-Bernard Lévy à la tête de l’opérateur historique, est prévenu.

Le réveil est brutal. Les ménages français vivaient dans la douce illusion que l’électricité bon marché produite par les centrales nucléaires d’EDF les protégerait des turbulences provoquées par la guerre en Ukraine sur l’approvisionnement en énergie. C’était même l’occasion de montrer la supériorité du modèle français, fondé sur la souveraineté nationale, par opposition à nos voisins allemands, qui avaient tout misé sur le gaz russe. Mais rien ne s’est passé comme prévu.

L’arrêt de 26 réacteurs nucléaires sur 56 dans le parc d’EDF rend la France vulnérable aux pénuries de courant et place l’opérateur au cœur des critiques. L’une des premières missions du futur patron de l’opérateur, Luc Rémont, choisi par l’Elysée jeudi 29 septembre, sera de relancer la production. En 2005, année de son entrée en Bourse, EDF produisait environ 430 térawattheures d’électricité (TWh) d’origine nucléaire ; en 2022, il table sur 280 à 300 TWh. Ce camouflet industriel s’ajoute aux déboires essuyés par la filière nucléaire française pour construire de nouvelles centrales de troisième génération (EPR).

Qui blâmer ? Les dirigeants d’EDF ou ceux d’Areva – le frère ennemi défaillant –, l’exécutif, les écologistes, ou Bruxelles et son libéralisme échevelé ? Communistes et Républicains réclament l’ouverture d’une commission d’enquête parlementaire sur le nucléaire pour faire la lumière sur ce désastre. Alors qu’il suffit d’avoir lu Agatha Christie : « EDF, c’est Le Crime de l’Orient-Express. Tout le monde est coupable », tranche un ancien de Bercy qui a souhaité rester anonyme, comme la plupart des grands témoins sollicités.

Les monnayages des écologistes

Pour Olivier Marleix, président du groupe Les Républicains à l’Assemblée nationale, le grand coupable, c’est François Hollande, qui a promis, en vue de son élection à la présidence de la République, en 2012, de réduire la part du nucléaire dans la production d’électricité de 75 % à 50 % à l’horizon 2025. « Nous avons une technologie en or, qui nous assurait une énergie propre et bon marché, nous l’avons sacrifiée au nom d’un accord électoral Parti socialiste [PS]-Les Verts en 2011 : l’échange de quinze circonscriptions législatives contre la fermeture de vingt-quatre réacteurs nucléaires », a attaqué M. Marleix, dans un entretien au quotidien Le Figaro, parue le 5 septembre.

Partout en Europe, depuis la fin du XXe siècle, les écologistes ont monnayé leur participation à des coalitions en échange d’une sortie du nucléaire : ce fut le cas en Allemagne en 1998, ou en Belgique en 2003. En 1997, déjà, le premier ministre (PS), Lionel Jospin, avait sacrifié le surgénérateur Superphénix sur l’autel d’un accord PS-Les Verts. En France, les Verts ont freiné le développement du « nouveau nucléaire » avec d’autant plus d’efficacité que la politique énergétique fut longtemps confiée au ministère de l’environnement.

Conséquence, en 2006, lorsque le premier béton est coulé à l’EPR de Flamanville (Manche), il s’agissait du premier réacteur mis en chantier en France depuis seize ans. « Le nucléaire est probablement la seule activité économique dont l’avenir est largement déterminé par l’opinion publique », professait François Roussely, l’ancien patron d’EDF. En mars 2011, un an avant l’élection présidentielle de 2012, l’accident nucléaire de Fukushima, au Japon, fait basculer la perception de l’atome dans le monde.

La construction d’un second EPR à Penly (Seine-Maritime), annoncée par le président Nicolas Sarkozy en 2009, est alors repoussée sine die. Et M. Hollande s’attaque au parc installé (et vieillissant). En 2018, le président de la République, Emmanuel Macron, confirme la mise à l’arrêt de la centrale de Fessenheim (Haut-Rhin), promise par son prédécesseur, s’engageant à mettre sous cloche quatorze réacteurs dans l’Hexagone, avant son revirement à l’issue de son premier mandat. Lors du discours de Belfort, en février 2022, il promet au contraire la construction de six nouveaux réacteurs.

Une « équipe de France » qui vit mal

Autant dire que l’actuel locataire de l’Elysée a pu se sentir visé par la pique de Jean-Bernard Lévy, désormais ex-patron d’EDF, qui a lâché lors d’une table ronde à l’université du Medef, le 29 août, à Paris : « On a fermé deux [réacteurs]. (…) On nous a dit “préparez-vous à fermer les douze suivants”. (…) On n’a pas embauché des gens pour en construire d’autres, on a embauché des gens pour en fermer. » Un discours « inacceptable » et « faux », a tancé Emmanuel Macron, le 5 septembre, car, selon le président, EDF devait, dans tous les cas de figure, assurer la maintenance de ses installations…

Le salut, faute de programmes en France, aurait dû passer par l’export. Las, ce fut un désastre. Symbole de cet échec collectif, l’appel d’offres d’Abou Dhabi. Quand l’émirat décide, en 2008, de bâtir quatre réacteurs, la France part favorite. Un consortium regroupant Areva, Total et Engie (alors GDF Suez) se lance à l’assaut du « contrat du siècle ». EDF rejoint in fine « l’équipe de France du nucléaire » à la demande pressante de l’Elysée, qui pilote l’affaire, tant elle est jugée stratégique. Mais le groupe vit mal. Anne Lauvergeon, dirigeante d’Areva, et Gérard Mestrallet, PDG de GDF Suez, ne sont-ils pas les ennemis jurés du nouveau PDG d’EDF, Henri Proglio ?

Abou Dhabi choisira finalement, fin 2009, un consortium coréen. L’EPR français, nettement plus cher, pâtit des déboires rencontrés par Areva en Finlande. En décembre 2003, le groupe dirigé par « Atomic Anne », associé à l’allemand Siemens, a été retenu pour construire une centrale nucléaire « clé en main » de type EPR à Olkiluoto, dans l’ouest de la Finlande. Une folie. Areva n’a ni les plans ni les compétences. EDF ricane et réplique en lançant, en 2006, le projet de Flamanville 3 : nouvelle folie, l’électricien n’est guère plus prêt…

« Cette course entre les deux entreprises françaises a conduit au lancement précipité des chantiers de construction de ces deux premiers EPR, sur la base de références techniques erronées et d’études détaillées insuffisantes », assène la Cour des comptes, dans un rapport au vitriol, publié en juin 2020. L’institution accuse « les administrations concernées » de ne pas avoir joué leur rôle de vigie. En particulier, l’Etat actionnaire, qui détenait plus de 87 % d’EDF et d’Areva, a laissé prospérer entre les deux maisons une relation qualifiée de « pathologique » par les observateurs.

L’EPR, un enfant mal né

Cette bride laissée trop lâche a coûté cher. Le réacteur d’Olkiluoto 3 a produit ses premiers mégawattheures (MWh) en mars 2022, avec douze ans de retard par rapport aux objectifs initiaux. Son coût est estimé à près de 9 milliards d’euros, soit trois fois le montant prévu. L’Etat a dû restructurer Areva avant d’y injecter 4,5 milliards d’euros en 2017. Comme si le contribuable français payait pour l’électricité des Finlandais. Va-t-il également financer celle des Britanniques ? C’est la crainte qui a poussé Thomas Piquemal, alors directeur financier d’EDF, à démissionner en mars 2016.

Le dirigeant estimait déraisonnable que l’électricien prenne à sa charge autant de risques liés à la construction de deux EPR pour la centrale d’Hinkley Point, dans le sud-ouest de l’Angleterre. « Qui investirait 70 % de son patrimoine sur une technologie dont nous ne savons toujours pas si elle fonctionne ? », a-t-il expliqué par la suite aux députés. Trois EPR tournent actuellement dans le monde, un en Finlande et deux en Chine. Le chargement du combustible à Flamanville 3 est planifié pour juin 2023 (contre une mise en service prévue au départ en 2012).

Selon le rapport de juin 2020 de la Cour des comptes, la facture globale du chantier (y compris les frais financiers) devrait atteindre 19 milliards d’euros (contre 3,2 milliards attendus). L’EPR est un enfant mal né. Ce fruit de la collaboration technologique entre Areva et Siemens, bénie par les politiques désireux de forger l’« Airbus du nucléaire », est passé sous les fourches Caudines des autorités de sûreté française et allemande, dont les exigences « ne convergeaient pas toujours », glisse une Cour des comptes amatrice de litote.

Cet « empilement d’ingénieries d’inspirations différentes », d’une effroyable complexité, n’a pas été remis en cause lorsque l’Allemagne s’est retirée du projet, en 1998. A ces difficultés initiales s’ajoute la défaillance des opérateurs, Areva – et sa filiale Framatome, reprise depuis par EDF – mais également l’électricien lui-même : le grand architecte ensemblier de la filière a perdu la main. Pour Jean-Martin Folz, l’ancien patron de PSA, chargé d’auditer la situation de Flamanville en octobre 2019, « les outils et les méthodes de management indispensables à la gestion d’un projet de cette envergure n’ont pas été mis en place au lancement de celui-ci ».

De l’absence d’un vrai chef de projet aux loupés des soudeurs, c’est la bérézina. Les concurrents, eux, critiquent « l’arrogance » du fleuron tricolore. « C’est la maladie du monopole, EDF n’accepte pas ce qui vient de l’extérieur, il est dans sa bulle », lâche l’un d’entre eux. De quoi expliquer en partie le climat délétère qui s’est installé avec l’Autorité de sûreté nucléaire (ASN). « EDF n’a informé l’ASN de l’existence d’un écart au référentiel d’exclusion de rupture pour les soudures de traversées qu’en 2017, alors que ces éléments étaient connus depuis octobre 2013 », dénonce la Cour des comptes.

Bruxelles contre les monopoles

Du côté du parc existant, enfin, la mauvaise surprise est venue d’un problème de « corrosion sous contrainte » détecté en décembre 2021 dans les circuits secondaires de la centrale de Civaux (Vienne). Cette rouille, « totalement inattendue pour tous les experts », a insisté M. Lévy lors d’une audition le 14 septembre à l’Assemblée nationale, a entraîné l’arrêt de quinze réacteurs, s’ajoutant aux dix en pause pour une maintenance classique. Plus un connaissant un « arrêt fortuit ».

« Nous faisons face à un cumul inattendu d’activités, qui mobilise des compétences pointues et rares, de tuyauteurs, soudeurs, robinetiers, chaudronniers…, a expliqué le PDG. Ce déficit de compétences affecte notre capacité à réparer au rythme que nous souhaiterions. » Sébastien Menesplier, secrétaire général de la puissante fédération CGT Mines-Energie, déplore que « 80 % de la maintenance [soit] sous-traitée. C’est beaucoup trop ». M. Menesplier reconnaît que l’électricien « s’est reposé sur ses lauriers », renvoie dos à dos les politiques « de gauche, de droite et du milieu », mais, surtout, il en veut à Bruxelles.

« La libéralisation est un échec. Elle a créé de la précarité et fait flamber les tarifs de l’électricité », martèle le syndicaliste, qui appelle à « enterrer les directives européennes encore plus profondément que des déchets nucléaires ». La Commission européenne, dont le dogme fondateur repose sur la protection des consommateurs, n’a eu de cesse de casser les monopoles, EDF en tête. A partir de 1996, elle a imposé aux Etats membres une ouverture progressive à la concurrence de la production, du transport et de la distribution d’électricité.

Ce cheminement a culminé dans la loi sur la nouvelle organisation du marché de l’électricité (NOME), votée en 2010, qui oblige l’électricien à vendre chaque année environ un quart de sa production électrique à des fournisseurs alternatifs au prix d’environ 42 euros du MWh. Ce mécanisme, appelé Accès régulé à l’électricité nucléaire historique (Arenh), devrait coûter 10 milliards d’euros au groupe en 2022. « Il est faux de dire que l’Arenh a été mis en place à la demande de Bruxelles. Il y avait d’autres solutions pour ouvrir le marché français à la concurrence », plaide Stéphane Sorin, fondateur du groupement d’achat Collectif Energie.

« Ce dispositif correspond à un choix politique des pouvoirs publics français, qui se sont toujours servis d’EDF pour protéger le consommateur et qui ne souhaitaient pas toucher au parc du groupe », poursuit-il. Le fournisseur historique, en effet, a refusé de vendre des capacités de production, comme Enel l’a fait en Italie par exemple, afin de faciliter l’entrée de concurrents sur le marché français. Bruxelles, en particulier, presse la France depuis des décennies de mettre en concurrence ses concessions de barrages hydroélectriques gérés par EDF : un bras de fer qui dure toujours…

Article publié dans la revue Le Monde par Isabelle Chaperon

Permalink
June 20, 2023 at 11:01:07 AM GMT+2

Électricité, la grande arnaquehttps://www.lepoint.fr/economie/electricite-la-grande-arnaque-15-09-2022-2490056_28.php

  • Energy
  • Economy and markets
  • Politics
  • Energy
  • Economy and markets
  • Politics

Électricité, la grande arnaque

Comment l’État laisse les fournisseurs privés d’électricité siphonner les ressources d’EDF, dans l’espoir de sauver une ouverture du marché de l’énergie.

Par Erwan Seznec et Géraldine Woessner (avec Clément Fayol)

Trente euros il y a deux ans, 200 euros en début d'année, près de 500 euros le mégawattheure (MWh) fin août : le marché européen de l'électricité paraît hors de contrôle, et rien ne laisse présager un retour rapide à la normale. En cause, une reprise post-Covid vigoureuse et la guerre en Ukraine, qui perturbe les approvisionnements en gaz russe. Deux facteurs aggravés, côté français, par une disponibilité historiquement faible du parc nucléaire.

Les Français réalisent-ils l'ampleur du problème ? Pas sûr. Leurs factures d'électricité au tarif réglementé ont augmenté de 4 % seulement depuis l'hiver dernier. Sans le bouclier tarifaire instauré par le gouvernement à l'automne 2021, elles auraient flambé de 35 %. Et, si le gouvernement a décidé de prolonger la digue en 2023, les finances publiques ne pourront pas soutenir longtemps un dispositif qui a d'ores et déjà coûté plus de 10,5 milliards d'euros…

Les fournisseurs alternatifs d'électricité, eux, ont parfaitement conscience de la gravité de la situation. Pesant environ 30 % du marché, ils se sont engagés à fournir à leurs clients des kilowattheures (kWh) à prix fixe, sur plusieurs mois, voire plusieurs années. Ceux qui ont vu venir l'envolée des prix se sont couverts, en achetant à l'avance, sur les marchés, des mégawattheures livrables cet hiver. Voilà pour les fourmis. Mais les fournisseurs cigales, eux, ont commencé à rendre l'âme. E.Leclerc Énergies a jeté l'éponge dès octobre 2021, suivi par Bulb ou Oui Energy. Hydroption a fait faillite. Ce courtier avait décroché des marchés de fourniture des villes de Paris, Rouen et de l'armée française ! La structure se résumait en fait à une dizaine de traders basés dans le Var, dépourvus de la moindre capacité de production… Quand les prix ont explosé, ils n'ont pas pu approvisionner leurs clients. Un cas loin d'être unique. À quelques exceptions près, comme TotalEnergies ou Engie, les « fournisseurs » alternatifs sont essentiellement des courtiers, non des industriels. Depuis l'ouverture du marché de l'énergie, la concurrence d'EDF affiche un bilan plus que décevant en termes de création de capacités productives. En 2021, le nucléaire historique représente toujours 67 % du mix électrique français, contre 78 % en 2007. Et si les alternatifs ont rongé les parts de marché d'EDF, l'entreprise historique assure toujours 85 % de la production d'électricité consommée dans le pays.

Nucléaire. Sa place est en effet incontournable lorsqu'on prend en considération la notion d'énergie pilotable, c'est-à-dire indépendante du vent et du soleil, capable d'assurer de manière planifiée l'indispensable équilibre entre l'offre et la demande sur le réseau, 7 jours/7 et 24 heures/24. Adieu, panneaux solaires et éoliennes. La France évite le black-out grâce à quelques grands barrages, à des turbines d'appoint au gaz mais, surtout, à son parc de 56 réacteurs nucléaires.

Autant dire qu'en théorie le champagne devrait couler à flots dans les bureaux d'EDF. L'opérateur historique sait à l'avance que les prix vont flamber les soirs d'hiver sans vent ni soleil, quand la demande sera maximale et les renouvelables à l'arrêt. Le nucléaire , lui, répondra présent alors que le mégawattheure s'envolera à 1 000 euros, voire davantage. De quoi renflouer les caisses de l'électricien, qui a accumulé 44 milliards d'euros de dettes au fil du temps. Sauf que…

Prix bradé. L'État en a décidé autrement lorsqu'il s'est avéré, quelques années après la libéralisation du marché, que les alternatifs n'arriveraient jamais à concurrencer le mégawattheure produit à faible coût et à la demande par un parc nucléaire quasi amorti. En 2010, la loi Nome (Nouvelle organisation du marché de l'électricité) instaure un nouveau mécanisme, nommé Accès régulé à l'électricité nucléaire historique (Arenh). Dans le but de rétablir l'équilibre avec de nouveaux entrants qui peinent à décoller, EDF est contrainte, par la loi, de partager la production de ses réacteurs avec eux. L'opérateur historique doit céder à ses concurrents un gros quart de sa production nucléaire -100 térawattheures (TWh) - à prix coûtant, très au-dessous des prix du marché : 42 euros le mégawattheure depuis 2012, peut-être revalorisé en 2023 à 49,50 euros. Pour répondre à la crise, en mars 2022, le gouvernement a décidé d'imposer à EDF un supplément d'Arenh de 20 TWh par an, au prix de 46,20 euros le mégawattheure.

En résumé, alors que le parc nucléaire d'EDF est ralenti par des problèmes de maintenance et de corrosion, l'entreprise doit céder à prix bradé 120 TWh à ses concurrents, soit plus d'un tiers de sa production. Et ce volume devrait encore augmenter : lors d'une audition au Sénat en juillet 2022, la ministre de la Transition énergétique, Agnès Pannier-Runacher, a confié réfléchir à porter l'Arenh à 135 TWh par an, pour limiter l'envolée des factures des clients des fournisseurs alternatifs. Une fuite en avant ?

Effets pervers. « La crise actuelle prouve à quel point le système était mal pensé au départ », soupire l'économiste Jacques Percebois, directeur du Centre de recherche en économie et droit de l'énergie (Creden). D'une part parce que l'Arenh se voulait un dispositif transitoire, qui doit d'ailleurs prendre fin en 2025 : « l'esprit du texte était de subventionner les petits fournisseurs pendant quelques années, afin qu'ils investissent et développent leur propre parc de production. Mais très peu l'ont fait », la majorité se contentant d'empocher les bénéfices, sans investir un euro. D'autre part parce que le système - par la magie d'une étrange règle de calcul - a récemment contribué… à faire augmenter les prix ! En effet, les fournisseurs alternatifs, sans moyen de production propre, doivent acheter, sur les marchés, l'électricité qu'ils revendent à leurs clients. Environ la moitié (et jusqu'à 75 %) de leurs achats viennent de l'Arenh, qu'ils obtiennent donc à un prix très avantageux. Mais le reste est acheté le plus souvent au prix fort sur le marché de gros. En bon gardien de la concurrence, la Commission de régulation de l'énergie (CRE) a, depuis 2015, pour principe d'augmenter le tarif réglementé en fonction des coûts, non seulement de l'opérateur historique, mais aussi des fournisseurs alternatifs : plus le volume d'Arenh qu'ils demandent est élevé, plus le tarif réglementé de l'électricité payée par les consommateurs augmente, afin de permettre aux alternatifs d'augmenter leurs prix tout en restant compétitifs, au moins en apparence. Un principe qui ulcère l'association de défense des consommateurs CLCV depuis des années.

Dernier effet pervers, et non des moindres : ce système laisse la porte grande ouverte à un certain nombre de dérives. « Certains fournisseurs ne répercutent pas le prix de l'Arenh dans les contrats de leurs clients. D'autres surestiment volontairement la consommation de leurs clients, afin d'obtenir davantage d'Arenh qu'ils n'en consommeront, et qu'ils pourront revendre au prix du marché », détaille Jacques Percebois. La CRE s'en est aperçue et peut infliger après coup des pénalités, « mais, quel que soit leur montant, ils auront gagné beaucoup d'argent ».

Depuis LePoint

Permalink
June 20, 2023 at 10:59:40 AM GMT+2

Hydrogène : comment l'Europe prépare un nouveau scandale climatiquehttps://www.lepoint.fr/environnement/hydrogene-comment-l-europe-prepare-un-nouveau-scandale-climatique-22-09-2022-2490935_1927.php

  • Societal Collapse
  • Climate change
  • Energy
  • Politics
  • Societal Collapse
  • Climate change
  • Energy
  • Politics

Hydrogène : comment l'Europe prépare un nouveau scandale climatique

Par Géraldine Woessner

Publié le 22/09/2022 à 10h23 - Modifié le 22/09/2022 à 13h51

Les eurodéputés ont adopté un amendement autorisant gaz et charbon dans la production d’hydrogène « vert ». De quoi ruiner les efforts de décarbonation.

est le problème des politiques publiques lorsqu'elles sont élaborées sur des bases mensongères, ou erronées : arrive fatalement un moment où leur poursuite produira un effet exactement inverse de celui recherché. Ainsi de l'hydrogène, présenté par quelques dirigeants européens comme LA solution miracle qui permettra de décarboner l'industrie et les transports, sans rien changer de nos modes de vie ni de nos procédés de production. Le 14 septembre, alors qu'ils planchaient sur une nouvelle version de la directive sur les énergies renouvelables, les eurodéputés ont adopté, à une courte majorité, un amendement positivement aberrant : il permettra demain d'étiqueter comme « vert » de l'hydrogène qui serait produit avec du gaz ou du charbon… Donc ultra-polluant !

Par quel « miracle », se demande-t-on ? Pour comprendre la chaîne de causes qui ont conduit à ce vote contraire à tous les objectifs de décarbonation proclamés la main sur le cœur par des politiques soucieux du réchauffement climatique, il faut rappeler quelques réalités concernant l'hydrogène, un gaz extrêmement prometteur, mais aussi particulièrement complexe à produire en grandes quantités. Pour de l'hydrogène « vert », des quantités colossales d'électricité

Il existe aujourd'hui deux façons de produire de l'hydrogène, ou plus exactement du dihydrogène (H2) : avec du gaz ou avec de l'eau.

- La première méthode, par vaporeformage, consiste à casser une molécule de méthane en un atome de carbone (C) et quatre atomes d'hydrogène (H). Elle présente l'inconvénient majeur de dégager beaucoup de carbone : on émet 9 à 10 kg de CO2 par kilo d'hydrogène produit.

- La seconde méthode, qui nourrit tous les espoirs, consiste à casser une molécule d'eau (H2O), par électrolyse. Un électron sépare alors l'atome d'oxygène des deux atomes d'hydrogène… Simple, propre, efficace ? Pas tout à fait. Car pour que l'hydrogène produit soit « vert », encore faut-il que l'énergie qui permet de faire tourner l'électrolyseur soit elle-même bas carbone, c'est-à-dire produite à partir d'éolien, de solaire, de barrages hydroélectriques, ou de nucléaire.

La technologie existe, mais elle est pour l'instant si peu rentable que 98 % de l'hydrogène consommé dans le monde est encore produit avec des ressources fossiles. Pour une raison simple : un électrolyseur requiert des quantités énormes d'électricité. À titre d'exemple, pour remplacer par de l'hydrogène le gaz et le charbon brûlant dans les six hauts fourneaux des aciéries françaises, il faudrait mobiliser toute la production de trois réacteurs EPR. C'est dire à quel point l'idée, vendue par les industriels, de faire rouler demain un parc entier de voitures particulières à l'hydrogène relève de l'utopie.

« On a largement surestimé le potentiel de l'hydrogène, à la fois en termes de volume, de compétitivité et de potentiel de déploiement », soupire le spécialiste des questions énergétiques Maxence Cordiez. « Il faudrait réserver son usage à quelques secteurs, qui ne pourront pas décarboner sans : les mobilités lourdes, la métallurgie… » Mais certains pays, dont l'Allemagne, qui ont beaucoup misé sur l'hydrogène puisque c'est la seule solution au stockage de l'électricité solaire et éolienne, peuvent difficilement s'en passer.

Greenwashing : l'entourloupe des « garanties d'origine »

Ayant fait le choix de s'appuyer sur le gaz pour sortir du nucléaire, Berlin cherche en effet désespérément le moyen de sortir de cette dépendance, tout en optimisant son gigantesque parc d'énergies renouvelables. Or l'intermittence du solaire et de l'éolien bride le développement de l'hydrogène, puisqu'un électrolyseur qui y serait raccordé ne peut tourner, au mieux, que 50 % du temps. Difficile, dans ces conditions, de rentabiliser l'investissement… Plusieurs pays en ont pourtant un besoin vital, n'ayant plus vraiment d'autre option pour faire tourner leurs usines en l'absence de gaz. « L'hydrogène, c'est une brique indispensable pour aller vers la neutralité carbone de l'industrie. Cela va nécessiter des quantités gigantesques d'électricité. Comment y arriver ? » résume Bertrand Charmaison, directeur d'I-Thésé, l'Institut de recherche en économie de l'énergie du CEA. Réponse : en s'exonérant des exigences climatiques pour sa propre production, et en important massivement.

Déposé par le député allemand Markus Pieper (CDU), l'amendement adopté par le Parlement européen permet de résoudre une partie du problème. La Commission européenne, pour s'assurer que l'hydrogène produit en Europe ne le serait pas avec du charbon, pensait fixer des limites étroites : un acte délégué prévoyait de n'étiqueter comme « durable » que de l'hydrogène « compensé » par des ressources renouvelables produites à la même heure, et dans la même zone géographique. Impossible, donc, de faire tourner « en base » l'électrolyseur avec le mix disponible (fortement carboné en Allemagne) quand le vent ne souffle pas.

Le nouvel amendement balaie ces précautions : il suffira au producteur d'acheter la même quantité d'électrons d'origine renouvelable, dans une période de trois mois. « Avec l'amendement voté par le Parlement, il suffit d'acheter de grandes quantités de certificats nommés « garanties d'origine » auprès de producteurs d'électricité éolienne lorsque le vent souffle, en septembre, par exemple. Et si en octobre les pales ne tournent pas, vous pourrez utiliser de l'électricité produite par du gaz ou du charbon : votre hydrogène sera considéré comme vert, dès lors qu'on lui associe les certificats de septembre », s'indigne Bertrand Charmaison, qui a effectué ses calculs : « Avec le mix électrique fortement carboné de nombreux pays européens tel qu'il est aujourd'hui, produire cet hydrogène « vert » pourrait rejeter jusqu'à15 kg de CO2 par kg d'hydrogène produit, c'est-à-dire davantage que par la méthode classique ! »

Verdissement européen, au détriment d'autres pays

Une discussion qui risque de s'ouvrir sous de mauvais auspices, redoutent les observateurs. « Nous sommes dans une compétition économique », décrypte une source proche du dossier. « Si la France maintient finalement les 12 centrales nucléaires qu'elle avait prévu de fermer, comme Emmanuel Macron s'y est engagé, on pourrait avoir un excédent d'électricité nucléaire jusqu'en 2028-2030, ce qui rendrait très concurrentiel notre hydrogène vert. Ceux qui rejettent le nucléaire vont s'y opposer… » Ainsi la stratégie énergétique allemande, qui prévoit une production domestique d'hydrogène de seulement 14 TWh pour une consommation estimée entre 90 et 110 TWh en 2030, repose essentiellement sur des importations à bas coût.

Berlin « met en place des coopérations par différents canaux », avec « des exportateurs traditionnels d'énergies fossiles [Angola, Nigeria, Arabie saoudite, Russie, Canada, Ukraine] et des nouveaux entrants comme le Chili, le Brésil, l'Afrique du Sud, le Maroc, le Portugal ou encore l'Australie », détaillait l'an dernier une note du Trésor. L'Allemagne a déjà affecté deux milliards d'euros de fonds publics à des partenariats avec le Maroc, la Namibie, la République démocratique du Congo, l'Afrique du Sud : leurs fermes solaires lui livreront de l'hydrogène par cargos. Une aberration au regard du climat, constate un expert du secteur : « C'est un énorme scandale, on crée une politique anti-climatique. Quel sens y a-t-il à piquer le renouvelable des pays en développement ? Avec quoi feront-ils leur transition ? »

Aujourd'hui, la consommation d'énergie au Maroc est encore dominée par les fossiles, à plus de 90 %, quasiment entièrement importés. Elle risque de l'être encore pour longtemps.

Publié sur le journal LePoint

Permalink
June 20, 2023 at 10:56:24 AM GMT+2
6 / 7
Links per page
  • 20
  • 50
  • 100
130 shaares · Shaarli · The personal, minimalist, super-fast, database free, bookmarking service by the Shaarli community · Documentation · Theme : Stack · Font : DINish
Fold Fold all Expand Expand all Are you sure you want to delete this link? Are you sure you want to delete this tag? The personal, minimalist, super-fast, database free, bookmarking service by the Shaarli community