Qu'est-ce que ça veut dire toucher un salaire à l'ère de l'IA


Livre blanc · Version 1 · Avril 2026 · Anthony Roca


12 000 mots · 9 parties Praticien et formateur en gestion de paie depuis 2014 Mis à jour le 26 avril 2026
📄 Version PDF disponible : Télécharger le livre blanc (PDF) →
Partie I

La question qu'on n'ose pas poser

Sylvain Le Quéré a quarante-quatre ans. Pendant vingt ans, il a travaillé pour une entreprise française de veille médiatique qui produisait des revues de presse pour des groupes du CAC 40 et des ministères. En 2022, son entreprise est rachetée par un fonds d'investissement américain. Un an et demi plus tard, sa direction annonce un plan social. Sur deux cents postes de production, vingt-six doivent être conservés. Le reste sera remplacé par une intelligence artificielle développée par les équipes du fonds en Inde.

L'histoire est connue. Elle se répète, sous des formes voisines, dans des dizaines de milliers d'entreprises occidentales en 2025 et 2026. Les grandes plateformes technologiques — Microsoft, Amazon, IBM, Google, Meta — ont annoncé chacune des suppressions de postes par dizaines de milliers, en invoquant tantôt l'IA, tantôt une réorganisation, tantôt un repositionnement stratégique. Les enquêtes auprès des dirigeants montrent qu'une part significative d'entre eux ont déjà réduit leurs effectifs en lien avec le déploiement de l'IA, dans la plupart des économies développées. La machine, paraît-il, prend des emplois.

Mais regardez la suite de l'histoire de Sylvain Le Quéré, telle qu'il l'a racontée à Libération en décembre 2025.

L'entreprise a remplacé une partie de ses effectifs par sa fameuse IA. Elle propose désormais deux versions de son produit. Une version premium, faite par un humain. Une version basique, entièrement générée par la machine.

Et la machine, cette machine censée justifier les licenciements, fait des choses étranges.

Sur le mot-clé "rafale", elle confond les avions de combat, les rafales de vent et la voiture Renault Rafale. À la requête sur l'université Paris-Dauphine, elle propose des recettes de pommes dauphines.

Ce n'est pas une anecdote. C'est un symptôme.

L'entreprise a supprimé deux cents postes en disant que la machine ferait le travail. La machine fait quelque chose. Elle ne fait pas le travail. Et l'entreprise, qui le sait, conserve en parallèle une offre humaine premium pour ses vrais clients — ceux qui paient pour la qualité.

Alors qu'est-ce qui s'est passé, au juste ?


Ce qui s'est passé, c'est que deux cents personnes ont perdu leur salaire. Et que le service qu'elles produisaient continue d'exister, sous deux formes : une forme dégradée pour ceux qui acceptent de payer moins, une forme intacte pour ceux qui paient le prix d'avant.

Le travail n'a pas disparu. Le salaire, lui, a disparu.

Cette dissociation devrait nous arrêter. Parce qu'elle dit, sous nos yeux, quelque chose que personne ne nomme correctement.

L'IA n'a pas remplacé le travail des deux cents salariés. Elle a permis de continuer à produire un service comparable sans verser de salaires aux humains qui le produisaient. Ce n'est pas la même chose. Dans le premier cas, la machine fait ce que faisait l'humain. Dans le second, la machine produit l'apparence d'un service tandis que l'humain disparaît du dispositif salarial.

C'est précisément ce qui se joue partout. Pas la disparition du travail. La disparition du salaire qui le rémunérait.


Quand un graphiste freelance voit sa cliente arriver avec un logo généré par IA et lui demander de l'améliorer pour quatre cents euros au lieu des mille deux cents qu'elle aurait payés un an plus tôt, ce n'est pas son travail qui est remplacé. C'est son revenu qui est divisé par trois pour une prestation comparable.

Quand un traducteur freelance constate que les missions disponibles sur les plateformes consistent désormais à corriger ce que l'IA a produit, à des tarifs défiant toute concurrence, ce n'est pas son métier qui meurt. C'est sa rémunération qui s'effondre.

Quand une conceptrice rédactrice voit ses commandes s'éteindre du jour au lendemain parce qu'une cliente a découvert ChatGPT, ce n'est pas la rédaction qui disparaît. C'est l'arrangement qui faisait que cette rédactrice, jusqu'ici, vivait de son travail.

Dans tous ces cas — qu'il s'agisse de salariés brutalement licenciés ou de freelances dont les revenus s'évaporent — ce qui est touché n'est pas la possibilité de produire. C'est la possibilité d'en vivre.

Voilà la vraie question. Voilà ce qui empêche les gens de dormir, le soir, dans leur cuisine, devant leur bulletin ou leur relevé de chiffre d'affaires.

La question n'est pas : est-ce que l'IA me remplace ?

La question est : est-ce que l'IA prend mon salaire ?

Ces deux questions n'ont pas la même forme. La première parle d'utilité. La seconde parle d'un arrangement institutionnel — celui qui fait qu'une part de la valeur produite revient à l'humain qui l'a produite, sous une forme qui lui permet de vivre.

Le débat public confond les deux. Il parle de remplacement quand il faudrait parler de captation. Il parle de transformation des métiers quand il faudrait parler de redirection des flux financiers. Il parle de l'avenir du travail quand il faudrait parler du présent du salaire.


Et personne ne peut répondre à cette question sans d'abord en poser une autre, plus simple et plus dérangeante.

Qu'est-ce que ça veut dire, aujourd'hui, toucher un salaire ?

Pas avoir un emploi. Pas occuper un poste. Pas trouver du sens dans son activité.

Toucher un salaire. Le geste très concret qui consiste à voir arriver, le 30 ou le 31 du mois, une somme versée par un employeur, attestée par un document, reconnue par un contrat.

Cette question, le débat public ne la pose pas. Les cabinets de conseil dressent des listes de métiers menacés. Les politiques promettent de protéger les emplois. Les sociologues parlent de sens. Les futurologues parlent de revenu universel.

Aucun ne parle du salaire. Comme si c'était la variable dépendante. Comme si la réponse à la question du salaire allait découler automatiquement des transformations des métiers.

Elle ne le fera pas. Parce qu'on n'a jamais vraiment dit ce que ces salaires payaient.


Depuis plus de dix ans, je fabrique des bulletins de paie et j'enseigne à les fabriquer. Cette double position — celle qui produit le document, et celle qui essaie d'en transmettre la lecture à des dirigeants, à des salariés, à des étudiants — m'a appris quelque chose que ni le seul praticien, ni le seul observateur n'aurait pu voir.

Ce n'est pas que les gens ne comprennent pas leur bulletin. C'est que le discours public, dans son ensemble, a été construit pour qu'on ne le comprenne pas. À voir des charges là où il y a des droits. À voir un coût là où il y a une inscription dans un corps social. À voir une perte là où il y a, en réalité, un dépôt.

Cette mauvaise lecture, qui arrange beaucoup de monde — comme nous le verrons —, devient brutalement coûteuse au moment où l'IA arrive. Parce qu'on ne peut pas défendre ce qu'on n'a pas nommé. Et que personne, jusqu'ici, n'a nommé ce qu'un salaire paie réellement.

Ce livre fait une chose. Il pose la question du titre — qu'est-ce que ça veut dire toucher un salaire à l'ère de l'IA — et il y répond depuis le seul endroit où elle peut être traitée honnêtement.

Pas depuis l'éditorial. Pas depuis la chaire universitaire. Pas depuis le rapport de cabinet de conseil.

Depuis un bulletin de paie.

Partie II

L'IA ne prend pas ton travail. Elle prend les tâches.

Il faut poser tout de suite la phrase qui déplace le problème.

L'IA n'est pas là pour prendre ton travail. Elle est là pour faire les tâches de ton travail.

Cette phrase n'est pas un slogan. C'est une distinction. Et toute la confusion du débat actuel vient de ce qu'on ne la fait pas.


Une tâche : lire une image médicale. Calculer un bulletin de paie. Rédiger un email standard. Traduire une phrase. Trier un courrier.

Un travail : porter un diagnostic. Répondre d'une paie devant un contrôle. Conduire une négociation. Publier un livre. Garantir la distribution d'un service.

Les tâches sont des opérations. Elles ont un début, une fin, un livrable. Elles se décrivent dans un cahier des charges.

Le travail n'est pas ça. Le travail, c'est l'assemblage cohérent de mille tâches — certaines prévisibles, d'autres non — au service d'une responsabilité qui ne se délègue pas.

L'IA automatise des tâches. Parfois très bien. Parfois mieux que les humains.

L'IA ne tient pas un travail.


Regardez Geoffrey Hinton.

En 2016, devant un public de chercheurs réunis à Toronto, Hinton — l'un des fondateurs de l'apprentissage profond, prix Turing 2018, prix Nobel de physique 2024 — déclare qu'il faut arrêter de former des radiologues. Dans cinq à dix ans, dit-il, les machines liront les images médicales mieux qu'eux. La déclaration fait le tour du monde. Elle devient un argument standard du débat sur l'IA et l'emploi.

Nous sommes en 2026.

Les États-Unis manquent de radiologues. Les délais d'imagerie s'allongent dans la plupart des systèmes de santé occidentaux. Les salaires des radiologues américains figurent parmi les plus élevés du monde médical, et ils ont augmenté, pas diminué, sur la période 2016-2026. Les facultés peinent à pourvoir leurs spécialisations.

Hinton n'avait pas tort sur la machine. Les systèmes de reconnaissance d'image existent. Ils sont déployés. Ils détectent certaines anomalies mieux que l'œil humain moyen, notamment en imagerie du sein et en détection de nodules pulmonaires.

Il a eu tort sur autre chose.

Il a confondu lire une image avec être radiologue.


Lire une image est une tâche.

Être radiologue, c'est poser un diagnostic, engager sa responsabilité médicale, dialoguer avec le médecin prescripteur, parler au patient quand le diagnostic est lourd, arbitrer les cas limites, et désormais gérer les outils d'IA — vérifier leurs suggestions, repérer leurs hallucinations, décider quand les suivre et quand les contredire.

Le métier n'a pas disparu. Il s'est transformé. Il s'est recentré sur ce que la machine ne fait pas.

Et c'est précisément pour ça qu'il est plus rare. Et plus cher.


La même erreur est faite sur toutes les professions.

On dit que les traducteurs vont disparaître parce que DeepL traduit. David Creuze, traducteur freelance lillois interviewé par Libération en décembre 2025, a vécu cette annonce de l'intérieur. Pendant des mois, les missions disponibles sur les plateformes consistaient principalement à corriger ce que l'IA avait produit. Autrement dit, à entraîner la machine censée le remplacer. Puis Creuze a réorienté son activité. Il traduit désormais des œuvres littéraires. Et la maison d'édition française avec laquelle il a signé son dernier contrat a inscrit une clause explicite : il s'engage à ne pas utiliser d'IA dans son travail.

Cette clause est un signal. La maison d'édition ne paie pas un texte. Elle paie une garantie d'absence de machine. Elle paie le fait qu'un humain, identifiable, signe la traduction et en répond.

On dit que les comptables vont disparaître parce que les logiciels automatisent la saisie. Ils n'ont pas disparu. La saisie est automatisée depuis trente ans. Les comptables sont toujours là — parce que leur métier n'est pas la saisie. C'est la signature des comptes, le conseil au dirigeant, la responsabilité face à l'administration fiscale.

On dit que les gestionnaires de paie vont disparaître parce que les logiciels font les bulletins. Je parle ici de mon métier. Les logiciels font les bulletins depuis les années 1980. Ce qui reste à faire ne figure sur aucune documentation technique : lire un contrat mal rédigé, arbitrer un cas où deux conventions collectives se chevauchent, répondre à l'administration pendant un contrôle, tenir la relation avec un dirigeant qui signe ce qu'il ne comprend pas toujours.

On dit que les journalistes vont disparaître parce que les modèles de langage écrivent. Ils n'ont pas disparu. La machine écrit. Elle ne va pas enquêter. Elle n'engage aucune réputation. Elle ne répond de rien.

Dans chaque cas, le discours ambiant identifie le métier à sa tâche la plus visible. Puis il automatise la tâche. Puis il annonce la mort du métier.

La tâche peut mourir. Le métier, non — sauf si on laisse faire.


Du coup, chaque salarié a un choix.

Il utilise l'IA pour se décharger de l'exécution, et consacrer ce temps à ce que la machine ne fait pas : arbitrer, signer, répondre, tenir la relation. Dans cette option, il monte. Sa position se clarifie. Sa valeur augmente.

Ou il s'accroche à l'exécution. Il continue à faire à la main ce que la machine fait mieux. Il refuse l'outil ou l'utilise mal. Dans cette option, il perd — non contre la machine elle-même, mais contre le prochain décideur qui se demandera pourquoi continuer à le payer pour faire moins bien qu'un logiciel.

Pas de troisième voie.


Mais ce choix individuel ne suffit pas.

Parce que même le salarié qui fait le bon choix — qui monte, qui arbitre, qui tient la responsabilité — reste exposé à une autre question. Une question qu'il ne se pose pas lui-même, mais que d'autres posent à sa place.

Si la machine peut faire les tâches… à quoi sert encore de le salarier, lui ?

Cette question ne vise pas sa compétence. Elle vise l'arrangement qui le rémunère.

Et c'est là que les choses deviennent beaucoup plus difficiles à dire.

Partie III

Alors le salariat devient-il vide ?

On arrive au point que personne ne veut examiner.

Si l'IA prend les tâches, la justification apparente du salariat s'effondre. Un décideur qui regarde un organigramme et qui voit que soixante-dix pour cent des tâches peuvent être automatisées se pose mécaniquement une question : pourquoi je continue à salarier ces gens ?

Ce n'est pas une question cynique. C'est une question structurelle.

Et elle appelle, pour qui la prend au sérieux, une réponse qu'aucun discours ambiant ne fournit.


On pourrait croire que la question est théorique. Elle ne l'est pas.

Parce qu'il existe déjà, dans nos sociétés, un immense laboratoire grandeur nature de ce que produit un système où la rémunération n'achète que des tâches.

Ce laboratoire a un nom : les plateformes.


Regardons.

Un chauffeur Uber est payé à la course. Pas à l'heure. Pas au mois. À la course.

Un livreur Deliveroo, DoorDash ou Glovo est payé à la livraison. Pas au temps passé. À la livraison.

Un travailleur du clic — ces gens qu'on ne voit pas, qui étiquettent les images qui entraînent les modèles d'IA pour quelques centimes la tâche — est payé à la micro-opération.

Chacun est rémunéré pour ce qu'il exécute. Strictement. Précisément. Sans marge.

C'est le système dont rêvent, à voix basse, certains décideurs quand ils regardent leurs effectifs et qu'ils pensent à l'IA.

Ce système fonctionne. Il est rentable. Il produit de la valeur.

Regardons ce qu'il produit d'autre.


Le chauffeur de plateforme n'a pas de droit au chômage de droit commun. Si les courses s'arrêtent, il n'a rien.

Il n'a pas de retraite salariale qui se construit. Il cotise autrement, bien moins, et ses droits futurs seront plus faibles.

Il n'a pas de droit à la formation au sens du dispositif paritaire qui finance la montée en compétence des salariés.

Il n'a pas de protection contre la rupture — la plateforme peut le déconnecter unilatéralement, et les recours sont longs et incertains.

Il n'a pas de médecine du travail. Il n'a pas de congés payés. Il n'a pas d'arrêt maladie couvert au sens du salariat.

Il paie lui-même une partie de ses cotisations, sur un revenu net souvent inférieur à ce qu'il imagine au moment où il s'inscrit sur la plateforme.

Ces différences sont si nettes que les juridictions des grandes économies développées les reconnaissent désormais et les corrigent au cas par cas. La Cour suprême du Royaume-Uni, en 2021, a requalifié les chauffeurs Uber en workers — leur ouvrant le droit au salaire minimum, aux congés payés, à des protections contre la rupture.

Les chauffeurs travaillent pour Uber dans le cadre d'un contrat conclu avec Uber London, sont rémunérés selon les tarifs fixés par Uber, et exercent leur prestation dans les conditions imposées par Uber.

Uber BV v. Aslam, Cour suprême du Royaume-Uni, 19 février 2021

La Californie a tenté la même requalification avec la loi AB5 en 2019. La directive européenne de 2024 sur le travail de plateforme va dans le même sens. Partout, la jurisprudence reconnaît que les conditions réelles d'exécution du travail rapprochent ces travailleurs du salariat — et que le statut indépendant, dans beaucoup de cas, est une fiction au service de la plateforme.

Le système existe. Il fonctionne. Il produit moins de droits.


Et l'arrangement de plateforme n'est pas le seul à comprimer ce que touche l'humain qui produit la valeur.

Marina, graphiste freelance interviewée par Libération en décembre 2025, raconte une scène qui appartient déjà au quotidien de millions de travailleurs intellectuels indépendants. Une fromagerie cliente lui apporte un logo généré par IA et lui demande de l'améliorer. Elle facture la prestation quatre cents euros. Sans IA, elle l'aurait facturée mille deux cents.

Marina n'est pas évincée. Elle est conservée. Mais le prix de sa position vient d'être divisé par trois. Son chiffre d'affaires annuel est passé de vingt-cinq mille à quinze mille euros. Elle envisage de se reconvertir.

Cette scène est l'avenir du salariat si le salariat ne se défend pas. Pas la suppression du salarié. La conservation du salarié à un prix que rien ne défend plus, parce que la justification apparente du prix — l'exécution — a été partiellement automatisée.


Et voici ce qu'il faut tenir ensemble.

Si le salariat ne sert qu'à acheter des tâches, alors l'ubérisation et la compression des prix freelance sont sa forme moderne et rationnelle.

Mais si le salariat sert à autre chose — et c'est ce que ces deux phénomènes démontrent, par la négative, en montrant ce qu'on perd quand on les laisse faire — alors la question redevient urgente.

Quoi exactement ?

Qu'est-ce que le salariat produit que l'ubérisation et la compression freelance ne produisent pas ?

Qu'est-ce qui continue à tomber sur le compte d'un salarié, et qui ne tombe pas sur celui d'un chauffeur Uber ou d'une graphiste freelance dont les prix s'effondrent ?

Qu'est-ce que l'IA, si elle ne fait que prendre des tâches, menace vraiment quand elle menace un salaire ?


La réponse n'est ni dans le discours sur le sens du travail, ni dans les programmes de reconversion, ni dans les promesses de revenu universel.

Elle est dans un document. Le bulletin de paie.

Parce que c'est là, et nulle part ailleurs, qu'on voit ce qu'un salaire fait vraiment.

Il est temps d'ouvrir ce document.

Partie IV

La réponse : le salaire paie une responsabilité, pas une exécution

Depuis dix ans, je regarde des bulletins de paie. Pas en passant. Pas comme un usager qui vérifie son net avant de ranger le document.

Je les regarde comme un praticien les fabrique. Et je les regarde aussi comme un formateur les enseigne — à des dirigeants, à des salariés, à des étudiants, à des professionnels qui découvrent que la question se pose chez eux dans des termes très proches.

Cette double position m'a appris une chose. Le bulletin de paie est, dans nos sociétés, l'un des documents les plus mal lus. On le reçoit. On regarde le net. On range. Très peu de salariés savent lire leur propre bulletin. Peu d'employeurs savent dire ce qu'ils versent vraiment, au-delà du total final. Et les commentateurs qui parlent du salaire — économistes, sociologues, éditorialistes — n'en lisent pas. Ils parlent du salaire comme d'un concept.

Moi je parle du salaire comme d'un document.

Et un document ne ment pas. Il dit, dans sa forme même, ce qu'il est en train de faire.


Prenez n'importe quel bulletin d'un salarié occidental moyen. France, Allemagne, Royaume-Uni, États-Unis, Canada — peu importe. Ouvrez-le.

En haut, une somme. Le salaire brut. Disons trois mille euros, livres, ou dollars.

En bas, une autre somme. Le net à payer. Disons deux mille trois cents.

Entre les deux, une vingtaine de lignes. Les noms changent selon les pays — assurance maladie, retraite obligatoire, retraite complémentaire, assurance chômage, contribution sociale, prévoyance, mutuelle, formation professionnelle. Mais les fonctions sont partout les mêmes. Personne ne les regarde.

Demandez à un salarié ce que représentent ces lignes. Il vous répondra, avec un mélange d'agacement et de résignation : les charges. Demandez à un dirigeant : il vous répondra le coût. Demandez à un économiste : il parlera de coin fiscalo-social.

Aucun ne vous dira ce que ces lignes font.


Prenons une seule de ces lignes. Disons "assurance vieillesse", ou son équivalent dans n'importe quel système national.

Le salarié regarde cette ligne — cent vingt euros prélevés sur son brut. Il se dit : on me retire cent vingt euros pour ma retraite. Une charge. Un coût.

Mais regardez le mouvement réel.

Cette somme n'est pas retirée. Elle est inscrite. Elle ne va pas dans la poche d'un tiers. Elle ouvre, dans un dispositif de retraite, un droit personnel, identifié, qui s'activera dans trente ans.

Le salarié n'a pas perdu cent vingt euros. Il a gagné un trimestre — ou son équivalent national — de droit à la retraite.

Le bulletin ne le dit pas. Il aligne des chiffres avec un signe moins devant. La grammaire du document fait croire à une soustraction. Le mouvement réel est une addition. Une addition de droits qui se construisent.


Le brut lui-même n'est pas, dans la plupart des cas, le prix d'un travail effectué. C'est le prix d'une disponibilité contractuelle.

Un salarié qui se rend au bureau, s'assoit à son poste, et ne fait rien pendant huit heures parce que son employeur ne lui a donné aucune tâche, touche son brut intégral.

Un salarié en congés payés ne travaille pas — il touche son salaire.

Un salarié en arrêt maladie ne travaille pas — il touche un revenu maintenu.

Un salarié en formation ne produit rien pendant plusieurs semaines — son salaire est maintenu.

Si le salaire payait strictement le travail, il serait suspendu dès que le travail l'est. Il ne l'est pas. Parce qu'il ne paie pas ça.


Ce que le droit français a posé en 1996 dans son arrêt fondateur vaut bien au-delà de la France. Toutes les juridictions des économies développées convergent vers une définition voisine du salariat. La Cour de cassation française dit ceci :

Le lien de subordination est caractérisé par l'exécution d'un travail sous l'autorité d'un employeur qui a le pouvoir de donner des ordres et des directives, d'en contrôler l'exécution et de sanctionner les manquements de son subordonné.

Cour de cassation, chambre sociale, 13 novembre 1996 — arrêt Société Générale

Le common law américain et britannique distingue l'employee de l'independent contractor selon les mêmes critères de contrôle effectif et de pouvoir de direction. Le test de l'IRS américain — le Common Law Test — examine notamment qui contrôle l'exécution, qui fournit les outils, qui supporte le risque économique. La Recommandation 198 de l'OIT, adoptée en 2006 et applicable mondialement, identifie le salariat comme la situation dans laquelle un travail est effectué selon les instructions et sous le contrôle d'une autre partie.

Partout, le salariat est qualifié par le contrôle exercé par l'employeur sur l'exécution — pas par l'exécution elle-même.

Ce qui distingue le salarié de toutes les autres figures qui exécutent un travail, ce n'est pas la nature du travail. C'est le lien de subordination.


Et cette relation a un nom plus précis que celui que le droit lui donne directement.

Le salarié, en acceptant la subordination, accepte d'être tenu pour responsable de son travail devant un employeur qui a le pouvoir de l'évaluer, de le corriger, de le sanctionner. Il porte la responsabilité opérationnelle des tâches qu'il exécute. L'employeur, en signant le contrat, s'engage en retour à payer cette responsabilité — non pas en fonction du volume produit, mais en fonction de la position occupée et de la durée de la disponibilité offerte.

Voilà ce qu'est, au fond, le contrat salarial.

Le salarié accepte d'être tenable. L'employeur accepte de payer cette tenabilité.


Je vais poser ici la formule qui tient ce livre. Je la pose comme ce qu'elle est : une formule militante, volontairement tranchée.

Le salaire n'a jamais été le prix du travail exécuté. Il a toujours été le prix d'une responsabilité assumée dans un corps social.

Cette formule est, comme toute formule militante, légèrement excessive. Un juriste ou un économiste rigoureux objectera, à bon droit, que le salaire paie aussi, dans certains cas et pour une part variable, un travail directement exécuté. L'objection est recevable.

La version rigoureuse de la même thèse, que je défendrai tout au long de ce livre :

Le salaire n'est pas seulement le prix du travail exécuté. Il est aussi — et de manière structurante — le prix d'une responsabilité subordonnée assumée dans un corps social.

Les deux formulations disent la même chose avec des intensités différentes. Ce qui compte : dans tout salaire, il y a une composante structurante qui ne rémunère pas l'exécution. Cette composante est l'objet de ce livre.


Et c'est précisément en ce point que la question de l'IA prend toute sa force.

Parce qu'une IA peut exécuter des tâches. Aucune ne peut occuper une position de responsabilité subordonnée. Aucune ne peut être tenue pour responsable au sens où un humain l'est. Aucune ne peut signer un document qui engage son nom propre devant un tiers. Aucune ne peut être convoquée, interrogée, sanctionnée, indemnisée.

Une IA n'est pas tenable.

Et ce qu'un salaire paie, c'est précisément la tenabilité.

Donc l'IA ne peut pas, par construction, prendre un salaire. Elle peut prendre des tâches. Elle peut comprimer le prix d'une exécution. Mais le salaire — au sens propre du paiement d'une responsabilité subordonnée à l'intérieur d'un corps social — ne lui est pas accessible.

Ce sont donc des humains, non des machines, qui décident — à chaque licenciement, à chaque suppression de poste, à chaque compression de prix freelance — de ne plus payer d'autres humains. L'IA est l'argument. Elle n'est pas la cause.


Toucher un salaire, ce n'est pas seulement recevoir de l'argent et accumuler des droits. C'est être quelqu'un. C'est pouvoir répondre, sans honte, à la question banale qu'on vous pose dans un dîner. C'est avoir une place dans le tissu de la conversation ordinaire. C'est exister socialement.

Cette dimension symbolique du salaire est massivement sous-estimée par les discours qui parlent de revenu universel ou de fin du travail. Le chômeur longue durée n'a pas seulement moins d'argent. Il devient, lentement, invisible. Son nom disparaît des organigrammes. Ses anciens collègues cessent de l'appeler. Sa place dans le récit de sa propre vie devient floue.

Le salaire paie aussi cette inscription dans le visible. Il paie le fait qu'on existe pour les autres comme membre tenable d'un collectif productif. Et cette dimension, elle aussi, est inaccessible à une IA.


Pourquoi cette compréhension du salaire a-t-elle été si longtemps évitée ?

Parce qu'elle arrange peu de monde.

Elle n'arrange pas l'employeur, qui préfère soutenir qu'il paie une performance. Elle n'arrange pas le salarié, qui préfère croire qu'il mérite sa paie par son effort. Elle n'arrange pas l'État, qui préfère faire croire que les cotisations sont une charge prélevée sur un vrai salaire. Elle n'arrange pas les économistes, qui ont besoin de variables propres pour leurs modèles.

La fiction protège un ordre social en empêchant qu'on le regarde en face.

L'IA, en faisant les tâches mieux que les humains, retire à cette fiction son alibi le plus commode. Elle force enfin la question.

Partie V

Ce que l'IA révèle vraiment

Si le salaire paie une responsabilité subordonnée et non une exécution, alors la question de l'IA se reformule entièrement.

L'IA ne menace pas les salaires. Elle révèle quelles positions reposaient sur de la responsabilité réelle, et quelles positions ne reposaient que sur l'exécution apparente.

Si le salaire rémunère une responsabilité subordonnée assumée dans un corps social, alors l'IA ne menace pas les tâches. Elle révèle la part de ces positions qui reposait sur de l'opacité.


Reprenons le cas du radiologue américain en 2026.

Les radiologues n'étaient pas payés pour lire des images. Ils étaient payés pour porter la responsabilité subordonnée du diagnostic — c'est-à-dire pour signer, pour répondre, pour assumer devant le patient, devant le médecin prescripteur, devant le tribunal en cas d'erreur. La lecture d'image était la part exécutoire de leur travail. La responsabilité du diagnostic en était la part structurante.

L'IA a pris une part de la lecture d'image. Elle n'a pas pris — et ne peut pas prendre — la responsabilité du diagnostic. Donc le salaire des radiologues n'a pas baissé. Au contraire, il a augmenté, parce que la part structurante de leur travail est devenue plus visible, plus exigeante, plus rare.


Je vais introduire ici une distinction. C'est un outil d'analyse, pas un jugement moral.

Une position nommable est une position dont on peut dire, en quelques phrases, ce que tient celui qui l'occupe. Quel arbitrage il rend. Quelle responsabilité il porte. Quelle relation il garantit. Quelle signature il appose.

Une position opaque est une position dont la justification précise s'est perdue dans l'histoire de l'organisation. Elle existe parce qu'elle a toujours existé. Elle est tenue par quelqu'un qui exécute des tâches — parfois complexes, parfois utiles — mais si on lui demandait de dire au nom de quoi, précisément, il est payé ce qu'il est payé, il aurait du mal à répondre.

Trois précautions essentielles.

Première précaution : opaque ne veut pas dire illégitime. Une position peut être opaque tout en étant utile, voire essentielle.

Seconde précaution : nommable ne veut pas dire prestigieuse. Un agent d'entretien qui tient un secteur d'un bâtiment, en connaît les particularités, arbitre entre les urgences, répond du résultat — occupe une position parfaitement nommable. Un cadre supérieur dont la mission n'est jamais précisée — occupe une position opaque. La ligne ne passe pas entre les hauts et les bas de l'organigramme.

Troisième précaution : l'opacité n'est pas mortelle pour tout le monde de la même façon. Une position opaque tenue par quelqu'un qui appartient à un groupe puissant est protégée par les réseaux, le capital social, l'inertie institutionnelle. Une position opaque tenue par quelqu'un qui n'a pas ces protections tombe beaucoup plus vite. Le tri par l'IA n'est donc pas un tri neutre — il interagit avec les rapports de pouvoir existants.

Quand une machine peut exécuter à la place d'un salarié une part significative de ce qu'il faisait, la question n'est plus la machine va-t-elle le remplacer. La question devient : que faisait-il, au-delà de cette part automatisable ?

Pour les positions nommables, la réponse vient. Pour les positions opaques, la réponse ne vient pas. Et l'opacité — qui était auparavant un état de fait neutre, accepté par habitude — devient brutalement un risque.


Il y a, à ce constat, une conséquence supplémentaire.

Si le bulletin de paie est la preuve des droits acquis par le salarié — ce qu'il est, juridiquement, dans tous les pays développés —, alors supprimer un salarié c'est priver une personne de la continuation de ses droits. Pas seulement d'un revenu mensuel. D'une chaîne de droits qui se construisait : retraite, chômage, formation, reconnaissance d'ancienneté, protection sociale étendue.

Une IA ne produit rien de tout cela. Elle exécute, mais elle n'inscrit personne dans un corps social. Elle est, du point de vue du système de protection sociale, un trou — une ressource qui produit de la valeur économique sans produire, en contrepartie, le moindre droit social pour qui que ce soit.

Une société qui remplace massivement des salariés par des IA ne fait donc pas seulement un arbitrage économique. Elle cesse progressivement de produire les droits sociaux qui tenaient ses membres ensemble.

Mais ce n'est pas le seul trou que l'IA introduit dans le tissu social. Il y en a un autre, plus profond, que personne ne nomme. C'est lui qu'il faut maintenant regarder.

Partie VI

Le trou noir de la responsabilité

Il y a, dans tout ce que l'IA produit aujourd'hui, un détail que personne ne regarde et qui est pourtant le cœur du problème. Quand une IA produit un résultat — un texte, une image, un diagnostic, un avis juridique, une revue de presse — et que ce résultat se révèle faux, dégradé, trompeur ou nuisible, personne ne répond.

Pas l'auteur du contenu, puisqu'il n'y en a pas.

Pas la plateforme qui héberge le modèle, qui dit dans ses conditions générales qu'elle n'est qu'un outil et que l'utilisateur est responsable de l'usage qu'il en fait.

Pas l'entreprise qui utilise l'IA dans son service, qui dit qu'elle a déployé une technologie standard sur le marché et que le résultat est conforme à ce qu'elle propose.

Pas le client qui consomme le service, qui dit qu'il a payé pour un produit et qu'il n'a pas à porter la responsabilité de la manière dont ce produit a été fabriqué.

Chaque acteur de la chaîne renvoie la responsabilité à un autre. Et au bout de la chaîne, il n'y a plus personne. Le dommage existe — la traduction absurde a été imprimée dans un jeu vidéo, le diagnostic erroné a été remis au patient, le conseil juridique trompeur a été suivi, la revue de presse a confondu Paris-Dauphine avec une recette de pommes dauphines — mais aucun humain identifiable ne le porte.

Ce n'est pas un accident. C'est la structure même du dispositif que nous sommes en train de construire à grande échelle.


Ce qui se dissout

Cette structure introduit dans la production économique quelque chose qui n'avait jamais existé à cette échelle : une zone où la responsabilité disparaît.

Avant l'IA, toute production de service ou de bien comportait, quelque part dans sa chaîne, un humain identifiable qui pouvait être tenu pour responsable. Le médecin signait l'ordonnance. Le journaliste signait l'article. Le traducteur livrait son texte sous son nom. Le comptable signait les comptes. Le commercial répondait des contrats qu'il faisait signer. La signature, partout, fonctionnait comme un point d'ancrage de la responsabilité — un endroit où, en cas de problème, on savait à qui s'adresser.

L'IA générative dilue cette signature. Elle introduit dans la chaîne un maillon qui ne peut être tenu pour responsable de rien — parce qu'il n'est pas un sujet de droit, parce qu'il n'a pas de patrimoine, parce qu'il n'a pas de réputation à défendre. Et ce maillon qui ne répond pas contamine la chaîne entière. Tous les humains qui l'utilisent ont désormais un argument à invoquer en cas de problème : ce n'est pas moi, c'est l'IA. Et cet argument fonctionne. Pas parce qu'il est juste. Parce que personne ne sait plus à qui s'adresser pour le contester.

Le résultat est ce qu'on peut appeler un trou noir de la responsabilité — une zone dans laquelle la responsabilité est aspirée, déformée, et finalement annulée. Aucune entreprise individuelle n'a inventé ce trou noir. Il s'est formé tout seul, par convergence d'intérêts, là où aucune partie prenante n'avait intérêt à ce qu'on identifie clairement un répondant.


Ce que le marché vient de découvrir

La première conséquence de ce trou noir est observable directement, dans les prix que le marché pratique.

Toutes les grandes plateformes d'IA proposent désormais plusieurs niveaux de service. Une version basique, entièrement automatisée, sans humain dans la boucle. Une version intermédiaire, où des humains supervisent ce que la machine produit. Une version premium, où des experts humains utilisent l'IA comme outil mais signent la production finale.

Et le prix de ces trois versions n'est pas le même. La basique est la moins chère. La premium est la plus chère. Et ce que le marché tarife dans cette progression n'est pas la qualité de la machine — c'est la présence d'un humain qui répond.

Les entreprises de veille médiatique l'ont compris. La société qui a licencié Sylvain Le Quéré et ses collègues conserve une version premium humaine pour ses clients du CAC 40. Elle vend une version basique entièrement IA aux clients qui acceptent un service dégradé. Ce qui justifie cet écart n'est pas la qualité du contenu — c'est le fait que dans la version premium, quelqu'un répond du contenu, et que dans la version basique, personne ne répond.

Les cabinets d'avocats américains font la même chose. Les services premium incluent l'avis signé d'un associé, qui engage sa responsabilité personnelle et celle du cabinet. Les services basiques sont des analyses générées par IA, vendues sans garantie. L'écart de prix entre les deux est le prix de l'engagement personnel d'un humain qui peut être convoqué, sanctionné, désinscrit du barreau s'il se trompe.

Le marché est en train de découvrir, sans le théoriser, que ce qu'il vend depuis toujours n'était pas seulement un produit ou un service. C'était aussi, de manière implicite, un répondant. Un humain quelque part dans la chaîne qui pouvait être convoqué en cas de problème. Et maintenant que l'IA permet de produire sans répondant, le marché se rend compte de la valeur de ce répondant — par contraste, en regardant ce qui se passe quand il disparaît.

Ce que le marché tarife, donc, ce n'est plus seulement la qualité ou la quantité du travail produit. C'est la présence d'un humain qui peut être tenu pour responsable de ce travail. Et cette présence a un prix. Ce prix, c'est ce qu'on appelait, jusqu'ici, un salaire.


L'anachronisme du répondant

Mais il y a un piège dans cette découverte. Tant que le marché continue à payer pour la présence d'un répondant, le salariat tient. Mais que se passe-t-il quand le marché cesse de demander un répondant ?

Quand les clients acceptent la version basique parce qu'elle est moins chère, et qu'ils ont oublié à quoi ressemblait un service où quelqu'un répondait. Quand les utilisateurs d'IA acceptent les hallucinations parce qu'ils ont intégré qu'aucun humain ne sera tenu de les corriger. Quand l'industrie tout entière se reconfigure autour de l'idée que la responsabilité est un coût qu'on peut faire disparaître.

Dans ce monde-là, le salarié qui voudrait continuer à répondre devient quelque chose de très étrange. Il devient un anachronisme coûteux.

Pas parce qu'il est inutile. Au contraire — la qualité qu'il garantit reste objectivement supérieure à celle que produit la machine seule. Mais parce que le système a appris à fonctionner sans cette qualité. Il a appris à dégrader. Il a appris à accepter la dégradation. Il a appris à ne plus demander de réponse.

Et dans ce système qui ne demande plus de réponse, l'humain qui voudrait continuer à répondre apparaît comme un excès. Trop scrupuleux pour la nouvelle norme. Trop cher pour ce qu'on attend désormais. Il devient l'équivalent moderne de l'artisan dans une économie de masse — non pas dépassé techniquement, mais marginalisé par un marché qui a appris à se passer de ce qu'il offre.

Le danger n'est donc pas seulement que l'IA remplace les humains. Le danger plus profond est que le marché, à force d'utiliser l'IA, désapprenne à demander qu'un humain réponde. Une fois que cette demande s'éteint, ceux qui voudraient continuer à offrir ce service se retrouvent sans clients pour le payer.


Le salaire comme prix du répondre

Le salaire n'est pas seulement le prix d'une responsabilité subordonnée. Il n'est pas seulement le prix d'une inscription dans un corps social. Il n'est pas seulement le prix d'une reconnaissance symbolique.

Il est aussi, et peut-être surtout, le prix qu'une société paie pour qu'il y ait, dans ses chaînes de production, des humains qui répondent de ce qui est produit.

L'institution salariale, vue sous cet angle, n'est plus seulement un dispositif de protection des travailleurs. C'est l'institution principale par laquelle une société se garantit qu'il y a, en son sein, des humains qui peuvent être tenus pour responsables de ce qui est produit. Le salariat est, à grande échelle, le dispositif de maintien de la responsabilité comme catégorie opérante.

Si le salariat se dissout, ce n'est pas seulement un problème de revenus pour les salariés. C'est un problème pour la société tout entière, qui perd sa capacité à tenir ses membres pour responsables de quoi que ce soit. Une société qui a perdu cette capacité n'est plus à proprement parler une société. Elle est un agrégat de transactions sans porteurs, de productions sans signataires, de dommages sans auteurs.


La question reformulée

La question d'ouverture de ce livre était : l'IA va-t-elle prendre mon salaire ?

À la lumière du trou noir de la responsabilité, cette question doit être prolongée par une autre, plus profonde et plus dérangeante.

Dans un monde où personne ne répond plus de rien, qui paiera pour que quelqu'un réponde ?

Cette question retourne complètement le terrain du débat. Elle ne demande plus si l'IA va remplacer les humains — elle demande si la société est prête à payer pour que des humains continuent d'exister comme répondants dans ses chaînes de production.

Ce n'est plus une question technique. C'est une question politique fondamentale.

Partie VII

Mais qui possède l'outil ?

Tout ce que ce livre vient de poser tient sur un présupposé qui mérite d'être nommé. La défense du salariat, telle que je l'ai formulée, suppose que des employeurs continuent à reconnaître la valeur des positions humaines. Que des marchés continuent à payer pour des répondants. Que des États continuent à garantir le cadre juridique du salariat.

Or aucune de ces conditions n'est acquise. Toutes sont, en 2026, en cours de fragilisation simultanée. Et il y a une raison principale à cette fragilisation, qu'aucun discours public ne nomme avec netteté : la question de la propriété de l'IA.


L'IA, en tant que technologie, n'a pas de volonté propre. Elle ne décide rien. Elle exécute des instructions selon des paramètres qui ont été fixés par quelqu'un. La question n'est donc pas que veut l'IA. La question est à qui appartient l'IA, et que veut son propriétaire.

En 2026, l'IA générative la plus puissante est concentrée entre les mains d'un petit nombre d'acteurs. Quelques très grandes plateformes américaines — OpenAI, Anthropic, Google, Microsoft, Meta — et quelques équivalents chinois. Ces acteurs développent les modèles, possèdent l'infrastructure de calcul nécessaire à leur entraînement, et louent l'usage des modèles aux entreprises qui s'en servent dans leurs services.

Le modèle économique qui en résulte est nouveau. Une entreprise qui licencie un salarié et le remplace par une IA ne devient pas pour autant propriétaire de l'outil qui produit la valeur à la place du salarié. Elle reste locataire de cet outil, qu'elle paie à une plateforme tierce, sous forme d'abonnement, de licence ou de coût d'API.

Cette situation crée une triangulation inédite. Auparavant, le rapport était à deux : le salarié produisait de la valeur, l'employeur en captait une part et en versait une part au salarié sous forme de salaire. Désormais, le rapport est à trois : la machine produit, l'employeur capte une part de la valeur produite et en verse une part à la plateforme propriétaire de la machine.

Et dans cette nouvelle triangulation, le salarié a disparu. La part qui lui revenait auparavant est divisée entre l'employeur et la plateforme. La plateforme, qui ne produit pas directement la valeur mais qui possède l'outil qui permet de la produire, capte une rente de plus en plus importante. L'employeur, qui supporte le coût de cette rente, cherche à la compenser par des économies sur d'autres postes — et le poste le plus immédiatement compressible, c'est encore le salaire.


Quand un dirigeant licencie en invoquant l'IA, ce n'est pas l'IA qui prend le salaire. C'est la propriété de l'IA qui le prend. Une part du salaire ancien part vers la plateforme qui possède le modèle. Une autre part reste dans l'entreprise. Et le salarié, lui, n'a plus rien.

L'IA reproduit ainsi, à une échelle nouvelle, une configuration que le XIXe siècle avait connue avec l'industrialisation. À cette époque, les ouvriers venaient travailler avec les machines du patron, qui captait la productivité ajoutée par ces machines. L'IA centralisée chez quelques plateformes reproduit ce schéma — avec une différence : le propriétaire de la machine n'est plus l'employeur direct, c'est une plateforme tierce, plus puissante, plus concentrée, plus difficile à atteindre par les régulations nationales.

Si on veut comprendre pourquoi le salariat se contracte à l'ère de l'IA, ce n'est donc pas l'IA elle-même qu'il faut regarder. C'est la structure de propriété qui s'est mise en place autour d'elle.


Une position salariée n'existe pas par sa propre vertu. Elle existe parce qu'un employeur la reconnaît, signe le bulletin, paie les cotisations, déclare le salarié aux institutions. Sans cette reconnaissance répétée, mois après mois, la position s'éteint.

Or, à l'ère de l'IA, ceux qui décident de cette reconnaissance ne sont plus seulement les employeurs directs. Ils sont aussi, indirectement, les propriétaires des outils que les employeurs utilisent. Parce que ce sont ces propriétaires qui rendent économiquement attractive la suppression des positions humaines.

Le salarié, dans cette configuration, n'a presque aucune prise. Il ne peut pas négocier avec la plateforme propriétaire — il n'a aucun rapport contractuel avec elle. Il ne peut pas non plus négocier vraiment avec son employeur — qui lui-même subit la pression de la plateforme. Il se retrouve à porter le coût d'un déplacement de propriété qui le dépasse.

Le salariat à l'ère de l'IA n'est pas un arrangement à deux, comme il l'a été pendant un siècle. C'est un arrangement à trois — salarié, employeur, propriétaire de l'outil — où le troisième est invisible, distant, et où aucun mécanisme de représentation n'existe pour faire valoir les intérêts du premier face aux deux autres.

C'est dans cet écart que le salariat se vide.

Partie VIII

La voie : posséder l'outil

Si le problème est que la propriété de l'IA capte une part croissante de ce qui revenait au salaire, alors la voie d'action passe par la propriété de l'IA elle-même.

Cette voie est plus accessible qu'on ne le croit. Elle est même, en 2026, techniquement réalisable à l'échelle individuelle.


Depuis 2023, des modèles d'IA générative open-source sont disponibles publiquement. Llama, développé par Meta. Mistral, développé par une équipe française. Qwen, développé par Alibaba. Gemma, développé par Google. Et bien d'autres. Ces modèles, dans leurs versions intermédiaires (sept à soixante-dix milliards de paramètres), tournent sur du matériel grand public — un ordinateur portable correctement équipé, un serveur d'entrée de gamme, parfois même un téléphone récent pour les modèles plus petits.

Dans le modèle dominant, le salarié ou son employeur loue l'usage de l'IA à une plateforme tierce. Toute la productivité ajoutée par l'outil est captée, en partie, par le propriétaire de l'outil. Le salarié n'est plus qu'un coût à compresser.

Dans le modèle alternatif — celui de l'IA locale — l'IA est déployée sur la machine du salarié ou sur l'infrastructure de l'entreprise directe. Les données ne quittent pas l'organisation. Aucune plateforme tierce ne capte de rente. La productivité ajoutée par l'outil reste intégralement dans la main de ceux qui s'en servent.

C'est, structurellement, le modèle de l'artisan qui possède ses outils.

L'artisan du XIXe siècle, lorsqu'il acquérait un nouvel outil, voyait sa productivité augmenter. Le gain de productivité lui revenait. Aucun tiers ne capturait de rente, parce que l'outil lui appartenait.

L'ouvrier du XIXe siècle, lorsqu'il venait travailler à l'usine avec les machines du patron, voyait sa productivité augmenter aussi — mais le gain était capté par le propriétaire des machines.

L'IA centralisée chez quelques plateformes nous met dans la position de l'ouvrier. L'IA locale nous remet dans la position de l'artisan.


Comment ça marche, concrètement

Un cabinet de paie, en 2026, peut décider de ne pas dépendre de ChatGPT, Claude ou Gemini. Il peut installer, sur ses propres serveurs, un modèle open-source comme Mistral. Ce modèle l'aide à analyser des conventions collectives, à rédiger des projets de courrier, à synthétiser de la jurisprudence. Aucune donnée du cabinet ne sort de ses murs. Aucune plateforme tierce ne facture l'usage. La productivité des gestionnaires augmente — et le bénéfice reste dans le cabinet.

Un médecin libéral peut faire la même chose. Un avocat. Un comptable. Un journaliste. Un traducteur. Toutes les professions intellectuelles peuvent, en 2026, déployer leur propre outillage IA sans dépendre d'une plateforme tierce.


Les limites de cette voie

Je n'ai pas l'intention de présenter l'IA locale comme la solution complète. Elle est une prise individuelle — elle rééquilibre marginalement le rapport de force, mais ne remplace pas le travail collectif.

Première limite. Les modèles open-source ne sont pas, en 2026, au niveau des modèles propriétaires les plus avancés. L'écart se réduit, mais il existe. Un cabinet qui choisit l'IA locale accepte parfois un service un peu moins performant.

Deuxième limite. Tout le monde n'a pas les compétences techniques pour déployer une IA locale. Pour les très petites structures sans ressources techniques, cette voie reste inaccessible — ou suppose de passer par des intégrateurs qui peuvent reproduire la dépendance.

Troisième limite, la plus importante. L'IA locale est une réponse individuelle. Elle ne traite pas la question politique de fond — celle de savoir si nos sociétés acceptent ou refusent que quelques très grandes plateformes captent durablement la productivité augmentée par l'IA. Cette question se règle par des choix politiques collectifs : régulations, soutien aux modèles ouverts, fiscalité différentielle, défense des souverainetés algorithmiques.


Une convergence d'acteurs

La défense du salariat à l'ère de l'IA ne peut pas reposer sur une seule action. Elle suppose une convergence.

Aux salariés, elle demande d'apprendre à nommer ce qu'ils tiennent au-delà de l'exécution. Pas seulement de produire, mais de pouvoir dire — en quelques phrases claires — quelle responsabilité ils portent et pourquoi cette responsabilité ne peut être tenue par aucune machine.

Aux salariés indépendants, elle demande d'envisager sérieusement la voie de l'IA locale, comme manière concrète de ne pas dépendre des plateformes qui captent la productivité de leur travail.

Aux dirigeants, elle demande de refuser deux confusions. La confusion entre tâche et travail. Et la confusion entre coût salarial et coût de production — qui fait oublier que le salaire qu'on supprime ne devient pas une économie nette, mais une part de valeur captée par un autre acteur.

Aux législateurs, elle demande quatre choses. Défendre les requalifications de plateformes. Refuser l'IA-washing comme motif valable de licenciement. Soutenir les écosystèmes d'IA souveraine et open-source. Et distinguer clairement entre le revenu universel comme outil émancipateur et le revenu universel comme solde du salariat — pour ne pas laisser la première fonction être dévoyée par la seconde.

Aux citoyens, elle demande la conscience que l'arrangement salarial qui a soutenu nos sociétés depuis un siècle n'est pas un acquis intemporel. Il est une construction politique qui peut être défaite, et qui sera défaite si personne ne la défend.

Aucun de ces acteurs n'a, seul, le pouvoir de faire reconnaître les positions comme légitimes face à l'IA. Tous sont nécessaires ensemble.

Partie IX

Réponse au titre

Reprenons la question d'ouverture. Qu'est-ce que ça veut dire toucher un salaire à l'ère de l'IA ?

La réponse, après tout ce qui précède, peut être donnée maintenant.

Toucher un salaire à l'ère de l'IA, c'est tenir trois choses simultanément.

C'est d'abord tenir une responsabilité que la machine ne peut pas tenir. Une responsabilité subordonnée, au sens du droit français de 1996 et de tous les droits du travail des économies développées. Une responsabilité qui suppose qu'on puisse être convoqué, interrogé, sanctionné, indemnisé. Une responsabilité dont on répond — devant un employeur, devant un client, devant un tribunal, devant une institution. Sans cette responsabilité, on n'est pas un salarié — on est un exécutant remplaçable, et on sera remplacé.

C'est ensuite être inscrit dans un corps social qui vous reconnaît. Inscrit par un acte juridique répété mensuellement — la signature du bulletin de paie. Inscrit par les droits que cet acte ouvre — retraite, chômage, formation, ancienneté, protection contre la rupture. Inscrit par la position symbolique que cette inscription donne dans la société — la possibilité de dire qui on est, ce qu'on fait, à qui on appartient. Sans cette inscription, on n'est pas reconnu — on est un travailleur de plateforme, un freelance dont le prix s'effondre, un agent économique sans droits.

C'est enfin posséder l'outil qui augmente votre productivité, ou au moins ne pas dépendre exclusivement d'un propriétaire qui en capte la rente. Sans cette propriété, on est en sursis. On tient sa position aussi longtemps qu'un propriétaire extérieur a intérêt à laisser une part de la productivité revenir aux humains qui produisent. Le jour où ce propriétaire change ses conditions, la position s'effondre — non par la faute de la machine, mais par celle de la propriété qui la concentre.

Les trois ensemble, c'est ça, un salaire à l'ère de l'IA.


L'IA, prise pour elle-même, n'enlève rien à la définition d'un salaire. Elle ne sait pas porter de responsabilité. Elle ne sait pas s'inscrire. Elle ne possède rien. Elle est un outil — extraordinairement puissant, mais un outil.

Ce qui menace les salaires aujourd'hui n'est donc pas l'IA. C'est une organisation politique de l'IA — celle qui se met en place en 2026, où quelques très grandes plateformes captent l'outil, le louent aux entreprises, et où la productivité ajoutée est redirigée vers ces plateformes au détriment des salariés humains. Cette organisation politique n'est pas inéluctable. Elle a été choisie. Elle peut être déchoisie.


Toucher un salaire à l'ère de l'IA, en définitive, c'est tenir bon dans ce rapport de force. C'est refuser plusieurs confusions.

La confusion entre tâche et travail — qui fait croire que la machine remplace ce qu'elle ne peut pas remplacer.

La confusion entre exécution et responsabilité — qui fait croire que payer pour une exécution automatisable est la même chose que payer pour une responsabilité humaine.

La confusion entre coût et inscription — qui fait croire que les charges sont une perte alors qu'elles sont la substance des droits.

La confusion entre IA et propriétaire de l'IA — qui fait croire que la machine décide alors que ce sont ses propriétaires qui décident, et que ces propriétaires sont identifiables.

La confusion, enfin, entre la fin du salariat et la fin du répondre — qui fait croire qu'on peut se passer du salariat sans se passer de l'institution principale qui maintient, dans nos sociétés, l'idée même qu'on puisse être tenu pour responsable de ce qu'on fait.


Emmanuelle Orvain, conceptrice rédactrice française de trente-neuf ans, a vu ses commandes s'éteindre du jour au lendemain en 2023, quand ses clients ont découvert ChatGPT. Elle s'est reconvertie en formatrice d'adultes. Elle pense, désormais, à se reconvertir une fois encore, parce qu'elle voit que la formation elle-même pourrait être bouleversée par l'IA.

À la fin de son entretien à Libération, Emmanuelle Orvain pose la question qui clôt ce livre : vers quels métiers orienter les personnes en transition professionnelle ?

La réponse n'est pas dans une liste de métiers d'avenir. Elle est dans une question préalable.

Vers quels arrangements orienter les personnes en transition ?

Vers des arrangements qui les inscrivent dans un corps social et leur ouvrent des droits, qui les reconnaissent comme porteurs d'une responsabilité humaine que nulle machine ne peut tenir, et qui leur laissent la possession de l'outil qui augmente leur productivité ?

Ou vers des arrangements qui les rémunèrent à la tâche, sans les protéger, sans leur construire d'avenir, sans les reconnaître comme membres tenables d'un collectif, en les rendant dépendants d'outils possédés par d'autres ?

Cette question, ce n'est pas l'IA qui la posera à notre place. C'est nous. Maintenant.


L'IA n'a jamais voulu prendre nos salaires. Elle est incapable d'en prendre. Elle peut prendre des tâches — c'est tout ce qu'elle peut faire.

Ceux qui prendront nos salaires, si nous les laissons faire, ce sont des humains. Des dirigeants qui auront confondu exécution et responsabilité. Des actionnaires qui captent la productivité ajoutée. Des plateformes qui retirent la reconnaissance. Des législateurs qui n'auront pas vu, ou pas voulu voir, que ce qu'on supprime n'est pas seulement un coût, mais un dispositif producteur de droits, de responsabilité, et de tenabilité.

L'IA est neutre. Le rapport de force qui se joue autour d'elle ne l'est pas.

Toucher un salaire à l'ère de l'IA, en définitive, c'est refuser que le silence des conseils d'administration et la complaisance du débat public laissent dissoudre, sans qu'on s'en aperçoive, ce qu'un siècle de luttes et de conventions avait construit. C'est tenir une responsabilité, occuper une position, posséder ses outils — et refuser de laisser fragmenter cette tenabilité par des arrangements qui paient la dégradation et oublient le répondre.

Cette tenabilité, l'IA ne peut ni la donner, ni la prendre.

Mais elle peut, si nous ne sommes pas vigilants, faire oublier qu'elle existe.

À nous de ne pas oublier.

Anthony Roca

Praticien et formateur en gestion de paie depuis 2014

Strasbourg, France · Avril 2026 · Version 1

Comment citer ce texte → · Contribuer un cas →