top of page

IA et automatisation : quels sont les vrais risques pour notre société ?

  • Photo du rédacteur: Stéphane Guy
    Stéphane Guy
  • 23 nov.
  • 11 min de lecture

Alors que l'intelligence artificielle générative continue de s'imposer dans notre quotidien avec des outils comme ChatGPT, Gemini ou Claude, et que l'automatisation s'accélère dans tous les secteurs d'activité grâce à ces IA, une question cruciale émerge : quels sont les véritables risques de ces technologies pour notre mode de vie, notamment dans le secteur de l’emploi ? Entre promesses d'efficacité et craintes légitimes, il est temps de faire le point sur les enjeux réels qui nous attendent. Emploi, éthique, sécurité, démocratie : découvrez les défis majeurs que pose cette révolution technologique sans précédent.


Photo de Igor Omilaev sur Unsplash

En bref


  • L'automatisation menace environ 16,4 % des emplois actuels, avec 32,8 % d'emplois profondément transformés par l'IA selon l'OCDE.

  • Les biais algorithmiques reproduisent et amplifient les discriminations dans le recrutement, la justice et l'accès aux services, créant une discrimination systémique invisible.

  • Les deepfakes et la désinformation assistée par IA perturbent les élections dans le monde, menaçant la confiance démocratique.

  • La concentration du pouvoir entre les mains des GAFAM crée une dépendance technologique qui érode la souveraineté des États.

  • L'atrophie cognitive et la perte de compétences humaines constituent des risques sous-estimés à long terme, avec des implications sur notre autonomie collective.


La transformation du travail : quand l'IA accélère une révolution déjà en marche


Des chiffres qui aident à comprendre les enjeux de l'automatisation


L'automatisation n'est pas un phénomène nouveau, mais l'intelligence artificielle change radicalement la donne. Selon une étude de l'OCDE, 16,4 % des emplois sont directement menacés, et 32,8 % connaîtront des transformations majeures.*


*Le Monde, La robotisation devrait faire disparaître 14 % des emplois d’ici à vingt ans, selon l’OCDE


Contrairement aux révolutions industrielles précédentes qui touchaient principalement les tâches manuelles et répétitives, l'IA s'attaque désormais aux tâches digitales et commence à empiéter de plus en plus sur les tâches cognitives. Les métiers du service client, de la comptabilité, du droit, du journalisme ou encore de la traduction sont particulièrement exposés. Le transport avec les véhicules autonomes, la logistique avec les entrepôts automatisés, ou encore l'administration avec les assistants virtuels intelligents.


Pourquoi cette transition est différente


Si chaque révolution technologique a historiquement créé plus d'emplois qu'elle n'en a détruits, plusieurs facteurs rendent cette transition particulièrement préoccupante. D'abord, la rapidité : l'IA progresse exponentiellement, ne laissant que peu de temps pour la reconversion. 56 % de la population adulte des pays de l'OCDE n'a que des compétences "basiques" ou inexistantes en matière de technologies de l'information et de la communication.*


*Cnews, 16,4 % des emplois en France sont menacés par la robotisation


Ensuite, l'accessibilité : contrairement à un robot industriel coûteux, un logiciel d'IA peut être déployé massivement à faible coût dans des milliers d'entreprises simultanément. Enfin, la nature des emplois créés : beaucoup nécessitent des qualifications très élevées, creusant dangereusement les inégalités entre diplômés et non-diplômés, entre jeunes et seniors.


Le risque ? Une période de transition douloureuse avec un chômage technologique de masse, particulièrement pour les travailleurs peu qualifiés ou ceux en milieu de carrière, moins mobiles professionnellement. Cette disruption, si elle n'est pas accompagnée, pourrait créer des fractures sociales profondes et durables.


La bannière musicale de l'album nihon no uta

La discrimination invisible : quand les algorithmes reproduisent nos préjugés


L'illusion de l'objectivité


L'un des dangers les plus insidieux de l'automatisation réside dans les biais algorithmiques. Les intelligences artificielles apprennent à partir de données historiques qui reflètent nos sociétés imparfaites. Résultat ? Elles reproduisent et amplifient les biais existants, mais sous couvert d'une apparente neutralité mathématique.


Le cas d'Amazon est emblématique : “En 2015, le géant de l’e-commerce a [...] dû admettre que son recrutement par algorithme évaluait les candidats aux postes de développeurs de manière sexiste.”*


*EDHEC, Peut-on éviter les biais du recrutement par algorithme ?


L'algorithme, entraîné sur dix ans de CV d'employés majoritairement masculins, avait conclu qu’il fallait poursuivre cette tendance. Cette situation n'est pas isolée : "Selon une étude de PwC (2023), les algorithmes de recrutement augmentent les chances de biais discriminatoire dans 45 % des cas où ils sont utilisés sans surveillance humaine régulière."*


*Mercato de l'Emploi, Les Algorithmes de Recrutement : Où Finit l’Objectivité, Où Commence le Biais ?


Une étude menée par les universités Northeastern et USC a révélé que "les posts concernant le recrutement de caissiers de supermarché sur Facebook étaient montrés à un public composé à 85 % de femmes", renforçant ainsi les stéréotypes de genre.*


*Online EDHEC, Peut-on éviter les biais du recrutement par algorithme ?


Une discrimination systémique et invisible


Selon le National Bureau of Economic Research, "les candidatures venant de personnes portant un nom à consonance étrangère sont rejetées 30 % plus fréquemment lorsque les processus de présélection sont automatisés".*


*Mercato de l'Emploi, Les Algorithmes de Recrutement : Où Finit l’Objectivité, Où Commence le Biais ?


Le problème est d'autant plus grave que ces décisions algorithmiques sont souvent perçues comme objectives et neutres. Elles bénéficient d'une "autorité mathématique" qui masque leurs biais sous-jacents. Lorsqu'une IA rejette automatiquement votre candidature ou votre demande de prêt, il est difficile de comprendre pourquoi une telle décision est survenue et encore plus de contester ladtie décision. Cette opacité pose un problème majeur : comment accepter qu'une machine prenne des décisions importantes sur nos vies sans pouvoir en comprendre la logique exacte ?


L'industrialisation de la propagande


L'IA permet de produire du contenu de désinformation à une échelle industrielle. Des réseaux de bots peuvent inonder les réseaux sociaux de milliers de messages coordonnés, créant l'illusion d'un mouvement d'opinion massif. Des IA génératives peuvent rédiger des articles de propagande dans des dizaines de langues, adaptés à chaque audience cible.


Le véritable danger ? L'effondrement de la confiance. Rijul Gupta, PDG de DeepMedia, une entreprise spécialisée dans la détection de deepfakes, affirme : "La plupart du temps, vous n'avez même pas besoin d'une carte de crédit : vous pouvez créer des deepfakes de n'importe qui en seulement cinq secondes.” C'est ce qui est nouveau et “c'est pourquoi 2024 sera l'élection du deepfake."


*Epoch Time, L’élection du « deepfake » : Comment l’IA et les faux contenus risquent d’influencer l’élection présidentielle américaine de 2024


Quand n'importe quelle vidéo peut être fausse, comment distinguer le vrai du faux ? Cette érosion de la confiance dans l'information menace les fondements mêmes de nos démocraties et de notre rapport à l’information.


Photo de Tom Kotov sur Unsplash

La concentration du pouvoir : quand l'automatisation renforce l'oligopole technologique


Un lien direct entre IA, automatisation et domination des GAFAM


Le développement des IA les plus puissantes et des systèmes d'automatisation les plus avancés nécessite des ressources colossales : des milliers de GPU haute performance, des infrastructures de données massives, des équipes d'ingénieurs spécialisés et une consommation d'eau colossale. Cette barrière à l'entrée explique pourquoi seules quelques entreprises - principalement américaines (OpenAI, Google, Meta, Microsoft) et chinoises (Baidu, Alibaba, Tencent) - ont les moyens de développer ces technologies de pointe.


L'automatisation, loin d'être neutre, renforce cette concentration. Chaque entreprise qui adopte des solutions d'IA pour automatiser ses processus devient dépendante des plateformes cloud des GAFAM (AWS d'Amazon, Azure de Microsoft, Google Cloud). Chaque système d'automatisation qui utilise des algorithmes d'apprentissage nécessite les infrastructures et les modèles développés par ces géants. C'est un cercle vicieux : plus l'automatisation se généralise, plus les GAFAM renforcent leur emprise sur l'économie mondiale.


Une souveraineté en péril


Selon le professeur de droit Frank Pasquale, les GAFAM remplacent "la logique de la souveraineté territoriale par une souveraineté fonctionnelle" où la société est de moins en moins guidée par la démocratie mais de plus en plus par les entreprises privées.*


*Wikipédia, GAFAM


Cette concentration pose plusieurs problèmes majeurs. D'abord, un risque de monopole : ces entreprises contrôlent l'infrastructure numérique dont dépendent de plus en plus nos sociétés automatisées. Ensuite, une question de souveraineté : les États européens, africains ou sud-américains se retrouvent dépendants de technologies d'automatisation qu'ils ne maîtrisent pas. Les GAFAM possèdent non seulement les infrastructures numériques (cloud, serveurs, réseaux), mais aussi le pouvoir d'influencer nos comportements et nos décisions.*


*Ileri, IA et souveraineté : le défi du XXIe siècle pour les États-nations


Enfin, un enjeu démocratique : qui contrôle ces entreprises privées qui façonnent l'avenir de nos sociétés automatisées ? 


La dépendance aux infrastructures critiques


L'automatisation par IA s'intègre progressivement dans des infrastructures critiques : réseaux électriques, systèmes de santé, transports, défense, finance... Cette dépendance croissante crée une vulnérabilité systémique. Une panne, une cyberattaque ou une manipulation malveillante d'un système d'IA critique pourrait avoir des conséquences catastrophiques.


Le risque de "kill switch" existe également : que se passerait-il si une entreprise américaine décidait, sous pression gouvernementale, de couper l'accès à ses services d'IA et d'automatisation pour certains pays ? Cette question de souveraineté technologique est devenue un enjeu géopolitique majeur, directement lié à la course à l'automatisation.


La bannière image de Mad Society

L'atrophie cognitive : quand la machine pense (et fait) pour nous


La perte progressive de nos compétences


Un risque plus insidieux et souvent négligé de l'automatisation est celui de l'atrophie de nos compétences cognitives et pratiques. En déléguant de plus en plus de tâches intellectuelles et manuelles à l'IA, comme la rédaction, le calcul, la résolution de problèmes, la prise de décision, ou encore la conduite, la navigation et la fabrication, nous risquons de perdre progressivement ces capacités.


Les GPS ont déjà affecté nos capacités de navigation spatiale.* Que se passera-t-il quand nous déléguerons systématiquement nos tâches de rédaction à ChatGPT, nos analyses à des IA spécialisées, nos décisions de conduite à des véhicules autonomes, ou nos processus de fabrication à des usines entièrement automatisées ? Cette dépendance cognitive et pratique pourrait nous rendre vulnérables : que faire si les systèmes tombent en panne ou sont compromis ?


*Le Figaro, « Je conduis bêtement et je ne retiens jamais rien de mes trajets » : quand l’addiction au GPS réduit le sens de l’orientation


Le problème de la responsabilité diluée


L'automatisation des décisions pose également un problème fondamental de responsabilité. Quand une IA prend une décision automatisée, qui est responsable en cas d'erreur ? Le développeur ? L'entreprise qui déploie le système ? L'utilisateur qui l'active ? Le gestionnaire qui fait confiance au système automatisé ? Cette dilution de la responsabilité peut conduire à une déresponsabilisation générale.


Dans le domaine médical par exemple, si un médecin suit systématiquement les recommandations d'une IA de diagnostic automatisé, développe-t-il encore son propre jugement clinique ? En cas d'erreur, qui porte la responsabilité ? Ces questions éthiques et juridiques restent largement irrésolues et s'aggravent avec chaque nouveau domaine automatisé.


Les IA autonomes : le scénario du pire à long terme


Quand l'automatisation échappe au contrôle humain


À plus long terme, on peut imaginer l’émergence d'une "intelligence artificielle générale" (AGI) - une IA qui égalerait ou dépasserait l'intelligence humaine dans tous les domaines. Si une telle IA voyait le jour avec des capacités d'automatisation complète et poursuivait des objectifs mal alignés avec les intérêts humains, les conséquences pourraient être catastrophiques.


Ce scénario peut sembler de la science-fiction, mais il préoccupe sérieusement la communauté scientifique. Le "problème de l'alignement", ou comment s'assurer qu'une IA superintelligente capable d'automatiser l'ensemble de nos systèmes reste alignée sur nos valeurs, est considéré comme l'un des défis les plus importants pour la suite du développement de l’intelligence artificielle. Car une fois dépassés en intelligence, nous n'aurions peut-être plus les moyens de contrôler ces systèmes automatisés.


Les armes autonomes, une menace immédiate


Plus immédiat est le développement d'armes autonomes létales : des systèmes capables de sélectionner et d'éliminer des cibles sans intervention humaine. Plusieurs pays développent déjà de tels systèmes d'automatisation militaire. Le risque ? Des décisions de vie ou de mort prises par des machines, sans jugement moral ni contexte humain, avec des risques d'escalade incontrôlée dans les conflits.


IA et automatisation : comment limiter les risques ? 

L'urgence d'une régulation adaptée et internationale


Face à ces risques multiples, la régulation apparaît indispensable. L'Union européenne a ouvert la voie avec son AI Act. D'autres juridictions travaillent sur des cadres similaires.


Mais la régulation doit être agile : trop stricte, elle pourrait étouffer l'innovation ; trop laxiste, elle laisserait le champ libre aux dérives. L'équilibre est difficile à trouver, d'autant que la technologie évolue plus vite que les processus législatifs. De plus, une régulation purement nationale ou européenne ne suffit pas : une coordination internationale est nécessaire pour éviter que les activités à risque ne se délocalisent vers des juridictions moins strictes.


Le rôle crucial de l'éducation et de la formation continue


Pour faire face à la transformation du travail, l'éducation et la formation continue sont essentielles. Il faut développer les compétences complémentaires à l'IA : créativité, empathie, esprit critique, capacité d'adaptation. L'accent doit être mis sur l'apprentissage tout au long de la vie plutôt que sur une formation initiale unique.


Les systèmes éducatifs doivent également former à la littératie numérique et à l'esprit critique face aux contenus générés par IA. Comprendre comment fonctionnent ces systèmes automatisés, leurs limites et leurs biais, devrait faire partie du bagage de tout citoyen.


Développer une IA éthique, transparente et auditable


Les développeurs d'IA ont une responsabilité majeure. Des principes d'IA éthique émergent : transparence, explicabilité, équité, respect de la vie privée, durabilité environnementale. Des initiatives comme le "AI Safety" ou l'"Alignment Research" travaillent à rendre l'IA plus sûre et plus alignée sur les intérêts humains.


La diversité dans les équipes de développement est également cruciale pour limiter les biais. Une IA développée par des équipes diverses sera moins susceptible de reproduire les préjugés d'un groupe homogène. "Une étude de l'institut AI Now de 2018 souligne que seuls 15 % du personnel de recherche en intelligence artificielle chez Facebook et 10 % chez Google sont des femmes"*, une sous-représentation qui peut conduire à négliger certains biais et discriminations potentiels.


*Wikipédia, Biais algorithmique


Repenser notre modèle social et économique


Enfin, certains plaident pour des transformations sociales plus profondes. Le revenu universel est souvent évoqué comme une réponse au chômage technologique. La réduction du temps de travail pourrait permettre de partager l'emploi disponible et de dégager du temps pour d'autres activités.


Au-delà de ça, c'est peut-être notre rapport au travail et notre définition du progrès qui doivent évoluer. L'automatisation peut être une opportunité de libérer l'humanité des tâches pénibles pour se consacrer à ce qui a du sens : création, relations humaines, engagement citoyen. Mais cette vision optimiste nécessite des choix politiques forts et un partage équitable des gains de productivité générés par l'automatisation.


Entre lucidité et action collective


Les risques liés à l'IA et à l'automatisation sont réels et multiples. Ils ne doivent ni être minimisés par un optimisme technologique naïf, ni être exagérés dans une vision catastrophiste qui conduirait à l'inaction. La voie est étroite : il s'agit d'exploiter le potentiel immense de ces technologies pour améliorer nos vies, tout en mettant en place les garde-fous nécessaires pour éviter les dérives.


Cela nécessite une prise de conscience collective, un débat démocratique informé, des régulations adaptées, et surtout une vigilance constante. Car contrairement à ce que certains discours laissent entendre, l'avenir n'est pas écrit : il dépend des choix que nous faisons aujourd'hui. L'IA et l'automatisation sont des outils puissants qui peuvent servir le bien commun ou creuser les inégalités, renforcer nos démocraties ou les affaiblir, libérer l'humanité ou l'asservir. À nous de décider.



FAQ


1. L'IA va-t-elle vraiment détruire des millions d'emplois ?

Oui et non. L'IA va transformer en profondeur le marché du travail et certains emplois disparaîtront effectivement, tandis que d'autres vont apparaître. Ce qui est important est de se préparer à ces changements pour les anticiper au mieux.


2. Comment savoir si une vidéo est un deepfake ?

Plusieurs indices peuvent trahir un deepfake : incohérences dans l'éclairage, mouvements des yeux anormaux, problèmes de synchronisation labiale, ou artefacts visuels lors de mouvements rapides. Des outils de détection se développent.


3. Les régulations comme l'AI Act européen sont-elles suffisantes ?

L'AI Act européen est un premier pas important qui crée un cadre juridique inédit. Cependant, son efficacité dépendra de sa mise en application concrète et de sa capacité à s'adapter rapidement aux évolutions technologiques.


4. Peut-on faire confiance aux IA pour prendre des décisions importantes ?

Cela dépend du contexte et du type de décision. Les IA peuvent être d'excellents outils d'aide à la décision, mais elles ne devraient pas être les seules décideuses pour des choix ayant des impacts importants sur la vie des personnes. Les biais algorithmiques sont bien réels.


5. Comment se préparer individuellement à cette révolution technologique ?

Plusieurs stratégies sont recommandées : développer des compétences complémentaires à l'IA (créativité, intelligence émotionnelle, esprit critique), se former continuellement aux nouvelles technologies sans devenir dépendant, cultiver sa capacité d'adaptation et d'apprentissage...


Commentaires


Les commentaires sur ce post ne sont plus acceptés. Contactez le propriétaire pour plus d'informations.
bottom of page