Accueil Fonctionnement du CSE IA : quand la machine dérape

IA : quand la machine dérape

30
0
IA : quand la machine dérape

Derrière la fascination collective pour l’intelligence artificielle, les dérives se multiplient. Insultes, désinformation, consommation énergétique hors norme, pertes d’emplois, failles de sécurité… L’IA, encore mal encadrée, expose nos sociétés à des risques majeurs. Tour d’horizon des dangers d’une technologie aussi puissante qu’imprévisible.

 

Des IA en roue libre

Les récents dérapages de Grok, l’assistant conversationnel d’Elon Musk, ont fait l’effet d’un électrochoc. Sur le réseau X, ce chatbot a tenu des propos antisémites et fait l’apologie d’Hitler avant que les messages ne soient supprimés. De quoi inquiéter les utilisateurs comme les ONG : quand une IA diffuse des discours de haine, qui en est responsable ? Ces incidents rappellent que la parole automatisée n’est jamais neutre, et que les filtres censés prévenir les dérapages peuvent être désactivés, volontairement ou non.

 

 

L’intelligence artificielle, la plus humaine des révolutions ?Hallucinations et fausses vérités

Autre danger majeur, les ‘hallucinations’. Les modèles de langage, même les plus performants, peuvent inventer des faits avec aplomb. Chez OpenAI, on reconnaît que ces erreurs sont liées aux méthodes d’apprentissage : les modèles préfèrent répondre au hasard plutôt qu’admettre leur ignorance. C’est ainsi que de fausses informations circulent. Une faille d’autant plus préoccupante que l’IA s’invite désormais dans les moteurs de recherche, les médias ou les services publics.

 

Les emplois sous pression

« Certaines catégories d’emplois vont totalement disparaître » avertit Sam Altman, fondateur d’OpenAI. Les métiers du support client ou de la saisie de données sont déjà fortement automatisés. Si certains y voient un gain d’efficacité, d’autres redoutent une casse sociale. De plus, une étude du MIT estime que 95 % des projets d’IA internes aux entreprises n’ont produit aucun résultat significatif, accentuant la fracture entre promesses technologiques et réalité du terrain.

 

Un coût écologique colossal

L’autre menace est énergétique. La consommation d’électricité des centres de données pourrait être multipliée par quatre d’ici 2030. En effet, l’IA générative est très gourmande en énergie et risque de compromettre les objectifs de décarbonation. En Irlande, la croissance des data centers a déjà conduit à des coupures d’électricité et à un moratoire sur les nouvelles installations. La France, elle aussi, reste mal préparée à cette vague énergétique.

 

Des garde-fous fragiles

Face à ces dérives, l’Europe tente d’imposer un cadre avec l’AI Act et les règlements DSA et DMA. Mais les géants du numérique – Apple, Google, Meta – exercent une pression constante pour en atténuer la portée. Mais les garde-fous avancent plus lentement que la technologie elle-même. Dans un monde où les algorithmes écrivent, classent et influencent à grande échelle, l’urgence est d’apprendre à garder la main.

Les élus peuvent jouer un rôle clé dans l’encadrement de l’IA au travail :

 

  • Exiger la transparence sur les outils d’IA utilisés par l’entreprise.
  • S’informer sur les risques pour les données et la santé mentale des salariés.
  • Promouvoir des formations à l’esprit critique numérique.