IA générative : le point de vue d'un.e travailleur.euse

Download PDF
Share

IA générative : le point de vue d'un.e travailleur.euse

IA générative : le point de vue d'un.e travailleur.euse

Promesses et dangers

Table of contents fr

1. Qu'est-ce que l'IA générative ?

L'IA générative est un sous-ensemble de l'intelligence artificielle qui se concentre sur la création (ou la génération) de nouvelles données, de nouveaux contenus ou de nouvelles informations qui imitent les résultats obtenus par les humains. Au lieu de se contenter de traiter des données ou d'exécuter des tâches prédéfinies, l'IA générative peut générer du texte, des images, de la musique, du code et même des vidéos. Cette catégorie d'IA est particulièrement puissante car elle ne se contente pas d'apprendre des modèles ou d'analyser des informations existantes : elle produit de nouveaux contenus sur la base des modèles qu'elle a appris à partir de ses données d'entraînement.

L'un des exemples les plus connus d'IA générative est la série Chat GPT d'OpenAI, qui est entraînée sur des quantités massives de données textuelles et peut générer des essais, répondre à des questions, écrire de la poésie et même engager une conversation. D'autres outils importants sont DALL-E (qui génère des images à partir de textes), Anthropic (pour la sécurité et l'explicabilité de l'IA générative), Hugging Face (pour le développement de l'IA générative piloté par la communauté) et Midjourney (pour la production de contenu visuel).


2. Comment fonctionne l'IA générative ?

L'IA générative fonctionne en combinant des algorithmes d'apprentissage automatique (ML) et de grandes quantités de données d'entraînement. Au cœur de l'IA générative se trouvent des modèles tels que les réseaux neuronaux, en particulier les architectures d'apprentissage profond. Ces réseaux sont conçus pour imiter le fonctionnement du cerveau, notamment en apprenant des modèles, en faisant des prédictions ou en générant de nouvelles informations sur la base de données antérieures.

La plupart des modèles d'IA générative reposent sur des algorithmes d'apprentissage non supervisé. Contrairement aux algorithmes d'apprentissage supervisé, qui s'appuient sur des données étiquetées pour tenter d'orienter les systèmes d'IA vers un résultat souhaité, les algorithmes d'apprentissage non supervisé nécessitent de grandes quantités de données non étiquetées pour être introduites dans les modèles. À partir de ces données, les systèmes d'IA génératifs apprennent à générer des contenus similaires sans être explicitement programmés. Dans l'IA textuelle, par exemple, les modèles sont formés à l'aide de vastes ensembles de données provenant de livres, de sites web et d'articles. En analysant ces données, les systèmes d'IA apprennent la grammaire, le contexte, le ton et d'autres aspects nuancés du langage.

Les deux composantes importantes du fonctionnement des modèles d'IA générative sont les suivantes :

  • La phase de formation: Au cours de cette phase, le modèle est alimenté par de grandes quantités de données. Il apprend à reconnaître les modèles, les structures et les relations dans les données.

  • Phase d'inférence: Lorsque le modèle est mis en œuvre, il génère un nouveau contenu en prédisant ce qui devrait suivre sur la base de l'instruction ou de l'entrée fournie par l'utilisateur.

Il est important de savoir que ces systèmes sont alimentés par des quantités incroyables d'énergie. D'ici six ans, les centres de données nécessaires au développement et à l'exécution des modèles d'IA de nouvelle génération dans lesquels Microsoft investit pourraient consommer plus d'énergie que toute l'Inde. Ils seront refroidis par des millions et des millions de litres d' eau.

Regardez ces courtes vidéos sur l'IA générative et les grands modèles de langage (les LLM sont un type spécifique d'IA générative qui se concentre sur la compréhension et la création de textes semblables à ceux d'un être humain). Si vous voulez aller plus loin, regardez cette vidéo. (Remarque : vous pouvez choisir des sous-titres dans de nombreuses langues).



3. Cas d'utilisation dans les services publics

L'IA générative trouve sa place dans un large éventail de secteurs des services publics, de la santé à l'éducation en passant par le travail administratif et l'application de la loi. Voici quelques cas d'utilisation :

  • Santé: L'IA générative est utilisée pour créer des rapports de santé personnalisés, inciter les médecins à demander certaines informations aux patients lors des visites au cabinet, ou aider les médecins à poser un diagnostic. Par exemple, les outils d'IA peuvent générer des résumés à partir de dossiers médicaux, recommander des traitements en fonction des symptômes et créer des modèles prédictifs pour les résultats des patients. Watson d'IBM est l'un de ces systèmes d'IA qui a été utilisé en oncologie pour fournir des recommandations de traitement.

  • L'éducation: Dans les écoles, l'IA peut aider les enseignants en élaborant des plans de cours, en créant des questionnaires automatisés ou même en offrant un tutorat personnalisé aux élèves. Des outils comme la Khan Academy ont commencé à intégrer l'IA générative dans leurs plateformes pour aider les étudiants à résoudre des problèmes en temps réel.

  • Gouvernement et administration: Les services publics, tels que la gestion des villes ou la protection sociale, peuvent utiliser l'IA pour produire des rapports, répondre aux demandes du public, décider de la manière dont les prestations publiques sont distribuées, ou même automatiser des tâches de base telles que la génération de formulaires. L'administration d'une ville peut utiliser l'IA pour prévoir les besoins en matière de transports publics et y répondre, ou pour générer automatiquement des formulaires fiscaux en fonction des données fournies par les utilisateurs.

  • Application de la loi: L'IA est utilisée dans le monde entier pour aider les forces de l'ordre en produisant des rapports, en analysant les schémas de criminalité et en prédisant les futures infractions, ou même en rédigeant des documents juridiques.

  • Service à la clientèle: De nombreuses institutions publiques utilisent désormais des chatbots pilotés par l'IA pour fournir aux citoyens des réponses immédiates à leurs questions. Par exemple, les collectivités locales peuvent utiliser l'IA générative pour créer des assistants virtuels qui répondent aux questions sur les services publics comme la gestion des déchets ou le paiement des impôts.


4. Pourquoi les services publics utiliseraient-ils l'IA générative ?

Étant donné que de nombreux services publics sont confrontés à des difficultés financières, ils pourraient être tentés d'utiliser l'IA générative pour les raisons suivantes.

  • Efficacité accrue: L'IA générative peut automatiser les tâches répétitives, ce qui permet aux travailleurs de se concentrer sur des tâches plus complexes et plus utiles. Par exemple, un outil d'IA peut générer des rapports ou répondre aux questions des citoyens, ce qui nécessiterait autrement des heures de travail manuel.

  • Réduction des coûts: En réduisant la nécessité pour les travailleurs d'effectuer des tâches à forte intensité de main-d'œuvre, l'IA générative peut réduire les coûts opérationnels. Les gouvernements peuvent réaffecter les budgets consacrés aux frais de personnel à d'autres aspects de leurs services.

  • Amélioration de la créativité: L'IA peut contribuer à la résolution créative de problèmes en générant de multiples solutions ou idées pour des questions complexes. Par exemple, elle peut aider les urbanistes à concevoir de nouveaux aménagements pour les espaces publics ou aider les décideurs politiques à rédiger de nouvelles lois.

  • Traitement des données et prise de décision: L'IA générative peut analyser de grandes quantités de données et générer des informations exploitables, ce qui pourrait améliorer la prise de décision publique. Par exemple, elle pourrait aider les professionnels de la santé à analyser les tendances en matière de santé de la population ou à élaborer des réponses appropriées en matière de santé publique.

  • Personnalisation des services: Dans des secteurs comme l'éducation et la santé, l'IA générative peut personnaliser les services en fonction des besoins des individus. L'IA peut aider à personnaliser les expériences d'apprentissage ou à adapter les traitements médicaux à chaque patient.


5. Problèmes liés à l'IA générative dans les services publics

Si l'IA générative peut offrir certains avantages, elle pose également des problèmes importants, en particulier lorsqu'elle est déployée dans les services publics. Vous trouverez ci-dessous une analyse approfondie des problèmes potentiels, des préoccupations éthiques aux limitations techniques.

Cliquez sur un sujet pour le développer

Déplacement de l'économie et de la main-d'œuvre

Les outils génératifs peuvent être utilisés comme des assistants, augmentant la créativité humaine, mais ils peuvent également être utilisés pour automatiser certains types de travail. De nombreuses questions restent ouvertes quant aux tâches qui seront le plus facilement automatisées et quant à savoir si cette automatisation entraînera une réduction du nombre total d'emplois, un changement profond de la manière dont certains travaux sont valorisés ou une restructuration de la main-d'œuvre avec la création de nouveaux emplois. Par exemple, un employé du service public chargé de la communication pourrait soit (1) perdre son emploi parce que la direction décide de laisser l'IA générative rédiger les communiqués de presse ; (2) voir son salaire réduit parce qu'il est confronté à une concurrence accrue (par la machine) sur le marché ; ou (3) ne plus écrire autant manuellement, mais être chargé de produire les textes finaux à l'aide de l'IA ou peut-être de vérifier les faits dans les textes produits par l'IA.

L'IA générative pourrait entraîner des changements importants dans la main-d'œuvre du service public, le risque de déplacement d'emplois étant une préoccupation majeure :

  • Pertes d'emplois dans certains secteurs : À mesure que l'IA générative prend en charge des tâches telles que la rédaction de rapports, la rédaction de documents juridiques et le service à la clientèle, de nombreux emplois de la fonction publique pourraient être menacés. Les tâches de bureau, les tâches administratives et même certains rôles professionnels pourraient être automatisés, ce qui entraînerait des pertes d'emplois et des perturbations économiques.

  • Modification des compétences requises : L'IA est également susceptible de modifier la nature du travail dans le service public. Les travailleurs devront peut-être acquérir de nouvelles compétences en matière de surveillance de l'IA, de gestion des données ou de respect de l'éthique. Cela peut créer un fossé entre ceux qui sont capables de monter en compétences et ceux qui sont laissés pour compte.

Responsabilité et manque de transparence

La prise de décision en matière d'IA est souvent considérée comme une "boîte noire", où le fonctionnement interne du système est opaque, même pour ceux qui le conçoivent et le déploient. Ce manque de transparence peut être problématique dans les services publics, où la responsabilité est cruciale :

  • Prise de décision opaque : Lorsque l'IA est utilisée pour prendre ou éclairer des décisions - comme l'attribution de logements sociaux ou la détermination de l'éligibilité aux services sociaux - la manière dont ces décisions sont prises peut manquer de clarté. Cela peut éroder la confiance du public, en particulier si les citoyens ont l'impression d'être traités injustement par un système d'IA qu'ils ne comprennent pas.

  • Des recours juridiques limités : Si un système d'IA commet une erreur qui porte préjudice à un citoyen, par exemple en refusant une prestation ou en classant une personne de manière erronée dans une base de données des forces de l'ordre, il peut être difficile d'établir la responsabilité juridique. La responsabilité doit-elle être imputée au fournisseur de l'IA, à l'institution publique qui utilise le système ou aux décideurs politiques qui ont approuvé son utilisation ?

Manque de supervision humaine et dépendance excessive à l'égard de l'IA

L'IA générative est un outil puissant, mais les services publics courent le risque de trop s'y fier, ce qui entraînerait un manque de supervision humaine critique dans la prise de décision :

  • Automatisation des rôles centrés sur l'humain : Si l'IA générative est utilisée pour automatiser des tâches qui requièrent de l'empathie et de la compréhension humaine - comme le travail social, le conseil ou le triage médical - elle peut conduire à des interactions dépersonnalisées, inappropriées, voire nuisibles. Par exemple, l'utilisation de l'IA pour évaluer les demandes d'aide sociale sans examen humain pourrait avoir pour effet de priver de services essentiels des personnes vulnérables qui sont confrontées à des difficultés particulières.

  • Érosion des compétences : Une dépendance excessive à l'égard de l'IA peut entraîner une diminution de l'expertise et du jugement humains dans des domaines essentiels. Les travailleurs peuvent perdre des compétences et de l'expérience s'ils dépendent trop fortement des solutions générées par l'IA sans comprendre pleinement les problèmes ou le contexte sous-jacents.

Préjugés et discrimination

Les systèmes d'IA générative sont formés sur de vastes ensembles de données qui reflètent souvent des préjugés historiques. Lorsque ces ensembles de données contiennent des informations biaisées - qu'il s'agisse de race, de sexe, de statut socio-économique ou de toute autre caractéristique - les modèles d'IA ont tendance à perpétuer et même à amplifier ces préjugés. Dans les services publics, cela peut avoir de graves conséquences. En voici un exemple :

  • Préjugés raciaux ou sexistes dans la prise de décision : Lorsque les systèmes d'IA apprennent à reconnaître des modèles dans des ensembles de données non structurées, ils peuvent identifier des modèles basés sur des variables qui correspondent à des caractéristiques identitaires protégées par la législation antidiscriminatoire. La race et le sexe en sont deux exemples courants. Les systèmes d'IA utilisés dans le cadre de l'application de la loi ou du système de justice pénale pourraient présenter des préjugés raciaux dans leurs prédictions, comme le montrent certains outils de police prédictive. De même, les systèmes d'IA utilisés pour le recrutement dans le secteur public pourraient favoriser les candidats masculins au détriment des candidates féminines si les données d'apprentissage reflètent des déséquilibres historiques entre les hommes et les femmes.

  • Attribution discriminatoire des aides sociales : Les systèmes d'IA utilisés pour attribuer des prestations sociales ou des logements publics peuvent être discriminatoires à l'égard des communautés marginalisées si les données sur lesquelles ils s'appuient sont faussées. Par exemple, si les données historiques montrent que certains groupes démographiques ont moins de chances de recevoir des prestations, l'IA peut injustement poursuivre cette tendance.

Pour remédier aux biais, il est nécessaire de procéder à un audit continu et à un réentraînement des modèles d'IA sur divers ensembles de données. Cependant, certains services publics pourraient penser que cela est coûteux et prend du temps, en particulier si les ressources sont limitées. En outre, il se peut qu'il n'existe pas d'ensembles de données diversifiés ou qu'ils ne soient pas adaptés au contexte de l'utilisation prévue du système. Dans de nombreux cas, le service public en question devra passer manuellement outre le système d'IA pour limiter la production de matériel nuisible, mais ces types d'interventions sont nécessairement fragiles et imparfaites. En effet, les travailleurs des services publics au Royaume-Uni ont parlé de la nécessité constante de neutraliser un système pour éviter de nuire aux citoyens.

Insensibilité culturelle et manque de compréhension du contexte

Les modèles d'IA générative sont souvent formés sur des ensembles de données qui peuvent différer du contexte dans lequel le système est utilisé. Lorsqu'un système développé dans un contexte donné est déployé dans un lieu différent, il peut générer des interprétations culturelles, des valeurs ou afficher des questions qui sont perçues comme insensibles ou inappropriées. Ce problème se pose également lorsque les modèles d'IA sont formés sur des ensembles de données globales si le système est utilisé pour une population particulière. Cela peut être problématique dans les sociétés multiculturelles où les services publics doivent répondre aux besoins de divers groupes, et dans les zones géographiques où des systèmes principalement formés sur des données du monde occidental sont utilisés dans d'autres régions :

  • Services de traduction inexacts : Les outils de traduction par IA utilisés dans les services publics peuvent avoir du mal à comprendre les expressions idiomatiques, les dialectes locaux ou l'utilisation de la langue en fonction du contexte, ce qui entraîne des erreurs de communication. Par exemple, une IA générative traduisant des documents gouvernementaux peut ne pas saisir la signification culturelle de certains termes, ce qui entraîne des malentendus.

  • Messages publics insensibles : Lorsque l'IA générative est utilisée pour produire des communications destinées au public, telles que des annonces gouvernementales ou des campagnes de santé publique, il existe un risque que les messages soient culturellement insensibles ou inappropriés. Par exemple, un système d'IA générative utilisé pour créer du contenu pour une campagne de santé publique pourrait, sans le savoir, offenser certaines communautés religieuses ou ethniques s'il ne comprend pas leurs coutumes.

  • Barrières linguistiques: Les chatbots ou les systèmes de service à la clientèle alimentés par l'IA et déployés dans les services publics peuvent ne pas comprendre les dialectes régionaux ou les langues minoritaires, ou ne pas y répondre avec précision. Par exemple, en Inde, où de nombreuses langues sont parlées, un service d'IA pourrait privilégier l'hindi ou l'anglais, ce qui désavantagerait les locuteurs de langues moins courantes.

  • Mauvaise interprétation des pratiques culturelles: L'IA utilisée dans les systèmes de santé ou les systèmes juridiques peut mal interpréter les pratiques traditionnelles, ce qui entraîne de mauvais conseils ou de mauvaises décisions. Par exemple, si une IA de santé publique est programmée sur la base de pratiques médicales occidentales, elle pourrait ne pas tenir compte des pratiques de guérison indigènes ou culturelles, ce qui donnerait aux groupes minoritaires le sentiment d'être incompris ou maltraités.

  • Stéréotypes: Étant donné que l'IA générative est entraînée sur de vastes ensembles de données comprenant des contenus biaisés ou stéréotypés, elle peut renforcer, voire amplifier, des stéréotypes culturels préjudiciables lorsqu'elle interagit avec des personnes de différentes régions. Par exemple, si l'on demande à une IA de générer des images ou des descriptions de certaines nationalités, elle peut produire des représentations exagérées ou stéréotypées basées sur des données obsolètes ou biaisées.

  • Biais dans le contexte historique ou social: Les IA génératives formées sur certains ensembles de données peuvent présenter des événements historiques ou des questions sociales d'un point de vue étroit, en omettant ou en déformant souvent des points de vue culturels importants d'autres régions.

Fabrication et désinformation

Les systèmes d'IA générative sont également connus pour produire régulièrement des informations entièrement fabriquées ou incorrectes qui peuvent sembler plausibles mais qui sont inexactes dans les faits. C'est ce que l'on appelle la "fabrication" ou la "confabulation". Cela peut être problématique dans les services publics où l'exactitude est cruciale, par exemple :

  • Documents juridiques erronés: Si l'IA est utilisée pour produire des documents ou des conseils juridiques dans l'administration publique, les hallucinations pourraient conduire à un raisonnement juridique erroné ou à une documentation incorrecte, causant des préjudices aux personnes ou des retards dans les procédures judiciaires.

  • Conseils médicaux trompeurs : Dans le domaine de la santé, l'IA générative pourrait halluciner des informations qui conduisent à des traitements inappropriés ou à des diagnostics erronés. Imaginez un chatbot de santé publique conseillant les citoyens sur la base d'informations fausses ou incomplètes - cela pourrait gravement compromettre la santé publique.

Durabilité et impact environnemental

Les coûts environnementaux de la formation et de l'exploitation de grands modèles d'IA sont énormes. Les systèmes d'IA générative, en particulier les grands modèles linguistiques comme ChatGPT, nécessitent d'importantes ressources informatiques, qui consomment une grande quantité d'énergie :

  • Empreinte carbone élevée : La puissance de calcul nécessaire pour former et maintenir les modèles d'IA générative peut avoir une empreinte carbone importante. Les institutions publiques doivent évaluer le coût environnemental du déploiement de grands systèmes d'IA, en particulier à la lumière des engagements plus larges pris par les gouvernements pour réduire les émissions de carbone.

  • Intensité des ressources : Le matériel nécessaire à l'IA - serveurs haute performance, systèmes de refroidissement, etc. - est gourmand en ressources, ce qui peut peser sur les budgets et les infrastructures publics, en particulier dans les régions dépourvues de capacités technologiques avancées.

Violations de la vie privée et risques pour la sécurité des données

Les modèles d'IA générative sont généralement formés sur de grands ensembles de données, dont certains peuvent contenir des informations personnelles sensibles. Dans les services publics, où l'IA est souvent chargée de traiter des données confidentielles (comme les dossiers médicaux, les informations de sécurité sociale ou les dossiers juridiques), les préoccupations en matière de protection de la vie privée sont primordiales :

  • Violation de données : Les systèmes d'IA peuvent révéler par inadvertance des données sensibles. Par exemple, si un système d'IA génératif est utilisé pour aider à la gestion des cas dans les services sociaux, il peut générer un contenu qui divulgue des informations privées sur des personnes sans leur consentement.

  • Risque de réidentification : même les ensembles de données anonymes peuvent présenter un risque pour la vie privée si les modèles d'IA sont capables de "réidentifier" des personnes sur la base de modèles dans les données. Cela pourrait être particulièrement problématique dans le domaine de la santé publique, où les données relatives aux épidémies pourraient par inadvertance révéler des informations personnelles sur les patients.

Préoccupations en matière de propriété intellectuelle (PI)

Les systèmes d'IA générative créent souvent de nouveaux contenus - qu'il s'agisse de textes, d'images ou même de musique - en utilisant et en transformant des œuvres existantes. Dans les services publics, où des contenus tels que des documents publics, des rapports et du matériel pédagogique sont générés, cela soulève des questions sur les droits de propriété intellectuelle :

  • Violation du droit d'auteur: Les outils d'IA générative peuvent, par inadvertance, générer des contenus qui ressemblent étroitement à des œuvres protégées par le droit d'auteur, ce qui peut donner lieu à des litiges juridiques. Par exemple, si un système d'IA génère une image ou un slogan de campagne publique qui ressemble trop à un logo ou à une phrase commerciale, les institutions publiques pourraient être tenues pour responsables de la violation.

  • Propriété du contenu généré par l'IA : Dans les contextes de service public, la détermination des détenteurs des droits sur le contenu généré par l'IA peut constituer une zone grise sur le plan juridique. Le gouvernement détient-il les droits sur les rapports ou les documents produits par une IA, ou est-ce le créateur original de l'IA qui détient ces droits ? Des cadres juridiques clairs sont encore en cours d'élaboration, mais les institutions publiques doivent faire preuve de prudence dans le traitement de cette question.


6. Conseils pour les travailleurs des services publics

Alors que le domaine de l'IA générative est encore émergent et que les réponses réglementaires sont en attente, nous aimerions proposer quelques réponses fluides, changeantes et non exhaustives que les travailleurs du secteur public peuvent adopter.

Avant d'introduire l'IA générative sur le lieu de travail, les travailleurs devraient exiger une communication claire, de la transparence et des garanties de la part de la direction afin de s'assurer que la technologie est déployée de manière éthique, sûre et équitable.

Mais tout d'abord, en tant qu'individu, n'oubliez pas ce qui suit :

  • Ne jamais télécharger de matériel sensible vers ces systèmes. Il s'agit notamment d'ensembles de données comprenant des données personnelles ou des informations personnellement identifiables, des dossiers et autres. Il est important de se rappeler qu'il s'agit de systèmes développés par des entreprises privées. Une fois les données téléchargées, elles leur appartiennent.

  • Ne vous fiez jamais aux résultats. Vérifiez toujours les résultats que vous recevez - vérifiez les faits et validez tout contenu auprès de sources fiables.

  • Considérez l'impact environnemental de l'utilisation de ces systèmes.

Dans votre environnement de travail, essayez de mettre en place les éléments suivants avant d'accepter d'utiliser l'IA générative au travail :

La direction a établi, en concertation avec vous, une politique interne clairement définie régissant l'utilisation de l'IA générative sur le lieu de travail. Cette politique devrait couvrir des sujets tels que

  • Stipulations selon lesquelles les documents sensibles ne doivent jamais être téléchargés vers ces systèmes. Il s'agit notamment d'ensembles de données comprenant des données personnelles ou des informations personnellement identifiables, des dossiers, etc.

  • Une formulation garantissant que les travailleurs ne seront pas obligés d'utiliser leur adresse électronique personnelle pour créer un compte à des fins professionnelles.

  • Une "garantie de non-perte d'emploi", c'est-à-dire que l'introduction de l'IA n'entraînera pas de pertes d'emploi immédiates.

  • Des instructions claires sur les personnes autorisées à utiliser l'IA, la manière dont elle sera intégrée dans les processus de travail, le type de tâches qu'elle est autorisée à accomplir et un plan de perfectionnement et de recyclage des travailleurs pendant le temps de travail.

  • Un programme de formation visant à garantir que les travailleurs comprennent bien ce que l'IA peut et ne peut pas faire, afin d'éviter tout malentendu quant à son impact potentiel et à ses performances.

  • Un langage établissant des garanties en cas de modification des conditions de travail.

  • Information de tous les travailleurs, dans un langage clair et simple, sur la nature et l'objectif des systèmes utilisés.

  • Des garanties claires en matière de respect de la vie privée, par exemple en ce qui concerne les autres fins auxquelles les données enregistrées lors de l'utilisation du système d'IA générative peuvent être utilisées, ainsi que les fins auxquelles elles peuvent l'être et les personnes qui peuvent les utiliser.

  • des principes de contrôle humain qui garantissent que les travailleurs ont le droit et le temps de vérifier la validité des informations produites par les systèmes d'IA générative

  • des politiques claires sur la manière dont les données seront protégées, stockées et utilisées si la direction utilise l'IA générative pour traiter les données des employés. Il s'agit notamment des informations personnelles et des communications susceptibles d'être analysées par l'IA générative.

  • Des stratégies d'atténuation des préjugés, y compris la manière dont la direction veillera à ce que les systèmes d'IA ne renforcent pas les préjugés existants, en particulier dans les processus de prise de décision concernant les travailleurs et/ou le public.

  • Structures de responsabilité : La direction doit établir des structures de responsabilité, de manière à ce que l'on sache clairement qui est responsable des décisions prises à l'aide de l'IA. Les travailleurs et le public doivent savoir à qui s'adresser si l'IA commet des erreurs ou cause des dommages. À cette fin, il convient de mettre en place un système de dénonciation (pour un signalement en toute sécurité).

  • une comptabilité environnementale

  • Mécanismes de réclamation permettant de traiter les problèmes à un stade précoce, avant qu'ils ne s'aggravent, et d'identifier les tendances au fil du temps.

  • Diligence raisonnable de la chaîne d'approvisionnement (par exemple, garantir que tous les travailleurs impliqués dans le développement et la modération des systèmes d'IA générative, y compris les annotateurs de données, les modérateurs de contenu et les travailleurs contractuels, reçoivent un salaire de subsistance en fonction de leur région).

  • Les matériaux générés par l'IA en collaboration avec les travailleurs ou sous leur direction doivent être la propriété conjointe des travailleurs et du service public. Les travailleurs conservent des droits de propriété partiels, en particulier lorsque leur créativité, leur expertise ou leurs connaissances influencent de manière significative la production de l'IA.

  • Le matériel, les messages-guides, les données ou les spécifications fournis par les travailleurs pour guider le système d'IA seront reconnus comme leur propriété intellectuelle (PI). Le travailleur a le droit d'être crédité en tant que co-créateur de tout contenu généré par l'IA qui découle de sa contribution.

  • Si le matériel généré par l'IA donne lieu à des gains commerciaux ou à d'autres avantages, les travailleurs ont droit à une part équitable des bénéfices ou des autres avantages, proportionnellement à leur contribution. Des mécanismes transparents de partage des bénéfices ou tout autre moyen de redistribution des gains à la main-d'œuvre doivent être mis en place.

  • La garantie que les politiques seront régulièrement réexaminées avec l'aide des employés, afin de s'assurer qu'elles restent pertinentes à mesure que l'IA évolue et que son rôle sur le lieu de travail se modifie.

Remarque : si vous ne disposez pas du droit légal de consultation ou si ce droit n'est pas garanti dans votre convention collective, négociez le droit d'être consulté avant que la direction n'introduise des systèmes d'IA générative et essayez d'inclure le plus grand nombre possible d'éléments mentionnés au point 1 ci-dessus.

Vous pouvez également aborder les points suivants avec la direction.

La direction doit être en mesure de prouver qu'elle respecte toutes les obligations légales, telles que celles relatives à la santé et à la sécurité, à la protection des données (y compris les évaluations d'impact), à l'égalité et aux droits de l'homme.

La direction a mis en place des audits réguliers du système qui seront menés en coopération avec vous/votre syndicat.

La direction doit garantir des pratiques non discriminatoires : L'utilisation de l'IA doit faire l'objet d'un examen approfondi afin de garantir l'équité et la non-discrimination.

Transparence dans la prise de décision en matière d'IA : Le public doit avoir le droit de savoir quand l'IA générative a été impliqué dans des décisions telles que l'évaluation du bien-être, l'application de la loi ou les réponses en matière de santé publique. Le service public doit rester transparent et responsable devant les travailleurs et le public.


7. Conclusion

Il existe un risque considérable que l'utilisation de systèmes d'IA par les services publics ne fasse qu'aider les entreprises Big Tech à consolider leur pouvoir. Le contrôle des services publics par les entreprises est déjà largement répandu et est stimulé par la pression croissante en faveur de l'intégration de systèmes numériques dans tous les domaines, de la fourniture de services sociaux à l'évaluation des demandes d'emploi, en passant par l'élaboration des politiques et la démocratie. Si l'on ajoute à cela les tendances générales à la privatisation et l'augmentation des marchés publics portant sur le développement par le secteur privé de systèmes numériques pour les services publics, le tableau est clair.

En outre, les grandes entreprises technologiques contrôlent d'énormes quantités de données, non seulement par l'intermédiaire des services publics, mais aussi grâce aux services qu'elles offrent aux entreprises et au public. Elles disposent des moyens financiers, de la puissance de calcul nécessaire pour faire fonctionner les systèmes d'IA et de l'expertise technique requise pour ce faire.

Pour préserver la qualité des services publics et la démocratie, il est donc pertinent que les syndicats de la fonction publique du monde entier s'engagent à plaider en faveur de lois et de politiques inclusives en matière de gouvernance de l'IA. Ces politiques devraient renforcer l'autonomie et les capacités des services publics afin de limiter les relations de dépendance vis-à-vis des intérêts commerciaux ; réviser les exigences en matière de marchés publics afin d'y inclure la comptabilité de l'impact environnemental et social ; sauvegarder les emplois de qualité et redistribuer les profits réalisés grâce aux technologies numériques au sein de la population active ; garantir la transparence et la responsabilité des systèmes d'IA ; renforcer la propriété des données; inclure une gouvernance inclusive obligatoire des systèmes d'IA, et bien d'autres choses encore.

Bon nombre de ces mesures peuvent être mises en œuvre par le biais de la négociation collective. À cette fin, l'ISP a mis au point trois outils qui peuvent s'avérer utiles. Le premier est le Portail de négociation sur la numérisation. Il s'agit d'une base de données ouverte de clauses de négociation collective, d'accords-cadres et d'autres éléments similaires provenant de syndicats du monde entier. Restez à l'écoute car les syndicats négocient autour de l'utilisation de l'IA générative !

Le deuxième est le guide de co-gouvernance et le troisième est appelé le cycle de vie des données au travail. Ces trois éléments sont importants lorsque la direction utilise des systèmes d'IA générative pour éclairer ses décisions concernant les travailleurs et les services qu'elle fournit au public.

Video

This 18min video covers key questions such as What is generative AI, how does it work, how do I use it, what are some of the risks & limitations. Also covers things like autonomous agents, the role of us humans, prompt engineering tips, AI-powered product development, origin of ChatGPT, different types of models, and some tips about mindset around this whole thing.

Generative AI in a Nutshell - how to survive and thrive in the age of AI

En savoir plus

La question de savoir qui gouverne la transformation numérique est l'une des plus importantes de la prochaine décennie : les syndicats doivent être prêts à façonner cette transformation dans l'intérêt public.