
Le 18 avril 2023, le Trade Union Congress (TUC) a averti que le gouvernement britannique ne parvenait pas à protéger les travailleurs contre l'"exploitation" par les nouvelles technologies de l'IA. Cette mise en garde a été formulée alors que des politiciens, des dirigeants du secteur technologique, des régulateurs et des syndicats se réunissaient à Londres pour la conférence du TUC sur l'IA.
Le communiqué de presse souligne que les technologies alimentées par l'IA prennent désormais des décisions à haut risque et qui changent la vie, y compris celles liées à l'embauche, à la gestion et au licenciement du personnel. L'IA est utilisée pour analyser les expressions faciales, le ton de la voix et les accents afin d'évaluer l'aptitude des candidats à occuper un poste. En outre, de nombreux travailleurs sont tenus dans l'ignorance de la manière dont l'IA est utilisée pour prendre des décisions qui les concernent directement. Une enquête menée par le TUC l'année dernière montre que seuls 6 % des travailleurs ont été invités à donner leur consentement avant l'utilisation de technologies de recrutement et de gestion basées sur l'IA, tandis que 5 % seulement ont déclaré qu'ils feraient confiance à de telles technologies. Une autre enquête menée par BritainThinks et commandée par le TUC en 2020 s'est penchée sur des domaines spécifiques dans lesquels l'IA est utilisée et a mis en évidence le fort soutien des travailleurs en faveur d'une plus grande consultation. Par exemple, 75 % des personnes interrogées ont estimé que les employeurs devraient être légalement tenus de consulter les travailleurs et de se mettre d'accord avec eux sur toute nouvelle forme de surveillance qu'ils prévoient d'introduire.
Si rien n'est fait, prévient le TUC, l'IA pourrait conduire à une discrimination généralisée ainsi qu'à une intensification du travail et à un traitement inéquitable. Mais ce n'est pas la première fois que le TUC tire la sonnette d'alarme. Le syndicat a déjà souligné à plusieurs reprises la nécessité d'une réglementation plus stricte pour protéger les travailleurs des risques liés à l'IA. L'UE met actuellement en place des lois traitant spécifiquement de l'utilisation de l'IA, alors que le Royaume-Uni n'a rien de tel", peut-on lire dans un autre communiqué de presse publié l'année dernière. Encore un exemple du retard du Royaume-Uni par rapport à ses homologues de l'UE en matière de droits des travailleurs".
En mars 2023, le gouvernement britannique a présenté un livre blanc sur l'IA décrivant un "cadre proportionné, à l'épreuve du temps et favorable à l'innovation" pour la réglementation de l'IA. La proposition a été condamnée par les syndicats, qui l'ont qualifiée d'"échec lamentable", ne fournissant que de vagues orientations aux régulateurs et aucune capacité ou ressource supplémentaire pour faire face à la demande croissante. Les ministres refusent d'introduire les garde-fous nécessaires à la protection des droits des travailleurs", a déclaré l'organisation syndicale.
Aux États-Unis, l'administration Biden a récemment annoncé une série d'actions visant à résoudre les problèmes de sécurité et de protection de la vie privée. L'IA est l'une des technologies les plus puissantes de notre époque, mais pour saisir les opportunités qu'elle offre, nous devons d'abord atténuer ses risques", a déclaré la Maison Blanche dans un communiqué. Ce nouvel effort s'inscrit dans le prolongement des tentatives précédentes de l'administration Biden pour promouvoir une certaine forme d'innovation responsable. En octobre 2022, l'administration a dévoilé un projet de "charte des droits de l'IA" ainsi qu'un cadre de gestion des risques liés à l'IA. Plus récemment, elle a proposé une feuille de route pour l'établissement d'une ressource nationale de recherche sur l'IA.
Toutefois, ces mesures n'ont pas de portée juridique et, à ce jour, le Congrès n'a proposé aucune loi visant à encadrer l'IA. Réagissant à ces initiatives, Avivah Litan, vice-président et analyste distingué chez Gartner Research, a déclaré : "Nous avons besoin de réglementations significatives telles que celles qui sont en cours d'élaboration dans l'UE avec la loi sur l'IA. Même s'ils ne parviennent pas à tout régler d'un seul coup, ils avancent au moins et sont prêts à itérer. Les régulateurs américains doivent accélérer leur jeu et leur rythme".
Dans l'UE, les législateurs ont finalisé le texte de la "législation sur l'IA" avant le vote des principales commissions parlementaires le 11 mai 2023. La loi sur l'IA est une proposition législative historique visant à réglementer l'intelligence artificielle en fonction de son potentiel de nuisance. La proposition initiale classait les systèmes d'IA en quatre catégories : interdits, à haut risque, à faible risque et à risque minimal. Toutefois, le succès récent de ChatGPT et d'autres modèles génératifs a conduit à l'inclusion d'une cinquième catégorie : les systèmes d'IA à usage général - avec un régime plus strict comprenant un résumé obligatoire des données d'entraînement et des amendes plus élevées en cas de violation des règles.
Bien que la loi sur l'IA soit souvent présentée comme un bon exemple aux États-Unis et au Royaume-Uni, elle a néanmoins été fortement critiquée par les universitaires spécialisés dans le droit du travail, qui lui reprochent de ne pas tenir compte des droits des travailleurs. De même, la Confédération européenne des syndicats estime que la loi sur l'IA n'est pas adaptée à la réglementation de l'utilisation de l'IA dans le monde du travail. Une directive européenne sur les systèmes algorithmiques sur le lieu de travail, basée sur l'article 153 du TFUE, devrait définir des normes européennes minimales pour la conception et l'utilisation des systèmes algorithmiques dans le contexte de l'emploi", a déclaré le comité exécutif de la CES dans une résolution adoptée le 6 décembre 2022.