L’intelligence artificielle (IA) génère de nouvelles opportunités. Toutefois, son adoption rapide et massive engage une responsabilité individuelle et collective. Cette charte, rédigée par le Conseil scientifique consultatif réuni sous l’impulsion de Sindup, vise à définir les principes directeurs d’une IA éthique et responsable, en cohérence avec les différents engagements de Responsabilité Sociétale des Entreprises (RSE) et de Cybersécurité.
La mise en œuvre de cette charte doit être suivie et évaluée régulièrement pour garantir son efficacité et sa pertinence. Au regard des principaux impacts négatifs du développement de l'IA décrits ci-dessous, il nous semble en effet essentiel d’avancer en transparence avec nos différentes parties prenantes. Il s’agit de trouver, ensemble, le chemin de crête entre les coûts économiques et les bénéfices obtenus d’une part, et les curseurs d’impacts extra-financiers, d’autre part, en cohérence avec les engagements RSE de chaque organisation ainsi que leurs contraintes règlementaires (CSRD par exemple).
L'intelligence artificielle (IA) a des impacts majeurs sur divers aspects économiques, sociaux et environnementaux. Ces derniers sont souvent sous-estimés, voire ignorés, mais sont d'une importance capitale pour comprendre les défis que pose l'adoption rapide et massive de l'IA.
L'un des impacts les plus frappants de l'IA est son coût environnemental. L'entraînement et la mise à jour des modèles d'IA nécessitent une quantité colossale d'énergie. Par exemple, une étude de l'université de Californie a révélé que l'entraînement d'un modèle d'IA produirait autant de dioxyde de carbone (CO2) que 205 vols aller-retour entre Paris et New York. D'après les estimations de Bloomberg, cela pourrait consommer autant d’énergie que l'équivalent de 100 foyers américains sur un an.
En effet, les émissions de CO2 de Google ont augmenté de près de la moitié (48%) depuis 2019, notamment à cause de ses développements dans l'intelligence artificielle, d'après son rapport annuel 2023. Plus récemment, c'est Microsoft qui affichait une hausse de 30% de ses émissions en trois ans, du fait, également, de ses investissements dans l'IA.
En 2050, les émissions de CO2 générées par le secteur numérique en France pourraient atteindre 50 millions de tonnes, soit trois fois plus qu'aujourd'hui, selon les prévisions de l'ADEME et de l'ARCEP. En décuplant ses usages, ces chiffres montrent l'énorme pression que l'IA, avec son écosystème (modèles LLM, réseaux de communication, centres de données, objets connectés, terminaux, etc.), contribuera à exercer sur les ressources naturelles, non seulement à travers la consommation d'énergie, mais aussi par le biais de la demande en métaux nécessaires à la fabrication des infrastructures technologiques (cuivre, gallium, yttrium, cobalt, tungstène, tantale, niobium, indium, hafnium, lithium, palladium, etc.).
En effet, l'IA dépend de matériaux pour ses infrastructures, ce qui entraîne une exploitation minière intensive qui se fait dans des conditions souvent difficiles et avec des impacts environnementaux et sociaux considérables. A ce sujet, la géologue Marieke Van Lichtervelde alerte sur les dégâts environnementaux causés par l’industrie minière nécessaire au monde numérique : « Nous allons extraire autant de métaux dans les trente prochaines années que ce que l’humanité a extrait jusqu’à présent. » De plus, la demande en terres rares, nécessaires pour les composants électroniques, entraîne des violences locales et des tensions géopolitiques tout en favorisant des conditions de travail précaires dans les régions d'extraction.
D’autre part, une étude de l'université du Colorado a montré que poser seulement 25 questions à un modèle d'IA comme ChatGPT consommerait l’équivalent d’un demi-litre d'eau douce. Dans son rapport environnemental 2023, Google révélait avoir prélevé 28 milliards de litres d’eau dans l’année, dont les deux tiers étaient de l’eau potable, pour refroidir ses centres de données. Entre 2018 et 2022, ses prélèvements ont augmenté de 82%. Amazon, Google, Meta, Microsoft, ainsi que tous les grands acteurs déployant des data centers, sont de plus en plus confrontés à des conflits d’usage qui se multiplient aux États-Unis, en Uruguay, aux Pays-Bas, en Irlande ou encore en Espagne, comme avec le mouvement « Tu nube seca mi rio » (« Ton nuage assèche ma rivière »).
Enfin, la démultiplication des centres de données, déjà 8 millions dans le monde, pour répondre à la demande en forte croissance avec l’IA, accélère également l’artificialisation des sols. En effet, le foncier nécessaire à la construction des bâtiments sécurisés ne cesse de croître.
Par exemple, si un appareil consomme moins d'énergie pour fonctionner, les consommateurs peuvent être incités à utiliser cet appareil plus fréquemment ou à en acheter davantage, ce qui peut finalement conduire à une consommation totale d'énergie plus élevée qu'avant l'amélioration de l'efficacité.
Dans le contexte de l'intelligence artificielle, l'effet rebond peut se manifester par exemple lorsque des systèmes d'IA moins énergivores sont déployés à grande échelle, conduisant à une utilisation accrue de ces systèmes et donc paradoxalement à une augmentation globale de la consommation d'énergie, de ressources matérielles, ou d’infrastructures nécessaires pour les soutenir.
Le fonctionnement des grands modèles de langage est également très coûteux. A titre d’exemple, les infrastructures nécessaires pour faire fonctionner ChatGPT coûtent environ 700 000 dollars par jour à OpenAI dont les pertes devraient avoisiner les 5 à 7 milliards de dollars en 2024. Ce coût exorbitant est principalement dû à la nécessité de maintenir une puissance de calcul massive, indispensable pour traiter les données à grande échelle. Dans une phase de conquête de marché en vue de devenir les leaders de demain, les grands acteurs de l’ensemble de la chaîne de valeur investissent souvent à perte. En devenant dépendantes de ces technologies et des fournisseurs associés, les organisations sont susceptibles d’être exposées à une inflation des prix de revient dans les années à venir.
Cet investissement dans l'IA n'est pas sans conséquences pour le marché du travail. Aux États-Unis, 48% des entreprises qui utilisent ChatGPT ont déjà procédé à des licenciements, selon une étude de Resume Builder. L'automatisation des tâches par l'IA entraîne la suppression de postes, affectant particulièrement, à ce jour, les emplois routiniers et les tâches administratives. Cela soulève des questions sur la reconversion des travailleurs et sur la gestion des ressources humaines à l'ère de l'automatisation à grande échelle. D’autant plus que, pour les personnes à bas niveau de qualification dont les postes sont ainsi supprimés, les opportunités de nouveaux postes portent généralement sur des emplois à plus forte qualification et donc potentiellement inaccessibles. Cependant, certains acteurs, notamment issus de l’ESS, peuvent parfois renoncer à l’automatisation de certaines tâches répondant à la fois à leur mission sociale et à la demande d’une partie croissante des consommateurs sensibles à la valeur sociale et aux enjeux environnementaux.
Dans un autre registre, Copyleaks a récemment publié un rapport révélant que 60% du contenu généré par ChatGPT est associé à du plagiat. Ce constat suscite des inquiétudes parmi les créateurs de contenus. En parallèle, un rapport d'Europol indique que, d'ici 2026, environ 90% du contenu en ligne pourrait être généré par l'IA, soulevant des préoccupations concernant la pollution des informations. Ce qui n’est pas sans risques pour les médias dont le modèle économique pourrait être mis en danger si les moteurs de recherche boostés à l’IA générative se nourrissent de leurs contenus sans générer de trafic et sans rémunérer d’une quelconque façon les auteurs pour l’utilisation de leurs contenus. Les producteurs risqueraient d’accélérer leur bascule vers des modèles d’accès payants, déjà en cours ces dernières années, réduisant alors l’accès universel à l’information. Le droit d’auteur et les droits voisins sont au cœur de ces enjeux économiques. Par ailleurs, les médias auront également la responsabilité de prévoir des gardes fous afin que le public soit informé de la place de l’IA dans l’élaboration des contenus d’information sur le net et pour s’assurer du respect des principes de la déontologie journalistique dans le cadre de l’utilisation de l’IA. En cas de dérives, l’IA peut être utilisée afin de contourner les règles de droit social et de déontologie journalistique pour produire des sites d’informations sans aucun journaliste et inonder ainsi le marché de contenus créés sans intervention humaine. Cela ne sera pas sans conséquences sur la confiance du public dans l’information à une époque où celle-ci est déjà écornée.
Enfin, les « crowdworkers » ou « microtravailleurs », qui effectuent les tâches numériques répétitives sur lesquelles reposent les grands systèmes d'IA, comme l'étiquetage de données d'entraînement et l'examen de contenus suspects ou dangereux, sont payés quelques centimes à la micro-tâche dans des conditions souvent très précaires. Une étude de l'Organisation internationale du travail a permis d'interroger 3 500 crowdworkers dans 75 pays. Le rapport a révélé qu'un grand nombre de personnes gagnait moins que le salaire minimum local, bien que la majorité des sondés avait un bon niveau d'études, la plupart d’entre eux étant souvent spécialisés dans les sciences et les hautes technologies.
En outre, l'utilisation de l'IA soulève des préoccupations concernant la confidentialité des informations. Une étude menée sur 1,6 million de postes surveillés par l'entreprise de cybersécurité Cyberhaven a montré que 2,6% des utilisateurs ont transmis des informations confidentielles à des IA, exposant ainsi leurs entreprises à des risques de divulgation involontaire. Cela montre l'importance de la sensibilisation des utilisateurs et de la mise en place de protocoles de sécurité robustes pour protéger les données sensibles. La souveraineté numérique reste un enjeu stratégique qui nécessite de trouver un juste équilibre entre puissance et sécurité. Par ailleurs, les environnements multi-cloud et multi-juridictionnels ajoutent de la complexité pour la protection des données sensibles et la définition des responsabilités. Ces dernières peuvent aussi soulever des interrogations, au-delà des risques cyber, vis-à-vis de la responsabilité légale en cas d’erreur. A ce propos, un rapport du Conseil de l’Europe souligne que « l’attribution de la responsabilité en cas de dommages causés par l’IA représente un des défis les plus urgents de notre époque ».
L'utilisation de l'intelligence artificielle présente des avantages indéniables en termes de productivité et d'innovation, mais elle s'accompagne de risques et de coûts significatifs, tant financiers qu’extra-financiers. Les impacts sur l'emploi, la fiabilité, la confidentialité des données, la pollution, les droits humains et l'exploitation des ressources doivent être pris en compte de manière rigoureuse pour développer une IA durable et éthique. Il est crucial que les organisations et les utilisateurs soient conscients de ces enjeux afin de prendre des décisions éclairées sur l'adoption de l'IA.
Mais surtout, toujours selon le professeur américain, associer progrès social et environnemental avec l’économie a le pouvoir de déclencher la prochaine vague de croissance mondiale. L’ajout de cette nouvelle dimension nécessite d’avoir recours à des compétences transverses et pluridisciplinaires au sein des entreprises, de créer des écosystèmes inclusifs et des partenariats multisectoriels, de favoriser les écosystèmes locaux et de généraliser des indicateurs extra-financiers pour piloter les organisations et mesurer leur performance globale. Et si les gains de productivité obtenus grâce à l’IA étaient investis dans l’innovation sociale et environnementale ?
Chez l’humain, 250 biais cognitifs ont été identifiés et référencés. Ces biais peuvent aussi bien nous induire en erreur que nous permettre de survivre ! En effet, notre cerveau a intégré à travers son évolution des biais qui nous aident à agir en « simplexité » dans un monde de « complexité ». Les raccourcis ainsi opérés permettent de prendre des décisions et d’agir rapidement tout en faisant preuve d’une frugalité remarquable. Pour éviter de subir les effets négatifs de ces biais, les connaître développe notre capacité à limiter les erreurs de jugement ou de perception qui peuvent en découler.
Dans le même esprit, la prise en compte des biais et hallucinations de l’IA générative permettrait de mieux les déjouer. Fin 2023, une enquête a été réalisée par Harvard et le MIT pour mesurer l'efficacité des consultants du Boston Consulting Group (BCG), avec ou sans l’utilisation de ChatGPT. Celle-ci conclut à un gain de productivité global très significatif. Pour les consultants les moins performants et compétents, leurs travaux gagnent également en qualité. Cependant l’enquête montre aussi que cela accroît plus encore leur nombre d’erreurs et d’imprécisions ! Enfin, BCG estime que la diversité des idées des participants qui utilisent ChatGPT dans la réalisation de tâches créatives est 41% plus faible que celle du groupe n’y ayant pas eu recours, ce qui peut se révéler contre-productif dans le cadre de tâches nécessitant d’innover, d’extrapoler ou d’anticiper. Pour utiliser au mieux cette technologie, les auteurs du rapport invitent les dirigeants à dresser un inventaire des tâches réalisées au sein de leur entreprise afin d’identifier celles qui peuvent bénéficier/pâtir d’une adoption encadrée de la technologie mais aussi à repenser leur stratégie de ressources humaines et à expérimenter sans relâche.
La question se pose : « L’IA peut-elle vraiment être frugale ? ». Partant de ce questionnement, l’usage responsable de l’IA se traduit notamment par une utilisation la plus sobre possible. S’il paraît aujourd’hui évident que les 4x4 sont mieux utilisés dans le sauvetage en montagne que pour des virées de loisir, il devrait couler de source que l’utilisation des IA génératives, de la même façon, devrait, autant que possible, être réservée à des usages présentant un bénéfice d’intérêt général significatif. A titre d’exemple, l’IA générative fait l’objet d’expérimentations pour réduire la fracture numérique, linguistique et culturelle. Par exemple, pour les réfugiés : aide à la rédaction de courriers administratifs, lettres de motivation, recherches sur les textes de loi et les droits, etc. Cela représente un potentiel pour leur redonner le pouvoir d’agir en complément d’un accompagnement humain classique.