Getting your Trinity Audio player ready...

Renseignements clés

  • Les conseils d'administration jouent un rôle essentiel dans l'adoption de l'IA, tout en faisant face à des responsabilités nouvelles et émergentes en cette ère de transformation.
  • Alors que certains préconisent une approche « légère » de la gouvernance de l'IA afin de faciliter l'innovation, cette technologie soulève des questions d'ordre juridique, éthique et réputationnel.
  • L'utilisation de l'IA fait l'objet d'un examen juridique de plus en plus minutieux, y compris les allégations de fardage à l'IA ou la fausse représentation des capacités de l'IA, qui présentent de nouveaux domaines de responsabilité pour les entreprises et leurs cadres supérieurs.
  • Du point de vue de l'assurance pour administrateurs et dirigeants, il est nécessaire de tester la portée de la couverture et de combler les lacunes avant qu'elles ne deviennent des problèmes liés à la gestion des risques liés à l'IA.
  • Suivre l'intégration rapide et l'évolution de la réglementation tout en maintenant une communication ouverte dans l'ensemble de l'organisation nécessite une approche réfléchie.

Face à un rythme accéléré d'adoption numérique, les conseils d'administration font face à une pression croissante pour livrer des programmes complexes de transformation de l'IA. Les dirigeants jouent un rôle clé dans la réussite du changement à mesure que la main-d'œuvre s'adapte, en donnant le ton et en élargissant les cadres de gestion des risques et de conformité afin d'englober les risques nouveaux et émergents liés à la gouvernance de l'IA.

Trouver le bon équilibre entre gagner en efficacité et stimuler l'innovation tout en respectant les exigences éthiques et réglementaires exige une approche stratégique et réfléchie de la gouvernance.

Alors que de nombreux dirigeants mondiaux préconisent une approche « légère » en matière de réglementation de l'utilisation de cette technologie, afin d'encourager son adoption rapide et l'innovation, le phénomène de l'IA, qui évolue rapidement, suscite des inquiétudes, comme l'illustrent les récentes poursuites judiciaires liées au fardage à l'IA. Ces problèmes ne feront que devenir plus prononcés à mesure que les entreprises progressent dans leur parcours d'adoption de l'IA.

« Nous constatons une augmentation des poursuites liées à l'IA depuis 2024 », déclare Laura Parris, directrice générale de la responsabilité de gestion, Gallagher. « La représentation erronée des capacités d'IA, le fardage à l'IA, a été le plus grand facteur jusqu'à présent. Mais les allégations de préjugés et de discrimination algorithmiques augmentent également rapidement, alors que les organismes de réglementation se concentrent sur l'équité et la transparence. »

Les violations de la confidentialité des données liées à l'IA sont un domaine de préoccupation important, en particulier en vertu de lois comme le Règlement général sur la protection des données (RGPD). Trois risques principaux — la fausse déclaration, le parti pris et la confidentialité — sont actuellement présents et susceptibles de s'aggraver.

Le sondage de référence 2025 de Gallagher « Attitudes face à l'adoption de l'IA » a révélé un bond notable en matière d'IA étant considéré comme un risque par les dirigeants du monde entier, soulignant l'importance de stratégies efficaces de gestion des risques liés à l'IA. Les dirigeants d'entreprise disent que leurs principales préoccupations sont les erreurs d'IA ou les « hallucinations », où le système génère des résultats inexacts. Parmi les autres préoccupations majeures figurent la protection des données et les violations de la vie privée (33 %), ainsi que les responsabilités juridiques (31 %) liées à l'utilisation abusive de l'IA.

« Ce n'est pas parce que l'IA est un risque relativement nouveau que les conseils d'administration doivent s'attaquer à ce risque en partant de zéro », note Priya Huskins, experte en responsabilité civile des dirigeants chez Woodruff Sawyer, une société du groupe Gallagher. « Pensez à la façon dont les conseils d'administration, qui n'étaient pas nécessairement férus de technologie, ont dû d'abord se familiariser avec les cyberrisques, puis les gérer, il y a seulement dix ans. » Aujourd'hui, cet exercice est encore sérieux, mais aussi tout à fait courant.

« Bien que l'IA puisse sembler exotique, les bons conseils d'administration ont l'habitude d'examiner les menaces émergentes et, dans la mesure du possible, de les transformer en occasions commerciales. » En matière de surveillance des risques, l'objectif d'un conseil d'administration n'est pas tant de s'attaquer à un risque spécifique que de mettre en place un processus permettant d'intégrer les nouvelles informations dès qu'elles deviennent pertinentes pour l'entreprise. Même si l'IA présente certains éléments uniques, elle n'est en réalité que le dernier d'une série infinie de risques que les conseils d'administration sont chargés de gérer dans le cadre de leurs obligations fiduciaires envers leurs actionnaires. »

Cependant, Huskins note : « Cela ne veut pas dire que l'IA ne rencontrera pas de défis particuliers. Considérons, par exemple, qu'outre les défis commerciaux que l'IA peut poser, elle permettra également aux actionnaires dissidents d'analyser plus facilement que jamais les activités des conseils d'administration et de mettre au jour les points de désaccord stratégiques.

Dans tous les secteurs, les conseils d'administration réévaluent les cadres de gouvernance existants, identifiant les lacunes dans la surveillance tout en s'assurant que les décisions liées à l'IA s'alignent sur les valeurs plus générales de leur entreprise et les attentes sociétales.

Rôle de la haute direction dans la gouvernance, l'adoption et la gestion du changement de l'IA

L'IA transforme la main-d'œuvre en automatisant certains rôles, en remodelant d'autres et en créant de nouvelles occasions. Et le pouvoir transformateur de l'IA peut être un catalyseur de changement positif. Elle peut enrichir la main-d'œuvre en orientant les employés vers des tâches à plus forte valeur ajoutée dans des domaines tels que la stratégie et l'innovation, tandis que l'automatisation prend en charge les tâches plus routinières.

Quarante-quatre pour cent des chefs d'entreprise dans le sondage mondial de Gallagher citent l'amélioration de la résolution des problèmes comme l'un des principaux avantages, tandis que 42 % affirment que la technologie stimule l'efficacité et la productivité des employés.

La réussite de la transformation numérique dépend de la capacité à instaurer la confiance et à obtenir l'adhésion de l'ensemble de l'organisation, explique Ben Warren, directeur général et chef de la transformation numérique et de l'IA, des RH et des services-conseils en communications, Gallagher.

« La clé pour gérer ces craintes est une communication transparente. Les organisations doivent rassurer les employés sur le fait que l'adoption de l'IA sera un processus graduel et qu'il y aura de nombreuses occasions de requalification. Il s'agit de créer une culture où les employés se sentent habilités à s'adapter », explique-t-il.

C'est là que la haute direction a un rôle clair à jouer. L'équilibre entre l'innovation et la sensibilisation aux risques tout en créant un espace pour l'expérimentation aide les équipes à naviguer dans l'incertitude et à atténuer les pièges potentiels. Impliquer le personnel dans le processus permet d'instaurer un climat de confiance et un sentiment d'appropriation commune, deux éléments essentiels pour gérer le changement et minimiser les risques liés à la résistance.

« Bien que le risque lié à l'IA soit souvent attribué aux services informatiques ou juridiques, il devrait relever de la responsabilité de l'entreprise afin de gérer efficacement sa nature interconnectée », selon Aidan Hewitt, partenaire client — Conseil en changement de culture, Gallagher. « La haute direction est responsable de l'engagement des équipes interfonctionnelles d'adoption de l'IA et de tirer parti de l'expertise des responsables des risques dans l'ensemble de l'organisation, y compris les RH, les services juridiques, la gestion des risques et les TI.

« Donner l'exemple et définir la direction à suivre sont des éléments essentiels du changement lié à l'IA que les dirigeants doivent adopter. »

Il incombe aux dirigeants d'expérimenter l'IA afin d'acquérir une expérience pratique de son fonctionnement et, par conséquent, de donner l'exemple en matière de mentalité et de comportements.

L'adoption réussie de l'IA implique une collaboration à tous les niveaux de direction pour façonner une culture transparente et curieuse. Et pourtant, du point de vue des obligations légales, la responsabilité ultime — et la responsabilité civile — incombe au conseil d'administration.

Responsabilités du conseil d'administration en matière de gouvernance de l'IA et de surveillance des risques

L'investissement dans l'IA est considéré comme un levier concurrentiel essentiel. Cependant, si l'évolution des cas d'utilisation apporte efficacité et occasions, elle expose également les organisations à de nouveaux risques en matière de responsabilité. La salle du conseil d'administration se trouve en première ligne, là où l'innovation axée sur l'IA rencontre la responsabilité juridique, éthique et réputationnelle.

Comme pour tout autre sujet de gestion, de conformité, de risque et de divulgation, les conseils d'administration s'efforcent de mieux comprendre l'impact de la présence accrue de l'IA sur l'entreprise, ses employés et ses obligations, tant à court qu'à long terme.

« Le conseil d'administration est en fin de compte responsable de l'exposition aux risques de l'entreprise et de la gestion de ces expositions aux risques », déclare Theresa Lewin, directrice nationale des risques professionnels et financiers, Gallagher, Australie. « Ses membres sont responsables de la gouvernance, ils doivent donc être conscients des expositions au risque de l'IA. »

L'identification, l'évaluation et la résolution proactives des risques associés à l'adoption de l'IA ne sont pas seulement la bonne chose à faire, elles relèvent directement des tâches et responsabilités des administrateurs.

Une gouvernance efficace de l'IA repose sur quatre piliers essentiels : l'alignement stratégique, la surveillance éthique, la gestion des risques et la préparation opérationnelle. Ensemble, ils forment un cadre de gouvernance qui permet l'innovation sans compromettre la responsabilité et s'aligne sur les normes mondiales comme le cadre de gestion des risques de l'IA du National Institute of Standards and Technology (NIST), un guide pour aider les organisations à gérer les risques de l'IA.

La gouvernance des risques liés à l'IA continuera de tester ces cadres, mis en évidence par :

  • Le passage de la gouvernance centralisée à la gestion des risques distribuée/localisée
  • Des processus adaptatifs spécifiques à l'IA façonnés par les principaux intervenants et soutenus par la confiance et la responsabilité
  • Une gouvernance dynamique, un changement des registres de risques statiques examinés périodiquement par le conseil d'administration et les dirigeants opérationnels à l'utilisation de pratiques et de contrôles adaptatifs de gestion des risques

« Pour assurer une gouvernance efficace, le conseil d'administration doit avoir le bon niveau de connaissances sur l'IA », recommande Lewin. « Cela peut impliquer le recrutement de personnes ayant une expertise en IA ou la création du comité approprié, comme la vérification et le risque, ou le risque et la conformité, pour aider le conseil d'administration à faciliter la prise de décisions éclairées. Le conseil d'administration doit utiliser l'IA de manière responsable et comprendre pleinement les risques liés à l'utilisation et à la non-utilisation de l'IA; la responsabilité de bien comprendre l'IA et ses risques ne peut pas être déléguée.

« Les directeurs doivent également examiner les implications juridiques et réglementaires entourant l'IA, qui comprennent la confidentialité, la lutte contre la discrimination et le cyberrisque », poursuit-elle. « Ils doivent se tenir au courant de l'évolution de la réglementation et tenir compte des dommages potentiels aux organisations, comme les pertes commerciales, les dommages à la réputation et les sanctions réglementaires. »

« Il est essentiel de collaborer avec la direction pour comprendre comment l'IA est utilisée dans l'ensemble de l'organisation et superviser la gestion et le contrôle des risques associés », ajoute Lewin. « Les directeurs doivent également être conscients de l'impact de l'IA sur les personnes vulnérables et marginalisées et explorer des façons d'atténuer ces risques. »

L'IA accélère les risques d'entreprise existants; par conséquent, les conseils d'administration doivent intégrer la prise en compte de l'IA dans leurs responsabilités continues de surveillance des risques.

Six domaines où l'IA peut amplifier ou remodeler les expositions traditionnelles aux risques

Gouvernance et gestion des risques liés à l'IA — Cadre de gestion des risques du NIST

Le cadre de gestion des risques de l'IA du National Institute of Standards and Technology (NIST) décrit quatre fonctions spécifiques — gouverner, cartographier, mesurer et gérer — pour aider les organisations à gérer les risques de l'IA.

La fonction « gouverner » concerne le développement et la mise en œuvre d'une culture de gestion des risques et s'applique à toutes les étapes de la gestion des risques d'une organisation. Elle couvre :

  • Politiques, processus, procédures et pratiques liés à la cartographie, à la mesure et à la gestion des risques liés à l'IA. Ils doivent être présents, transparents et mis en œuvre efficacement.
  • Structures de responsabilité pour s'assurer que les équipes appropriées sont habilitées, responsables et formées pour gérer les risques. Les individus doivent s'engager dans une culture qui tient compte des risques liés à l'IA et les communique.
  • La priorisation des processus d'inclusion, de diversité et d'accessibilité de la main-d'œuvre dans la cartographie, la mesure et la gestion des risques liés à l'IA.
  • Processus d'engagement robuste avec les acteurs pertinents de l'IA.
  • Politiques et procédures visant à gérer les risques liés à l'IA et les avantages découlant des logiciels et données tiers, ainsi que d'autres problèmes liés à la chaîne d'approvisionnement.

Les cas d'essai indiquent un examen de plus en plus minutieux de la gouvernance du conseil d'administration

Les affaires judiciaires liées à l'IA connaissent une augmentation rapide, le nombre de recours collectifs déposés aux États-Unis ayant plus que doublé, passant de 7 en 2023 à 15 en 2024. Elles témoignent d'un niveau croissant de contrôle juridique autour de l'utilisation de l'IA et d'une augmentation conséquente de la responsabilité des organisations et de leurs dirigeants.

Parmi les 15 dépôts liés à l'IA en 2024, 8 étaient dans le secteur de la technologie. Les secteurs des communications et de l'industrie ont représenté respectivement 4 et 2 dépôts, tandis qu'un dépôt a été attribué au secteur des biens de consommation non cycliques1.

Comme l'affirme Lewin de Gallagher, « Nous avons vu des cas d'allégations de fardage à l'IA se produire aux États-Unis : deux gestionnaires d'actifs ont fait face à des amendes de la Securities and Exchange Commission (SEC) des États-Unis pour avoir surévalué ou exagéré leur utilisation de l'IA et ses avantages pour leurs parties prenantes.

« De plus, nous commençons à voir des recours collectifs émerger contre des entreprises qui se livrent au fardage à l'IA », poursuit-elle. « La SEC surveille étroitement l'IA depuis un bon moment. Les juridictions du monde entier sont prudentes quant à l'adoption de réglementations trop strictes en matière d'IA, car elles visent à éviter d'étouffer l'innovation. Certaines régions, cependant, ont adopté une approche plus sévère que d'autres. »

Les quatre catégories de litiges qui tendent à se développer en 2025 sont les suivantes :

  • Réclamations relatives au fardage à l'IA — litiges en matière de valeurs
  • Contenu généré par l'IA — défis juridiques, violation de la propriété intellectuelle
  • Hallucinations liées à l'IA — sanctions juridiques
  • Évolutions/défis réglementaires

Le fardage à l'IA est un domaine de préoccupation relativement nouveau et croissant. Bien que les poursuites judiciaires engagées à ce jour n'aient pas explicitement fait référence à ce terme, des contestations judiciaires ont été soulevées pour publicité trompeuse, fausses allégations et capacités exagérées. Cela pourrait changer au fur et à mesure que les décisions et les jugements juridiques façonnent la base de futurs cas juridiques et que les tribunaux établissent des normes juridiques plus claires.

Les entreprises et les dirigeants peuvent également être exposés à des litiges en raison d'algorithmes biaisés, par exemple pour la sélection des candidats à l'embauche, même lorsque ceux-ci ont été utilisés par l'intermédiaire d'un tiers.

« L'utilisation accrue de l'IA peut exposer les entreprises à des réclamations de responsabilité en matière de pratiques d'emploi, selon la façon dont les algorithmes d'embauche sont conçus et utilisés », note Cassandra Shivers, chef de la défense des réclamations, Risque exécutif et cyber, Gallagher.

« Il existe également un risque de responsabilité civile des dirigeants et administrateurs si les déclarations publiques concernant la qualité ou les contrôles de l'IA s'avèrent inexactes, ce qui pourrait entraîner des manquements à l'obligation fiduciaire. »

« Il y a des exemples dans des contextes juridiques où un avocat ou un cabinet d'avocats a utilisé l'IA pour générer des résumés et des perspectives sur la jurisprudence qui n'existent tout simplement pas », explique Shivers. « Cela peut entraîner des conséquences graves, y compris des sanctions contre les avocats ou les entreprises impliquées. Par conséquent, il est essentiel d'évaluer l'information générée par l'IA pour s'assurer qu'elle est à la fois valide et efficace. »

Récemment, une vague de litiges a émergé autour de l'intelligence artificielle : entreprises exagérant les capacités, marketing trompeur, résultats hallucinés et défis réglementaires. Ces affaires donnent un aperçu de la manière dont l'adoption de l'IA se heurte à des poursuites judiciaires.

Les tests de stress peuvent aider à identifier les lacunes dans la couverture

Avec toutes les promesses et possibilités que l'IA présente, il y a également de nouvelles expositions pour les entreprises et les administrateurs et dirigeants individuels. Elles doivent être considérées par les cadres supérieurs dans l'exercice de leurs fonctions et responsabilités en lien avec l'adoption de l'IA.

Partenariat avec votre courtier

Du point de vue de l'assurance pour administrateurs et dirigeants, il est important que les cadres supérieurs explorent différents scénarios, avec l'aide de leur courtier, afin de déterminer comment la couverture pourrait réagir et où il pourrait y avoir des lacunes dans la gestion des risques ou la couverture.

À mesure que l'IA évolue, les défis juridiques continueront de se multiplier, créant des précédents et révélant comment les clauses des polices d'assurance des dirigeants et administrateurs réagissent lorsqu'elles sont mises à l'épreuve. Pour le secteur des assurances, cela permettra également de tester l'appétit pour la souscription et de déterminer si l'« IA silencieuse » est un problème qui doit être traité de la même manière que la « cybercriminalité silencieuse ». Les litiges liés aux réclamations pourraient entraîner un changement plus marqué, le marché excluant explicitement les sinistres liés à l'IA ou proposant une couverture affirmative.

Comme le prévoit Kevin LaCroix, « nous allons probablement assister à une augmentation du nombre de litiges impliquant des entreprises et des titres liés aux risques liés à l'IA, et pas seulement à la non-divulgation des risques liés à l'IA, mais aussi à des allégations relatives à une mauvaise utilisation de l'IA ou à un déploiement défectueux des outils d'IA, ou encore à l'incapacité à s'adapter ou à répondre à l'urgence concurrentielle du développement de l'IA. »

« Les parties au litige chercheront également à tenir les dirigeants d'entreprise et leurs employeurs responsables de leur incapacité à éviter, dans le cadre du déploiement d'outils d'IA, les discriminations, les violations de la vie privée et de la propriété intellectuelle, ou la fraude à la consommation », note-t-il.

En effet, la portée de l'assurance responsabilité pour administrateurs et dirigeants a déjà commencé à évoluer avec les assureurs qui commencent à offrir une couverture plus spécialisée qui reflète les éléments suivants :

  • Risques liés aux allégations trompeuses d'IA et aux responsabilités juridiques qui peuvent découler du fardage à l'IA
  • Couverture pour les violations de données, les cyberattaques et les violations de la vie privée résultant de systèmes basés sur l'IA
  • Protection contre les risques liés à l'éthique de l'IA, y compris les préjugés algorithmiques et les pratiques contraires à l'éthique
  • Adaptation à l'évolution des réglementations relatives à l'IA, aux questions environnementales, sociales et de gouvernance (ESG) et à la responsabilité des administrateurs et dirigeants dans la supervision des systèmes d'IA.

Se préparer à un paysage en évolution

Dans l'intervalle, les entreprises devraient continuer à vérifier comment les clauses de leur police d'assurance pour dirigeants et administrateurs actuelles répondraient aux responsabilités liées à l'IA, tout en se tenant informées des évolutions juridiques et réglementaires. Le partenariat avec les souscripteurs et les courtiers peut aider à tester la portée de la couverture et à combler les lacunes avant qu'elles ne deviennent un problème.

« Sans règles claires ni limites de sécurité pour le développement de l'IA, les conseils d'administration restent ultimement responsables », déclare Steve Bear, directeur général des risques professionnels et financiers, Gallagher. « Compte tenu de l'étendue de l'application de l'IA au sein d'une entreprise, la participation des spécialistes en assurance pour administrateurs et dirigeants peut aider les conseils d'administration à mieux comprendre l'ensemble des risques parmi toutes les parties prenantes. »

« Bien que l'assurance pour administrateurs et dirigeants offre une certaine protection, de nombreux risques liés à l'IA ne font pas partie de la portée du libellé standard de la police d'aujourd'hui et doivent être traités par des cadres de gouvernance solides. Ce contexte continuera d'évoluer dans la gestion des risques. »

Publié en août 2025

Cinq considérations essentielles pour la haute direction

  • Effectuer régulièrement des évaluations des risques pour identifier les préjugés, les atteintes à la vie privée et les défaillances du système. L'IA à haut risque nécessite des vérifications continues pour l'équité et l'exactitude, avec des réponses rapides aux problèmes.
  • La sécurité des données doit être axée sur le chiffrement, le contrôle des accès et la surveillance des fournisseurs. Les entreprises doivent suivre le rendement et les risques de l'IA en temps réel à l'aide de mesures et de rapports solides.
  • Promouvoir l'IA éthique par la formation et la collaboration, la responsabilité claire et la transparence.
  • Développer des systèmes d'IA documentaires, en faisant appel à la supervision humaine pour affiner les décisions, et en recourant à des audits indépendants pour tester la résilience des cadres de gouvernance.
  • Engager les parties prenantes, bâtir la confiance et aider à naviguer dans les réglementations complexes et en évolution. La surveillance centrale combinée à la flexibilité décentralisée facilite une gestion réactive et efficace de la conformité et des risques.

Source

1"Securities Class Action Filings Increase for Second Consecutive Year in 2024," Cornerstone Research, 29 janvier 2025. Disponible seulement en anglais.