Getting your Trinity Audio player ready...

Perspectives clés

  • L'adoption de l'IA a augmenté, la plupart des entreprises mettant en œuvre au moins certaines solutions d'IA. Cependant, plus de la moitié signalent des lacunes en matière de compétences et des défis de recrutement comme des obstacles pour aller plus loin.
  • L'automatisation de l'IA apporte des rendements positifs en matière de productivité et de revenus, bien que les entreprises s'attendent à ce que le rendement du capital investi (RCI) se matérialise dans deux à trois ans.
  • Les entreprises continuent d'investir dans la formation et d'autres stratégies de protection d'emploi pour combler les lacunes en matière de compétences et protéger le contact humain. Moins de la moitié des entreprises ont adopté des cadres formels de gestion des risques.
  • Les expositions émergentes à l'IA entraînent des solutions d'assurance IA dédiées, des avenants, des modules complémentaires sur mesure, et dans certains cas, des exclusions.

Lorsque l'IA générative a fait irruption pour la première fois en novembre 2022, elle a suscité une vague d'excitation, de curiosité et d'anticipation. Les possibilités semblaient infinies.

Trois ans plus tard, bien que l'engouement initial subsiste, un sentiment de réalisme s'est installé. Les organisations n'en sont plus à simplement rêver du potentiel de l'IA : elles en explorent les complexités, équilibrent les occasions et les risques et découvrent ce qu'il faut vraiment pour intégrer cette technologie transformatrice dans le tissu de leurs activités.

Au milieu du nombre croissant de cas d'utilisation, le parcours est passé de l'engouement à une exploration plus réaliste du rôle de l'IA dans l'avenir du travail.

Selon les dernières recherches de Gallagher, l'adoption de l'IA générative s'est poursuivie au cours de la dernière année, de nombreuses organisations passant de la détermination des outils d'IA dans lesquels investir pour mettre la technologie à l'œuvre au sein de l'entreprise.

Cela étant dit, cette phase du processus prendra elle aussi du temps. Les organisations qui mesurent le RCI du déploiement de l'IA prévoient qu'il faudra en moyenne 28 mois pour que la valeur de la transformation l'emporte sur les coûts initiaux.

« Cette enquête complète ce que nous avons constaté avec nos clients. » « Chez Gallagher, notre parcours d'adoption de l'IA ne se limite pas à la mise en œuvre d'une technologie de pointe : il s'agit de responsabiliser nos employés et de mettre l'accent sur les besoins de nos clients », a commenté Steve Rhee, directeur numérique mondial, Gallagher.

« Au cours des dernières années, nous avons continué d'investir dans les données, l'analytique et le développement des compétences de la main-d'œuvre numérique pour nous assurer que nos équipes sont équipées pour fournir les meilleurs résultats et solutions à nos clients dans un paysage en évolution rapide. »

Les entreprises qui ont adopté l'IA plus tard comblent l'écart, mais les pénuries de compétences demeurent un obstacle

Les résultats de cette année indiquent un changement radical dans la mise en œuvre globale de l'IA. Au cours des 12 derniers mois, le déploiement des stratégies d'adoption de l'IA s'est accéléré, avec une proportion beaucoup plus importante d'entreprises (63 %) qui ont désormais soit entièrement mis en œuvre l'IA, soit mis en œuvre celle-ci dans certaines parties de leur entreprise. Cela représente une hausse par rapport à 45 % en 2025.

Actuellement, les utilisations les plus populaires de l'IA sont la gestion de l'exploitation des TI, les fonctions en contact avec les clients comme les robots conversationnels et les assistants personnels, ainsi que la recherche et l'analyse.

Malgré une vision mature du parcours de transformation de l'IA, il reste quelques obstacles, plus de la moitié des répondants citant les lacunes en matière de compétences et les défis de recrutement comme obstacle à la mise en œuvre, suivis de problèmes techniques ou d'infrastructure et de conformité.

Les préoccupations concernant l'érosion de la confiance des employés, les considérations éthiques et la résistance à la transformation technologique sont d'autres considérations pour les répondants au fur et à mesure qu'ils progressent dans leur parcours d'adoption de l'IA.

« L'intégration de l'IA dans le modèle d'exploitation signifie la refonte des processus et des définitions de rôle et la construction de plateformes d'IA évolutives, et très peu d'organisations sont encore à ce stade », déclare Ben Warren, directeur général, Personnes, Données, IA et Innovation chez Gallagher. « Ce qui est important, c'est donc de comprendre les domaines de l'entreprise où l'IA peut générer le plus de valeur et en tirer parti. »

Les préoccupations concernant la confiance et l'éthique demeurent fortes dans les secteurs où l'automatisation est relativement nouvelle. Encourager une transition juste grâce à la requalification et à l'amélioration des compétences aidera à atténuer l'impact du risque lié aux personnes dans ces entreprises.

Les entreprises prévoient des délais de deux à trois ans pour réaliser pleinement la valeur

Près des deux tiers des organisations mesurent activement le RCI, estimant qu'il faudra en moyenne 28 mois pour réaliser ce rendement.

Les cadres pour mesurer le RCI sont plus susceptibles d'être en place dans les organisations technologiques et les entreprises de services financiers.

Malgré des échéanciers relativement conservateurs, les organisations sont néanmoins optimistes quant à l'impact de l'IA sur les revenus des entreprises maintenant et à l'avenir. 82 % disent qu'ils voient déjà un impact positif, tandis que 83 % croient que l'IA augmentera les revenus à l'avenir.

Les répondants estiment que l'IA a déjà eu un effet positif sur la productivité des employés : 86 % des entreprises, en moyenne, la considèrent comme très positive ou assez positive, passant à 93 % au Canada et en Australie, 91 % aux États-Unis et 90 % en Inde.

Plus de travail est nécessaire pour renforcer les cadres de gestion des risques et de gouvernance conformément à l'évolution constante des connaissances sur les vulnérabilités potentielles et pour répondre aux exigences des nouvelles réglementations. Moins de la moitié des entreprises ont adopté des cadres de gestion des risques pour l'utilisation de l'IA, ont mené des évaluations de l'impact éthique ou ont élaboré un plan d'intervention en cas d'incident propre à l'IA.

« En ce qui concerne la mise en œuvre de l'IA, une question essentielle à poser est : « Dans quelle mesure voulons-nous ou devons-nous mettre en place des contrôles? », déclare Lenin Lopez, vice-président principal, Responsabilité de gestion chez Gallagher. « Ensuite, du point de vue de l'expertise en IA, les entreprises voudront envisager d'évaluer si leurs équipes de direction et leurs conseils d'administration possèdent des connaissances pertinentes en l'IA afin qu'ils soient en mesure d'évaluer correctement les initiatives en matière d'IA. »

Selon près de la moitié des personnes interrogées, le service informatique est toujours largement considéré comme la fonction responsable des risques liés à l'IA. Les cadres supérieurs et la gestion des risques sont à égalité, suivis des « services utilisant l'IA ».

Les responsabilités en matière d'IA ne sont pas de simples violations de données; elles sont une boîte noire de risques algorithmiques où les approches traditionnelles d'intervention en cas de violation ne sont pas à la hauteur. La gestion de ces expositions juridiques, fonctionnelles et de réputation nécessite une approche multidisciplinaire qui s'attaque aux biais et combine la surveillance à l'intégration des données.
John Farley, directeur général, Cyberresponsabilité, Gallagher

La responsabilité personnelle des personnes ou des services qui utilisent l'IA a dépassé les rôles des fonctions juridiques ou de conformité et des RH dans l'enquête de cette année, reflétant la reconnaissance croissante que les utilisateurs doivent effectuer leur propre diligence raisonnable.

« L'humain dans la boucle est également la clé, mais le défi, bien sûr, est de déterminer où vous devez intervenir dans la boucle, et combien de fois », dit Lopez. « Il est conseillé de réévaluer ces contrôles chaque fois qu'un modèle d'IA est mis à jour, car au fur et à mesure que le nouveau code est écrit, il y a un risque que le modèle puisse vous égarer. En fin de compte, les entreprises devraient établir des règles, des mécanismes de surveillance et des points d'intervention humaine pour garder la prise de décision en matière d'IA sous contrôle. »

Mme Poonian pense que sortir d'un état d'esprit cloisonné dans la gestion des risques et des possibilités liés à l'IA nécessite des équipes et des stratégies interfonctionnelles.

« Une gouvernance solide doit être intégrée dans l'ensemble de l'organisation afin de la protéger contre les risques liés à l'IA », dit-elle. « Cet élément de gouvernance devrait intégrer la rétroaction bidirectionnelle, provenant de la direction, des équipes et des personnes qui l'utilisent, afin que l'entreprise mette continuellement à jour et peaufine son approche. »

Alors que les cadres de gouvernance deviennent de plus en plus robustes, une culture d'entreprise axée sur les freins et contrepoids demeure loin d'être adoptée.

« Avec moins de la moitié des entreprises adoptant des cadres de gestion des risques formels ou des plans écrits d'intervention en cas d'incident pour l'IA, il y a des occasions de resserrer davantage les contrôles au cours de l'année à venir », déclare John Farley, directeur général de la cyberresponsabilité chez Gallagher.

« Les responsabilités en matière d'IA ne sont pas de simples atteintes à la protection des données; elles constituent une boîte noire de risque algorithmique où les approches traditionnelles d'intervention en cas de violation ne sont pas à la hauteur », explique M. Farley. « La gestion de ces expositions juridiques, opérationnelles et de réputation nécessite une approche multidisciplinaire qui aborde les biais et combine la surveillance à l'intégration des données. »

Les 5 plus grands défis d'adoption de l'IA pour 2026

Défis en matière de compétences et de recrutement. Plus de la moitié des entreprises citent une pénurie de talents prêts pour l'IA comme principal obstacle à la mise en œuvre. De nombreuses organisations n'ont pas les capacités internes nécessaires pour déployer, maintenir et mettre à l'échelle efficacement les systèmes d'IA.
Limites techniques et d'infrastructure. Les entreprises continuent de lutter pour intégrer l'IA dans les anciens systèmes et construire des plateformes évolutives pour une mise à l'œuvre à grande échelle. Cette difficulté ralentit les progrès, des essais pilotes au déploiement complet.
Préoccupations en matière de conformité, de gouvernance et de confidentialité des données. Les erreurs d'IA, les mésusages, la mésinformation et les risques de confidentialité demeurent les principales préoccupations des dirigeants d'entreprise. Les attentes réglementaires peu claires et l'évolution des normes mondiales ajoutent de la complexité au déploiement responsable de l'IA.
Diminution de la confiance des employés et résistance au changement. De nombreuses organisations s'inquiètent de l'érosion de la confiance des employés, de l'insécurité au travail et de la fatigue liée au changement. Sans une communication claire et des programmes structurés de gestion du changement, les entreprises risquent de ralentir le rythme de la transformation de l'IA.
Considérations éthiques et défis en matière de responsabilité. La gouvernance de l'IA demeure inégale d'une entreprise à l'autre. Moins de la moitié ont adopté des cadres formels de gestion des risques ou mis en œuvre des plans d'intervention en cas d'incident propres à l'IA, créant des lacunes en matière de transparence, de surveillance et de protections éthiques.

Les employeurs déploient des stratégies de protection de l'emploi, même lorsque l'effectif chute

La proportion élevée d'entreprises préoccupées par les lacunes en matière de compétences et d'autres risques liés aux personnes se reflète dans l'ensemble des stratégies de main-d'œuvre.

Une forte proportion de dirigeants d'entreprise affirment que leurs organisations offrent de la formation, ajoutent des compétences et des capacités en matière d'IA et mettent en œuvre des programmes de gestion du changement, un signal clair que la plupart des organisations prévoient d'amener leurs employés avec eux dans leur parcours d'IA.

Par secteur, les entreprises des TI et de la technologie se concentrent actuellement le plus sur l'amélioration des compétences et l'apprentissage continu.

Les principales raisons citées pour les stratégies de protection de l'emploi sont de conserver et de promouvoir la créativité, de conserver la touche humaine pour les interactions avec les clients et d'effectuer une résolution de problèmes complexes et une prise de décisions à enjeux élevés.

La sensibilité éthique et morale est un autre facteur clé, un sur quatre disant que sa société est une entreprise « axée sur les personnes ».

Cependant, l'image devient plus nuancée lors de l'évaluation de l'impact réel sur les employés. 59 % des personnes interrogées disent que leur organisation a déjà réduit ses effectifs globaux ou qu'elle prévoit le faire à l'avenir.

Les répondants de la Corée du Sud sont plus susceptibles de dire que leur entreprise a réduit ses effectifs au moyen de licenciements, suivis de ceux de l'Inde. Et en Australie, 53 % des entreprises indiquent une réduction du nombre d'employés au moyen de licenciements ou de la non-réembauche.

Par secteur, l'impact combiné de l'adoption de l'IA sur les effectifs est considéré comme plus important dans les télécommunications, la technologie, l'énergie et les services financiers. En ce qui concerne l'impact sur les emplois futurs, les plus grands impacts sont prévus dans des secteurs tels que la fabrication et les TI ou l'informatique.

Même au sein des organisations, l'impact peut être ressenti de façon disproportionnée, selon Warren. « Réduire les risques liés au personnel et stimuler le rendement du capital investi nécessite des investissements dans des programmes de formation et de responsabilisation adéquats, depuis l'établissement de l'orientation stratégique et de balises pour l'utilisation jusqu'à la compréhension des endroits où l'IA peut être utilisée dans les flux de travail. »

Impact de l'« IA silencieuse » sur l'assurance dans un contexte d'évolution de la formulation des polices

Tout comme le marché de l'assurance responsabilité civile liée aux cyberrisques s'est rapidement développé pour aborder les questions des expositions « cybersilencieuses », les expositions liées à l'IA commencent à entraîner un cycle similaire d'exclusions, d'avenants, de garanties additionnelles et, en fin de compte, de polices sur mesures pour l'IA.

Ainsi, pour la première fois cette année, l'enquête intègre les réponses d'un échantillon de professionnels du secteur de l'assurance. Parmi ceux-ci, un sur cinq a indiqué qu'un client avait subi des pertes ou présenté des réclamations en raison de risques liés à l'IA au cours de la dernière année, et un peu plus de la moitié étaient entièrement couvertes par l'assurance.

Les catégories d'assurance les plus susceptibles d'être touchées par les réclamations liées à l'IA sont la cyberresponsabilité, la responsabilité des produits et la responsabilité des employeurs ou en matière de pratiques d'emploi.

Les Perspectives du marché de la cyberassurance 2026 de Gallagher renforcent cette observation. Elles présentent plus de 200 affaires juridiques actives impliquant l'IA et l'apprentissage automatique, découlant de biais de données, de la responsabilité en matière de confidentialité, de discrimination et de risques réglementaires liés à une vaste gamme de couvertures de responsabilité, y compris la cyberresponsabilité, la responsabilité en matière de pratiques d'emploi (EPL), la responsabilité en matière de produits et les erreurs et omissions.

Le rapport suggère qu'un nombre croissant d'assureurs commenceront à offrir une couverture des pertes liées à l'IA, mais les décisions clés sur la façon dont la « perte » est définie dans ces nouvelles options de couverture seront un point de vigilance essentiel.

Les répondants du secteur de l'assurance ont partagé leurs préoccupations quant à l'efficacité des protections d'assurance des entreprises d'aujourd'hui, en commentant que la plupart des polices ne traitent pas explicitement les risques liés à l'IA, avec des libellés soit largement réactifs, soit apparemment rédigés pour « un monde pré-IA ».

On craint que les libellés des polices soient trop vagues pour ce qui serait couvert dans un sinistre lié à l'IA, laissant potentiellement les compagnies d'assurance vulnérables à des différends en matière de réclamations et à des litiges.

« Les assureurs envisagent d'inclure des formulations plus claires concernant les risques liés à l'IA dans une gamme de polices d'assurance afin de mieux comprendre le coût total du risque. Cependant, ces libellés pourraient s'avérer difficiles à établir étant donné que l'IA évolue constamment », déclare Paige Cheasley, chef de pratique nationale en Technologie pour le Canada chez Gallagher.

Comme c'était le cas avec la cyberassurance, il est peu probable qu'un virage à l'échelle du marché vers de nouveaux libellés de polices qui intègrent des risques liés à l'IA se produise avant qu'il y ait une augmentation importante des réclamations ou une multiplication des litiges impliquant des pertes liées à l'IA.

« Des formulations d'exclusion concernant les risques liés à l'IA pourraient apparaître dans des catégories comme les assurances erreurs et omissions et de la responsabilité civile générale, mais nous n'avons encore rien vu de précis », déclare Cheasley. « Les assureurs hésiteront probablement à être les premiers à exclure et préféreront attendre de voir quelles réclamations seront présentées. »

Les répondants prévoient de nouvelles polices d'assurance pour les risques liés à l'IA, des avenants spécialisés et des libellés propres à l'IA à l'avenir.

Des contrôles plus serrés et un leadership solide sont essentiels pour réaliser le RCI

Bien que la mise en œuvre complète de la technologie soit peut-être encore à quelques années de nous, des progrès constants sont réalisés au sein de nombreuses organisations. En général, les entreprises sont beaucoup plus avancées dans leur parcours d'adoption de l'IA que lorsque l'enquête a été menée pour la première fois en décembre 2023.

Au fur et à mesure que l'IA est devenue plus intégrée, les entreprises ont de plus en plus confiance en leur compréhension des risques, des occasions et des défis de la mise en œuvre. Et elles établissent des échéanciers réalistes pour réaliser pleinement leur RCI, peu importe ce qui survient dans le cycle d'engouement médiatique plus vaste.

Il est essentiel que l'expérience client demeure au centre de l'attention, selon Rhee. « Nos investissements stratégiques dans les données, l'analyse et la technologie nous permettent d'outiller nos professionnels et d'améliorer l'expérience de nos clients, ce qui est au cœur de tout ce que nous faisons », dit-il.

« Il ne s'agit pas seulement d'adopter des outils numériques, mais plutôt de prendre du recul, de cartographier l'ensemble du parcours du client et de comprendre où les conseils fiables et personnalisés ajoutent le plus de valeur », déclare Rhee. « C'est ainsi que l'on trouve le bon équilibre : en tirant parti d'une expertise de confiance et de capacités d'IA novatrices pour produire des résultats significatifs et puissants qui aident les clients à atteindre leurs objectifs. »

Alors que l'IA et les données ajoutent de la complexité au paysage du risque, une expertise de confiance est plus essentielle que jamais. Les clients qui adoptent la transformation numérique dépendront de plus en plus des partenaires spécialisés pour fournir des conseils fiables, exploiter des capacités d'IA novatrices et transformer les défis en possibilités.

Publié en février 2026