Conclusiones clave

  • Las juntas directivas tienen un papel esencial en impulsar la adopción de la IA, al mismo tiempo que enfrentan responsabilidades nuevas y emergentes en esta era transformadora.
  • En medio de los llamados a un enfoque de "toque ligero" para la gobernanza de la IA para facilitar la innovación, la tecnología presenta inquietudes legales, éticas y de reputación.
  • Existe un creciente escrutinio legal en torno al uso de la IA, incluidas las acusaciones de lavado de IA o la tergiversación de las capacidades de IA, que presentan nuevas áreas de responsabilidad para las empresas y sus funcionarios séniores.
  • Desde una perspectiva de seguro de directores y funcionarios (director and officers, D&O), es necesario poner a prueba el alcance de la cobertura y abordar cualquier brecha antes de que se conviertan en problemas relacionados con la gestión de riesgos de la IA.
  • Mantenerse al día con la incorporación rápida y la evolución de la regulación mientras se mantiene una comunicación abierta en toda la organización requiere un enfoque reflexivo.

Contra un ritmo acelerado de adopción digital, las juntas directivas enfrentan una creciente presión para ofrecer programas complejos de transformación de la IA. El liderazgo tiene un papel clave en impulsar un cambio exitoso a medida que la fuerza laboral se adapta, estableciendo el tono correcto y expandiendo la gestión de riesgos y los marcos de cumplimiento para abarcar riesgos relacionados con la gobernanza de la IA nuevos y emergentes.

Lograr el equilibrio correcto entre obtener eficiencia e impulsar la innovación mientras se mantienen los requisitos éticos y reglamentarios requiere un enfoque estratégico y reflexivo de la gobernanza.

Si bien muchos líderes globales están pidiendo un enfoque de "toque ligero" para regular el uso de la tecnología, para fomentar la adopción rápida y la innovación, existen preocupaciones vinculadas al fenómeno de la IA en rápida evolución, como ilustran las recientes demandas de lavado de IA. Estos problemas solo serán más pronunciados a medida que las empresas avancen en sus recorridos de adopción de la IA.

"Estamos viendo un aumento en las demandas relacionadas con la IA desde 2024", dice Laura Parris, directora ejecutiva de Responsabilidad Gerencial de Gallagher. "La tergiversación de las capacidades de la IA — el lavado de IA — ha sido el mayor impulsor hasta el momento. Pero los prejuicios algorítmicos y las reclamaciones por discriminación también están creciendo rápidamente, ya que los reguladores se centran en la equidad y la transparencia".

Las violaciones de la privacidad de los datos relacionadas con la IA son una gran área de preocupación, especialmente en virtud de leyes como el Reglamento General de Protección de Datos (General Data Protection Regulation, GDPR). Tres riesgos principales — la tergiversación, el prejuicio y la privacidad — están activos en este momento y es probable que aumenten.

La encuesta de evaluación comparativa "Actitudes con la adopción de la IA" de Gallagher de 2025 reveló un notable salto en la IA que los líderes de todo el mundo consideran un riesgo, lo que destaca la importancia de estrategias eficaces de gestión de riesgos de IA. Los líderes empresariales dicen que sus principales preocupaciones son los errores de IA o las "alucinaciones", donde el sistema genera resultados inexactos. Otras inquietudes clave incluyen violaciones de la protección de datos y privacidad (33 %) y responsabilidades legales (31 %) relacionadas con el uso indebido de la IA.

"El hecho de que la IA sea un riesgo relativamente nuevo no significa que las juntas directivas deban abordar este riesgo desde un punto muerto", señala Priya Huskins, experta en D&O en Woodruff Sawyer, una compañía de Gallagher. "Considere cómo las juntas directivas que no eran necesariamente expertas en tecnología tuvieron que aprender primero y luego lidiar con el riesgo cibernético hace solo una década. Hoy en día, este ejercicio sigue siendo serio, pero también es totalmente frecuente.

"Si bien la IA puede parecer exótica, las juntas sólidas están bien acostumbradas a considerar las amenazas emergentes y, cuando sea posible, convertir estas amenazas en oportunidades comerciales. Cuando se trata de la supervisión de riesgos, el objetivo de una junta directiva trata menos sobre abordar un riesgo específico y más sobre el proceso que una junta tiene implementado para incorporar nueva información a medida que se vuelve relevante para el negocio. Si bien la IA puede tener algunos elementos únicos, existe un sentido real en el que es solo lo último en una serie interminable de riesgos que las juntas se encargan de manejar como obligaciones fiduciarias para sus accionistas".

Sin embargo, Huskins señala: "Esto no quiere decir que la IA no tendrá desafíos singulares. Considere, por ejemplo, que además de los desafíos comerciales que la IA pueda presentar, la IA también hará que sea más fácil que nunca para los accionistas disidentes analizar lo que están haciendo las juntas directivas y descubrir áreas de desacuerdo estratégico.

En todos los sectores, las juntas directivas están reevaluando los marcos de gobernanza existentes, identificando brechas en la supervisión y garantizando que las decisiones relacionadas con la IA concuerden con los valores más amplios y las expectativas sociales de su empresa.

Función del liderazgo sénior en la gobernanza, adopción y gestión del cambio de la IA

La IA está transformando la fuerza laboral al automatizar algunos roles, remodelar otros y crear nuevas oportunidades. Y el poder transformador de la IA puede ser un catalizador para un cambio positivo. Puede enriquecer la fuerza laboral al cambiar a los empleados hacia un trabajo de mayor valor en espacios como estrategia e innovación, mientras que la automatización maneja más tareas rutinarias.

El 44 % de los líderes empresariales en la encuesta global de Gallagher mencionan la mejora en la resolución de problemas como un beneficio principal, mientras que el 42 % afirma que la tecnología está impulsando la eficiencia y la productividad de los empleados.

El éxito en la transformación digital depende de inculcar confianza y asegurar la aceptación en toda la organización, dice Ben Warren, director general y jefe de Transformación Digital e IA, RR. HH. y Consultoría de Comunicaciones, Gallagher.

"La clave para manejar estos miedos es la comunicación transparente. Las organizaciones deben asegurar a los empleados que la adopción de la IA será un proceso gradual y que habrá muchas oportunidades para volver a capacitarse. Se trata de crear una cultura en la que los empleados se sientan empoderados para adaptarse", explica.

Aquí es donde el liderazgo sénior tiene un papel claro por desempeñar. Equilibrar la innovación con la concientización sobre los riesgos y, al mismo tiempo, crear espacio para la experimentación ayuda a los equipos a navegar por la incertidumbre y mitigar posibles dificultades. Involucrar al personal en el proceso genera confianza y propiedad compartida, que son fundamentales para gestionar el cambio y minimizar los riesgos relacionados con la resistencia.

"Si bien el riesgo de la IA a menudo se asigna a los Departamentos de TI o Legal, debe ser propiedad de la empresa para gestionar eficazmente su naturaleza interconectada", según Aidan Hewitt, socio cliente de Culture Change Consulting, Gallagher. "El liderazgo sénior es responsable de involucrar a los equipos interdisciplinarios de adopción de IA y de aprovechar la experiencia de los responsables de riesgos en toda la organización, incluidos RR. HH., el Departamento Legal, la gestión de riesgos y TI.

"El modelado de roles y el establecimiento de la dirección del viaje son componentes críticos del cambio relacionado con la IA que los líderes deben adoptar".

Hay una responsabilidad sobre los líderes de experimentar con la IA para obtener experiencia práctica sobre cómo funciona en la práctica y, a su vez, modelar la mentalidad y los comportamientos.

La adopción exitosa de la IA implica la colaboración en todos los niveles de liderazgo para dar forma a una cultura transparente y curiosa. Y, sin embargo, desde la perspectiva de los deberes legales, la responsabilidad final, y la rendición de cuentas, recaen sobre la junta.

Responsabilidades de la junta directiva en la gobernanza de la IA y la supervisión de riesgos

La inversión en IA se considera una palanca competitiva crítica. Pero mientras que los casos de uso en evolución aportan eficiencia y oportunidades, también corren el riesgo de exponer a las organizaciones a nuevas exposiciones a responsabilidades. La sala de juntas se encuentra en la primera línea, donde la innovación impulsada por la IA se combina con la responsabilidad legal, ética y de reputación.

Al igual que con cualquier otro tema de gestión, cumplimiento, riesgo y divulgación, las juntas directivas se esfuerzan por comprender mejor cómo el aumento de la IA está afectando a la compañía, a su gente y a sus obligaciones, tanto desde una perspectiva a corto como a largo plazo.

"La junta directiva es responsable, en última instancia, de las exposiciones al riesgo de la compañía y de gestionar esas exposiciones al riesgo", dice Theresa Lewin, jefa nacional de Riesgos Profesionales y Financieros de Gallagher, Australia. "Son responsables de la gobernanza, por lo que deben ser conscientes de las exposiciones al riesgo de la IA".

Identificar, evaluar y abordar proactivamente los riesgos asociados con la adopción de la IA no es solo lo correcto, sino que se encuentra directamente dentro del ámbito de las obligaciones y responsabilidades de los directores.

La gobernanza efectiva de la IA se basa en cuatro pilares esenciales: coordinación estratégica, supervisión ética, gestión de riesgos y preparación operativa. Juntos, forman un marco de gobernanza que permite la innovación sin comprometer la responsabilidad y concuerda con estándares globales como el Marco de gestión de riesgos de la IA del Instituto Nacional de Estándares y Tecnología (National Institute of Standards and Technology, NIST), una guía para ayudar a las organizaciones a gestionar los riesgos de IA.

La gobernanza del riesgo de IA continuará probando dichos marcos, resaltados por lo siguiente:

  • Cambios de la gobernanza centralizada en la gestión de riesgos distribuidos/localizados
  • Procesos adaptativos específicos de la IA formados por partes interesadas clave y respaldados por la confianza y la responsabilidad
  • Gobernanza dinámica, un cambio de los registros de riesgos estáticos revisados periódicamente por la junta directiva y los líderes operativos al uso de prácticas y controles de gestión de riesgos adaptables

"Para garantizar una gobernanza efectiva, la junta debe tener el nivel adecuado de conocimiento sobre la IA", recomienda Lewin. "Esto puede implicar reclutar personas con experiencia en IA o establecer el comité adecuado, como auditoría y riesgo, o riesgo y cumplimiento, para asesorar a la junta directiva para facilitar la toma de decisiones informadas. La junta directiva debe usar la IA de manera responsable y comprender completamente los riesgos de usar y no usar la IA; la responsabilidad de comprender completamente la IA y sus riesgos no puede ser delegada por la junta directiva.

"Los directores también deben examinar las implicaciones legales y regulatorias en torno a la IA, que incluyen privacidad, antidiscriminación y riesgo cibernético", añade. "Deben mantenerse actualizados sobre las regulaciones en evolución y deben considerar el posible daño a las organizaciones, como las pérdidas comerciales, el daño a la reputación y las sanciones regulatorias.

"Participar con la gerencia es esencial para comprender cómo se utiliza la IA en toda la organización y supervisar la gestión y el control de los riesgos asociados", agrega Lewin. "Los directores también deben estar conscientes del impacto de la IA en las personas vulnerables y marginadas, y explorar formas de mitigar estos riesgos".

La IA es un acelerador de los riesgos empresariales existentes; por lo tanto, se espera que las juntas integren la consideración de la IA en sus responsabilidades de supervisión de riesgos continuas.

Seis áreas en las que la IA puede ampliar o remodelar las exposiciones al riesgo tradicionales

Gobernanza y gestión de riesgos de la IA: el marco de gestión de riesgos del NIST

El Marco de gestión de riesgos de IA del Instituto Nacional de Estándares y Tecnología (NIST) describe cuatro funciones específicas: gobernar, mapear, medir y gestionar, para ayudar a las organizaciones a abordar los riesgos de la IA.
La función "gobernar" se relaciona con el cultivo y la implementación de una cultura de gestión de riesgos y se aplica a todas las etapas de la gestión de riesgos de una organización. Abarca lo siguiente:
  • Políticas, procesos, procedimientos y prácticas relacionados con el mapeo, la medición y la gestión de riesgos de la IA. Estos deben estar presentes, ser transparentes e implementarse de manera efectiva.
  • Estructuras de rendición de cuentas para garantizar que los equipos adecuados estén facultados, sean responsables y estén capacitados para lidiar con los riesgos. Las personas deben estar comprometidas con una cultura que considere y comunique el riesgo de la IA.
  • Priorización de los procesos de inclusión, diversidad y accesibilidad de la fuerza laboral en el mapeo, la medición y la gestión de los riesgos de la IA.
  • Procesos para un compromiso sólido con los actores de IA relevantes.
  • Políticas y procedimientos para abordar los riesgos de la IA y los beneficios que surgen del software y los datos de terceros, así como otros problemas de la cadena de suministro.

Los casos de prueba evidencian una mayor atención sobre el rol de la junta en la gobernanza de la IA

Los casos legales relacionados con la IA están aumentando rápidamente, con presentaciones de demandas colectivas en los EE. UU. que se duplican de 7 en 2023 a 15 en 2024. Demuestran un nivel cada vez mayor de escrutinio legal en torno al uso de la IA y el posterior crecimiento de la responsabilidad para las organizaciones y sus líderes séniores.

De las 15 presentaciones relacionadas con la IA en 2024, ocho estaban en el sector tecnológico. Los sectores de comunicaciones e industriales representaron cuatro y dos presentaciones, respectivamente, con una presentación atribuida al sector no cíclico del consumidor1.

Como dice Lewin de Gallagher, "Hemos visto casos de reclamaciones de lavado de IA que ocurrieron en los EE. UU.: Dos administradores de activos han enfrentado multas de la Comisión de Bolsa y Valores (Securities and Exchange Commission, SEC) de los EE. UU. por exagerar su uso de la IA y sus beneficios para sus partes interesadas.

"Además, estamos comenzando a ver que surgen demandas colectivas contra empresas que participan en el lavado de IA", añade. "La SEC ha estado monitoreando de cerca la IA durante un período significativo. Las jurisdicciones de todo el mundo son cautelosas con respecto a la adopción de regulaciones de la IA demasiado estrictas, ya que tienen como objetivo evitar sofocar la innovación. Sin embargo, algunas regiones han adoptado un enfoque más pesado que otras".

Cuatro categorías de litigios con tendencias en 2025 incluyen las siguientes:

  • Reclamaciones de lavado de IA: litigio de valores
  • Contenido generado por IA: desafíos legales, infracción de PI
  • Alucinaciones de la IA: sanciones legales
  • Desarrollos/Desafíos regulatorios

El lavado con IA es un área de preocupación relativamente nueva y en crecimiento. Si bien las demandas hasta la fecha no se han referido explícitamente al término, se han planteado impugnaciones legales por publicidad engañosa, reclamaciones falsas y capacidad exagerada. Esto puede cambiar a medida que las determinaciones y sentencias legales moldeen la base de futuros casos legales y a medida que los tribunales establezcan estándares legales más claros.

Las compañías y los directores también pueden estar expuestos a litigios a través de algoritmos sesgados, como para evaluar candidatos de reclutamiento, incluso cuando se haya accedido a ellos a través de un tercero.

"El aumento del uso de la IA puede exponer a las empresas a reclamos de responsabilidad por prácticas laborales, según cómo se diseñen y utilicen los algoritmos de contratación", señala Cassandra Shivers, líder de defensa de reclamaciones, Riesgo Ejecutivo y Cibernética, Gallagher.

"También existe una posible responsabilidad de D&O si las afirmaciones públicas sobre la calidad o los controles de la IA resultan inexactas, lo que posiblemente conduzca a violaciones fiduciarias.

"Hay ejemplos en contextos legales en los que un abogado o bufete de abogados ha utilizado la IA para generar informes y perspectivas sobre la jurisprudencia que simplemente no existen", dice Shivers. "Esto puede dar lugar a consecuencias graves, incluidas sanciones contra abogados o firmas involucradas. Por lo tanto, es crucial evaluar la información generada por la IA para garantizar que sea válida y eficaz".

Recientemente, ha surgido una ola de litigios en torno a la inteligencia artificial: las empresas exageran las capacidades, el marketing engañoso, los resultados alucinados y los desafíos regulatorios. Estos casos ofrecen una visión de cómo la adopción de la IA está chocando con una acción legal.

Evaluar con pruebas de estrés ayuda a encontrar vacíos en la cobertura

Con todas las promesas y oportunidades que presenta la IA, también hay nuevas exposiciones tanto para las compañías como para los directores y funcionarios (D&O) individuales. Estos deben considerarse a medida que los funcionarios séniores cumplen con sus obligaciones y responsabilidades en relación con la adopción de la IA.

Trabajo en equipo con su intermediario

Desde una perspectiva de seguro de D&O, es importante que los líderes séniores exploren diversas situaciones, con el apoyo de su agente, para determinar cómo podría responder la cobertura y dónde puede haber brechas en la gestión de riesgos o la cobertura.

A medida que la IA evoluciona, los desafíos legales continuarán aumentando, estableciendo precedentes y revelando cómo la redacción de políticas de D&O responde cuando se prueba. Para la industria de seguros, esto también pondrá a prueba el deseo de suscripción y determinará si la "IA silenciosa" es un problema que debe abordarse de manera similar a la "cibernética silenciosa". Las disputas de reclamaciones podrían impulsar un cambio más pronunciado con el mercado y excluir explícitamente las reclamaciones relacionadas con la IA u ofreciendo cobertura afirmativa.

Como anticipa Kevin LaCroix: "Es probable que veamos mayores cantidades de litigios corporativos y de valores relacionados con los riesgos relacionados con la IA, y no solo la falta de divulgación de riesgos relacionados con la IA, sino las acusaciones relacionadas con el uso indebido de la IA o la implementación defectuosa de herramientas de IA, o la falta de adaptación o respuesta a la urgencia competitiva del desarrollo de la IA.

"Los litigantes también buscarán responsabilizar a los gerentes corporativos y a sus empleadores por no evitar, en la implementación de herramientas de IA, la discriminación, las violaciones de privacidad y PI o el fraude al consumidor", señala.

De hecho, el alcance del seguro de responsabilidad civil de D&O ya ha comenzado a evolucionar: las aseguradoras han comenzado a ofrecer una cobertura más especializada que refleja lo siguiente:

  • Riesgos vinculados con reclamaciones engañosas de IA y responsabilidades legales que pueden surgir del lavado de IA
  • Cobertura para filtraciones de datos, ataques cibernéticos y violaciones de la privacidad como resultado de sistemas impulsados por IA
  • Protección de riesgos vinculados a la ética de la IA, incluido el sesgo algorítmico y las prácticas poco éticas
  • Adaptación a la evolución de las regulaciones sobre la IA; las inquietudes ambientales, sociales y de gobernanza (environmental, social and governance, ESG); y la responsabilidad de los directores y funcionarios en la supervisión de los sistemas de IA

Preparación para un panorama en evolución

Mientras tanto, las empresas deben continuar probando cómo responderían sus textos actuales de pólizas de D&O a las responsabilidades relacionadas con la IA, mientras se mantienen al tanto de los desarrollos legales y regulatorios. Asociarse con suscriptores y agentes puede ayudar a poner a prueba el alcance de la cobertura y abordar cualquier brecha antes de que se convierta en un problema.

"Sin reglas claras ni puertos seguros para el desarrollo de la IA, las juntas directivas siguen siendo responsables en última instancia", dice Steve Bear, director ejecutivo de Riesgos Profesionales y Financieros de Gallagher. "Dada la amplitud de la aplicación de IA dentro de un negocio, la participación de especialistas en D&O puede ayudar a las juntas a comprender mejor el espectro completo de riesgos entre todas las partes interesadas.

"Si bien el seguro de D&O ofrece cierta protección, muchos riesgos relacionados con la IA están fuera del alcance de los textos estándares de las pólizas actuales y deben abordarse a través de marcos de gobernanza sólidos. Este seguirá siendo un panorama de gestión de riesgos en evolución".

Publicado en agosto de 2025

Cinco consideraciones críticas para el liderazgo sénior

  • Realizar evaluaciones de riesgos regulares para identificar sesgos, violaciones de privacidad y fallas del sistema. La IA de alto riesgo necesita auditorías continuas para lograr equidad y precisión, con respuestas rápidas a los problemas.
  • La seguridad de los datos debe centrarse en el cifrado, el control de acceso y la supervisión de proveedores. Las empresas deben hacer un seguimiento del rendimiento y los riesgos de la IA en tiempo real utilizando métricas y reportes sólidos.
  • Promover la IA ética a través de la capacitación y la colaboración, la responsabilidad clara y la transparencia.
  • Documentar los sistemas de IA, aplicando la supervisión humana para sensibilizar las decisiones, utilizando auditorías independientes para enfatizar los marcos de gobernanza de las pruebas.
  • Involucrar a las partes interesadas, generar confianza y ayudar a navegar por regulaciones complejas y en evolución. La supervisión central combinada con la flexibilidad descentralizada facilita el cumplimiento y la gestión de riesgos receptivos y efectivos.

Fuentes

1"Securities Class Action Filings Increase for Second Consecutive Year in 2024," Cornerstone Research, 29 de enero de 2025.