Un evento reciente celebrado en la oficina de Kennedy y organizado por el Foro de Abogados de Seguros (FOIL) reunió a miembros de FOIL para discutir el impacto actual y futuro de la IA dentro de la industria. El evento sirvió como plataforma para explorar el potencial transformador de la tecnología de IA y se centró en las brechas y limitaciones actuales en la cobertura de Indemnización Profesional (PI), particularmente en el sector de la construcción.
La IA ya está aportando un valor significativo a muchas compañías de seguros al generar ahorros y eficiencias, al tiempo que actúa como catalizador del crecimiento. Al reconocer la innegable importancia del futuro, varios casos de uso están ganando terreno a medida que las aseguradoras exploran áreas potenciales de la cadena de valor donde pueden aprovechar la ventaja competitiva.
A medida que la IA continúa permeando el campo, su impacto en la PI es cada vez más importante. Por lo tanto, los profesionales legales, consultores y otros proveedores de servicios deberán abordar las complejidades introducidas por la IA, especialmente cuando se trata de límites de cobertura, cuestiones de responsabilidad y lenguaje de políticas en evolución.
La discusión comenzó centrándose en las características notables de GenAI, en particular los modelos de lenguaje grande (LLM), que están transformando el proceso de reclamaciones y representan un área de inversión clave para las compañías de seguros. Se espera que esta inversión crezca a medida que se espera que los avances continuos de GenAI mejoren significativamente la eficiencia operativa y mejoren la experiencia del cliente. Sin embargo, el rápido ritmo del desarrollo de la IA también plantea desafíos, lo que obliga a las empresas a adaptarse y repensar las prácticas tradicionales.
El evento destacó el impacto inmediato de la IA y la necesidad de que la industria de seguros permanezca alerta y aborde de manera proactiva el panorama en evolución. No está claro si la IA enfatizará el deber humano de cuidar para desarrollar habilidades de percepción, interactuar con la IA y garantizar la integridad de su producción.
Limitaciones y brechas de cobertura
Las principales preocupaciones que rodean la PI en el contexto de la IA son las limitaciones del alcance y la posibilidad de que existan lagunas en el lenguaje de las políticas existentes. Las políticas tradicionales de PI están diseñadas para cubrir errores y omisiones que resultan de acciones o consejos humanos. Sin embargo, a medida que los sistemas de IA se vuelven más autónomos e integrales en los procesos de toma de decisiones, surge la pregunta de si las pólizas de PI estándar brindan una cobertura adecuada para las reclamaciones que surjan de los resultados generados por la IA.
Errores de salida de IA: es posible que muchas políticas existentes no cubran errores de algoritmos o sistemas de IA. Si un ingeniero o arquitecto confía en una herramienta de inteligencia artificial que proporciona análisis o recomendaciones incorrectos, esa responsabilidad puede quedar fuera del alcance de un IP tradicional. Reclamaciones de terceros: la IA puede dar lugar a reclamaciones de terceros, especialmente si la tecnología daña inadvertidamente a clientes o terceros. Por ejemplo, si la IA se utiliza en un proyecto de consultoría y calcula mal los datos, lo que genera pérdidas financieras para el cliente, es posible que los expertos no tengan la protección adecuada. Cumplimiento regulatorio: a medida que evoluciona el marco regulatorio en torno a la IA, las políticas de PI deben continuar alineándose con estos requisitos y continuar con un lenguaje que garantice la cobertura de posibles reclamos de incumplimiento.
Establecimiento de responsabilidad
Establecer responsabilidad en incidentes que involucran IA presenta desafíos únicos, ya que la complejidad de los sistemas de IA a menudo desdibuja las líneas de responsabilidad y el culpable son los insumos, los proveedores externos o la propia IA. Gestionar los riesgos emergentes.
Supervisión humana: un factor clave para determinar la responsabilidad es el nivel de supervisión realizado sobre la herramienta de IA. Se espera que los profesionales mantengan un deber de diligencia que incluya garantizar que los sistemas de IA se utilicen de forma adecuada y que sus resultados se evalúen rigurosamente. El incumplimiento de esta obligación corre el riesgo de ser responsable de los errores resultantes. Acuerdos contractuales: Los acuerdos claros que describen las responsabilidades de todas las partes involucradas pueden ayudar a establecer responsabilidades. Los contratos con clientes y proveedores de tecnología deben abordar explícitamente el uso de la IA, incluidas responsabilidades como el monitoreo, la integridad de los datos y el cumplimiento de las regulaciones pertinentes. Documentación y transparencia: es esencial documentar minuciosamente el proceso de toma de decisiones relacionadas con la IA, incluidos registros de cómo se utiliza la herramienta de IA, la justificación para confiar en ciertos resultados, la intervención humana, etc. Estos documentos sirven como prueba importante a la hora de establecer la responsabilidad o defenderse de reclamaciones. Estándares profesionales y mejores prácticas: puede reducir su riesgo de responsabilidad siguiendo las mejores prácticas y estándares profesionales de la industria al integrar la IA en sus servicios. Mantenerse informado sobre los últimos avances en tecnología de inteligencia artificial y comprender su impacto en su práctica lo ayudará a abordar problemas potenciales de manera proactiva.
Trabajar en el Instituto de Investigación Lloyds
Fundado como un centro de innovación en la industria de seguros, Lloyds Lab ha sido un impulsor clave en la aceleración de las nuevas empresas de insurtech durante los últimos seis años. Lloyds Labs desempeña un papel central en el apoyo al desarrollo de productos y soluciones innovadores en el mercado de seguros, mejorando los procesos de toma de decisiones, avanzando las capacidades de modelado de datos, mejorando las metodologías de recopilación de datos y la recopilación de datos. Estamos impulsando avances en la tecnología de inteligencia artificial en varias áreas clave. , incluida la aceleración . Enfoques creativos para resolver los desafíos de la industria.
Entre los participantes del programa del laboratorio se encuentra Intelligent AI, una solución impulsada por GenAI que proporciona información sobre riesgos basada en la ubicación casi en tiempo real y diseñada para respaldar las operaciones de suscripción. Su valor quedó demostrado cuando analizó el importe de seguro correcto para una cartera de 300 propiedades comerciales, destacando lagunas en la cobertura de hasta 500 millones de libras esterlinas.
Otra innovación es ZeroEyes, una tecnología pionera de detección de armas basada en inteligencia artificial que puede escanear miles de millones de imágenes de CCTV todos los días para brindar soluciones de seguridad avanzadas a edificios vulnerables. Vayuh.ai, un especialista en modelos de riesgo climático que forma parte del grupo de investigación 2023 del instituto, ha desarrollado la capacidad de combinar inteligencia artificial y física para crear pronósticos meteorológicos y modelos RMS de alta precisión. Ese trabajo conducirá a mejores modelos de riesgo de catástrofes relacionados con el cambio climático, y nuevos productos en una variedad de líneas de negocios beneficiarán a las aseguradoras de todo el mundo.
La necesidad de gobernar
Los miembros creen que el uso de la IA requiere una gobernanza sólida para mitigar los riesgos asociados con su uso, en particular los que pueden surgir si hay una falta de transparencia sobre cómo se entrenan las herramientas de IA. Convinieron en que es necesario abordar la cuestión de la «caja negra». . Para garantizar la confiabilidad del resultado, se deben exigir pruebas rigurosas, incluida la validación de la calidad de los datos de capacitación e indicaciones para proteger la integridad de los resultados.
Igualmente importante es establecer responsabilidades claras para la capacitación continua para garantizar que las empresas mantengan la competencia técnica y la capacidad de evaluar críticamente los conocimientos generados por la IA. El mercado de seguros sigue el ritmo de la naturaleza cambiante de la IA y está desarrollando una comprensión más profunda del uso correcto de la IA para reducir la exposición a riesgos, como el aumento de las reclamaciones de D&C asociadas con proyectos de construcción en los que se utiliza la IA.
También necesitamos desarrollar una estrategia integral que integre la inteligencia artificial y la supervisión humana y permita un sistema de controles y equilibrios que haga que la toma de decisiones sea más defendible. Por ejemplo, el riesgo de “alucinaciones” de la IA podría dar lugar a evaluaciones de riesgos incorrectas, fijación de precios incorrectos de las pólizas de seguro o decisiones de reclamaciones inapropiadas. Esto puede socavar la credibilidad del proceso de suscripción, distorsionar las proyecciones financieras y causar daños a la reputación. Al combinar el poder de la IA con el aporte humano capacitado, las organizaciones pueden garantizar que los procesos impulsados por la IA sean transparentes, responsables y estén en línea con los estándares de la industria antes de que se utilicen para informar decisiones críticas.
Estado regulatorio
La sesión concluyó con un debate sobre la legislación actual y su idoneidad para gestionar el impacto de la IA. La posición actual del Gobierno del Reino Unido, establecida en el Libro Blanco sobre la Regulación de la IA publicado en 2023, se centra en un enfoque basado en resultados basado en cinco pilares que fomentarán el desarrollo y el despliegue responsable de la IA. El Reino Unido reconoce el enorme potencial de la IA, pero reconoce sus riesgos inherentes y aspira a crear un entorno en el que pueda prosperar manteniendo al mismo tiempo la confianza pública y los principios éticos. Este enfoque se caracteriza por una regulación específica del contexto adaptada a sectores y aplicaciones específicos, y por la colaboración con las partes interesadas para garantizar un marco regulatorio equilibrado y en evolución.
Un avance importante es la introducción de la norma ISO 42001. ISO 42001 es el primer estándar internacional para la gestión de la IA y se centra en establecer directrices para el uso ético, transparente y responsable de la IA. La certificación proporciona una manera para que las organizaciones demuestren que respaldan una gobernanza sólida, adoptan la IA de manera responsable y garantizan el cumplimiento de las mejores prácticas para la gestión de riesgos, la integridad de los datos y la toma de decisiones.
Dentro de la UE, la Ley de IA tiene como objetivo establecer un marco integral para regular la IA en la UE y garantizar que los sistemas de IA sean seguros, confiables y justos. Al reconocer el surgimiento de GenAI como un signo de la rápida evolución de la tecnología de IA, esta ley tiene como objetivo mantener la flexibilidad para adaptarse a los desarrollos ascendentes. Sin embargo, las características especiales de esta ley sugieren que pueden ser necesarias normas y orientaciones adicionales para facilitar su implementación en el sector de seguros.
A medida que la IA se desarrolla rápidamente, los sistemas fronterizos continúan ampliando los límites de lo que es posible y los reguladores deben adoptar un enfoque cada vez más flexible para responder a nuevos riesgos y oportunidades. Si bien inevitablemente habrá una recuperación, las aseguradoras deben ser proactivas en el desarrollo de políticas internas para gestionar la IA de manera responsable.
Perspectivas de futuro
La IA seguirá revolucionando la industria de seguros de diversas maneras, incluido el servicio al cliente, la suscripción, la fijación de precios y la detección de fraude, además de crear nuevos productos y líneas de negocio. Contener o reducir costos es un desafío constante para las aseguradoras, y la innovación es fundamental para lograrlo y al mismo tiempo mejorar la experiencia del cliente.
La gama de tareas realizadas por la IA se amplía constantemente y su uso generalizado añade complejidad a las aseguradoras que intentan evaluar el riesgo y asignar la responsabilidad. Otros factores aumentan el número de partes interesadas y la incertidumbre, como si el sistema de IA es propietario o está disponible en el mercado, y si los expertos confían en expertos externos para los resultados de la IA. .
Actualmente, es probable que las aseguradoras gestionen las reclamaciones de AI caso por caso a través de pólizas de PI existentes, pero en el futuro pueden clasificar las fallas de AI como un riesgo estándar para llenar los vacíos en la cobertura que se puede extender bajo dicha póliza. Alternativamente, pueden surgir en el mercado nuevas soluciones que cubran específicamente a los desarrolladores de IA frente a reclamaciones de terceros contra los usuarios finales en caso de fallo.
La mejor manera de cerrar las brechas de cobertura antes de un reclamo es garantizar que todas las partes sean abiertas sobre el tipo y nivel de uso de la IA que emplean los asegurados, de modo que las aseguradoras puedan fijar el precio de la cobertura de manera adecuada. Se trata de tener un diálogo. Si bien la realidad de la situación y dónde reside la exposición de PI pueden seguir siendo inciertas en el corto plazo, la cobertura debe seguir el ritmo de los avances tecnológicos para aclarar el tipo de seguro más apropiado y reducir las pérdidas no aseguradas.