La IA plantea retos para los inversores, desde riesgos éticos perjudiciales para las marcas hasta incertidumbre regulatoria, pero existe una senda.

La inteligencia artificial (IA) plantea numerosos problemas éticos que pueden convertirse en riesgos para los consumidores, las empresas y los inversores. Además, la regulación desigual de esta tecnología en distintas regiones añade incertidumbre. Creemos que la clave para los inversores es centrarse en la transparencia y la explicabilidad de la IA.

Los problemas y riesgos éticos de la IA comienzan con las empresas que desarrollan la tecnología. A partir de ahí, se transmiten a los clientes de esos desarrolladores  —empresas que integran la IA en sus negocios—, a los consumidores y al conjunto de la sociedad. Los inversores están expuestos a ambos extremos de la cadena de riesgos a través de sus posiciones en los desarrolladores de IA y en las empresas que utilizan esta tecnología.

La IA está evolucionando a un ritmo vertiginoso, sin que a la mayoría de la gente le dé tiempo a estar al día de todos los avances. Entre los que tratan de ponerse al corriente figuran reguladores y legisladores de todo el mundo. A primera vista, la actividad que estos desarrollan en el ámbito de la IA ha crecido rápidamente en los últimos años. De hecho, son muchos los países que han lanzado estrategias en este ámbito y otros están a punto de hacerlo (Gráfico).

Desarrollo global de políticas y regulación de la IA
La actividad es elevada, pero la evolución ha sido desigual
Desarrollo global de políticas y regulación de la IA

Información proporcionada exclusivamente a título ilustrativo.
Through December 31, 2022
Datos hasta el 31 de diciembre de 2022
Fuente: AI, Algorithmic and Automation Incidents and Controversies (AIAAIC) Repository; y Nestor Maslej, Loredana Fattorini, Erik Brynjolfsson, John Etchemendy, Katrina Ligett, Terah Lyons, James Manyika, Helen Ngo, Juan Carlos Niebles, Vanessa Parli, Yoav Shoham, Russell Wald, Jack Clark y Raymond Perrault, The AI Index 2023 Annual Report,  AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, CA, abril de 2023.  

Pero lo cierto es que, hasta ahora, la evolución ha sido bastante desigual y dista mucho de haber concluido. No existe un planteamiento uniforme sobre el proceso de regulación de la IA en las distintas regiones, y algunos países han introducido sus normativas antes del lanzamiento de ChatGPT a finales de 2022. A medida que vaya creciendo la IA, muchos reguladores deberán actualizar, y posiblemente ampliar, el trabajo que ya han realizado.

Para los inversores, la incertidumbre regulatoria agrava otros riesgos de la IA. Para entender y evaluar la manera de hacer frente a dichos riesgos, es conveniente tener una visión general del panorama empresarial, ético y regulatorio de la IA.

Los riesgos asociados a los datos pueden perjudicar a las marcas

La IA comprende una amplia variedad de tecnologías destinadas a realizar tareas que generalmente llevan a cabo las personas, y a ejecutarlas como lo haría un humano. El punto de intersección entre la IA y el mundo empresarial puede ser la IA generativa, que abarca distintas formas de generación de contenido, como vídeo, audio, texto y música; así como los grandes modelos de lenguaje (LLM), un subgrupo de la IA generativa que se centra en el procesamiento del lenguaje natural. Los LLM sirven de modelos fundacionales para distintas aplicaciones de IA —como chatbots, creación automatizada de contenido y análisis y resumen de grandes volúmenes de información— que las empresas utilizan cada vez más en sus interacciones con los clientes.

Sin embargo, como han podido constatar muchas empresas, las innovaciones en IA pueden conllevar riesgos que perjudican a las marcas. Esos riesgos pueden surgir a partir de sesgos inherentes en los datos que se utilizan para entrenar los LLM y, por ejemplo, han provocado que los bancos discriminen involuntariamente a las minorías a la hora de conceder hipotecas y que una aseguradora de salud estadounidense se enfrente a una demanda judicial colectiva porque su uso de un algoritmo de IA habría provocado la denegación por error de solicitudes de atención prolongada de pacientes mayores.

El sesgo y la discriminación son solo dos de los riesgos que están abordando los reguladores y que los inversores deberían tener en cuenta. Otros tienen que ver con los derechos de propiedad intelectual y la privacidad. Las medidas para mitigar el riesgo —como las pruebas que realizan los desarrolladores para probar el rendimiento, la precisión y la solidez de los modelos de IA, así como la transparencia y el apoyo que brindan a las empresas para implantar soluciones de IA — también deben ser objeto de examen.

Análisis profundo para entender la reglamentación en materia de IA

El entorno normativo de la IA está evolucionando de manera dispar y a velocidades diferentes en las distintas regiones. Entre los avances más recientes figuran la Ley de inteligencia artificial de la Unión Europea, cuya entrada en vigor está prevista para mediados del 2024, y la respuesta del Gobierno británico a un proceso de consulta a raíz del lanzamiento el año pasado de su libro blanco sobre la regulación de la IA.

Ambas iniciativas demuestran hasta qué punto pueden diferir los distintos planteamientos normativos en materia de IA. El Reino Unido está adoptando un marco basado en principios que los reguladores pueden aplicar a cuestiones relacionadas con la IA que pertenezcan a sus respectivos ámbitos. Por el contrario, la ley de la UE introduce un marco legal completo que establece obligaciones de cumplimiento para desarrolladores, empresas. importadores y distribuidores de sistemas de IA en función del nivel de riesgo de esta tecnología.

A nuestro juicio, los inversores no deben detenerse en el mero examen de las particularidades de las normativas en materia de IA de cada región. También deberían saber de qué manera dichas regiones están gestionando los problemas de la IA mediante la aplicación de leyes que preceden a las normativas específicas de la IA y son independientes de ellas; por ejemplo, leyes sobre derechos de autor para abordar las violaciones de datos y leyes laborales en aquellos casos en los que la IA repercuta en los mercados laborales.

El análisis fundamental y las actividades de implicación son esenciales

Para aquellos inversores que traten de evaluar el riesgo de la IA, una regla de oro es que las empresas que publican de forma proactiva información completa sobre sus estrategias y políticas de IA probablemente estarán bien preparadas para afrontar las nuevas normativas. De forma más general, el análisis fundamental y la implicación con los emisores —los elementos básicos de la inversión responsable— son esenciales para dicha evaluación.

El análisis fundamental no solo debería ahondar en los factores de riesgo de la IA para la empresa, sino también para el conjunto de la cadena empresarial y teniendo en cuenta todos los entornos normativos, contrastando la información obtenida con los principios fundamentales de la IA responsable (Gráfico).

Uso responsable de la IA: visión general para los inversores
Uso responsable de la IA: visión general para los inversores

Información proporcionada exclusivamente a título ilustrativo.
Fuente: AllianceBernstein (AB)

Las actividades de implicación pueden estructurarse para abordar cuestiones de la IA que no solo se refieran a los efectos en las operaciones empresariales, sino también desde una perspectiva medioambiental, social y de gobernanza. Entre las preguntas que los inversores deben formular a los consejos de administración y los equipos directivos de las empresas figuran las siguientes:

  • Integración de la IA: ¿De qué modo la empresa ha integrado la IA en su estrategia global de negocio? ¿Pueden señalar algún ejemplo específico de aplicación de la IA en la empresa? 

  • Supervisión y cualificación del consejo de administración: ¿De qué modo el consejo de administración se asegura de estar debidamente cualificado para una correcta supervisión de la estrategia y la implementación de la IA en la empresa? ¿Existe algún programa o iniciativa de formación específicos?

  • Compromiso público con la IA responsable: ¿Ha publicado la empresa alguna política o marco formal sobre IA responsable? ¿En qué medida dicha política se ajusta a las normas del sector, las consideraciones éticas de la IA y la reglamentación en este ámbito?

  • Transparencia proactiva: ¿La empresa dispone de medidas proactivas de transparencia para cumplir los requisitos de futuras normativas?

  • Gestión del riesgo y rendición de cuentas: ¿Qué procesos de gestión de riesgos ha implantado la empresa para determinar y mitigar los riesgos asociados a la IA? ¿Se ha delegado la responsabilidad relativa a la supervisión de dichos riesgos?

  • Problemas relacionados con los datos en los LLM: ¿De qué modo aborda la empresa los problemas de privacidad y derechos de autor asociados a los datos de entrada utilizados para entrenar los grandes modelos de lenguaje? ¿Qué medidas se han aplicado para garantizar que los datos de entrada cumplen las normativas en materia de privacidad y la legislación sobre derechos de autor, y de qué modo aplica la empresa las restricciones y requisitos relacionados con los datos de entrada?

  • Problema de sesgo y equidad en los sistemas de IA generativa: ¿Qué medidas adopta la empresa para evitar o mitigar los resultados sesgados o no equitativos de sus sistemas de IA? ¿De qué modo garantiza la empresa que los resultados de los sistemas de IA generativa utilizados son justos, están libres de sesgos y no perpetúan la discriminación o perjudican a las personas o grupos? 

  • Seguimiento e información sobre incidentes: ¿De qué modo la empresa realiza un seguimiento de los incidentes relacionados con su desarrollo o uso de la IA e informa sobre ellos, y qué mecanismos existen para abordar dichos incidentes y aprender de ellos?

  • Parámetros e información: ¿Qué parámetros utiliza la empresa para medir el rendimiento y el impacto de los sistemas de IA, y cómo informa de dichos parámetros a las partes interesadas externas? ¿De qué modo aplica la empresa la diligencia debida en la supervisión del cumplimiento normativo de sus aplicaciones de IA?  


En definitiva, ser realistas y escépticos es la mejor manera de que los inversores encuentren su senda en todo este laberinto. La IA es una tecnología compleja que evoluciona con gran rapidez. Los inversores deben insistir en obtener respuestas claras y no dejarse impresionar por explicaciones muy elaboradas o complicadas.

Los autores dan las gracias a Roxanne Low, Analista ASG del equipo de Inversión Responsable de AB, por sus análisis.

Las opiniones expresadas en este documento no constituyen análisis, asesoramiento de inversión ni recomendación de negociación y no representan necesariamente las opiniones de todos los equipos de gestión de carteras de AB. Las opiniones pueden cambiar a lo largo del tiempo.