Pero lo cierto es que, hasta ahora, la evolución ha sido bastante desigual y dista mucho de haber concluido. No existe un planteamiento uniforme sobre el proceso de regulación de la IA en las distintas regiones, y algunos países han introducido sus normativas antes del lanzamiento de ChatGPT a finales de 2022. A medida que vaya creciendo la IA, muchos reguladores deberán actualizar, y posiblemente ampliar, el trabajo que ya han realizado.
Para los inversores, la incertidumbre regulatoria agrava otros riesgos de la IA. Para entender y evaluar la manera de hacer frente a dichos riesgos, es conveniente tener una visión general del panorama empresarial, ético y regulatorio de la IA.
Los riesgos asociados a los datos pueden perjudicar a las marcas
La IA comprende una amplia variedad de tecnologías destinadas a realizar tareas que generalmente llevan a cabo las personas, y a ejecutarlas como lo haría un humano. El punto de intersección entre la IA y el mundo empresarial puede ser la IA generativa, que abarca distintas formas de generación de contenido, como vídeo, audio, texto y música; así como los grandes modelos de lenguaje (LLM), un subgrupo de la IA generativa que se centra en el procesamiento del lenguaje natural. Los LLM sirven de modelos fundacionales para distintas aplicaciones de IA —como chatbots, creación automatizada de contenido y análisis y resumen de grandes volúmenes de información— que las empresas utilizan cada vez más en sus interacciones con los clientes.
Sin embargo, como han podido constatar muchas empresas, las innovaciones en IA pueden conllevar riesgos que perjudican a las marcas. Esos riesgos pueden surgir a partir de sesgos inherentes en los datos que se utilizan para entrenar los LLM y, por ejemplo, han provocado que los bancos discriminen involuntariamente a las minorías a la hora de conceder hipotecas y que una aseguradora de salud estadounidense se enfrente a una demanda judicial colectiva porque su uso de un algoritmo de IA habría provocado la denegación por error de solicitudes de atención prolongada de pacientes mayores.
El sesgo y la discriminación son solo dos de los riesgos que están abordando los reguladores y que los inversores deberían tener en cuenta. Otros tienen que ver con los derechos de propiedad intelectual y la privacidad. Las medidas para mitigar el riesgo —como las pruebas que realizan los desarrolladores para probar el rendimiento, la precisión y la solidez de los modelos de IA, así como la transparencia y el apoyo que brindan a las empresas para implantar soluciones de IA — también deben ser objeto de examen.
Análisis profundo para entender la reglamentación en materia de IA
El entorno normativo de la IA está evolucionando de manera dispar y a velocidades diferentes en las distintas regiones. Entre los avances más recientes figuran la Ley de inteligencia artificial de la Unión Europea, cuya entrada en vigor está prevista para mediados del 2024, y la respuesta del Gobierno británico a un proceso de consulta a raíz del lanzamiento el año pasado de su libro blanco sobre la regulación de la IA.
Ambas iniciativas demuestran hasta qué punto pueden diferir los distintos planteamientos normativos en materia de IA. El Reino Unido está adoptando un marco basado en principios que los reguladores pueden aplicar a cuestiones relacionadas con la IA que pertenezcan a sus respectivos ámbitos. Por el contrario, la ley de la UE introduce un marco legal completo que establece obligaciones de cumplimiento para desarrolladores, empresas. importadores y distribuidores de sistemas de IA en función del nivel de riesgo de esta tecnología.
A nuestro juicio, los inversores no deben detenerse en el mero examen de las particularidades de las normativas en materia de IA de cada región. También deberían saber de qué manera dichas regiones están gestionando los problemas de la IA mediante la aplicación de leyes que preceden a las normativas específicas de la IA y son independientes de ellas; por ejemplo, leyes sobre derechos de autor para abordar las violaciones de datos y leyes laborales en aquellos casos en los que la IA repercuta en los mercados laborales.
El análisis fundamental y las actividades de implicación son esenciales
Para aquellos inversores que traten de evaluar el riesgo de la IA, una regla de oro es que las empresas que publican de forma proactiva información completa sobre sus estrategias y políticas de IA probablemente estarán bien preparadas para afrontar las nuevas normativas. De forma más general, el análisis fundamental y la implicación con los emisores —los elementos básicos de la inversión responsable— son esenciales para dicha evaluación.
El análisis fundamental no solo debería ahondar en los factores de riesgo de la IA para la empresa, sino también para el conjunto de la cadena empresarial y teniendo en cuenta todos los entornos normativos, contrastando la información obtenida con los principios fundamentales de la IA responsable (Gráfico).