In realtà, a oggi i progressi sono stati eterogenei e tutt'altro che completi. Non esiste un approccio uniforme alla regolamentazione dell'IA in tutte le giurisdizioni e alcuni paesi hanno introdotto le rispettive norme prima del lancio di ChatGPT alla fine del 2022. Con la diffusione dell'IA, molte autorità di regolamentazione dovranno aggiornare ed eventualmente ampliare il lavoro già fatto.
Per gli investitori, l'incertezza normativa si aggiunge agli altri rischi dell'IA. Per capire e valutare come affrontarli, è utile avere una visione d'insieme dello scenario commerciale, etico e normativo dell'IA.
I rischi legati ai dati possono pregiudicare la reputazione dei brand
L'IA comprende una serie di tecnologie finalizzate a eseguire compiti normalmente svolti dagli esseri umani e a farlo in modo simile a quello umano. L'IA e il business hanno un punto di incontro nell'IA generativa, che comprende varie forme di generazione di contenuti, tra cui video, voce, testo e musica, e nei modelli linguistici di grandi dimensioni (LLM), un sottoinsieme dell'IA generativa incentrato sull'elaborazione del linguaggio naturale. Gli LLM costituiscono la base di varie applicazioni dell'IA, come i chatbot, la creazione automatizzata di contenuti e l'analisi e la sintesi di grandi volumi di informazioni, che le imprese utilizzano sempre più spesso per il coinvolgimento della clientela ("customer engagement").
Come molte aziende hanno avuto modo di scoprire, tuttavia, le innovazioni dell'IA possono comportare rischi potenzialmente dannosi per il brand. Questi possono scaturire dalle distorsioni presenti nei dati su cui gli LLM sono addestrati e che hanno portato, ad esempio, alcune banche a discriminare inavvertitamente le minoranze nella concessione di mutui ipotecari, mentre negli Stati Uniti un assicuratore sanitario si è trovato ad affrontare una class action con l'accusa che il suo utilizzo di un algoritmo di IA avrebbe causato il rifiuto ingiustificato delle richieste di risarcimento dei pazienti anziani con copertura assicurativa estesa.
Distorsioni e discriminazioni sono solo due dei rischi che le autorità di regolamentazione hanno nel mirino e a cui gli investitori dovrebbero prestare attenzione; altri includono i diritti di proprietà intellettuale e le considerazioni sulla riservatezza dei dati. Sarebbe opportuno esaminare anche le misure di mitigazione del rischio, come la verifica delle prestazioni, dell'accuratezza e della solidità dei modelli di IA da parte degli sviluppatori e la fornitura di trasparenza e assistenza alle aziende nell'implementazione di soluzioni di IA.
Approfondimenti per comprendere le norme in materia di IA
Il quadro normativo relativo all'IA fa registrare un'evoluzione differente quanto a tempi e modi nelle diverse giurisdizioni. Tra gli sviluppi più recenti si annoverano la legge dell'Unione europea (UE) sull'intelligenza artificiale (EU Artificial Intelligence Act), che dovrebbe entrare in vigore intorno alla metà del 2024, e la risposta del governo britannico a un processo di consultazione avviato lo scorso anno con la pubblicazione, da parte dell'esecutivo, di un libro bianco sulla regolamentazione dell'IA.
Le due iniziative mettono in luce alcune possibili differenze nell'approccio normativo all'IA. Il Regno Unito ha adottato un quadro di riferimento basato su principi che le autorità di regolamentazione possono applicare alle questioni relative all'IA nei loro rispettivi ambiti. Per contro, la legge dell'UE introduce di fatto un quadro giuridico completo con obblighi di conformità graduati in base al rischio per sviluppatori, aziende, importatori e distributori di sistemi di IA.
A nostro avviso, gli investitori non dovrebbero limitarsi ad approfondire gli specifici dettami delle norme sull'IA in ciascuna giurisdizione, ma dovrebbero anche capire in che modo le autorità gestiscono le questioni relative all'IA avvalendosi di leggi esistenti e diverse dalle norme specifiche sull'IA, ad esempio la legge sul copyright per affrontare le violazioni dei dati e le norme in materia di occupazione nei casi in cui l'IA ha un impatto sui mercati del lavoro.
Importanza dell'analisi fondamentale e dell'engagement
Una buona regola empirica per gli investitori che cercano di valutare i rischi dell'IA è che le aziende proattive nel rendere pienamente conto delle loro strategie e politiche in materia di IA sono probabilmente ben preparate ad affrontare le nuove normative. Più in generale, l'analisi fondamentale e l'engagement degli emittenti – i cardini dell'investimento responsabile – sono essenziali per quest'area di ricerca.
L'analisi fondamentale dovrebbe soffermarsi sui fattori di rischio dell'IA non solo a livello aziendale, ma anche lungo la catena di fornitura e nel contesto normativo, valutando le informazioni acquisite alla luce dei principi basilari per un uso responsabile dell'IA (cfr. Grafico).