Dai rischi etici per la reputazione dei brand all'incertezza normativa, l'IA pone diverse sfide agli investitori. Una strada da seguire però esiste.

L'intelligenza artificiale (IA) suscita molte questioni etiche che possono comportare rischi per i consumatori, le imprese e gli investitori. Ad accrescere l'incertezza contribuisce anche la regolamentazione dell'IA, che procede a un ritmo disomogeneo nelle diverse giurisdizioni. A nostro avviso, la soluzione per gli investitori risiede nel concentrarsi sulla trasparenza e sulla chiarezza.

Le questioni etiche e i rischi dell'IA iniziano con gli sviluppatori che creano la tecnologia. Da lì, si trasmettono ai clienti degli sviluppatori – le aziende che integrano l'IA nelle loro operazioni – e quindi ai consumatori e alla società nel suo complesso. Attraverso i loro investimenti nello sviluppo dell'IA e nelle imprese che ne fanno utilizzo, gli investitori sono esposti alle due estremità della catena del rischio.

L'IA si sta sviluppando rapidamente, superando in velocità la capacità di comprensione della maggior parte delle persone. Come tanti altri, i regolatori e legislatori di tutto il mondo fanno il possibile per restare al passo. A prima vista, negli ultimi anni, la loro attività nel campo dell'IA si è intensificata velocemente; molti paesi hanno pubblicato strategie su questo tema e altri stanno per fare altrettanto (cfr. Grafico).

Elaborazione di politiche e normative sull'IA a livello globale
L'attività è elevata, ma i progressi sono disomogenei
Elaborazione di politiche e normative sull'IA a livello globale

Solo per scopi illustrativi.
Al 31 dicembre 2022 
Fonte: AI, Algorithmic and Automation Incidents and Controversies (AIAAIC) Repository; e Nestor Maslej, Loredana Fattorini, Erik Brynjolfsson, 
John Etchemendy, Katrina Ligett, Terah Lyons, James Manyika, Helen Ngo, Juan Carlos Niebles, Vanessa Parli, Yoav Shoham, Russell Wald, Jack Clark e Raymond Perrault, The AI Index 2023 Annual Report, AI Index Steering Committee, Institute for Human-Centered AI, Stanford University, Stanford, CA, aprile 2023.  

In realtà, a oggi i progressi sono stati eterogenei e tutt'altro che completi. Non esiste un approccio uniforme alla regolamentazione dell'IA in tutte le giurisdizioni e alcuni paesi hanno introdotto le rispettive norme prima del lancio di ChatGPT alla fine del 2022. Con la diffusione dell'IA, molte autorità di regolamentazione dovranno aggiornare ed eventualmente ampliare il lavoro già fatto.

Per gli investitori, l'incertezza normativa si aggiunge agli altri rischi dell'IA. Per capire e valutare come affrontarli, è utile avere una visione d'insieme dello scenario commerciale, etico e normativo dell'IA.

I rischi legati ai dati possono pregiudicare la reputazione dei brand

L'IA comprende una serie di tecnologie finalizzate a eseguire compiti normalmente svolti dagli esseri umani e a farlo in modo simile a quello umano. L'IA e il business hanno un punto di incontro nell'IA generativa, che comprende varie forme di generazione di contenuti, tra cui video, voce, testo e musica, e nei modelli linguistici di grandi dimensioni (LLM), un sottoinsieme dell'IA generativa incentrato sull'elaborazione del linguaggio naturale. Gli LLM costituiscono la base di varie applicazioni dell'IA, come i chatbot, la creazione automatizzata di contenuti e l'analisi e la sintesi di grandi volumi di informazioni, che le imprese utilizzano sempre più spesso per il coinvolgimento della clientela ("customer engagement").

Come molte aziende hanno avuto modo di scoprire, tuttavia, le innovazioni dell'IA possono comportare rischi potenzialmente dannosi per il brand. Questi possono scaturire dalle distorsioni presenti nei dati su cui gli LLM sono addestrati e che hanno portato, ad esempio, alcune banche a discriminare inavvertitamente le minoranze nella concessione di mutui ipotecari, mentre negli Stati Uniti un assicuratore sanitario si è trovato ad affrontare una class action con l'accusa che il suo utilizzo di un algoritmo di IA avrebbe causato il rifiuto ingiustificato delle richieste di risarcimento dei pazienti anziani con copertura assicurativa estesa.

Distorsioni e discriminazioni sono solo due dei rischi che le autorità di regolamentazione hanno nel mirino e a cui gli investitori dovrebbero prestare attenzione; altri includono i diritti di proprietà intellettuale e le considerazioni sulla riservatezza dei dati. Sarebbe opportuno esaminare anche le misure di mitigazione del rischio, come la verifica delle prestazioni, dell'accuratezza e della solidità dei modelli di IA da parte degli sviluppatori e la fornitura di trasparenza e assistenza alle aziende nell'implementazione di soluzioni di IA.

Approfondimenti per comprendere le norme in materia di IA

Il quadro normativo relativo all'IA fa registrare un'evoluzione differente quanto a tempi e modi nelle diverse giurisdizioni. Tra gli sviluppi più recenti si annoverano la legge dell'Unione europea (UE) sull'intelligenza artificiale (EU Artificial Intelligence Act), che dovrebbe entrare in vigore intorno alla metà del 2024, e la risposta del governo britannico a un processo di consultazione avviato lo scorso anno con la pubblicazione, da parte dell'esecutivo, di un libro bianco sulla regolamentazione dell'IA.

Le due iniziative mettono in luce alcune possibili differenze nell'approccio normativo all'IA. Il Regno Unito ha adottato un quadro di riferimento basato su principi che le autorità di regolamentazione possono applicare alle questioni relative all'IA nei loro rispettivi ambiti. Per contro, la legge dell'UE introduce di fatto un quadro giuridico completo con obblighi di conformità graduati in base al rischio per sviluppatori, aziende, importatori e distributori di sistemi di IA.

A nostro avviso, gli investitori non dovrebbero limitarsi ad approfondire gli specifici dettami delle norme sull'IA in ciascuna giurisdizione, ma dovrebbero anche capire in che modo le autorità gestiscono le questioni relative all'IA avvalendosi di leggi esistenti e diverse dalle norme specifiche sull'IA, ad esempio la legge sul copyright per affrontare le violazioni dei dati e le norme in materia di occupazione nei casi in cui l'IA ha un impatto sui mercati del lavoro.

Importanza dell'analisi fondamentale e dell'engagement

Una buona regola empirica per gli investitori che cercano di valutare i rischi dell'IA è che le aziende proattive nel rendere pienamente conto delle loro strategie e politiche in materia di IA sono probabilmente ben preparate ad affrontare le nuove normative. Più in generale, l'analisi fondamentale e l'engagement degli emittenti – i cardini dell'investimento responsabile – sono essenziali per quest'area di ricerca.

L'analisi fondamentale dovrebbe soffermarsi sui fattori di rischio dell'IA non solo a livello aziendale, ma anche lungo la catena di fornitura e nel contesto normativo, valutando le informazioni acquisite alla luce dei principi basilari per un uso responsabile dell'IA (cfr. Grafico).

Uso responsabile dell'IA: una visione a tutto tondo per gli investitori
Uso responsabile dell'IA: una visione a tutto tondo per gli investitori

Solo per scopi illustrativi.
Fonte: AllianceBernstein (AB)

Le attività di engagement possono essere strutturate in modo da trattare le questioni relative all'IA non solo per quanto concerne il loro effetto sulle operazioni aziendali, ma anche dal punto di vista ambientale, sociale e di governance. Ecco alcune domande che gli investitori potrebbero porre ai consigli di amministrazione (CdA) e ai team manageriali:

  • Integrazione dell'IA: In che modo è stata integrata l'IA nella strategie aziendale complessiva dell'impresa? Quali sono alcuni esempi specifici di applicazioni dell'IA all'interno dell'azienda? 

  • Supervisione e competenze del CdA: In che modo il CdA si assicura di avere competenze sufficienti per supervisionare efficacemente la strategia e l'implementazione dell'IA nell'azienda? Sono previsti programmi o iniziative di formazione specifici? 

  • Impegno pubblico per un'IA responsabile: L'azienda ha pubblicato una politica o un quadro di riferimento formale sull'IA responsabile? In che misura questa politica è allineata agli standard di settore, alle considerazioni etiche sull'IA e alla normativa in materia?

  • Trasparenza proattiva: L'azienda ha adottato proattivamente misure di trasparenza per far fronte a future implicazioni normative?

  • Gestione del rischio e responsabilità: Quali processi di gestione del rischio ha adottato l'azienda per identificare e mitigare i rischi legati all'IA? La responsabilità della supervisione di questi rischi è stata delegata?

  • Problemi inerenti ai dati negli LLM: In che modo l'azienda affronta i problemi di privacy e copyright associati ai dati utilizzati per addestrare i modelli linguistici di grandi dimensioni? Quali misure sono state prese per assicurare che i dati usati come input siano conformi alle norme sulla privacy e alle leggi sul copyright, e in che modo l'azienda gestisce le restrizioni o i requisiti relativi ai dati?

  • Problemi di distorsioni ed equità nei sistemi di IA generativa: Quali sono le misure adottate dall'azienda per prevenire e/o mitigare risultati distorti o iniqui nei suoi sistemi di IA? Cosa fa l'azienda per garantire che i risultati dei sistemi di IA generativa utilizzati siano equi e imparziali e che non perpetuino discriminazioni o danni nei confronti di alcun individuo o gruppo?

  • Tracciamento e segnalazione degli incidenti: Quali procedure segue l'azienda per tracciare e segnalare gli incidenti relativi allo sviluppo o all'utilizzo dell'IA, e quali meccanismi sono in atto per affrontare questi incidenti e farne tesoro?

  • Metriche e reporting: Quali sono le metriche utilizzate dall'azienda per misurare le prestazioni e l'impatto dei suoi sistemi di IA, e come vengono comunicate agli stakeholder esterni? Cosa fa l'azienda per mantenere la dovuta diligenza nel monitoraggio della conformità normativa delle sue applicazioni di IA?


In definitiva, il modo migliore di orientarsi nel labirinto è quello di rimanere con i piedi per terra ed esercitare un sano scetticismo. L'IA è una tecnologia complessa e in rapida evoluzione. Gli investitori dovrebbero insistere per avere risposte chiare e non lasciarsi abbagliare da spiegazioni elaborate o complicate.

Gli autori desiderano ringraziare Roxanne Low, ESG Analyst del team Responsible Investing di AB, per il suo contributo alla ricerca.

Le opinioni espresse nel presente documento non costituiscono ricerca, consulenza di investimento o raccomandazioni di acquisto o di vendita, e non rappresentano necessariamente le opinioni di tutti i team di gestione di AB; tali opinioni sono soggette a revisione nel corso del tempo.