Robeco logo

Disclaimer

Confermo di essere un cliente professionale

Le informazioni e le opinioni contenute in questa sezione del Sito cui sta accedendo sono destinate esclusivamente a Clienti Professionali come definiti dal Regolamento Consob n. 16190 del 29 ottobre 2007 (articolo 26 e Allegato 3) e dalla Direttiva CE n. 2004/39 (Allegato II), e sono concepite ad uso esclusivo di tali categorie di soggetti. Ne è vietata la divulgazione, anche solo parziale.

Al fine di accedere a tale sezione riservata, si prega di confermare di essere un Cliente Professionale, declinando Robeco qualsivoglia responsabilità in caso di accesso effettuato da una persona che non sia un cliente professionale.

In ogni caso, le informazioni e le opinioni ivi contenute non costituiscono un'offerta o una sollecitazione all'investimento e non costituiscono una raccomandazione o consiglio, anche di carattere fiscale, o un'offerta, finalizzate all'investimento, e non devono in alcun caso essere interpretate come tali.

Prima di ogni investimento, per una descrizione dettagliata delle caratteristiche, dei rischi e degli oneri connessi, si raccomanda di esaminare il Prospetto, i KIIDs delle classi autorizzate per la commercializzazione in Italia, la relazione annuale o semestrale e lo Statuto, disponibili sul presente Sito o presso i collocatori.
L’investimento in prodotti finanziari è soggetto a fluttuazioni, con conseguente variazione al rialzo o al ribasso dei prezzi, ed è possibile che non si riesca a recuperare l'importo originariamente investito.

Rifiuto

24-02-2023 · Visione

Mitigare i rischi dell’intelligenza artificiale

Tra le aziende cresce la consapevolezza dei rischi che l’intelligenza artificiale (AI) può comportare per la società, ma la strada da fare è ancora lunga. È ciò che emerge da tre anni di engagement del team Active Ownership di Robeco con dieci società all’avanguardia nel settore tecnologico.

    Relatori

  • Daniëlle Essink-Zuiderwijk - Engagement Specialist

    Daniëlle Essink-Zuiderwijk

    Engagement Specialist

Sommario

  1. Le aziende stanno sviluppando principi di Intelligenza Artificiale (AI) responsabile e cercando di ridurre i rischi

  2. Abbiamo chiuso con successo i processi di engagement in quattro delle cinque aziende coinvolte

  3. Altre cinque società parteciperanno a ulteriori attività di engagement in tema di impatto sociale

L’Intelligenza Artificiale offre vantaggi notevoli: dal semplice apprendimento automatico che capisce cosa stai per digitare ad algoritmi molto più complessi, in grado di anticipare le esigenze sanitarie e di determinare l’evoluzione dei cambiamenti climatici. Già ampiamente utilizzata in tutto lo spettro tecnologico, spesso interviene senza che l’utente ne abbia alcuna percezione.

Allo stesso tempo, però, l’AI rappresenta anche una grave minaccia in termini di privacy e di sicurezza dei dati, senza contare il rischio che il machine learning sia fonte di tracciamenti indesiderati, profilazione e discriminazione razziale. Tra l’altro, è difficile sapere come stiano davvero le cose, vista la poca trasparenza sulle attività delle singole aziende in materia di AI.

Questa mancanza di informazioni è uno dei motivi per cui il team Active Ownership è riuscito a chiudere con successo solo quattro dei cinque programmi di engagement tra il 2019 e il 2022. Gli altri cinque casi sono stati trasferiti agli specialisti di SDG, per coinvolgere le aziende in ulteriori attività di engagement in tema di impatto sociale.

Allineamento delle pratiche

“Attraverso l’engagement, abbiamo imparato che le aziende stanno gradualmente allineando le rispettive pratiche interne ai principi di AI responsabile,” sostiene la specialista di engagement Danielle Essink. “Molte imprese hanno formalizzato principi di AI che affrontano temi come inclusione, imparzialità e trasparenza.”

“Inoltre, le società perseguono sempre più spesso un approccio collaborativo, contribuendo attivamente a iniziative finalizzate alla promozione di una governance e di best practice responsabili. Iniziative del genere sono fondamentali per garantire l’affidabilità dell’AI nel nostro settore.”

“Tuttavia, i principi etici non bastano ad assicurare che l’AI si sviluppi e si diffonda in modo responsabile. Per implementarli efficacemente, infatti, alle aziende servono solidi meccanismi di governance.”

Mancanza di comunicazione

Tra i principali ostacoli figurano la mancanza di comunicazione su come le aziende stanno effettivamente affrontando la questione e, soprattutto, sulla loro volontà di impegnarsi. Gran parte della tecnologia AI e delle sue modalità di implementazione sulle diverse piattaforme rimane avvolta dal mistero.

“Durante le nostre attività di engagement, ci siamo resi conto che la trasparenza su governance e implementazione è limitata: le informative di gran parte delle imprese non chiariscono come determinati principi vengano messi in pratica, né quali sistemi di check and balance esistano”, osserva la specialista di engagement Claire Ahlborn, tra i partecipanti al programma.

“Il confronto con le società ci ha chiarito i dettagli dell’implementazione e ci ha reso fiduciosi circa la possibilità di raggiungere alcuni degli obiettivi prefissati. I risultati dell’engagement su questo tema, quindi, sono strettamente legati alla volontà delle singole imprese di avviare dialoghi costruttivi.”

L’investimento quantitativo di nuova generazione

Con il progresso della tecnologia, crescono anche le opportunità per gli investitori quantitativi. Incorporando una maggiore quantità di dati e facendo ricorso a tecniche di modellizzazione avanzate, possiamo acquisire conoscenze più approfondite e ottimizzare il processo decisionale.

Previsioni di forte crescita

Stando all’International Data Corporation’s Worldwide Artificial Intelligence Software Forecast 2022, il mercato AI è destinato a far registrare una crescita annuale composta del 18,6% dal 2022 al 2026.

Eppure, secondo Essink, i possibili benefici comportano rischi che non sono ancora stati del tutto esplorati né compresi. Per sfruttare al massimo il potenziale dell’AI, le aziende devono saper gestire i rischi associati allo sviluppo e all’uso di questa tecnologia, anche in tema di diritti umani.

“Considerata la velocità a cui si sta sviluppando, non c’è dubbio che nei decenni a venire l’AI trasformerà l’economia e la società in modo per noi inimmaginabile”, prosegue Essink.

Cambiamenti positivi

“Una crescita simile offre all’AI l’opportunità di contribuire a cambiamenti decisamente positivi, identificando modelli nei dati ambientali oppure migliorando l’analisi delle informazioni sulla salute.”

“Al tempo stesso, l’intelligenza artificiale potrebbe causare nuovi problemi o aggravare quelli già esistenti, se le aziende non si renderanno conto dei rischi associati alle tecnologie coinvolte. Per esempio, il ricorso ad algoritmi di profilazione può avere effetti discriminatori: basta pensare agli algoritmi di rating del credito che sfavoriscono persone appartenenti a determinati gruppi etnici o residenti in zone specifiche.”

“Analogamente, l’AI può essere usata per la sorveglianza nei luoghi pubblici o sul posto di lavoro, mettendo a rischio il diritto alla privacy. Serve quindi una governance responsabile in materia, per garantire che i sistemi rispettino valori e norme etiche, nonché i sempre più frequenti regolamenti in materia di AI.”

Regolamentazione imminente

Ci sono già stati interventi normativi e proposte politiche da parte di governi, comitati etici, organizzazioni no-profit, mondo accademico e UE. Nell’aprile del 2021, la Commissione Europea ha varato la Legge sull’intelligenza artificiale, che stabilisce requisiti e obblighi precisi riguardo all’uso specifico dell’AI da parte di sviluppatori, fornitori e utenti.

La proposta identifica quattro categorie di classificazione in base al livello di rischio. In cima troviamo i sistemi AI cosiddetti ad alto rischio (come quelli per lo screening dei candidati) che dovranno sottostare a rigorosi obblighi di gestione ottimizzata del rischio e di supervisione umana. I sistemi AI a basso rischio, invece, resteranno per lo più non regolamentati.

“La crescente pressione legislativa in materia di AI potrebbe esporre a un grave rischio normativo le aziende che ancora non sono pronte a conformarsi a questi maggiori obblighi,” sostiene Ahlborn.

Engagement in linea con gli SDG

“Nel frattempo, per promuovere e tutelare i diritti umani nella società di oggi, andrà garantito l’allineamento delle tecnologie AI ai valori e ai principi etici. Di conseguenza, il confronto con alcune imprese tecnologiche continuerà nell’ambito del nostro tema di engagement dedicato agli Obiettivi di Sviluppo Sostenibile (SDG).”

“Il dialogo è incentrato sui diritti umani e sull’impatto sociale, dando ampio spazio a informazioni fuorvianti, moderazione dei contenuti e collaborazione tra stakeholder. Ci interessa soprattutto come le imprese contribuiscono all’SDG 10 (Ridurre le disuguaglianze) all’SDG 16 (Pace, giustizia e istituzioni solide), per salvaguardare i diritti umani in fase di sviluppo e di utilizzo dell’AI e per promuovere l’inclusione sociale, economica e politica.”

Leggi qui il report completo sull'Active Ownership per il Q4