MILANO – Evo Pricing, società specializzata nell’Intelligenza artificiale con sedi a Londra e Torino, partecipa al programma Open Loop di Facebook AI. Incubata al Politecnico di Torino, Evo è una delle dieci aziende scelte dall’azienda di Mark Zuckerberg per guidare la task force europea incaricata di definire una governance per ridurre i rischi dell’intelligenza artificiale (IA). L’unica altra italiana è la startup RiAtlas, specializzata nell’e-health.
Con l’opinione pubblica divisa sull’impatto dell’IA nella società, molti temono che lo sviluppo non regolamentato rappresenti un rischio troppo grande. L’Unione Europea da tempo si occupa del tema e della sua legislazione. Open Loop ha l’obiettivo di creare un nuovo quadro normativo con linee guida lungimiranti e basate su fatti concreti, in grado di identificare e gestire efficacemente i rischi delle IA, incoraggiando al contempo l’innovazione. Il programma offre supporto ai responsabili politici dell’UE nella ricerca di soluzioni pratiche che riducano al minimo i rischi per il pubblico, senza mettere le aziende tecnologiche europee in una posizione di svantaggio competitivo a causa di una governance dell’IA troppo onerosa e, in ultima analisi, inefficace.
Il contributo di Evo Pricing al fianco di Facebook
Evo Pricing ha scelto di contribuire impegnandosi più attivamente nello sviluppo della normativa sull’IA per trovare politiche che proteggano la privacy degli individui, pur utilizzando i loro dati in modo efficace per soddisfare meglio le loro esigenze. “Il programma Open Loop lanciato da Facebook ha favorito un sano dibattito all’interno di Evo Pricing sulle future questioni di AI governance che si estendono su un periodo di 3-5 anni, al di là del nostro tipico orizzonte di pianificazione che è sui 12 mesi. La governance è un tema fondamentale per noi di Evo Pricing, poiché ogni giorno raccogliamo ed elaboriamo dati su oltre 1,3 miliardi di persone e su oltre 900 milioni di prodotti a livello globale” ha dichiarato Fabrizio Fantini, fondatore e CEO di Evo Pricing.
Il framework che ne è scaturito, chiamato Automated Decision Impact Assessment (ADIA), progettato in modo molto simile a quello sulle valutazioni d’impatto sulla protezione dei dati (DPIA) di GDPR, ha dimostrato di essere molto promettente nel raggiungimento di questi obiettivi.
La soddisfazione di Facebook e i primi risultati
“Le esperienze dei nostri partner hanno evidenziato come questo tipo di approccio alla valutazione del rischio possa promuovere un metodo più flessibile, praticabile e innovativo per la valutazione e la gestione dei rischi di IA rispetto ad approcci politici più prescrittivi” ha dichiarato Norberto Andrade, Global Policy Lead for Digital and AI Ethics di Facebook AI.
Il programma stesso ha utilizzato un approccio all’avanguardia noto come prototipazione delle policy per creare il suo quadro di riferimento per la governance dell’IA. Un approccio empirico alla governance sperimentale durante il quale, Evo ha testato le policy di AI proposte nella sua applicazione di Autonomous Supply Chain per misurare l’impatto che il framework ha avuto sulle operazioni, l’innovazione della AI e la gestione del rischio.
I dati risultanti hanno fornito a Evo un feedback sull’impatto, i punti di forza e i limiti del framework. Le aree di confusione o di difficoltà di conformità potevano essere identificate precocemente per iterare e migliorare questi quadri normativi. In questo modo, il team di Evo ora in grado di fornire ai responsabili politici input pratici per migliorare i quadri normativi esistenti e aggiornare i processi legislativi.
“Questa esperienza ci ha spinto a pensare a come prototipare un documento politico che renda la nostra catena di fornitura autonoma adatta al futuro e al tempo stesso promuova ulteriormente l’agenda e il dibattito pubblico”, ha detto Fantini.
Evo e i partner del programma Open Loop stanno cercando di consolidare i primi successi di ADIA per aumentare ulteriormente trasparenza e responsabilità.
“La prototipazione delle politiche ha aiutato il mio team a scoprire nuove aree in cui potremmo includere il feedback degli stakeholder e la trasparenza. Abbiamo già aumentato del 16% i parametri modificabili manualmente, per dare ai nostri clienti un controllo più diretto, e fissare limiti più rigorosi alle soluzioni che generiamo. Sulla base di simulazioni, questo renderà il nostro algoritmo ancora più accurato. Una governance più innovativa è una vittoria per tutti, e abbiamo grandi speranze per le iterazioni future”, ha concluso Fantini.