News

L'intelligenza artificiale ha bisogno di regole. E vuole contribuire a scriverle

10/07/2023

Immagine
Immagine

Su "Agenda Digitale", Gianluca Fasano dell'Istituto di scienze e tecnologie della cognizione (Cnr-Istc) affronta il delicato tema della necessità di regole per disciplinare limiti e responsabilità nell'utilizzo dell'intelligenza artificiale (AI).

In effetti, il dibattito attorno a tale tema si è recentemente acceso per via delle performance dell’intelligenza artificiale generativa, evidenti per tutti, e dei rischi, non altrettanto evidenti per tutti, in termini di informazioni errate, perché la veridicità dei dati di addestramento non è accertata, di bias e discriminazioni, perché se i dati di addestramento contengono pregiudizi questi vengono replicati negli output del sistema, di manipolazione, posto che i risultati potrebbero esser presentati a terzi come autentici, pur non essendolo. E altro ancora.

L'Unione Europea, dal canto suo, ha presentato già nell’aprile 2021 una proposta di regolamento sull’intelligenza artificiale (AI Act), sulla scia del Libro bianco sull'intelligenza artificiale - Un approccio europeo all'eccellenza e alla fiducia, che mira a sviluppare un ecosistema di norme in grado di generare fiducia nei confronti dei sistemi di AI [1].La proposta si basa sui valori e sui diritti fondamentali dell'UE e si prefigge di dare alle persone la fiducia per adottare le soluzioni basate sull'AI, incoraggiando al contempo le imprese a svilupparle.

Nel frattempo, alcuni leader tecnologici cominciano a occupare quello spazio non coperto dai modelli di partecipazione e rappresentanza tradizionali, quello spazio generatosi proprio grazie alle potenzialità delle moderne tecnologie digitali e in cui potrebbero plasmarsi nuove forme di democrazia. Si pensi all'iniziativa recente di OpenAI, che ha appena lanciato un fondo allo scopo di raccogliere idee e proposte sulla regolamentazione dell’intelligenza artificiale, sovvenzionando aziende e ricercatori nello sviluppo di «un processo democratico per decidere quali regole dovrebbero seguire i sistemi di intelligenza artificiale, entro i limiti definiti dalla legge»[2].

L'iniziativa non è criticabile in sé ma costringe a una riflessione di sistema sul significato da assegnare a queste nuove forme di partecipazione e decisioni collettive (generative voting), al fine di ricondurre le nuove tecnologie e il loro utilizzo entro la prospettiva, costituzionalmente orientata, di assicurare la centralità della persona e la garanzia dei diritti e libertà fondamentali.

Promotori, mezzi e scopi sono chiari, stiamo assistendo alla creazione di un percorso nuovo, avviato da chi detiene una potente tecnologia in grado di trasformare la società, un percorso che si vuol qualificare come ‘democratico’ probabilmente allo scopo di legittimare regole cui quella stessa tecnologia dovrà obbedire. Un percorso che il costituzionalismo europeo non può ignorare, se non si vuole delegare, ancora una volta, a organismi privi di legittimazione democratica il potere di realizzare quel bilanciamento tra i diritti fondamentali che può avvenire soltanto nella dimensione costituzionale della proporzionalità e, in generale, nel rispetto dello Stato di diritto.

[1] https://www.europarl.europa.eu/news/it/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence

[2] Democratic Inputs to AI (https://openai.com/blog/democratic-inputs-to-ai#fn-A).



Per informazioni:
Gianluca Fasano
CNR - Istituto di scienze e tecnologie della cognizione
c/o Fondazione Bruno Kessler
Via alla Cascata, 56/C
38123 Trento (TN)
gianluca.fasano@cnr.it

Vedi anche: