top of page
  • Giovanni Moccagatta

Intelligenze artificiali etiche e democratiche

Fra gli elicotteri in volo, i blindati e le ampie porzioni di strade bloccate al traffico, si è tenuta a Trento il 15 marzo l’ultima giornata della Riunione ministeriale G7 su Industria, Tecnologia e Digitale. La prima giornata, svoltasi a Verona e presieduta dal Ministro delle Imprese e del Made in Italy Adolfo Urso, ha preso in esame le Intelligenze Artificiali in rapporto al mondo produttivo. A Trento invece, con il Sottosegretario di Stato per l'Innovazione Tecnologica, il Senatore Alessio Butti, si è parlato di sviluppo sicuro e impiego di IA nel settore pubblico.

Ad oggi però ancora più incognite che risposte: considerazioni etiche, valori democratici, diritti umani e libertà fondamentali vengono spesso invocati nella Dichiarazione congiunta come mantra, senza particolari precisazioni. Anche la prospettiva di un “Toolkit” - linee guida che traducano in termini operativi i principi di “sicurezza a affidabilità” - non sembra dissipare il dubbio etico o anche solo definire concretamente come si possano declinare quei valori nei confronti delle Intelligenze Artificiali.


Nessuno osa mettere in discussione la vastità e la rilevanza delle potenzialità della IA nei servizi pubblici: gestione burocratica e documentale, pianificazione urbana e ottimizzazione di traffico e trasporto pubblico, diagnosi medica e indicazione di percorsi terapeutici personalizzati, chatbot e assistenti virtuali, solo per citarne alcuni. L’IA può efficientare drasticamente la pubblica amministrazione, riducendo l’errore umano e contrastando la corruzione. Non a caso fra il 2010 e il 2021 sono stati registrati 637 progetti solo in Eu, volti proprio all’uso pubblico delle IA.


Non sono peraltro mancati casi di successo. L’Inps ha sin dal 2021 implementato analisi dati con Gpt, facendo calare a picco i tempi necessari allo smistamento delle Pec ai funzionari preposti. Dal 2023 ha poi anche avviato la sperimentazione con un assistente virtuale intelligente, che offre assistenza per la prestazione “Opzione Donna”. O ancora, dal 2019 il Comune di Siena ha sperimentato per la sua Anagrafe “Caterina”, un assistente virtuale capace di fornire informazioni sui servizi pubblici e rilasciare documenti legali, con tanto di modello tridimensionale animato. Disponibile anche in inglese e accessibile per non udenti e non vedenti, un assistente simile sembra poter pure favorire la spesso desiderata inclusività nella pubblica amministrazione.

Anche a uno sguardo superficiale risulta tuttavia evidente la distanza che separa un chatbot o uno strumento di riconoscimento del testo da una IA che attraverso i big data suggerisca una diagnosi o la pianificazione di una città. Se nella burocrazia più meccanica l’efficienza delle IA è un valore assai apprezzabile, in molti altri servizi della pubblica amministrazione non è palesemente l’unico principio guida. Per rimanere agli esempi fatti, una strada può essere più lunga, ma regalare una vista più bella. Un medico può essere supportato da strumenti diagnostici avanzati, ma scegliere una cura che pur se meno efficace è più adatta alla storia e alle necessità del paziente.


È evidente quindi come non si possa immaginare di affidare anche solo involontariamente alle IA scelte politiche o personali. Persino il caso banale dei chatbot ripone tuttavia lo stesso problema. C’è chi direbbe, non a torto, che qualsiasi mezzo per poter saltare la fila alle poste e risparmiare l’interazione umana con l’impiegato sia da accogliere a braccia aperte. Ma quell’impiegato è più di un mezzo per svolgere una operazione. Se la pubblica amministrazione è il volto che quotidianamente lo stato offre ai cittadini, che stato sarebbe quello con il minor numero possibile di persone coinvolte?


Il rischio qui è di credere che si sia migliorando con innocenza un servizio, un'operazione, senza rendersi conto del modo in cui le Intelligenze Artificiali potrebbero dare forma alla vita dello Stato, alla vita sociale, sino a quella individuale. Per chiunque fosse scettico in merito a simili rischi, si pensi solo un istante a come sono cambiate le nostre vite, il nostro modo di comunicare e relazionarsi dall'introduzione dei cellulari. La tecnica non è neutra.

bottom of page