FIRENZE
Fra i recenti cambiamenti avvenuti nel mondo del lavoro, non si può non considerare l’impatto delle più innovative tecnologie. Queste, in quanto creazioni umane, non sono immuni da usi impropri ed è quindi fondamentale riflettere sulle loro implicazioni etiche, sociali e culturali, con particolare attenzione "alla novità del momento: l’intelligenza artificiale. Le nuove tecnologie, se non ben utilizzate, possono avere effetti negativi non solo sugli utenti finali, ma anche sui professionisti che le utilizzano. Oltretutto, se storicamente l’automazione ha interessato essenzialmente i lavori con una forte connotazione manuale, oggi riguarda anche e soprattutto i profili con una forte componente intellettuale, intervenendo per esempio in analisi di mercato, coypwriting, pianificazione strategica, training e performance review, analisi predittiva e IT.
L’Ia può essere utilizzata per automatizzare compiti che spaziano dall’analisi dati alla trascrizione di audio, dalla redazione di testi creativi al riassunto di contenuti, fino all’assistenza clienti e alla generazione di immagini. "Nell’età della tecnica – spiegano Veronica Poggi e Francesca Bignami - le tecnologie sono tipicamente giudicate sulla base di due criteri: l’efficienza e la produttività. Come afferma il filosofo Umberto Galimberti, la tecnica non conosce scala valoriale né criteri altri dai propri e opera incessantemente per ottenere il massimo dei risultati con il minino dei mezzi. Tuttavia le tecnologie possono e devono essere giudicate anche sulla base della probabilità con cui possono essere utilizzate come strumenti di potere e controllo". Benché il campo dell’AI ethics sia relativamente nuovo, sono già emerse con chiarezza alcune questioni molto delicate.
"Si tratta dei cosiddetti ‘ethical dilemmas’ individuati dall’Unesco – affermano ancora Poggi e Bignami –. Fra questi, troviamo le ‘azioni ingiustificate’ dell’Ia: la maggior parte dei processi svolti dall’intelligenza artificiale fa affidamento sulla logica induttiva e sulle correlazioni all’interno di uno specifico dataset. Queste vengono ritenute sufficientemente affidabili perché ottenute da un volume di dati ampio, ma la correlazione non implica causalità e può portare a errori metodologici e di valutazione. C’è poi il tema dell’‘opacità’: il modo nel quale l’Ia prende decisioni non è sempre intellegibile e sistemi imprevedibili o difficilmente interpretabili nei loro risultati sono problematici da controllare e correggere. Il processo di decision-making dell’Ia non genera poi decisioni imparziali: trattandosi un prodotto dell’uomo non è neutrale e questo può causare un ‘pregiudizio’ se non addirittura una forma di ‘discriminazione’. Infine, l’Ia può influenzare il comportamento dell’utente attraverso il filtraggio delle informazioni: queste possono infatti essere somministrate ad hoc al fine di compiere un’attività di profiling su un determinato gruppo di persone e conoscerne le informazioni personali. Esiste quindi anche un problema di ‘autonomia’".