L'Augmented Intelligence supporta gli esseri umani, ma non li sostituisce

minuti di lettura

La professoressa di IT Mascha Kurpicz-Briki, specializzata in intelligenza artificiale e apprendimento automatico, spiega in un'intervista quali sono i punti di forza e i limiti dell'intelligenza artificiale e illustra le tendenze di base della sua materia di ricerca.

Quali sono i suoi punti focali scientifici e i suoi progetti di ricerca?

Prof. Dr. Mascha Kurpicz-Briki: Nella mia ricerca mi occupo principalmente di due argomenti: Da un lato, l'equità nell'intelligenza artificiale (IA), soprattutto in relazione all'elaborazione del testo e, in particolare, ai cosiddetti modelli linguistici, spesso utilizzati in tali software. I sistemi possono commettere degli errori. In primo luogo, perché sono stati programmati in modo errato o, in secondo luogo, perché si basano su dati distorti e non aggiornati. A causa della suscettibilità dei sistemi agli errori, il mio team e io seguiamo l'approccio secondo cui il ruolo dell'IA deve essere ripensato. Per questo motivo preferiamo usare il termine "Augmented Intelligence" invece di IA. Il computer dovrebbe servire da strumento per gli esseri umani, aumentando l'intelligenza umana, ma non sostituendola.

Può spiegarci meglio?

Se si vuole elaborare il linguaggio in modo automatico, le parole devono poter es- sere convertite in numeri e codificate nei cosiddetti vettori di parole per diventare leggibili dal computer. In questo modo è possibile rappresentare il significato di una parola in modo astratto. A questo scopo si utilizzano le reti neurali. Si tratta di sistemi modellati sul funzionamento del cervello umano, utilizzati per l'apprendi- mento automatico e per l'intelligenza artificiale. Essi rendono possibile l’interpretazione di dati come immagini, suoni, tabelle e testi, da cui è possibile estrarre informazioni o modelli per poi applicarli, ad esempio, a dati sconosciuti per fare previsioni. Le reti neurali possono essere di varia complessità, ma hanno essenzialmente la struttura di grafici lineari. Il metodo del cosiddetto "word embedding", utilizzato per le parole, serve a mostrare la relazione tra due parole con l'aiuto di operazioni  matematiche. Occorre stabilire se abbiano o meno un significato simile.

Cosa intende in termini concreti?

Se i termini "cane" e "gatto" sono rappresentati in uno spazio vettoriale multidimensionale, dovrebbero essere posizionati più vicini l'uno all'altro rispetto alla parola "tempesta", ad esempio. Con questo metodo, grandi quantità di testo possono essere convertite in vettori dizionario messi in relazione diretta tra loro.

Quali vantaggi ci sono?

Si può fare un passo avanti includendo il contesto di una parola, in modo da elaborare testi in modo efficiente. Successivamente, ad esempio, è possibile generare risposte automatiche a un'ampia varietà di domande in un'applicazione di chatbox e, con l'aiuto della cosiddetta sentiment analysis, è possibile scoprire automaticamente se un termine o una cosa sono percepiti positivamente o negativamente da una terza parte.

«L'IA ha il potenziale per cambiare in modo significativo la nostra vita lavorativa quotidiana. Le attività ripetitive possono essere notevolmente semplificate.»

 

Prof. Dr. Mascha Kurpicz-Briki, Docente di Data Engineering

Quali sono i problemi fondamentali per l'utilizzo dell'IA?

Quando si utilizza l'IA, spesso si presume erroneamente che gli esseri umani verranno sostituiti da essa. Tuttavia, perché ciò avvenga, grandi quantità di dati devono essere elaborate e valutate automaticamente. Questo non è auspicabile nella stragrande maggioranza dei casi, soprattutto perché la competenza degli esseri umani, a differenza di quella delle macchine, risiede nel loro giudizio. Se l'intelligenza di un sistema deve supportare l'uomo nel suo lavoro quotidiano, preferiamo parlare di "Augmented Intelligence".

L'intelligenza artificiale è intelligente?

Il termine IA è usato in modo molto ampio. In origine, l'obiettivo era quello di sviluppare programmi informatici che sgravassero l'uomo da compiti di natura intelligente e non semplicemente ripetitiva. Diversamente da un algoritmo tradizionale che elabora una serie di regole, il funzionamento dell'IA è diverso. Si basa su una quantità di dati così ampia che può prendere decisioni su dati nuovi e sconosciuti.

Cos'è l'IA, cosa può fare e cosa non può fare?

L'IA è una branca dell'informatica. Ispirandosi alle capacità cognitive umane, estrae informazioni dai dati in ingresso, che successivamente analizza o classifica. Questa intelligenza può essere basata su processi programmati o generata dall'apprendimento automatico. Quando si parla di IA, di solito si intende quest'ultima. Grazie alla crescente disponibilità di grandi quantità di dati e a una potenza di calcolo sempre migliore, il campo dell'apprendimento automatico ha fatto grandi progressi negli ultimi anni. Un algoritmo intelligente impara a svolgere un compito in modo indipendente attraverso la ripetizione. Ciò significa che il percorso che conduce alla soluzione non è inizialmente modellato, come nel caso degli algoritmi convenzionali. La macchina impara autonomamente a riconoscere la struttura dei dati.

Potremmo tornare alle reti neurali?

Le reti neurali rappresentano un sottocampo dell'apprendimento automatico. Questi algoritmi di apprendimento automatico sono, come detto, originariamente ispirati alla struttura del cervello umano. Analogamente al cervello umano, le reti neurali sono costituite da diverse file di nodi interconnessi con connessioni ponderate. A seconda della sua complessità, una rete neurale di questo tipo può avere dimensioni diverse. Il prerequisito fondamentale per un'applicazione di IA è avere a disposizione un numero sufficiente di dati. Viene istruito fornendo ripetutamente altri esempi di dati. Grazie a questa ripetizione, la rete neurale impara a classificarli ogni volta con maggiore precisione, migliorando costantemente. Il modello generato durante l'apprendimento viene poi applicato anche ai dati che l'IA non ha ancora appreso.

Quali sono le aree di applicazione dell'apprendimento automatico?

Con l'aiuto di algoritmi industriali di elaborazione delle immagini, le rappresentazioni ottiche possono essere riconosciute e categorizzate in tempo reale. Da un lato, la visione artificiale viene utilizzata nella diagnostica medica o nel riconoscimento facciale delle immagini delle telecamere. D'altra parte, questa tecnologia può essere utilizzata anche per tradurre in stampa i caratteri scritti a mano. Il riconoscimento automatico delle immagini è molto importante anche nel campo della guida autonoma. Inoltre, l'apprendimento automatico viene applicato all'interpretazione della lingua parlata. È il caso, ad esempio, dei sistemi di assistenza vocale per il linguaggio verbale. Il testo scritto può essere analizzato semanticamente, il che rende possibili applicazioni di traduzione contestuale o chatbot che generano risposte in autonomia. È inoltre possibile riconoscere schemi in sequenze di eventi che non sarebbero percepibili da un essere umano a causa della grande quantità di dati, variabili e dipendenze. In questo modo, un'IA può apprendere i parametri di errore dell'elettronica di un veicolo in base ai dati e far coincidere queste anomalie con il suo funzionamento. I modelli di immagine possono anche essere utilizzati come base informativa per le operazioni di ottimizzazione, laddove i modelli di funzionamento vengono generati dalle procedure di apprendimento per consentire un controllo ottimizzato.

«Sul tema dell'equità, stiamo esaminando come gli stereotipi sociali entrino in gioco nei modelli matematici e cosa si possa fare al riguardo.»

Prof. Dr. Mascha Kurpicz-Briki, Docente di Data Engineering

L'intelligenza artificiale è in grado di cambiare la nostra vita?

L'intelligenza artificiale ha il potenziale per cambiare in modo significativo la nostra vita lavorativa quotidiana. Le attività ripetitive possono essere notevolmente semplificate. D'altra parte, il suo utilizzo può anche avere un impatto negativo sulla nostra vita. Numerosi esempi hanno dimostrato che l'IA è in grado di discriminare, ad esempio nella preselezione automatica delle domande di lavoro. In molti casi, i dati provenivano da vecchi database che tendevano a prendere in considerazione gli uomini, per cui le donne venivano spesso automaticamente escluse.

Questo ci porta alla vostra area di ricerca.

Nella mia ricerca mi occupo principalmente di due temi principali: Da un lato, si tratta di equità. In particolare, ciò significa che i modelli di dati e di linguaggio spesso utilizzati nelle applicazioni software devono essere equilibrati e non discriminatori. D'altra parte, nel campo della psicologia clinica/psichiatria, si tratta di trovare nuovi modi per diagnosticare i pazienti con burnout sulla base linguistica delle analisi dei testi.

L'equità è un problema di intelligenza artificiale?

Ciò è dovuto a fatti storici, come il fatto che in passato gli uomini erano spesso preferiti alle donne in molti test farmaceutici. È a causa delle mestruazioni che è più facile trattare con gli uomini. Se il farmaco era in commercio, spesso non faceva nulla per le donne o, nel peggiore dei casi, aveva un effetto letale. Un programma per i volti di Google che ha fatto scalpore non ha riconosciuto un uomo di colore come un essere umano, ma come un gorilla, perché non poteva assegnarlo a nessuna etnia a causa della mancanza di dati. Quando Apple ha lanciato la propria carta di credito, un algoritmo doveva decidere i limiti di acquisto, ma è stato programmato in modo errato. Come ha riferito il cofondatore di Apple Steve Wozniak su Twitter, ha ricevuto un limite di credito dieci volte superiore a quello della moglie, anche se non avevano conti separati.

State facendo ricerche su queste idee sbagliate nel campo dell'IA?

Per quanto riguarda l'equità, stiamo studiando come gli stereotipi sociali entrino in gioco in questi modelli matematici e cosa si possa fare per evitarli. Ad esempio, abbiamo scoperto che parole come "moglie", "figlia" o "madre" nei modelli linguistici sono più strettamente legate a "parole di famiglia" che a "parole di carriera", il che può avere un impatto diretto sulle domande di lavoro. Mentre è più probabile che le parole maschili si riferiscano a parole di carriera. In una delle mie aree di ricerca, sto cercando di dimostrare come gli stereotipi sociali possano essere misurati nei sistemi testuali. Il concetto di pregiudizio gioca un ruolo fondamentale in questo senso. Un pregiudizio è causato da una raccolta di dati unilaterale o non aggiornata, che può portare a risultati errati in uno studio. Gli studi hanno dimostrato che i modelli linguistici con vettori di parole, in cui le parole con contenuto simile sono vicine l'una all'altra, basate su ampie raccolte di testi, contengono stereotipi della società - da un lato in inglese, ma anche in altre lingue europee come il tedesco e il francese. Tali modelli linguistici sono spesso utilizzati per l'elaborazione automatica dei testi o come base per lo sviluppo di software di intelligenza artificiale. Ma quando l'IA prende decisioni riferite a presone che contengono o addirittura rafforzano gli stereotipi della società, il suo utilizzo può portare a una forte e sistematica discriminazione.

Come si può uscire da questa situazione?

In definitiva, il Deep Learning e l'IA ricordano la crescita di un bambino: Quello che non sa, bisogna insegnarglielo. Tuttavia, questo non è sempre possibile con l'IA. I dati con cui le IA vengono istruite sono a loro volta soggetti a pregiudizi nel processo. Pertanto, una soluzione è molto impegnativa, da un lato per la difficile definizione di equità e dall'altro per l'implementazione tecnica, che è ancora in fase di ricerca. È quindi importante essere consapevoli di questi problemi e porre le domande giuste. Questo vale sia per la scelta dei dati di insegnamento sia per l'uso del software. La cooperazione tra uomini e macchine deve essere ridefinita. L'intelligenza artificiale dovrebbe essere un aiuto per le decisioni, ma non sostituire gli esseri umani. Nella produzione di informazioni scritte, l'IA offre incredibili opportunità. Senza una riflessione umana, però, si corre anche il rischio di riprodurre stereotipi e - per quanto riguarda la scelta della terminologia, ad esempio in relazione al genere e all'etnia - di avere un effetto discriminatorio.

«Se l'IA contiene o addirittura rafforza gli stereotipi della società, il suo utilizzo può portare a una forte e sistematica discriminazione.»

Prof. Dr. Mascha Kurpicz-Briki, Docente di Data Engineering.

In conclusione: Qual è lo scenario migliore per l'IA e l'apprendimento automatico nel software ERP?

Le nuove tecnologie possono essere utilizzate, ad esempio, per raccogliere in modo efficiente le informazioni ed estrarre ciò che è più importante. In questo modo si possono investire più energie in attività più interessanti e meno tempo in attività ripetitive. Permettono di riconoscere schemi che non si potrebbero percepire a prima vista con dati distribuiti. Posso immaginare aree di applicazione per l'automatizzazione della riconciliazione e della contabilità in tempo reale, così come per l'elaborazione di previsioni a partire da dati precedenti, per il supporto agli utenti con chatbot, per l'automatizzazione della lettura delle fatture e per il riconoscimento e la classificazione dei documenti.

Esistono esempi di discriminazione in quest'area di applicazione?

Nelle risorse umane, soprattutto quando le candidature vengono preselezionate automaticamente, questo pericolo esiste. Poiché molti dati di apprendimento contenevano principalmente esempi di uomini, è stato facile dimostrare, che in una nota azienda tecnologica, ad esempio, le donne venivano escluse dall'IA e quindi avevano poche o nessuna possibilità di ottenere posti di lavoro.

Sono queste le sfide dell'intelligenza artificiale? Quali sono i suoi limiti?

Anche se la consapevolezza del problema sta crescendo grazie a questi esempi, la nostra società ha raggiunto un punto in cui dobbiamo stabilire cosa considerare accettabile nel mondo digitalizzato. Questo include anche la questione di quali decisioni dovrebbero essere prese da un'IA. Anche la preparazione dei dati è fondamentale. L'impegno richiesto a tal fine è spesso sottovalutato. Le sfide sociali comprendono anche l'accettazione di nuovi strumenti e tecnologie.

Cosa bisogna fare per rendere la trasformazione digitale una grande opportunità?

Prendere sul serio rischi come il pericolo di discriminazione, pur consentendo e promuovendo l'innovazione tecnica. Il modo in cui l'uomo e la macchina possono lavorare fianco a fianco e sfruttare le sinergie reciproche deve essere definito con il coinvolgimento delle persone. La prima cosa da fare è rafforzare la fiducia in queste tecnologie. Perché è controproducente che molte decisioni dell’IA provengano ancora dalla "scatola nera", che comunica solo una decisione ma non mostra come ci si è arrivati.

Prof. Dr. Mascha Kurpicz-Briki

Mascha Kurpicz-Briki è docente di Data Engineering presso l'Istituto per le applicazioni dei dati e la sicurezza IDAS dell'Università di Scienze Applicate di Berna. È vicedirettrice del gruppo di ricerca Applied Machine Intelligence ed è il punto di riferimento per la Augmented Intelligence presso la rivista scientifica "SocietyByte". Dopo aver studiato informatica a Berna e Neuchâtel, ha fatto una deviazione nel settore privato prima di tornare all'Università di Scienze Applicate di Berna, dove si dedica principalmente alla ricerca. Si occupa di temi come l’equità e la digitalizzazione delle sfide sociali e societarie nell'ambiente informatico. Al centro del suo lavoro ci sono la linguistica computazionale, soprattutto nell'ambito dell'elaborazione del linguaggio naturale, e l'apprendimento automatico. Nei suoi progetti studia, ad esempio, come ottimizzare linguisticamente in tempo reale gli annunci di lavoro o come riconoscere precocemente un burnout imminente con l'aiuto di tecnologie innovative senza applicare modelli discriminatori. Le basi per il riconoscimento dei nuovi metodi vengono create attraverso l'analisi automatica del testo.