Ci sono molti modi di parlare di Intelligenza, e molti modi di parlare di Intelligenza Artificiale, non tutti però collimano e sono la stessa cosa. Quasi nessuno a dire il vero. In questo caso, per esempio, quello di cui parlano gli esperti del settore e quello di cui parlano i media e la gente comune sono cose molto diverse.
Iniziamo dal concetto di intelligenza, un concetto che i più associano alle capacità mentali degli esseri umani ma che è a lungo dibattuto, soprattutto da quando abbiamo iniziato a studiare le capacità intellettive degli animali. Se partiamo come farebbero in molti dalla definizione presente su Wikipedia
L’intelligenza è un complesso di facoltà psichiche e mentali che, mediante processi cognitivi come l’apprendimento, la riflessione e la comprensione, consentono di capire le cose e i concetti e di organizzare conseguentemente il proprio comportamento sia nel campo delle idee sia nel campo dell’attività pratica per risolvere un problema e raggiungere un obiettivo. Presente negli organismi viventi, più o meno complessi, è stata definita in molti modi: capacità di astrazione, logica, comprensione, autoconsapevolezza, apprendimento, conoscenza emotiva, ragionamento, pianificazione, creatività, pensiero critico e risoluzione dei problemi. Più in generale, può essere descritta come la capacità di percepire o dedurre informazioni e di conservarle come conoscenza da applicare a comportamenti adattivi all’interno di un ambiente o di un contesto
https://it.wikipedia.org/wiki/Intelligenza
e se conosciamo il funzionamento delle intelligenze artificiali che in questi mesi tanto ci attraggono ci rendiamo subito conto che mancano dei passaggi, in particolare la capacità di riflettere e di comprendere, o di organizzare conseguentemente un comportamento, l’autoconsapevolezza, il pensiero critico.
Chiunque sia stato a scuola o all’università sarà stato a contatto con studenti che ti rendi conto subito siano intelligenti, in grado di apprendere e collegare cose, e di creare idee e studenti che da qui in avanti definirò secchionacci che imparano a memoria tutto, convincono l’insegnante di essere bravi ma appena li si mette fuori dalla zona di confort non sono in grado di risolvere un problema di cui non hanno mai letto la soluzione. Chat GPT, una grande rivoluzione, un passo avanti enorme verso l’intelligenza artificiale è, per ora, un secchionaccio. Un aggeggio fighissimo, complessissimo, in grado di fare cose che rivoluzioneranno (parzialmente) le nostre vite ma che non è in grado di fare grandi ragionamenti, ricordare cose, avere coscienza di quello che dice. Si tratta di un enorme e velocissimo secchionaccio che ha accesso a tutte le informazioni della rete e che a qualunque domanda è in grado di farci credere di sapere la risposta. Il problema è che la risposta che ci viene fornita è priva di comprensione. Potrebbe arrivare da una fonte affidabile o da una inaffidabile, senza che il sistema sia in grado di discernere. Potremmo ricevere una risposta corretta o una scorretta e non dipende né dà noi né dal sistema stesso. Non significa che Chat GPT sia inaffidabile di base, ma come si era già rivelato per altre IA, (vedi L’intelligenza artificiale può essere razzista? https://short.staipa.it/uljf5/) tutto dipende da come viene alimentata.
Non si tratta di un essere senziente in grado di ragionare, scegliere, e fare cose ma di uno strumento di generazione adattiva di risposte. Il suo scopo principale è convincerci di essere intelligente, riuscire a comunicare con noi nella maniera più naturale e realistica possibile, generare testi (o immagini, o altri generi di output) il più possibile corretti pur non comprendendone il significato profondo. Proprio come un secchionaccio per rispondere a una domanda complessa queste IA vanno in tempi rapidi a leggersi milioni di informazioni, realizzano un certo numero di possibili risposte sensate, valutano la percentuale di correttezza di tali risposte e ci presentano quella con la percentuale di probabilità più alta. Questo può sembrare un processo corretto, e per certi versi lo è, ma è ben lontano dal creare una risposta autonoma mai esistita in precedenza. Per fare questo serve ancora un’intelligenza che non siamo in grado di sintetizzare, né di comprendere. Il guizzo del genio artistico, o i risultati della sperimentazione e discussione scientifica tramite peer review sono tutt’altro. Chat GPT e analoghi servizi si limitano a fare dei magheggi che li fanno apparire intelligenti ai nostri occhi. Possono certamente essere usati per generare testi in maniera automatica, per monitorare dati e prendere decisioni tramite i risultati, per generare immagini secondo determinate caratteristiche richieste in input ma non sono davvero intelligenti. Esattamente come i robot di una fabbrica non sono davvero “bravi” a realizzare manufatti: fanno quello per cui sono progettati, eseguono ordini, fanno tagli e limature perfette, ma un artigiano avrà sempre quel guizzo di genio, quell’idea, quel gusto estetico che un tornio e una fresa non potranno mai avere. Ciò nonostante, l’artigiano userà il tornio e la fresa per risparmiare tempo e fatica in quelle parti di lavoro in cui non sono necessarie le caratteristiche tipicamente umane.
Quali sono le preoccupazioni riguardo alle Intelligenze Artificiali?
Le Intelligenze Artificiali che stanno facendo scalpore ultimamente sono principalmente in grado di creare testi, audio o immagini in autonomia, alcune con risultati davvero impressionanti e realistici. Ma si tratta sempre e comunque di sistemi che reperiscono in rete pezzi di quello che devono realizzare e li mescolano ad arte. Nella grande quantità dei casi l’assenza del tocco umano è percepibile da errori di grafica o da piccoli dettagli, i cosiddetti glitch, se non quando vengono chiesti scenari horror o onirici in cui è accettabile che i glitch tipici di qualcosa che non sappia davvero dare significato all’immagine possono essere accettabili o addirittura apparire volontari. La cosa migliorerà progressivamente senza dubbio e la realisticità sarà sempre più elevata. Questo finirà per sostituire gli esseri umani? Ritengo che possano sostituire solamente manovalanze di bassissimo livello, un po’ come è stata per la produzione industriale. Esistono già artisti che usano le intelligenze artificiali per creare immagini, il che non significa dire all’Intelligenza Artificiale banalmente di farlo, ma imparare a conoscerla, capire come si muove e impartire suggerimenti, comandi, direttive che la spingano in una o l’altra direzione. Questo è quello che accadrà in generale. I professionisti dovranno prendere lo strumento Intelligenza Artificiale, imparare a padroneggiarlo e usarlo per creare qualcosa di migliore, o quantomeno diverso, da quello che creerebbero senza. Non esiste una Intelligenza Artificiale che prenda l’iniziativa e crei opere in autonomia rubandoci il lavoro, e la differenza tra un professionista che la usa e un profano sarà sempre molto evidente.
Tutte queste intelligenze artificiali però hanno la qualità di dimostrare come fornendo una enorme quantità di dati ben strutturati sia possibile automatizzare un processo e affinarlo fino a farlo sembrare simile al ragionamento umano e perfino all’istinto o il guizzo artistico, ed è su questa capacità che è interessante fermarsi. Non tanto sul fatto che l’intelligenza artificiale ragioni come un essere umano (la risposta è no) ma quanto riesca a farci credere che lo faccia. Il discorso è sempre lo stesso, nascondere una tecnologia dietro alla parvenza di una magia.
Non mancano però i rischi. Per quanto apparentemente perfetti, precisi, e autorevoli, questi sistemi non sanno cosa stanno facendo. E tantomeno lo sappiano noi. I modelli linguistici, infatti, non hanno nozioni di logica, matematica, fisica, etica, chimica, legge, e nemmeno sono in grado di distinguere un fatto realmente accaduto da uno linguisticamente plausibile. Per imbrogliarli è sufficiente fare qualche gioco di parole. E se a questo si aggiunge poi la malizia, diventa evidente il rischio che ne consegue.
I rischi concreti sono dal mio punto di vista riassumibili in uno: fidarsi troppo. Dobbiamo essere consapevoli che se su un normale motore di ricerca ci vengono forniti diversi link a diversi siti o pagine che possiamo in autonomia leggere, valutare, scartare se ci affidiamo ad una Intelligenza Artificiale dovremo prendere le sue risposte con il beneficio del dubbio. Da quali siti e da quali fonti, sono state prese quelle informazioni? Saranno affidabili? Non possiamo sapere se la risposta che riceviamo è presa da un articolo di una rivista scientifica autorevole o da un racconto di fantascienza e per tanto non possiamo considerarlo veritiero.
Un’altra preoccupazione legata al fidarsi è la capacità potenziale di inondare con la rete di articoli giornalistici falsi, fake news, autogenerati da Intelligenze Artificiali, magari corredate da immagini false o filmati falsi. Si tratta di un rischio concreto, sì, ma succedeva già prima. La risposta è sempre quella di non fidarsi cecamente delle notizie, di verificare le fonti, di avere un #UsoConsapevoleDelleTecnologie (Vedi i miei articoli sulle Fake News https://www.staipa.it/blog/fakenews)
La questione è sempre la stessa. Si tratta di strumenti che sembrano intelligenti, che sembrano saper dare una risposta a tutto, ma non lo sono. Possono rendere più semplice moltissimi lavori, possono aiutare a fare lavori in maniera più veloce e automatizzata, ma sono strumenti che vanno saputi usare, di cui vanno conosciuti i limiti. Di certo però non sono strumenti autonomi in grado di rivoltarsi contro di noi e soggiogarci, per ora la cosa che fanno meglio è stupirci e farci credere che dietro ci sia molto più di un secchionaccio.
Vuoi saperne di più?
Questo articolo proviene dal sito www.staipa.it, lì troverai altri articoli su Informetica, Uso Consapevole Della Tecnologia, e Fake News.