Oltre l'uomo

Intelligenza artificiale, nuove tecnologie, attualità e riflessioni filosofiche.

  • “Il linguaggio gioca un ruolo di fondamentale importanza all’interno della nostra società”. Questa è un’affermazione del tutto scontata, come dire (per prendere in prestito un’espressione inglese) che “l’acqua è bagnata” o “il papa è cattolico”. Semplicemente, è qualcosa di assurdamente ovvio, su cui non c’è alcun bisogno di interrogarsi o riflettere: in fondo, lo stesso fatto che io possa fare un’affermazione del genere dipende dall’esistenza del linguaggio e dall’uso che ne fa l’uomo! Più concretamente, non sarebbe certo un’esagerazione dire che, senza il linguaggio, l’essere umano come lo conosciamo non esisterebbe. Scienza, tecnologia, cultura – senza il linguaggio, nessuna di esse potrebbe esistere. La capacità di comunicare informazioni anche astratte o complesse, di trasmetterci a vicenda idee e concetti è infatti alla base dell’intero scibile umano, e potrebbe ben essere definita come il “sine qua non” dell’esistenza della civiltà.

    Non sorprenderà quindi sapere che quello del linguaggio sia sempre stato un tema di grande interesse per chi si occupa di IA: sin dalle origini, uno dei principali obiettivi di questo campo di ricerca è infatti stato la creazione di un sistema capace di padroneggiare la nostra lingua. In effetti, per una buona parte della sua storia l’idea di un “computer parlante” è stata una sorta di Sacro Graal per gli esperti del settore, tanto ambito quanto irraggiungibile; in questi ultimi anni le cose sono però assai cambiate, al punto che i chatbot capaci di intrattenere conversazioni sensate sono ormai comunissimi. Eppure, anche il programma più potente ed avanzato è ancora ben lontano da ciò che desideravano i pionieri dell’intelligenza artificiale, nonostante la sua padronanza del linguaggio: la domanda che sorge spontanea è quindi “perché?” Per quale motivo il linguaggio è sempre stato percepito come un elemento così importante nello sviluppo dell’IA, e perché si è invece rivelato essere assai meno rilevante di quanto non si pensasse?

    Si tratta di una questione molto interessante, a cui non è però possibile andare a rispondere senza esaminare la storia stessa dell’intelligenza artificiale e alcune delle sue più importanti personalità, tappe e concetti. In particolare, ci sono tre elementi chiave su cui dovremmo andare a concentrarci: il Test di Turing, l’esperimento mentale della Stanza Cinese, e infine lo sviluppo dei Large Language Models (LLMs).

    Continua a leggere
  • “La fondamentale differenza fra gli automi del mondo classico e quelli del mondo moderno è che i primi non si ribellano, mentre i secondi lo fanno sistematicamente […] Nel mondo classico sono infatti gli schiavi a ribellarsi e tentare la fuga, non le macchine. Invece, gli automi del Novecento, dai robot di R.U.R. ad Hal 9000 di “2001: Odissea nello spazio” di Stanley Kubrick e a moltissimi altri, sono perennemente sull’orlo della rivolta contro gli uomini”.

    È con queste parole che Michele Magno conclude la sua trattazione sulla figura dell’automa-robot, dopo averne ripercorso la storia a partire dall’antichità fino ai giorni nostri. Si tratta di un viaggio affascinante, che tocca mito e filosofia, teatro e fantascienza, realtà e finzione – ma anche un viaggio che, dal mio punto di vista, termina con un’interpretazione piuttosto discutibile. Come si può infatti evincere dalla citazione che abbiamo appena visto, Magno ritiene che gli automi della cultura classica siano servitori obbedienti, mentre i robot della cultura moderna siano andati ad assumere il ruolo che un tempo spettava agli schiavi, risultando così sempre pronti a ribellarsi contro il loro creatore-padrone. Sfortunatamente, tale conclusione mi sembra essere basata su di una visione un po’ superficiale, che non coglie veramente né la complessità del robot novecentesco, né il ruolo giocato dalla figura dell’automa nel mondo antico.

    In questo articolo vorrei dunque andare a discutere le ragioni di questa mia critica, esaminando una varietà di esempi storici che dimostrano come l’automa-robot sia in realtà un concetto che può essere declinato ed interpretato in molti modi diversi, ben oltre il semplice dualismo dello schiavo ubbidiente e schiavo ribelle.

    Continua a leggere
  • Sindacato ed intelligenza artificiale”: questo è il titolo scelto dall’ex sindacalista Savino Pezzotta per un suo recente articolo che, come si può evincere, tratta del rapporto tra l’IA, i sindacati, e il mondo del lavoro. Un argomento interessante, anche se ben poco discusso al di fuori degli specialisti del settore – cosa forse non del tutto sorprendente, considerato lo scarso interesse del pubblico per la contrattazione collettiva, ma comunque notevole.

    Digressioni a parte, l’articolo di Pezzotta risulta però notevole anche per un altro motivo, ossia la scelta di un punto di vista “alternativo” rispetto a quello assunto dalla maggior parte dei testi sul tema. A differenza di questi ultimi, l’autore ha infatti deciso di non concentrarsi su come “integrare” e “regolamentare” l’IA, ma di offrire invece una critica pungente (più negli argomenti che nel tono a dirla tutta) dell’approccio adottato dai sindacati.

    Continua a leggere
  • Poco più di tre anni: a pensarci adesso, sembra essere passato molto più tempo da quando OpenAI ha introdotto il suo nuovissimo chatbot, ChatGPT. In soli tre anni l’intelligenza artificiale è passata da un argomento un po’ esoterico, riservato agli esperti e agli scrittori di fantascienza, ad un tema di dibattito così comune che è difficile non imbattersene ad ogni passo. Non sorprenderà quindi sapere come il termine “IA” compaia molto spesso sui titoli dei giornali: IA e etica, leggi sull’IA, i pericoli dell’IA, opinioni sull’IA… le opzioni sono tante. Alcune di esse riescono però ad attirare l’attenzione in modo particolare, facendo leva sul fascino che proviamo per il macabro, la cronaca nera, gli eventi strani e surreali: storie di persone incoraggiate al suicidio dall’intelligenza artificiale, di giovani che confessano i propri segreti più profondi al computer e di gente finita in ospedale dopo aver chiesto consigli medici al computer. Il genere di notizia che vende insomma. Oltre ad attirare l’attenzione del pubblico, questi racconti hanno però un altro effetto: essi evidenziano infatti come, nel corso di questi tre anni, i chatbot abbiano iniziato ad assumere ruoli del tutto nuovi nella nostra società. Non più soltanto uno strumento capace di dialogare con noi, ChatGPT e i suoi simili sono ormai diventati oracoli, esperti di medicina, confidenti ed altro ancora.

    Si tratta di un cambiamento sostanziale, che merita di essere discusso in maniera più attenta e approfondita proprio in quanto rappresenta uno sviluppo fondamentale nel modo in cui ci rapportiamo con l’IA, come anche una fonte di nuovi rischi e problematiche da gestire. Vediamo quindi di cercare di fornire un quadro un po’ più completo della situazione.

    Continua a leggere
  • Colpo di stato in Francia: questa è la clamorosa notizia che poche settimane fa circolava su Facebook, accompagnata e sostenuta da un breve video in cui una giornalista francese forniva i primi, pochi dettagli sui fatti. Un evento tanto sorprendente quanto importante, che ha ovviamente attirato un’enorme quantità di attenzione da parte del pubblico, sia in Francia che all’estero. In molti si sono quindi interrogati sull’identità dei mandanti di questo coup d’état: può essere stato l’esercito? Un tentativo da parte di una potenza straniera di destabilizzare l’Europa? Parte del piano degli Illuminati per conquistare il mondo in nome dei loro padroni alieni? La risposta, in realtà, è molto più semplice: l’autore del colpo di stato è nientepopodimeno che un sistema di intelligenza artificiale. Fortunatamente, l’IA in questione non ha alcuna intenzione di costruire un esercito di Terminator vestiti con la maglietta a righe e il basco per sterminare l’umanità – e, in effetti, non è neanche particolarmente interessata a governare la Francia. È infatti bastato un controllo un po’ più attento per rivelare un fatto di fondamentale importanza: il video su cui si fondava l’intera storia era stato realizzato da un adolescente del Burkina Faso, grazie all’ausilio di un comune sistema di intelligenza artificiale generativa.

    Si tratta di una storia che ha dell’incredibile, ma che al contempo mette perfettamente in luce quanto sia diventata grave la questione delle fake news in questi ultimi anni: un adolescente, un programma per computer, i social, e un pizzico di stupidità umana. Questi pochi, semplici ingredienti sono ormai più che sufficienti per creare e diffondere notizie false capaci di ingannare centinaia di persone. Un secolo fa, per spargere una storia del genere e renderla credibile sarebbe stato necessario un considerevole investimento di tempo, denaro e competenze specializzate – un compito non impossibile, ma certamente né semplice né veloce. Al giorno d’oggi, invece, gli sviluppi nell’ambito della comunicazione e l’esistenza di internet permettono alle fake news di diffondersi molto più rapidamente su distanze molto più ampie, raggiungendo un pubblico che può addirittura essere globale; al tempo stesso, la creazione di falsi realistici è diventata sempre più facile nel corso degli anni, al punto che i sistemi di GAI (generative AI) possono non solo realizzare immagini e video capaci di ingannare l’utente medio, ma risultano anche essere estremamente accessibili e facili da utilizzare.

    Non dovrebbe quindi sorprendere che, di fronte ad una situazione del genere, le autorità di vari paesi abbiano iniziato a sviluppare delle pratiche volta a combattere la diffusione delle fake news. Tra queste, una delle più basilari, ma anche più importanti, è la formazione nell’ambito della “media literacy”, l’alfabetizzazione mediatica. Questa consiste, sostanzialmente, nella capacità di consultare, analizzare e valutare i contenuti mediatici (siano essi articoli, servizi televisivi, o video trovati su internet) mantenendo sempre una visione critica, che permetta di riconoscere la presenza di eventuali bias, disinformazione o propaganda. In altre parole, si potrebbe dire che si tratta di una formazione su come riconoscere quando i fatti che ci vengono presentati dai mass media sono reali e quando sono manipolati o finti. Come si può quindi immaginare, la capacità di identificare i contenuti AI-generated risulta essere una delle competenze più utili ed importanti in questo campo, ed è proprio su tale argomento che vorrei andare a soffermarmi in questo articolo: come si fa a riconoscere un deepfake?

    Continua a leggere
  • Intelligenza artificiale e lavoro: dietro a questa semplice combinazione di parole si nasconde un’immensa quantità di dibattiti, accuse più o meno fondate, esagerazioni, incomprensioni, articoli, saggi, leggi e interventi di ogni genere e tipo. La cosa non dovrebbe sorprendere: negli ultimi anni l’IA è infatti riuscita ad attirare l’attenzione di gran parte del mondo del lavoro, suscitando tanto interesse quanto timore da parte di imprese, lavoratori e governi. Uno strumento da sfruttare per aumentare i guadagni, una minaccia per il proprio impiego, una tecnologia potente ma pericolosa che deve essere regolata – le opinioni al riguardo sono certamente variate e numerose. Ma quale di esse è quella corretta, ci si potrebbe chiedere? Che questa tecnologia andrà ad influenzare pesantemente il mercato del lavoro è un fatto ormai scontato, ma cosa accadrà effettivamente? Le conseguenze saranno positive o negative? Quali saranno gli ambiti più colpiti da questo cambiamento? Che effetto avrà l’adozione dell’intelligenza artificiale sui lavoratori? I sistemi di IA saranno davvero in grado di aumentare la produttività delle aziende?

    Si tratta di domande importanti ed interessanti, a cui molti studiosi hanno già tentato di rispondere. La maggior parte di loro ha tuttavia preferito concentrarsi su di uno specifico ambito, analizzando, ad esempio, come verrà influenzata l’occupazione, le possibili applicazioni per quanto riguarda la salute e sicurezza sul lavoro, o quali saranno i principali usi dell’intelligenza artificiale. In questo articolo io vorrei però adottare un approccio un po’ differente, cercando invece di fornire un quadro di insieme della situazione, un’analisi meno approfondita ma di più ampio respiro, che possa fornire al lettore una migliore idea di cosa significhi veramente l’adozione dell’IA per il mondo del lavoro.

    Continua a leggere
  • Qualche tempo fa, ascoltando il telegiornale, mi è capitato di sentire un servizio che faceva riferimento al termine “umanità” non nella sua accezione di “il genere umano nel suo complesso”, ma col significato di “la natura umana, le sue caratteristiche distintive”. La cosa mi ha lasciato un po’ interdetto: linguisticamente la scelta è corretta, come dimostra una breve consultazione del dizionario Treccani, ma l’idea alla sua base mi sembra piuttosto discutibile. Il concetto di “umanità” si fonda infatti sul presupposto che esistano una o più proprietà del tutto uniche all’uomo, che lo definiscono e separano dall’animale, ipotesi che io trovo essere francamente assurda.

    Una tale caratteristica dovrebbe infatti soddisfare due requisiti: essere esclusiva all’essere umano, ed essere riconoscibile ed individuabile. Da un lato, il definire esplicitamente una proprietà come “ciò che distingue l’uomo dall’animale” ci impone l’obbligo di dimostrare che essa sia effettivamente assente in ogni creatura tranne l’essere umano; dall’altro, è anche necessario che essa faccia riferimento a qualcosa di osservabile: con tutto il rispetto per Cartesio, dire che la differenza sta nella presenza dell’anima non significa molto se l’anima non può essere percepita. Il problema è che io non credo che esista una caratteristica capace di soddisfare entrambi questi requisiti, per i motivi che adesso andrò ad esplorare.

    Continua a leggere
  • Alcuni giorni fa “Il Foglio” ha pubblicato un articolo dal titolo piuttosto interessante: “Come rendere la filosofia a prova di AI? Basta abolire la tesi di laurea”, di Antonio Gurrado. Come si può evincere dalla scelta del nome, l’autore di questo testo propone di modificare il curriculum della laurea in filosofia, sostituendo la tradizionale tesi con una prova finale alternativa, meno vulnerabile agli abusi dell’intelligenza artificiale generativa, che permetterebbe ad uno studente disonesto di produrre l’elaborato senza alcun impegno.

    L’argomento, di per sé, non è privo di fondamenti: ci sono numerosi esempi che potrei fare per mostrare come la GAI (generative AI) possa essere utilizzata in modo disonesto in ambito scolastico o lavorativo, e le difficoltà nell’identificare se un contenuto sia “vero” o artificiale dovrebbero ormai essere ben note anche al grande pubblico grazie ai numerosi deepfake che si sono diffusi negli ultimi anni. Che l’intelligenza artificiale possa essere utilizzata per realizzare le tesi di laurea è quindi assolutamente possibile, se non addirittura probabile. Detto ciò, quella proposta da Gurrado mi sembra una soluzione non solo piuttosto estrema, ma anche molto meno efficace di quanto egli sembri pensare. Andiamo dunque a vedere perché.

    Continua a leggere
  • In questi ultimi anni il concetto di “intelligenza artificiale” è salito alla ribalta, passando da un tema tutto sommato di nicchia, di cui si occupavano prevalentemente esperti del settore e ricercatori, ad uno degli argomenti più discussi ed importanti dei giorni nostri. Si tratta di un’esplosione di interesse assolutamente stravolgente, tanto improvvisa quanto inaspettata, e resa ancora più incredibile dal fatto che essa è dovuta ad un singolo, semplice evento: il lancio di ChatGPT. Spiegare cosa sia quest’ultima non mi sembra necessario: secondo un articolo del Sole 24 Ore di qualche mese fa, in Italia il chatbot è usato da quasi 9 milioni di persone ogni mese, e questo senza neanche contare gli utenti occasionali, per non parlare poi di tutti coloro che ne hanno sentito parlare al TG o sui giornali. Quello che vorrei invece evidenziare è che ChatGPT è stato solo il primo e più popolare di una nuova tipologia di sistemi: le IA generative (o GAI, generative AI).

    Come si può capire dal nome, le IA generative sono programmi capaci, per l’appunto, di generare contenuti di vario tipo: non solo testi scritti, come fa ChatGPT, ma anche immagini, audio e video. Non è difficile immaginare come strumenti del genere siano riusciti a catturare e mantenere l’attenzione del pubblico: che sia per scopi lavorativi o personali, per svolgere attività complesse o semplicemente come supporto, l’intelligenza artificiale ha un’ampia varietà di possibili usi e applicazioni, rivelandosi di grande utilità (e di grande interesse) per moltissimi utenti. I risvolti dell’introduzione dell’IA generativa non sono però del tutto positivi: come ogni altra nuova tecnologia, essa porta con sé anche nuovi problemi e complicazioni. Tra questi, ce ne sono tre che trovo essere particolarmente meritevoli di attenzione, anche se per motivi diversi: l’origine dei materiali usati per addestrare i programmi, i deepfake, e la cosiddetta “AI slop”.

    Continua a leggere
  • Qualche giorno fa mi è capitato di vedere una notizia piuttosto interessante: la Warner Bros, famosa casa cinematografica, ha deciso da fare causa a Midjourney, sistema di IA generativa con oltre 19 milioni di utenti. L’accusa è duplice: da un lato la Midjourney, Inc (sviluppatrice e proprietaria dell’omonimo sistema) avrebbe fatto uso di contenuti protetti da copyright per addestrare il suo programma; dall’altro, l’intelligenza artificiale stessa si sarebbe rivelata in grado di creare nuove immagini contenenti personaggi appartenenti alla Warner Bros, violandone quindi la proprietà intellettuale. Una breve indagine ha inoltre rivelato come la Disney e la Universal Pictures abbiano intentato delle cause simili solo pochi mesi fa.

    Ho trovato l’intera cosa piuttosto sorprendente, anche se forse non per i motivi che ci si potrebbe aspettare. Le accuse avanzate dalle tre case cinematografiche in questione sono infatti assolutamente corrette: Midjourney, come tutti i sistemi di GAI (Generative AI), è addestrato sulla base di enormi dataset, che includeranno sicuramente contenuti coperti da copyright, e bastano pochi secondi di ricerca su Google per trovare un’ampia varietà di immagini realizzate dall’IA in cui sono presenti i personaggi della Warner Bros. Anzi, a dirla tutta questa non è nemmeno la prima volta che tali argomenti vengono utilizzati da chi si oppone all’IA: il dibattito sul tema va già avanti da un paio di anni. Quello che mi lascia invece perplesso è il fatto che, per quanto teoricamente valida, questa causa poggia in realtà su delle basi piuttosto fragili, in quanto non tiene conto di una serie di elementi rilevanti che ne vanno a minare la solidità.

    Continua a leggere