Oltre l'uomo

Intelligenza artificiale, nuove tecnologie, attualità e riflessioni filosofiche.

  • Poco più di tre anni: a pensarci adesso, sembra essere passato molto più tempo da quando OpenAI ha introdotto il suo nuovissimo chatbot, ChatGPT. In soli tre anni l’intelligenza artificiale è passata da un argomento un po’ esoterico, riservato agli esperti e agli scrittori di fantascienza, ad un tema di dibattito così comune che è difficile non imbattersene ad ogni passo. Non sorprenderà quindi sapere come il termine “IA” compaia molto spesso sui titoli dei giornali: IA e etica, leggi sull’IA, i pericoli dell’IA, opinioni sull’IA… le opzioni sono tante. Alcune di esse riescono però ad attirare l’attenzione in modo particolare, facendo leva sul fascino che proviamo per il macabro, la cronaca nera, gli eventi strani e surreali: storie di persone incoraggiate al suicidio dall’intelligenza artificiale, di giovani che confessano i propri segreti più profondi al computer e di gente finita in ospedale dopo aver chiesto consigli medici al computer. Il genere di notizia che vende insomma. Oltre ad attirare l’attenzione del pubblico, questi racconti hanno però un altro effetto: essi evidenziano infatti come, nel corso di questi tre anni, i chatbot abbiano iniziato ad assumere ruoli del tutto nuovi nella nostra società. Non più soltanto uno strumento capace di dialogare con noi, ChatGPT e i suoi simili sono ormai diventati oracoli, esperti di medicina, confidenti ed altro ancora.

    Si tratta di un cambiamento sostanziale, che merita di essere discusso in maniera più attenta e approfondita proprio in quanto rappresenta uno sviluppo fondamentale nel modo in cui ci rapportiamo con l’IA, come anche una fonte di nuovi rischi e problematiche da gestire. Vediamo quindi di cercare di fornire un quadro un po’ più completo della situazione.

    Continua a leggere
  • Colpo di stato in Francia: questa è la clamorosa notizia che poche settimane fa circolava su Facebook, accompagnata e sostenuta da un breve video in cui una giornalista francese forniva i primi, pochi dettagli sui fatti. Un evento tanto sorprendente quanto importante, che ha ovviamente attirato un’enorme quantità di attenzione da parte del pubblico, sia in Francia che all’estero. In molti si sono quindi interrogati sull’identità dei mandanti di questo coup d’état: può essere stato l’esercito? Un tentativo da parte di una potenza straniera di destabilizzare l’Europa? Parte del piano degli Illuminati per conquistare il mondo in nome dei loro padroni alieni? La risposta, in realtà, è molto più semplice: l’autore del colpo di stato è nientepopodimeno che un sistema di intelligenza artificiale. Fortunatamente, l’IA in questione non ha alcuna intenzione di costruire un esercito di Terminator vestiti con la maglietta a righe e il basco per sterminare l’umanità – e, in effetti, non è neanche particolarmente interessata a governare la Francia. È infatti bastato un controllo un po’ più attento per rivelare un fatto di fondamentale importanza: il video su cui si fondava l’intera storia era stato realizzato da un adolescente del Burkina Faso, grazie all’ausilio di un comune sistema di intelligenza artificiale generativa.

    Si tratta di una storia che ha dell’incredibile, ma che al contempo mette perfettamente in luce quanto sia diventata grave la questione delle fake news in questi ultimi anni: un adolescente, un programma per computer, i social, e un pizzico di stupidità umana. Questi pochi, semplici ingredienti sono ormai più che sufficienti per creare e diffondere notizie false capaci di ingannare centinaia di persone. Un secolo fa, per spargere una storia del genere e renderla credibile sarebbe stato necessario un considerevole investimento di tempo, denaro e competenze specializzate – un compito non impossibile, ma certamente né semplice né veloce. Al giorno d’oggi, invece, gli sviluppi nell’ambito della comunicazione e l’esistenza di internet permettono alle fake news di diffondersi molto più rapidamente su distanze molto più ampie, raggiungendo un pubblico che può addirittura essere globale; al tempo stesso, la creazione di falsi realistici è diventata sempre più facile nel corso degli anni, al punto che i sistemi di GAI (generative AI) possono non solo realizzare immagini e video capaci di ingannare l’utente medio, ma risultano anche essere estremamente accessibili e facili da utilizzare.

    Non dovrebbe quindi sorprendere che, di fronte ad una situazione del genere, le autorità di vari paesi abbiano iniziato a sviluppare delle pratiche volta a combattere la diffusione delle fake news. Tra queste, una delle più basilari, ma anche più importanti, è la formazione nell’ambito della “media literacy”, l’alfabetizzazione mediatica. Questa consiste, sostanzialmente, nella capacità di consultare, analizzare e valutare i contenuti mediatici (siano essi articoli, servizi televisivi, o video trovati su internet) mantenendo sempre una visione critica, che permetta di riconoscere la presenza di eventuali bias, disinformazione o propaganda. In altre parole, si potrebbe dire che si tratta di una formazione su come riconoscere quando i fatti che ci vengono presentati dai mass media sono reali e quando sono manipolati o finti. Come si può quindi immaginare, la capacità di identificare i contenuti AI-generated risulta essere una delle competenze più utili ed importanti in questo campo, ed è proprio su tale argomento che vorrei andare a soffermarmi in questo articolo: come si fa a riconoscere un deepfake?

    Continua a leggere
  • Intelligenza artificiale e lavoro: dietro a questa semplice combinazione di parole si nasconde un’immensa quantità di dibattiti, accuse più o meno fondate, esagerazioni, incomprensioni, articoli, saggi, leggi e interventi di ogni genere e tipo. La cosa non dovrebbe sorprendere: negli ultimi anni l’IA è infatti riuscita ad attirare l’attenzione di gran parte del mondo del lavoro, suscitando tanto interesse quanto timore da parte di imprese, lavoratori e governi. Uno strumento da sfruttare per aumentare i guadagni, una minaccia per il proprio impiego, una tecnologia potente ma pericolosa che deve essere regolata – le opinioni al riguardo sono certamente variate e numerose. Ma quale di esse è quella corretta, ci si potrebbe chiedere? Che questa tecnologia andrà ad influenzare pesantemente il mercato del lavoro è un fatto ormai scontato, ma cosa accadrà effettivamente? Le conseguenze saranno positive o negative? Quali saranno gli ambiti più colpiti da questo cambiamento? Che effetto avrà l’adozione dell’intelligenza artificiale sui lavoratori? I sistemi di IA saranno davvero in grado di aumentare la produttività delle aziende?

    Si tratta di domande importanti ed interessanti, a cui molti studiosi hanno già tentato di rispondere. La maggior parte di loro ha tuttavia preferito concentrarsi su di uno specifico ambito, analizzando, ad esempio, come verrà influenzata l’occupazione, le possibili applicazioni per quanto riguarda la salute e sicurezza sul lavoro, o quali saranno i principali usi dell’intelligenza artificiale. In questo articolo io vorrei però adottare un approccio un po’ differente, cercando invece di fornire un quadro di insieme della situazione, un’analisi meno approfondita ma di più ampio respiro, che possa fornire al lettore una migliore idea di cosa significhi veramente l’adozione dell’IA per il mondo del lavoro.

    Continua a leggere
  • Qualche tempo fa, ascoltando il telegiornale, mi è capitato di sentire un servizio che faceva riferimento al termine “umanità” non nella sua accezione di “il genere umano nel suo complesso”, ma col significato di “la natura umana, le sue caratteristiche distintive”. La cosa mi ha lasciato un po’ interdetto: linguisticamente la scelta è corretta, come dimostra una breve consultazione del dizionario Treccani, ma l’idea alla sua base mi sembra piuttosto discutibile. Il concetto di “umanità” si fonda infatti sul presupposto che esistano una o più proprietà del tutto uniche all’uomo, che lo definiscono e separano dall’animale, ipotesi che io trovo essere francamente assurda.

    Una tale caratteristica dovrebbe infatti soddisfare due requisiti: essere esclusiva all’essere umano, ed essere riconoscibile ed individuabile. Da un lato, il definire esplicitamente una proprietà come “ciò che distingue l’uomo dall’animale” ci impone l’obbligo di dimostrare che essa sia effettivamente assente in ogni creatura tranne l’essere umano; dall’altro, è anche necessario che essa faccia riferimento a qualcosa di osservabile: con tutto il rispetto per Cartesio, dire che la differenza sta nella presenza dell’anima non significa molto se l’anima non può essere percepita. Il problema è che io non credo che esista una caratteristica capace di soddisfare entrambi questi requisiti, per i motivi che adesso andrò ad esplorare.

    Continua a leggere
  • Alcuni giorni fa “Il Foglio” ha pubblicato un articolo dal titolo piuttosto interessante: “Come rendere la filosofia a prova di AI? Basta abolire la tesi di laurea”, di Antonio Gurrado. Come si può evincere dalla scelta del nome, l’autore di questo testo propone di modificare il curriculum della laurea in filosofia, sostituendo la tradizionale tesi con una prova finale alternativa, meno vulnerabile agli abusi dell’intelligenza artificiale generativa, che permetterebbe ad uno studente disonesto di produrre l’elaborato senza alcun impegno.

    L’argomento, di per sé, non è privo di fondamenti: ci sono numerosi esempi che potrei fare per mostrare come la GAI (generative AI) possa essere utilizzata in modo disonesto in ambito scolastico o lavorativo, e le difficoltà nell’identificare se un contenuto sia “vero” o artificiale dovrebbero ormai essere ben note anche al grande pubblico grazie ai numerosi deepfake che si sono diffusi negli ultimi anni. Che l’intelligenza artificiale possa essere utilizzata per realizzare le tesi di laurea è quindi assolutamente possibile, se non addirittura probabile. Detto ciò, quella proposta da Gurrado mi sembra una soluzione non solo piuttosto estrema, ma anche molto meno efficace di quanto egli sembri pensare. Andiamo dunque a vedere perché.

    Continua a leggere
  • In questi ultimi anni il concetto di “intelligenza artificiale” è salito alla ribalta, passando da un tema tutto sommato di nicchia, di cui si occupavano prevalentemente esperti del settore e ricercatori, ad uno degli argomenti più discussi ed importanti dei giorni nostri. Si tratta di un’esplosione di interesse assolutamente stravolgente, tanto improvvisa quanto inaspettata, e resa ancora più incredibile dal fatto che essa è dovuta ad un singolo, semplice evento: il lancio di ChatGPT. Spiegare cosa sia quest’ultima non mi sembra necessario: secondo un articolo del Sole 24 Ore di qualche mese fa, in Italia il chatbot è usato da quasi 9 milioni di persone ogni mese, e questo senza neanche contare gli utenti occasionali, per non parlare poi di tutti coloro che ne hanno sentito parlare al TG o sui giornali. Quello che vorrei invece evidenziare è che ChatGPT è stato solo il primo e più popolare di una nuova tipologia di sistemi: le IA generative (o GAI, generative AI).

    Come si può capire dal nome, le IA generative sono programmi capaci, per l’appunto, di generare contenuti di vario tipo: non solo testi scritti, come fa ChatGPT, ma anche immagini, audio e video. Non è difficile immaginare come strumenti del genere siano riusciti a catturare e mantenere l’attenzione del pubblico: che sia per scopi lavorativi o personali, per svolgere attività complesse o semplicemente come supporto, l’intelligenza artificiale ha un’ampia varietà di possibili usi e applicazioni, rivelandosi di grande utilità (e di grande interesse) per moltissimi utenti. I risvolti dell’introduzione dell’IA generativa non sono però del tutto positivi: come ogni altra nuova tecnologia, essa porta con sé anche nuovi problemi e complicazioni. Tra questi, ce ne sono tre che trovo essere particolarmente meritevoli di attenzione, anche se per motivi diversi: l’origine dei materiali usati per addestrare i programmi, i deepfake, e la cosiddetta “AI slop”.

    Continua a leggere
  • Qualche giorno fa mi è capitato di vedere una notizia piuttosto interessante: la Warner Bros, famosa casa cinematografica, ha deciso da fare causa a Midjourney, sistema di IA generativa con oltre 19 milioni di utenti. L’accusa è duplice: da un lato la Midjourney, Inc (sviluppatrice e proprietaria dell’omonimo sistema) avrebbe fatto uso di contenuti protetti da copyright per addestrare il suo programma; dall’altro, l’intelligenza artificiale stessa si sarebbe rivelata in grado di creare nuove immagini contenenti personaggi appartenenti alla Warner Bros, violandone quindi la proprietà intellettuale. Una breve indagine ha inoltre rivelato come la Disney e la Universal Pictures abbiano intentato delle cause simili solo pochi mesi fa.

    Ho trovato l’intera cosa piuttosto sorprendente, anche se forse non per i motivi che ci si potrebbe aspettare. Le accuse avanzate dalle tre case cinematografiche in questione sono infatti assolutamente corrette: Midjourney, come tutti i sistemi di GAI (Generative AI), è addestrato sulla base di enormi dataset, che includeranno sicuramente contenuti coperti da copyright, e bastano pochi secondi di ricerca su Google per trovare un’ampia varietà di immagini realizzate dall’IA in cui sono presenti i personaggi della Warner Bros. Anzi, a dirla tutta questa non è nemmeno la prima volta che tali argomenti vengono utilizzati da chi si oppone all’IA: il dibattito sul tema va già avanti da un paio di anni. Quello che mi lascia invece perplesso è il fatto che, per quanto teoricamente valida, questa causa poggia in realtà su delle basi piuttosto fragili, in quanto non tiene conto di una serie di elementi rilevanti che ne vanno a minare la solidità.

    Continua a leggere
  • 30 Novembre, 2022: OpenAI rilascia al pubblico un sistema di chatbot conosciuto chiamato “ChatGPT”. È l’inizio di un’era, l’era dell’intelligenza artificiale. Nel giro di soli 3 anni l’IA è diventata uno strumento di uso comune, un termine conosciuto da tutti e, soprattutto, un argomento di ampio dibattito.

    Mentre però gli utenti discutono di AI veganism e di diritti d’autore, gli esperti e le autorità si sono concentrati su un tema di particolare importanza: quali pericoli comporta l’intelligenza artificiale per la nostra società?

    L’articolo qui allegato punta ad esaminare proprio questo tema, evidenziando alcuni dei principali rischi coinvolti nell’uso di tale tecnologia ed esaminando come possano essere affrontati, e quanto siano effettivamente gravi.

  • Transumanesimo e postumanesimo. Due termini che saranno probabilmente assai poco familiari al lettore medio, e che però rappresentano due delle correnti filosofiche più interessanti dell’epoca contemporanea.

    Entrambe le scuole di pensiero si prefiggono infatti l’incredibile compito di andare “oltre l’uomo” e di creare così un nuovo essere, il “postumano”. Ma cosa vuol dire ciò esattamente?

    In questo articolo, pubblicato sul giornale di filosofia online “Argumenta”, ho cercato di esplorare proprio tale tema, esaminando e comparando queste due correnti filosofiche al tempo stesso così simili e così differenti.

    Qui il link: https://www.argumenta.org/article/the-surprising-convergence-of-transhumanism-and-posthumanism/

  • Benvenuti a “Oltre l’uomo”, un blog dedicato a trattare temi di attualità come nuove tecnologie, eventi recenti e riflessioni filosofiche sulla società moderna.

    Gli articoli qui pubblicati si concentreranno sui seguenti argomenti:

    • Intelligenza artificiale, le sue applicazioni e la sua influenza sulla nostra società e sui sistemi economico e legale;
    • Considerazioni su eventi contemporanei di particolare interesse, e su cosa potrebbero significare per noi;
    • Riflessioni su temi di più ampio respiro, come la democrazia, il nostro rapporto con gli animali o la natura dell’arte;
    • Analisi sulla cultura popolare e moderna, su cosa la caratterizza e su come differisce da quella dei nostri padri.