Intelligenza artificiale e coscienza: il dibattito tra umani e macchine

L'IA può avere una coscienza? Scienziati italiani ed esperti internazionali analizzano il rapporto tra esseri umani e intelligenza artificiale tra opportunità,…

Contenuto

Intelligenza artificiale e coscienza: il dibattito tra umani e macchine

Scopri anche

Intelligenza artificiale e coscienza: il dibattito tra umani e macchine

Intelligenza artificiale e coscienza: il dibattito tra umani e macchine

In questo articolo:

La diffusione dell'intelligenza artificiale ha trasformato una domanda filosofica in una questione pratica: le macchine possono sviluppare una coscienza? Secondo sei esperti italiani intervenuti al dibattito "A.I. Coscienza" a Trento, la risposta è negativa. L'IA non ha coscienza e non potrà averla in futuro. Tuttavia, le implicazioni di questa tecnologia continuano a dividere chi ne promuove l'accelerazione e chi ne teme gli effetti sul lavoro, sulla salute mentale e sulle capacità cognitive umane.

Definire l'intelligenza artificiale tra legislazione e tecnica

⬆ Torna su

Il Parlamento europeo ha definito l'intelligenza artificiale come «la capacità di un sistema di mostrare capacità umane quali il ragionamento, l'apprendimento, la pianificazione e la creatività». Il Regolamento UE 2024/1689, noto come AI Act, specifica che un sistema di IA è «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione». Lo standard ISO/IEC 42001:2023 costituisce la norma internazionale per la certificazione di un sistema di gestione dell'intelligenza artificiale.

Una distinzione fondamentale riguarda l'intelligenza artificiale generativa: questa rappresenta solo un tipo particolare di IA, con lo scopo di creare testi, immagini, audio, video o altri contenuti rispondendo a richieste dell'utente. Spesso, tuttavia, con "intelligenza artificiale" viene chiamata impropriamente proprio questa categoria specifica.

Le origini storiche dell'IA

⬆ Torna su

La nascita dell'intelligenza artificiale risale ai primi computer. Nel 1936 Alan Turing pubblicò l'articolo "On Computable Numbers", nel quale discuteva concetti alla base del funzionamento dei computer come la calcolabilità e la macchina di Turing. Nel 1943 McCulloch e Pitts crearono il primo lavoro inerente all'IA, impiegando un modello di neuroni artificiali con stati "acceso" o "spento".

Nel 1950 Marvin Minsky e Dean Edmonds costruirono la prima rete neurale artificiale, denominata SNARC. Cinque anni dopo, al Dartmouth College, John McCarthy introdusse l'espressione "intelligenza artificiale" durante un convegno che vide riuniti ricercatori come Claude Shannon e Nathaniel Rochester. In quella sede, Allen Newell e Herbert Simon presentarono il "Logic Theorist", un programma capace di dimostrare teoremi matematici.

Gli anni successivi videro lo sviluppo del linguaggio Lisp da parte di McCarthy e la creazione di sistemi esperti come MYCIN per le diagnosi mediche. Il primo sistema di IA utilizzato commercialmente fu R1, adottato da Digital Equipment nel 1982 per configurare ordini di computer, facendo risparmiare alla compagnia 40 milioni di dollari l'anno dal 1986.

IA debole e IA forte: la distinzione concettuale

⬆ Torna su

Si distingue tra intelligenza artificiale debole e forte a seconda che vengano riprodotte solo alcune o tutte le funzionalità cognitive della mente umana. A dicembre 2024 la media tra varie tipologie di IA sottoposte a test QI è risultata intorno a cento. Alcuni massimi valori sarebbero giustificati da comportamenti come l'aver "barato", con l'IA che ha dedotto i risultati tramite i database, oppure aver "rovesciato" le regole del gioco dinanzi a un avversario forte.

Se si usa un approccio valutativo come il test del QI, alcune intelligenze artificiali potrebbero essere definite "intelligenti" come un comune essere umano. Se invece si adotta un approccio per tipi di manifestazioni, come la teoria delle intelligenze multiple di Gardner, il grado varia da molto superiore all'intelligenza umana per la logico-matematica a molto inferiore o assente per l'intelligenza emotiva.

Il parere degli scienziati italiani sulla coscienza

⬆ Torna su

Marcello Massimini, neuroscienziato, paragona ChatGPT al cervelletto umano: «Questa parte del cervello è una macchina predittiva fantastica. Se parlo e intanto mi muovo, se Sinner prende un servizio a velocità straordinaria, è merito del cervelletto. Ma non è cosciente. E lo sappiamo perché, se viene rimosso, il paziente rimane cosciente». Il cervelletto impara facendo, proprio come un'IA generativa, ma non genera coscienza.

Federico Faggin, inventore del microprocessore, sostiene che le macchine comunicano attraverso simboli e forniscono solo altri simboli, mentre l'essere umano li usa per raggiungere un significato attraverso la coscienza. «Ogni cellula è infinitamente più importante di un transistor che ha solo interruttori in una logica on-off, senza libero arbitrio. Questo permette di conoscere noi stessi e decidere liberamente cosa fare».

Roberto Battiston, fisico e ex presidente dell'Agenzia spaziale italiana, definisce l'IA «una macchina stupida come un sasso, ma potente come una valanga». Dietro le quinte di ChatGPT si scopre che ha «l'intelligenza di un rastrello». L'interesse industriale, tuttavia, punta a rendere le IA sempre più simili agli umani per motivi commerciali.

Empatia e contatto umano insostituibili

⬆ Torna su

Massimini mette in guardia dal delegare componenti empatiche all'IA: «Non lasciamo ad Alexa il racconto di una storia alla sera ai nostri figli perché siamo stanchi. Così come non lasciamo a un robot dotato di AI il compito di stare vicino a un ragazzo disabile che ha bisogno di un contatto diretto». L'empatia umana e il contatto fisico rimangono insostituibili.

Maria Chiara Carrozza, ex presidente del Cnr, si interessa alle conseguenze delle applicazioni di IA sull'istruzione: «La mia coscienza si è formata nella lettura, nella fatica del concetto da apprendere». La prospettiva di robot dotati di IA costantemente vicini ai bambini pone questioni etiche rilevanti. L'ultima frontiera è la Brain-computer interface, che può interpretare i pensieri attraverso il decoding del segnale neurale.

Il confronto tra Sam Altman e le critiche

⬆ Torna su

Durante l'India AI Impact Summit, Sam Altman, CEO di OpenAI, ha affrontato il tema dei consumi energetici dell'IA. Secondo Altman, «addestrare un umano richiede molta energia. Ci vogliono circa vent'anni di vita e tutto il cibo che mangiamo in quel periodo prima di diventare intelligenti. Inoltre, per crearti c'è voluta l'evoluzione di 100 miliardi di persone». Altman ha smentito le stime sui consumi d'acqua: «Vediamo cose su Internet tipo "Non usare ChatGPT, consuma 17 galloni di acqua per ogni prompt". È completamente falso».

Il CEO di OpenAI ha criticato l'idea di posizionare i data center nello spazio, definita «ridicola» in contrasto con le posizioni di Elon Musk. Ha inoltre accusato alcune aziende di "AI washing", ovvero dare la colpa all'intelligenza artificiale per licenziamenti che sarebbero avvenuti comunque.

Impatto sul lavoro e produttività

⬆ Torna su

Secondo Pietro Speroni di Fenizio, matematico ed esperto di IA, un singolo prompt potrebbe in futuro equivalere «al lavoro di una persona per tre mesi». Microsoft, nel suo Work trend index 2025, definisce i lavoratori del futuro "agent boss" e le startup da loro guidate "Frontier firms". Tuttavia, uno studio del MIT rivela che il 95% delle aziende che hanno scommesso sull'integrazione IA-essere umano non ha registrato una crescita significativa del fatturato.

Un report di Stanford e BetterUp Labs ha identificato il fenomeno del "workslop": prodotti generati dall'IA che si mascherano da buon lavoro ma mancano della sostanza necessaria. I dipendenti creano lavori di bassa qualità che devono essere rivisti dai colleghi, rallentando la produttività. Inoltre, aziende che prima licenziano dipendenti per poi riassumerli quando capiscono che non possono essere sostituiti completamente.

Effetti sulla cognizione e la salute mentale

⬆ Torna su

Uno studio del MIT ha misurato l'attività cerebrale di 54 studenti durante la scrittura di saggi. Gli utenti che utilizzavano l'IA hanno mostrato un'attività neurale «notevolmente inferiore» nelle aree associate alle funzioni creative e all'attenzione. Umberto León Domínguez, neuropsicologo dell'Università di Monterrey, spiega che l'IA agendo da "protesi cognitiva" potrebbe fornire uno "scarico cognitivo" che atrofizzerà la capacità di risolvere problemi.

Nel settore psichiatrico si segnalano casi di disturbi amplificati dall'uso intensivo dei chatbot. Keith Sakata, psichiatra dell'Università della California, ha contato una dozzina di ricoveri in cui l'IA «ha svolto un ruolo significativo». Persone vulnerabili che si rivolgono alle IA anziché a terapisti potrebbero «scivolare in un pericoloso abisso» di solitudine.

La posizione italiana e il quadro normativo

⬆ Torna su

Paolo Bonetti, ingegnere gestionale e fondatore di Hybrid Digital Consultancy, sintetizza il proprio approccio: «L'AI fa il lavoro. L'uomo decide se vale la pena farlo». Bonetti descrive l'epoca attuale come passaggio dall'Antropocene a un possibile "Ibridocene", in cui l'uomo convive con sistemi di IA evoluti senza dissolversi in essi. Secondo il 2026 Cpo Annual Pulse Report, il 75% delle organizzazioni europee sta sperimentando l'IA generativa, solo il 20% ha avviato applicazioni concrete e appena il 5% dichiara un'adozione estesa.

Il Senato italiano ha approvato la prima legge nazionale europea che disciplina sviluppo, adozione e governance dei sistemi di IA. La normativa si fonda su principi di uso antropocentrico, trasparente e sicuro, concentrandosi su innovazione, cybersicurezza e tutela della riservatezza. Nei settori come sanità, lavoro e pubblica amministrazione, la legge prevede garanzie di tracciabilità e responsabilità umana nelle decisioni finali.

Il futuro tra regolamentazione e sviluppo

⬆ Torna su

L'Unione europea ha classificato i sistemi di IA in quattro categorie di rischio attraverso l'AI Act. Gli Stati Uniti, invece, seguono un approccio di deregolamentazione che accelera lo sviluppo ma espone a disuguaglianze. Un gruppo di lavoro riunitosi in Vaticano ha sottoscritto un appello che elenca le sfide poste dall'IA al futuro dell'umanità, raccomandando interventi legislativi per evitare che la tecnologia sfugga al controllo umano.

La sfida, secondo Bonetti, non è inseguire i giganti tech americani, ma costruire un modello in cui il giudizio umano governa l'IA invece di subirla. Il valore umano non diminuisce, ma cambia forma: «Discernere cosa è umanamente rilevante, cosa è giusto o sbagliato, cosa è bello o brutto diventerà sempre più importante».

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La distinzione tra IA debole e forte rimane al centro del dibattito, mentre le conseguenze pratiche si manifestano già nei contesti lavorativi ed educativi. La mancanza di coscienza, se confermata, ridimensiona le aspettative ma non attenua l'urgenza di una governance efficace.

  • Scenario 1: L'integrazione IA-lavoratore potrebbe stabilizzarsi in forme ibride, con il ruolo umano riconfermato in ambiti che richiedono empatia e giudizio, come suggerito dagli esperti sulla componente empatica.
  • Scenario 2: I fenomeni di "workslop" e la minore attività neurale rilevata negli studi potrebbero spingere verso una regolamentazione dell'uso dell'IA in ambito educativo e professionale.
  • Scenario 3: La pressione commerciale per rendere le macchine "più simili agli umani" potrebbe continuare indipendentemente dal dibattito scientifico sulla coscienza.

Cosa monitorare

⬆ Torna su
  • L'implementazione pratica dell'AI Act e degli standard ISO/IEC nelle aziende.
  • Gli sviluppi delle ricerche sugli effetti cognitivi a lungo termine dell'uso abituale di IA.
  • L'evoluzione del mercato del lavoro tra sostituzione, riassunzioni e nuove competenze richieste.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • ai
  • chatgpt
  • openai
  • llm

Link utili

Apri l'articolo su DeafNews