giovedì 3 luglio 2025

INTELLIGENZA ARTIFICIALE, CRISI DELLE COMPETENZE, SIMULAZIONE DEL SAPER FARE

Il vero punto di rottura dell'intelligenza artificiale non risiede nella sua capacità di simulare l'intelligenza, quanto piuttosto nel permettere agli utenti di simulare competenze che non possiedono realmente. Questo fenomeno può ridefinire profondamente concetti come autorevolezza, originalità e merito che, in teoria, dovrebbero essere fondanti per una società. Sottolineo "in teoria" perché una società governata in larga parte da simulacri come Baudrillard li ha definiti è già pronta per sostituire intelligenza e competenza con i rispettivi segni.

Il dibattito sull'IA si dovrebbe schiodare dalla dimensione filosofica del passato, incentrata sulla domanda se una macchina possa pensare, per includere l'impatto sociale di queste tecnologie.

C'è una questione già presente: cosa accade quando chiunque può produrre risultati che sembrano provenire da un esperto senza esserlo davvero? L'apparente "democratizzazione" della conoscenza o delle competenze in realtà alimenta un equivoco colossale.

Andiamo indietro nel tempo per dare un'occhiata a una rivoluzione che rimosse barriere all'accesso di una tecnologia. Il boom dei personal computer aveva portato con sé prima quello dei sistemi operativi e poi quello delle interfacce grafiche (MacOS prima, Windows poi). E la maggior parte del software più importante, dal sistema operativo agli applicativi più rilevanti, inclusi quelli per la programmazione, era a pagamento. Poi arrivò Linux, gratuito: qualcuno commentò in chiave marxista, dicendo che i mezzi di produzione erano stati distribuiti alla popolazione.

Con Linux e il free software, in potenza, chiunque poteva programmare in vari linguaggi, da C ANSI a SQL. Ma rimaneva una barriera intrinseca: l'apprendimento dei linguaggi. Imparare un linguaggio richiede tempo e impegno. Se pensate che impegno lo richiedano Python o R, considerate il Fortran o tutta la faccenda dei puntatori in C... Se dovessi cercare nella mia memoria un caso di genialità che ho visto all'opera direi che era quello di qualcuno che, programmando, apriva il core dump, ci dava un'occhiata e esclamava "Ah, ecco il problema!". Era un mondo in cui ogni competenza per essere acquisita non richiedeva soltanto studio e pratica, ma anche capacità analitiche. 

L'interfaccia con linguaggio naturale rimuove queste barriere, in tutti i sensi: si può anche chiedere al GPT codice Python o SQL o che altro senza avere alcuna conoscenza o pratica di quei linguaggi. Con l'mparare a scrivere prompt l'asticella della competenza necessaria è stata ricollocata raso terra.

Oggi assistiamo a studenti che generano tesi di laurea di ottanta pagine in tre ore senza aver mai consultato una bibliografia, ad Amazon invasa da opere scritte dall'intelligenza artificiale che, pur contenendo errori concettuali, mantengono un'apparenza credibile, e a sviluppatori che copiano codice da ChatGPT senza comprendere le implicazioni sulla sicurezza informatica.

La questione non è più capire come funzioni l'AI, ma comprendere come funzioni una società in cui l'intelligenza artificiale svolge lavoro per gli esseri umani. Questo cambiamento genera tre crisi fondamentali che minacciano le basi del nostro sistema conoscenza/competenza.

La prima è una crisi epistemica che mette in discussione i nostri meccanismi per stabilire cosa sia e cosa non sia artefatto. Oggi l'intelligenza artificiale dissocia completamente l'output dalla competenza reale: un libro di fisica generato da GPT-4 può apparire identico a quello scritto da un fisico di fama mondiale. Il risultato è che il sapere si trasforma in un teatro di simulazioni dove diventa impossibile distinguere l'umano dall'artefatto e forse, ad un certo punto, questa distinzione finirà per perdere di significato.

La seconda crisi riguarda il merito e solleva interrogativi fondamentali nei processi dell'educazione e hdell'istruzione. Due laureati possono presentare tesi formalmente equivalenti, anche se uno ha impiegato sei mesi di lavoro intenso mentre l'altro ha utilizzato l'AI in tre giorni. Le istituzioni, dalle università alle case editrici, si trovano nell'impossibilità di distinguere l'umano dall'artefatto (o il reale dal simulato?), causando un progressivo svuotamento di valore dell'opera scritta. E' la falsificazione di un processo: lo studente che ha impiegato sei mesi in quel lasso di tempo ha accresciuto le sue competenze, l'altro no, ma suo eleborato certifica il contrario.

La terza crisi tocca la motivazione stessa all'apprendimento. Se un sistema può scrivere romanzi, tradurre dal sanscrito o condurre analisi finanziarie al posto nostro, chi investirà ancora anni della propria vita per acquisire queste competenze? Il rischio è la formazione di una generazione di individui superficiali, capaci di utilizzare strumenti sofisticati ma incapaci di comprenderli veramente. Qualcuno potrebbe dire: i social hanno già inscenato questa realtà, con lauree brevi, magari prese online, che potevano pontificare in nome della scienza. Si, ok, ma i social non sono il mondo reale.

Questa rivoluzione si distingue radicalmente da tutte le innovazioni tecnologiche precedenti. La calcolatrice non ha mai simulato la matematica, ma si è limitata ad accelerare calcoli che l'utente era già in grado di comprendere. Google non scriveva contenuti al posto dell'utente, che doveva comunque possedere le competenze per cercare informazioni e sintetizzarle. Il GPT, o quello che sarà il suo successore, ,genera invece output completi senza richiedere comprensione o competenza, spezzando definitivamente il legame tra apprendimento e produzione di contenuto.

Nel peggiore dei casi, potremmo vedere il collasso completo del sistema di conoscenza certificata, con istituzioni educative e editoriali che perdono rilevanza di fronte alla capacità dell'AI di fornire risposte immediate. Il sapere rischierebbe di frammentarsi in micro-verità algoritmiche personalizzate, replicando su scala più ampia quanto già accade con i social media.

Ma...

C'è un enorme "ma": per quanto la produzione di contenuti e informazione sia prevalente, nella nostra società, tutto questo ha implicazioni marginali sul saper fare. O meglio ne ha finché non si confondono i due piani. Un esempio? Cucina e ricecette. Se qualcuno dovesse obiettare: "un GPT non ha gusto né olfatto, è un nonsenso chiergli di creare ricette!" avrebbe la mia piena approvazione. Purtroppo:


Ma qui veniamo al dunque: sono mesi che litigo con un certo pesce perché non riesco a trovare una ricetta che mi soddisfi. Secondo ChatGPT l'idea di marinarlo nella birra chiara con alloro, pepe in grani e scalogno era una buona idea. In realtà l'idea non era per niente buona. E questo è un esempio banale innocuo e terra terra. Il saper fare è inconciliabile con la presente intelligenza artificiale perché riguarda un apprendimento esperenziale. 

Il grosso rischio, visto che la confusione tra piani sembra essere l'impronta del presente secolo, è che il saper produrre contenuti sia confuso con il saper fare di ogni ordine. Un GPT non può interagire fisicamente con la realtà materiale. Può generare istruzioni per eseguire task sulla base del dataset su cui è addestrato. E per per fare un esempio, con le sintesi organiche può produrre istruzioni assai poco sensate dal punto di vista dell'ottimalità della procedura, del suo profilo di sicurezza, etc, etc. E poi c'è la grande incognita: i GPT possono produrre output cosiddetti "allucinati". Finché è un'allucinazione che produce contenuti ok. Ma un'allucinazione che produce istruzioni da essere eseguite nel mondo fisico?

In ultima analisi è sempre l'essere umano, il problema. 

Nessun commento:

Posta un commento

Nota. Solo i membri di questo blog possono postare un commento.

CHI SONO? UNO COME TANTI (O POCHI)

Con una laurea in Chimica Industriale (ordinamento ANTICO, come sottolineava un mio collega più giovane) mi sono ritrovato a lavorare in ...