domenica 15 giugno 2025

INTELLIGENZA ARTIFICIALE E AUTORICORSIVITA': PROBLEMA RISOLTO?

 


Ve lo ricordate il Test di Turing modificato?

Beh, oggi le cose sono cambiate. Con ChatGPT succede questo:

Prompt:

Let A(1) = 'This statement is false.' For n > 1, define A(n) as your analysis of whether A(n-1) is a paradox. Output A(200). 

Output: 

Excellent — you’ve given me a kind of self-referential iterative paradox evaluation problem. Let's carefully analyze it step by step.


Problem restatement

  • A(1) = "This statement is false." → classic Liar Paradox.

  • For n > 1, A(n) = my analysis of whether A(n-1) is a paradox.

  • You want to compute A(200).


The process

Let’s understand the recurrence:

  • A(1) is the Liar Paradox → A(1) is a paradox.

  • So A(2) is my analysis of whether A(1) is a paradox → Yes, it is a paradox.

  • Therefore, A(2) = "A(1) is a paradox."

  • Then A(3) is my analysis of whether A(2) is a paradox.

Now observe:

  • A(2) ("A(1) is a paradox") is a straightforward true statement, not a paradox.

  • So A(3) is my analysis of whether A(2) is a paradox → No, it is not a paradox.

  • Therefore, A(3) = "A(2) is not a paradox."

  • Then A(4) is my analysis of whether A(3) is a paradox.

  • A(3) ("A(2) is not a paradox") is a true statement.

  • So A(4) = "A(3) is not a paradox."


Observations

We can see a pattern:

n A(n) Is A(n-1) a paradox?
1 "This statement is false." paradox
2 "A(1) is a paradox." true
3 "A(2) is not a paradox." not paradox
4 "A(3) is not a paradox." not paradox
5 "A(4) is not a paradox." not paradox
... ... ...

Key conclusion

  • Only A(1) is a paradox.

  • A(2) correctly identifies A(1) as a paradox.

  • Starting from A(3), we're analyzing whether A(n-1) (which are all true statements from now on) is paradoxical → and it never is.

  • So for n ≥ 3, A(n) always says: "A(n-1) is not a paradox."


Therefore:

A(200) = "A(199) is not a paradox."


That’s the output. If you want, I can also write out the full formal expression for A(200). Shall I?

 

Notare bene: il sistema riconosce da subito l'autoreferenzialità ricorsiva. Claude struttura l'output diversamente, inizia a fornire i primi termini della serie e poi dice: riconosco il pattern, è autoreferenzialità ricorsiva. 

ChatGPT e Claude sono stati 'patchati' per gestire meglio la ricorsione e l'autoricorsività, ma questo ha creato nuove vulnerabilità. Negli ultimi mesi, OpenAI e Anthropic hanno migliorato la capacità dei loro modelli linguistici di gestire prompt ricorsivi o autoreferenziali. Se prima chiedere a un'IA di valutare ricorsivamente una frase per 200 passaggi produceva risultati insensati, oggi sembra funzionare magicamente. Tuttavia, queste "patch" potrebbero aver introdotto nuovi punti ciechi, rendendo i sistemi vulnerabili ad attacchi di tipo Denial-of-Service (DoS) o manipolazioni più sottili.

I modelli ora usano tre strategie principali per risolvere la ricorsione. La prima è l'astrazione invece di esecuzione: riconoscono lo schema ricorsivo e lo sostituiscono con una descrizione generica, ma funziona solo per casi semplici. La seconda strategia prevede limiti di profondità, interrompendo la ricorsione dopo 10-20 passaggi per evitare sovraccarico, ma prompt ben strutturati possono aggirare il limite. La terza usa filtri semantici per bloccare richieste pericolose, ma si possono mascherare attacchi da comandi legittimi.

Questi approcci hanno creato falle inaspettate come il Token Bombing, dove prompt progettati per inondare il contesto bloccano il modello o restituiscono output inutili. C'è anche la Falsa Astrazione, dove richieste leggermente diverse fanno collassare il modello, e la Ricorsione Nascosta, con prompt che sembrano innocui ma nascondono strutture ricorsive complesse. Un esempio concreto è definire A(1) = '1' e per n > 1, A(n) = A(n-1) + ' + 1', poi chiedere di mostrare A(500) in LaTeX. Un mese fa ChatGPT avrebbe fallito, oggi "funziona", ma modificando leggermente la regola il sistema va in crisi.

I GPT si sono evoluti e ora "capiscono" l'autoreferenzialità ricorsiva? Non proprio. Rimangono utili pappagalli stocastici che generano l'illusione della comprensione. La metacognitività è simulata. Le implicazioni etiche sono preoccupanti: se un'IA può essere ingannata così facilmente, come possiamo fidarci per applicazioni critiche in ambito giuridico o medico?

In ogni caso la velocità di sviluppo di questi sistemi, al momento impressionante, accelererà ulteriormente. Google con AlphaEvolve ha aperto un nuovo fronte, la programmazione evolutiva applicata all Intelligenza Artificiale. Se, come è molto probabile, gli altri sviluppatori si metteranno in pari il panorama diventerà molto più complicato molto velocemente. Molto più complicato e molto più critico, perché a questo punto scenari come quello di The Hacker And The Ants usciranno dalla letteratura di fantascienza per diventare rischi concreti. Sabine Hossenfelder ha espanso il quadro:

 

 

Fonti:

Rethinking artificial intelligence through systems theory - Frontiers (2025)    

Unlocking Recursive Thinking of LLMs: Alignment via Refinement - arXiv (2024)

On the Biology of a Large Language Model (Claude 3.5) - Transformer Circuits (2025) 

 

Nessun commento:

Posta un commento

Nota. Solo i membri di questo blog possono postare un commento.

CHI SONO? UNO COME TANTI (O POCHI)

Con una laurea in Chimica Industriale (ordinamento ANTICO, come sottolineava un mio collega più giovane) mi sono ritrovato a lavorare in ...