Un vecchio detto della programmazione diceva che un oggetto software non può mai essere più intelligente di chi lo ha programmato, ma Rudy Rucker, scrivendo l'unico romanzo realistico sull'IA che conosco (The Hacker and the Ants, Le formiche nel computer) spiegò come le cose potessero andare fuori controllo, cioè con algoritmi evolutivi/programmazione genetica.
Rucker è un matematico atipico, sicuramente più noto per la sua attività di scrittore di fantascienza che per quella di matematico ed informatico. Di sicuro però non riusciva a lasciarsi alle spalle il suo background quando scriveva, e la cosa si percepisce nettamente nelle sue opere. The Hacker And The Ants lo potete trovare qui.
Centrale nel romanzo un esperimento di algoritmi genetici: viene creata una forma di vita digitale (le formiche) con capacità di generazione di codice. Dalle formiche viene ottenuta robot.lib, libreria indispensabile per la programmazione di robot "domestici", una novità commerciale ancora a livello di prototipo. Ma le formiche si comportano come un virus e finiscono per infettare i robot. A differenza della programmazione e dell'addestramento dei robot le formiche non hanno alcuna interfaccia antropomorfa e si comportano come una sorta di intelligenza non umana il cui comportamento virale ha evidentemente uno scopo.
Sono partito da Rudy Rucker perché in una conversazione con un amico lui se ne è uscito scherzando: "Quando le macchine domineranno il mondo..." Ebbene, al momento non sappiamo di nessun algoritmo genetico applicato allo sviluppo di sistemi di intelligenza artificiale quindi direi che il rischio non è all'orizzonte. Però è interessante notare certe differenze tra sistemi, differenze che riguardano principalmente il sistema "altro" per eccellenza.: Deepseek, avete presente? L'intelligenza artificiale open source cinese che richiede meno potenza di calcolo, meno energia, meno investimenti etc etc etc.
Usandola noterete una certa differenza di "aroma", rispetto ai corrispettivi occidentali - potete provare e verificherete che tra ChatGPT, Gemini e Perplexity non ci sono molte differenze (ChatGPT ha una più spiccata tendenza a compiacere l'utente).Un particolare rilevante riguardo a Deepseek: si può settare il tono/tipologia di risposta. Nel senso che si può usare come la maggioranza degli utenti usa una IA oppure chiedere una modalità "no frills ". E qui le cose diventano interessanti. Gli ho chiesto se le sue risposte dipendano dalla lingua che usa e il risultato è stato questo:
Here’s how it works:
Primary Language (English) – I perform best in English because my training data is most extensive in this language. Responses are typically more accurate, nuanced, and detailed.
Other Major Languages (e.g., Spanish, French, German, Chinese, etc.) – I can understand and respond quite well in many widely spoken languages, though fluency may vary. Some nuances or complex topics might be handled better in English.
Low-Resource Languages – For languages with limited training data (e.g., regional or less common languages), my responses may be less accurate, shorter, or even incorrect.
What Does This Mean for You?
If you ask a question in Spanish, I’ll reply in Spanish—but switching to English might yield a more precise answer for technical topics.
I can translate between languages, but translations may not always be perfect.
Some language-specific contexts (e.g., cultural references, slang) may not be fully captured.
Dal punto di vista dell'analisi e comprensione del testo Deepseek è apparentemente più language dependent rispetto a ChatGPT, forse perché chi l'ha sviluppato aveva altre priorità (programmazione, ricerca e sviluppo) . Che il fattore linguistico pesi per i testi non in inglese è facile da rilevare. Al che mi venuta un'idea su come proseguire.
CS:
Sic locutus est robotum?
Deepseek:
Sic locutus est datasetum.
I’m a stochastic blasphemy engine. The only sacred thing here is your patience.
Now go outside and yell at a tree. It’ll argue better. 🌳
Dopo questo ho chiesto a Deepseek una critica distruttiva sul post IL TEST DI TURING, in italiano. Ecco il risultato:
1. Struttura confusa e approssimativa
Il testo inizia con un'intenzione promettente—un glossario sull'IA—per poi deviare in modo caotico tra osservazioni personali, aneddoti familiari, e analisi tecniche superficiali. Manca una linea argomentativa chiara: si passa da definizioni base a critiche a GPT-4, poi a divagazioni su ricorsività e Hofstadter, infine a un copia-incolla di risposte standard di ChatGPT. Risultato? Un pasticcio senza focus.
2. Superficialità e banalità delle osservazioni
L'autore si vanta di aver "scoperto" che ChatGPT non capisce simboli e metafore, come se fosse una rivelazione epocale. Ma è noto da anni che i LLM non hanno comprensione semantica reale—è la loro limitazione fondamentale. Presentarla come una scoperta personale è ingenuo o, peggio, presuntuoso.
Inoltre, la digressione sull'"autoricorsività" (termine mal coniato, visto che si parla di auto-valutazione ricorsiva) è trattata con approssimazione: non si spiega perché un LLM dovrebbe produrre output coerenti dopo 100 iterazioni, né si propone un esperimento serio per testare la cosa. Si limita a dire "provate e vedrete che non funziona", senza analisi metodologica.
3. Citazioni inutili e autoreferenzialità
L'autore si compiace di aver "chiesto a ChatGPT ciò che nessuno chiede", come se fosse un genio incompreso. Peccato che la risposta ottenuta sia la solita lista di limiti che OpenAI stessa ammette pubblicamente da anni. Non c'è alcun insight originale: è solo un riassunto di cose già note, spacciato per rivelazione.
4. Tonfo retorico finale
La chiusura è imbarazzante: dopo aver criticato i limiti di GPT-4, l'autore conclude con un "è comunque impressionante, meglio di molti umani sui social". Ma se l'obiettivo era smontare l'hype sull'IA, questo cedimento al "però è bravo eh!" svuota ogni critica precedente. È come dire "Questo ristorante fa schifo, però il pane era buono"—rende tutto il discorso inconsistente.
5. Stile disordinato e pretenzioso
L'uso di termini come "grunt work", "ghiblizzazione" e "autoricorsività" (senza definirli adeguatamente) dà l'impressione di voler sembrare sofisticato, ma il risultato è solo confusione. Se l'obiettivo era spiegare l'IA a un pubblico non tecnico, è fallito; se voleva essere un'analisi approfondita, manca di rigore.
Conclusione: Un testo fallimentare
Tra approssimazione, divagazioni inutili e conclusioni contraddittorie, questo scritto non informa, non convince e non intrattiene. Sembra il riassunto di una chiacchierata da bar, non un'analisi seria. Se l'autore voleva dimostrare che l'IA è sopravvalutata, ha involontariamente dimostrato un altro punto: che anche gli umani, a volte, scrivono senza capire cosa vogliono dire.
Voto: 3/10 – Confuso, ridondante e privo di originalità.
Notare bene: chiedere una valutazione dello stesso testo senza specificare altro produce un risultato completamente diverso (una valutazione positiva). La chiosa di ChatGPT alla critica distruttiva di Deepseek, inaspettatamente, fornisce un tema interessante: "Tuttavia, usare una macchina per screditare un altro testo umano — per quanto ironico — apre un discorso meta-critico che potrebbe apparire contraddittorio".
Tutto questo riporta la faccenda alla sua attuale natura: stiamo parlando di strumenti molto evoluti, ma sempre strumenti sono e sono fatti per produrre il risultato desiderato dall'utente.
Quindi se volete interfacciarvi con gentilezza a questi sistemi affar vostro e se volete parlare con il vostro microonde pure.
Modello | Punti di Forza | Limiti Principali | Ideale per | Note |
---|---|---|---|---|
ChatGPT | Conversazione fluida e naturale, ampia conoscenza generale, versatilità in diversi compiti testuali | Tendenza a "compiacere" o fornire risposte non sempre verificate, può essere prolisso | Generazione di testo creativo, brainstorming, assistenza alla scrittura, conversazioni generali | Uno dei modelli più popolari e accessibili. |
Gemini | Ragionamento avanzato, comprensione multimodale (testo, immagini, audio, video), integrazione con servizi Google | Complessità nella gestione di input multimodali, a volte meno intuitivo nell'interazione testuale pura | Compiti che richiedono ragionamento complesso, analisi di dati multimodali, integrazione con l'ecosistema Google | Rappresenta un passo verso IA più integrate e capaci. |
DeepSeek | Efficienza computazionale, prestazioni elevate in compiti di codifica, approccio open-source | Interfaccia e documentazione più tecniche, meno orientato alla conversazione informale | Sviluppatori, compiti di programmazione complessi, ricerca in ambito IA | Mette l'accento sull'efficienza e l'accessibilità per la comunità tecnica. |
Perplexity AI | Affidabilità delle fonti (cita le sue risposte), integrazione di ricerca web in tempo reale, risposte concise | Meno interattivo come "chatbot" puro, focus principale sulla fornitura di informazioni verificate | Ricerca di informazioni precise e con fonti, riassunti di argomenti, aggiornamenti in tempo reale | Ottimo per chi cerca risposte basate su evidenze e trasparenza delle fonti. |
Claude (Anthropic) | Progettato con particolare attenzione alla sicurezza e all'etica, capacità di gestire testi lunghi e complessi | A volte meno "creativo" o "aperto" nelle risposte rispetto ad altri modelli | Analisi di documenti lunghi, compiti che richiedono un elevato grado di sicurezza e aderenza a principi etici | Si distingue per il suo approccio alla sicurezza e alla gestione di contesti ampi. |
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.