Blog Details

L’evoluzione dei modelli linguistici: dai LLM ai LCM, tra concetti e filosofia

Negli ultimi anni l’intelligenza artificiale ha fatto passi da gigante nel comprendere e generare linguaggio naturale. I Large Language Models (LLM) – come GPT o altri modelli di grandi dimensioni – sono in grado di produrre testi convincenti e sostenere conversazioni.

Tuttavia, questi sistemi si basano essenzialmente sulla previsione statistica delle parole successive in una frase, senza avere una vera comprensione concettuale di ciò che viene detto

Oggi, però, si profila una nuova generazione di modelli: i Language (o Large) Concept Models (LCM), che puntano a superare i limiti degli LLM, introducendo una rappresentazione del linguaggio basata su concetti e significati di livello più alto. 

 

Dai LLM ai LCM: dai token ai concetti

Gli LLM tradizionali elaborano il linguaggio frammentandolo in token (parole o frammenti di parole) e imparando dalle probabilità di successione di questi token. In pratica, quando scriviamo una frase con un assistente virtuale, il modello sta scegliendo la parola successiva in base a ciò che ha “visto” più spesso nei suoi enormi dati di addestramento. Questo approccio ha prodotto risultati straordinari, ma presenta anche limiti: un LLM potrebbe generare frasi grammaticalmente corrette ma prive di vero senso, perché non ragiona sui concetti sottostanti ma solo sulla forma linguistica.

I nuovi Large Concept Models (LCM) propongono un cambio di paradigma. Invece di concentrarsi sul prossimo token, un LCM cerca di prevedere il prossimo concetto o idea completa. Tecnicamente, significa operare non nello spazio delle parole singole, ma in uno spazio di embedding di frasi o concetti. In altre parole, l’LCM “vede” il linguaggio a un livello più astratto, trattando un’intera frase o proposizione come un’unità di significato​.

Ad esempio, se un LLM tradizionale deve completare la frase “il gatto inseguì…”, proporrà il token successivo (“...il topo”) basandosi su probabilità. Un LCM invece elaborerebbe il concetto completo di quella frase e cercherebbe di proseguire con un altro concetto coerente, ad esempio una frase che descrive cosa accade dopo, mantenendo il filo logico.

Questa differenza di approccio è ispirata direttamente al modo in cui gli esseri umani pensano e comunicano. Noi non creiamo frasi pensando lettera per lettera o parola per parola: di solito formuliamo prima l’idea generale (il concetto che vogliamo esprimere) e poi la traduciamo in parole. I LCM provano a imitare questo processo, permettendo al modello di lavorare con significati più ampi.

 

Vantaggi di un modello a concetti

Quali benefici porta questo salto dai token ai concetti? Prima di tutto, una maggiore comprensione del contesto e del significato. Operando con frasi intere, l’LCM può cogliere le relazioni logiche e semantiche tra le parti di un testo meglio di quanto faccia un LLM tradizionale che procede parola per parola. Ciò favorisce un ragionamento più astratto e gerarchico, simile alla capacità umana di sintetizzare idee complesse​.

Un altro vantaggio pratico è la gestione di contenuti molto lunghi: dove un LLM fatica a mantenere coerenza su lunghi paragrafi, un LCM che maneggia concetti più estesi può riassumere o continuare testi articolati con più efficacia​. Inoltre, lavorando a livello concettuale un modello può essere multilingue e multi-modale più facilmente: lo stesso concetto può derivare da una frase scritta o da una clip audio di parlato, permettendo all’AI di passare dalla voce al testo con comprensione unificata​.

 

Concetti: i mattoni fondamentali del significato

Sin da bambini, apprendiamo che dietro le parole ci sono i concetti. La parola “gatto” evoca in noi l’idea di un animale specifico, con certe caratteristiche; la frase “il gatto insegue il topo” ci trasmette un’immagine e un rapporto causale. Nella mente umana, il significato nasce collegando concetti tra loro: costruiamo reti semantiche, categorizziamo, generalizziamo principi. In pratica, i concetti sono i mattoni con cui costruiamo la conoscenza e comprendiamo la realtà. Senza concetti chiari e strutturati, il linguaggio diventa solo un flusso di suoni o segni senza sostanza.

Un modello di AI veramente intelligente deve quindi fare qualcosa di simile: sviluppare una rappresentazione interna di concetti e relazioni, non limitarsi a “sfogliare il dizionario” parola per parola. È un tema su cui filosofi e scienziati cognitivi insistono da tempo. 

Ad esempio, già Platone rifletteva sulle “idee” (i concetti universali) come realtà più autentiche delle parole particolari; Wittgenstein, in epoca moderna, sottolineava che il significato di un termine dipende dagli usi e dal contesto – quindi dalla rete concettuale in cui è inserito. Per un’IA, avere una struttura di concetti significa poter generalizzare meglio: se capisce il concetto di “animale domestico” potrà dedurre informazioni su cani e gatti anche senza averle memorizzate esplicitamente tutte, perché sa collocare questi elementi in un quadro concettuale più ampio.

Un LLM conosce milioni di frasi, ma non necessariamente sa che “gatto” è un tipo di “animale” o che “inseguire” implica un’azione con uno scopo. Un LCM, idealmente, incorpora queste relazioni: nel suo spazio di rappresentazione, il concetto di “gatto” sarà vicino a quello di “animale” e a quello di “domestico”; il concetto di “inseguimento” sarà legato a idee di movimento, obiettivo, interazione tra due entità. In pratica, l’AI costruisce una mappa mentale dove i concetti (nodi) sono collegati da relazioni (archi), molto simile a quelle mappe concettuali che usiamo anche in ambito educativo per visualizzare le conoscenze.

Questa strutturazione non serve solo per “bellezza teorica”, ma è fondamentale per il significato: se cambiamo la struttura, cambia il significato. Ad esempio, pensiamo ai concetti in una frase ambigua: “Il visconte dimezzato è un romanzo divertente”. Il termine “divertente” può significare “buffo/comico” oppure “piacevole”. Solo sapendo che Il visconte dimezzato è un’opera letteraria di Calvino (e non uno scherzo) capiamo che “divertente” qui significa “piacevole da leggere, leggero e arguto”. Questa disambiguazione avviene perché collochiamo i concetti nella struttura giusta: romanzoopera letteraria, divertente riferito a un libro → intrattenente, e non divertente come sinonimo di comico in senso stretto. 

Un modello AI con forte consapevolezza concettuale potrebbe fare lo stesso tipo di inferenza, evitando fraintendimenti che un semplice modello statistico potrebbe commettere.

I concetti fungono da ponte tra il linguaggio e la realtà: sono le astrazioni che danno senso alle parole. Riconoscere l’importanza dei concetti nel modellare il significato ha implicazioni non solo per gli algoritmi, ma anche per come educhiamo sia gli umani che le macchine

E qui entra in gioco il secondo punto: le metodologie educative basate sui concetti.

 

Apprendimento basato sui concetti: dall’aula all’AI

Nel campo dell’educazione umana si parla da tempo di “apprendimento basato sui concetti” (Concept based learning). Gli insegnanti sanno che imparare solo fatti e nozioni a memoria non basta: per una comprensione profonda, gli studenti devono afferrare i concetti chiave e i principi che uniscono quelle nozioni. Ad esempio, in storia non basta ricordare date e nomi, bisogna capire concetti come “causa ed effetto” o “rivoluzione”; in scienza non serve solo la formula, conta comprendere il concetto di “energia” o “massa” e come si relazionano. Questo approccio concettuale rende l’apprendimento più significativo e trasferibile: una volta compreso un concetto, lo studente può applicarlo in contesti diversi e risolvere problemi nuovi, anziché limitarsi a ripetere ciò che ha studiato a lezione.

Studi pedagogici confermano che insegnare attraverso concetti promuove un pensiero critico e creativo. Concentrarsi su concetti e competenze trasferibili – piuttosto che su nozioni isolate – favorisce l’analisi, i collegamenti interdisciplinari e la capacità di risolvere problemi in autonomia​. In pratica, l’apprendimento guidato dai concetti permette allo studente di applicare le conoscenze in contesti diversi, garantendo che ciò che impara abbia rilevanza pratica e non resti confinato al libro di testo​. Focalizzandosi sulle idee generali, si ottiene una comprensione olistica delle materie di studio, perché lo studente vede le interconnessioni tra i vari argomenti invece di percepirli come frammenti scollegati​.

 

Cosa c’entra tutto ciò con l’intelligenza artificiale

In fondo, addestrare un modello di AI non è così diverso dal formare uno studente, almeno in termini generali. Se all’AI presentiamo solo enormi quantità di dati (l’equivalente di tanti “fatti” o esempi) senza una struttura, rischiamo di ottenere un sistema che “rigurgita” output senza reale comprensione – proprio come uno studente che studia a memoria ma non ha capito davvero la lezione. Applicare un modello concettuale nell’addestramento AI significa cercare di insegnare al modello le idee di fondo, le connessioni logiche, quasi fossero competenze e non solo informazioni.

Nei LCM l’uso di frasi intere come unità di apprendimento impone già al modello una sorta di astrazione: è come assegnare allo studente temi interi da comprendere, anziché singole parole di vocabolario. Si potrebbe immaginare in futuro di affiancare al training statistico anche un training più guidato, dove l’AI viene aiutata a costruire mappe concettuali delle conoscenze (ci sono già ricerche sull’integrazione di knowledge graph e modelli neurali, che vanno in questa direzione). Una metodologia “educativa” per l’AI potrebbe prevedere, per esempio, momenti in cui il modello deve spiegare a sé stesso un concetto (una sorta di insegnamento socratico interno) o confrontare informazioni per dedurne un principio generale. 

 

Filosofia e linguaggio: il contributo al pensiero (umano e artificiale)

La filosofia svolge un ruolo fondamentale nello sviluppo sia del pensiero umano sia di quello artificiale. Non a caso, c’è chi sostiene che “la filosofia sta divorando l’IA”: per fare ulteriori progressi nell’intelligenza artificiale dovremo necessariamente affrontare questioni filosofiche di fondo​. 

Chiedersi “qual è lo scopo ultimo che vogliamo che un modello persegua?  che cosa consideriamo conoscenza valida all’interno di un sistema AI? come rappresentiamo la realtà e i concetti nel modello? sono prospettive che influenzano concretamente il design delle AI. 

Immaginiamo di progettare un assistente medico AI: la filosofia può aiutarci a definire cosa deve raggiungere (ad esempio il benessere del paziente – teleologia), quali dati o evidenze considerare conoscenza affidabile (epistemologia) e come strutturare le informazioni sulle malattie e cure in concetti che riflettano la realtà medica (ontologia). Senza una riflessione profonda su questi aspetti, rischiamo di costruire sistemi potenti ma fragili nei fondamenti.

Non solo. La filosofia è fondamentale per guidarci verso una integrazione equilibrata tra intelligenza umana e artificiale. Invece di vedere l’IA come un concorrente dell’uomo, possiamo vederla come un complemento e un amplificatore delle nostre capacità cognitive. Molti progetti oggi puntano proprio sulla collaborazione “uomo+macchina”. 

Non a caso, nel mondo del lavoro e dell’impresa si parla di “intelligenza aumentata” più che di intelligenza artificiale pura: l’idea è che i sistemi AI affianchino gli esseri umani, prendendosi carico di compiti ripetitivi o analisi su big data, mentre l’umano fornisce creatività, senso critico ed etica. Osservando le applicazioni concrete, vediamo che la direzione è integrare, non sostituire​. Ad esempio, nei moderni sistemi diagnostici medici l’AI aiuta il medico segnalando anomalie in radiografie o suggerendo possibili diagnosi, ma poi è il medico umano a validare e decidere il da farsi, combinando quei suggerimenti con la sua esperienza e la comprensione del paziente come persona.

Certo, questa integrazione pone sfide. Richiede da parte nostra la capacità di dialogare con le macchine in modo efficace, e dalle AI la capacità di adattarsi al modo umano di pensare. Se i modelli diventano più concettuali, sarà più facile interfacciarci con essi, perché parleranno (metaforicamente) un linguaggio più vicino al nostro. 

Immaginiamo un futuro in cui un assistente AI possa davvero capire i nostri obiettivi e ragionare con noi su un problema complesso: sarebbe come avere un collega instancabile che però conosce bene il nostro contesto concettuale e i nostri valori. Per arrivarci, dobbiamo infondere nell’AI non solo dati, ma anche un po’ della ricchezza cognitiva umana

E qui attenzione: c’è anche chi mette in guardia sul rischio opposto, ossia che siamo noi umani ad adeguarci alle macchine in modo eccessivo: dobbiamo progettare AI che si elevino verso la complessità umana, piuttosto che lasciare che siano gli umani ad appiattire il proprio pensiero su schemi di macchina. Ed è proprio qui che filosofia e educazione giocano un ruolo chiave, mantenendo alta l’asticella dei concetti e dei significati a cui vogliamo che le AI si conformino.

Stiamo assistendo a un incontro tra due intelligenze: quella umana, ricca di concetti, creatività e introspezione, e quella artificiale, rapidissima nel calcolo e nell’apprendere schemi dai dati. L’obiettivo futuro potrebbe essere una sorta di simbiosi: modelli di AI che integrano strutture concettuali e valori umani, e umani che grazie alle AI ampliano le proprie capacità senza perdere in significato e profondità di pensiero. Per il pubblico non tecnico ma curioso, queste evoluzioni suggeriscono che l’IA di domani non sarà solo una questione di chip e codice, ma anche di idee, concetti e filosofia. In fondo, insegnare a pensare a una macchina ci costringe a riflettere su come pensiamo noi – ed è un viaggio affascinante tanto quanto quello tecnologico.

Registrati, è gratis!

Registrati gratis alla piattaforma e ricevi la newsletter settimanale con il Meteo innovazione e le ultime novità dal blog, le playlist, gli articoli, i tool.

Articoli correlati

Image
Icons

L’evoluzione dal dato alla saggezza: il framework DIKUW

Negli ultimi anni, le organizzazioni hanno spostato il proprio focus dalla semplice raccolta di quantità massicce di dati (Big Data) verso l’analis ...

Leggi tutto
Image
Icons

Il Modello ADKAR: una bussola per la gestione del cambiamento

Il cambiamento è una costante per le organizzazioni moderne. Che si tratti di implementare nuove tecnologie, ottimizzare processi o affrontare trasformaz ...

Leggi tutto
Image
Icons

Integrare potere e amore per una trasformazione sostenibile: la visione di Adam Kahane

Nel panorama odierno, caratterizzato da sfide sempre più complesse e interconnesse, la collaborazione fra diversi attori è cruciale.  Tuttav ...

Leggi tutto