Nel 2003, un gruppo di studenti di Stanford fondò Kaltix, una startup nata per risolvere un problema enorme: rendere il PageRank di Google più veloce e personalizzabile.
Tra le loro innovazioni c’erano tre idee fondamentali:
-
Quadratic Extrapolation
👉 PDF
Un metodo per accelerare la convergenza del Power Method, la base matematica del PageRank originale. In pratica, correggeva periodicamente le iterazioni sottraendo componenti indesiderate, ottenendo fino al 300% di velocità in più su grafi con decine di milioni di nodi. -
Adaptive PageRank
👉 PDF
L’intuizione qui era semplice ma geniale: non tutte le pagine web si stabilizzano alla stessa velocità. Quindi, smetti di aggiornare quelle già convergenti e concentra le risorse solo su quelle che cambiano ancora. Risultato? Circa 30% di calcolo in meno. -
BlockRank
👉 PDF
Il capolavoro finale: suddividere il web in blocchi locali (cluster di siti interconnessi), calcolare il PageRank internamente a ciascun blocco, e poi combinare i risultati in un PageRank globale.
Questa idea sfruttava la struttura a blocchi del Web per ridurre drasticamente i costi di calcolo, teoricamente fino a 1000× più veloce in scenari personalizzati.
Nel settembre 2003, Google acquisì Kaltix, e poche settimane dopo a novembre arrivò il famigerato “Florida Update”, che rivoluzionò il ranking dei risultati. È molto probabile che alcune delle idee di Kaltix siano confluite in quell’aggiornamento.
Curiosità: su Wikipedia, per anni, un semplice errore di battitura ha oscurato tutto questo. Nella voce dedicata a Kaltix compariva infatti “BlackRock” invece di “BlockRank”. Solo di recente qualcuno ha notato l’errore.
👉 Wikipedia: Kaltix
Come funzionava BlockRank (2003)
Il PageRank tradizionale tratta l’intero web come un’unica grande matrice di link — immensa e costosa da calcolare.
BlockRank invece divide il grafo in sottoinsiemi (blocchi), calcola un PageRank locale per ogni blocco e poi “integra” i risultati in un ranking globale.
In altre parole, si passa da un problema monolitico O(n²) a una serie di problemi locali più piccoli, che possono essere calcolati in parallelo o aggiornati in modo indipendente.
È la stessa filosofia che oggi guida architetture distribuite e modelli AI modulari.
Riassumendo
| Tecnica | Cosa fa | Velocità guadagnata |
|---|---|---|
| Quadratic Extrapolation | Accelera la convergenza del metodo delle potenze | +50–300% |
| Adaptive PageRank | Sospende i calcoli sulle pagine già stabili | +30% |
| BlockRank | Divide il web in blocchi e calcola PR locali | fino a 1000× (teorico) |
2025: ritorna “BlockRank”, ma con un significato tutto nuovo
Saltiamo a oggi. Nel 2025 è uscito un paper su arXiv intitolato “BlockRank: Scalable In-Context Ranking with Generative Models”, che puoi leggere qui:👉 PDF
E no, non è lo stesso BlockRank di Kaltix ma l’idea di fondo è sorprendentemente affine.
Nel nuovo contesto, “BlockRank” indica una tecnica per re-ranking in-context con LLM (modelli generativi come Mistral o GPT).
Invece di partizionare il web, qui si partiziona l’attenzione del modello: i documenti vengono organizzati in “blocchi”, ognuno con la propria attenzione locale, e solo il blocco della query può accedere al contesto globale.
Il risultato?
Una riduzione della complessità da quadratica a quasi lineare, con un’inferenza fino a 4,7× più veloce su dataset come MS MARCO e BEIR, mantenendo prestazioni di livello SOTA.
Vecchio vs. Nuovo BlockRank
| Aspetto | BlockRank 2003 (Kaltix) | BlockRank 2025 (LLM) |
|---|---|---|
| Dominio | Web graph / PageRank | LLM / In-Context Ranking |
| Obiettivo | Calcolare autorità più velocemente | Ridurre costo dell’attenzione in ranking generativo |
| Struttura a blocchi | Cluster di pagine web | Gruppi di documenti nel contesto |
| Tipo di calcolo | Metodo delle potenze (autovettori) | Attenzione strutturata nei Transformer |
| Accelerazione | 2×–1000× (secondo scala) | 4.7× in inferenza |
| Output | Vettore PageRank globale | Lista di documenti ordinati per rilevanza |
Perché è interessante
È quasi poetico:
due epoche, due tecnologie completamente diverse Web Search nel 2003 e Generative AI nel 2025 ma la stessa intuizione di fondo:
ridurre la complessità dividendo il problema in blocchi locali intelligenti.
Nel 2003, serviva a rendere il web “crawlabile” e personalizzato.
Nel 2025, serve a rendere i modelli linguistici “scalabili” e più efficienti.
BlockRank è passato dall’essere un algoritmo di grafi a un concetto architetturale.E forse è proprio questo il suo lascito più grande.
Su www.deepseo.it approfondiamo tutti questi aspetti!
