Google ha deciso di scaricare meno dati dai siti web, abbassando drasticamente il limite di scansione di Googlebot e facendolo passare dai “vecchi†15 megabyte a soli 2 megabyte per singola risorsa.
Non pensare sia solo una notizia tecnica, perché stabilisce un nuovo confine tra ciò che Google elabora e ciò che decide di ignorare: se la tua pagina o i file necessari al suo funzionamento superano questa soglia, il crawler interrompe il download e invia all’indicizzazione solo la porzione iniziale del contenuto. In termini operativi, se le informazioni più importanti per il tuo business, i dati che spiegano chi sei o addirittura i link interni si trovano in fondo a un codice troppo pesante, per i sistemi di ricerca non esistono.
La modifica colpisce l’86,7% della capacità di download precedente e non riguarda il peso del file trasferito, ma il suo volume reale una volta decompresso. Devi quindi prestare attenzione alla “tagliola del non compresso”: un bundle javascript che pesa 800 kilobyte in formato compresso (come gzip o brotli) può esplodere oltre i 2,5 megabyte nel momento in cui Googlebot lo apre per processarlo. L’unica eccezione concessa riguarda i documenti pdf, che mantengono un limite di 64 megabyte, a conferma del fatto che Google considera ancora i file statici come fonti di informazione densa.
La manovra è stata interpretata come risposta diretta ai costi enormi dell’intelligenza artificiale, che stanno comprimendo i margini di Mountain View. Come notato da vari analisti internazionali, far girare i modelli linguistici e le nuove funzioni di risposta automatica come AI Overview e AI Mode richiede costi di calcolo enormi, di molto superiori a quelli di una ricerca tradizionale. E Google ha deciso di scaricare sui publisher – e su chiunque abbia un sito, anche te – l’onere di ripulire il codice per contenere i costi infrastrutturali.
Il punto è che devi accettare questa imposizione forzata perché la posizione di Google è di totale dominio. I dati di Cloudflare indicano che Googlebot scansiona il web con una frequenza quasi cinque volte superiore a quella di Bing e 3,2 volte più di OpenAI. Tradotto, non puoi permetterti di bloccare il crawler per protesta senza rischiare l’invisibilità totale.
Ma c’è anche un’altra chiave di lettura, proposta dal nostro CEO Ivano Di Biasi in aggiunta alla spiegazione economica: la “dieta” serve ad alimentare i sistemi di retrieval-augmented generation (RAG) con dati più puliti e pronti da essere compresi con minor margine di errore. Le pagine web moderne, infatti, sono spesso sature di rumore tecnico, tra commenti inutili e istruzioni ridondanti che non offrono alcun valore. I sistemi di intelligenza artificiale hanno però bisogno di precisione e rapidità per citare le fonti. Obbligarti a restare entro i 2 megabyte significa spingerti a consegnare a Google – e alle AI che si affidano al suo Indice – un segnale pulito e immediatamente digeribile, senza inutili interferenze.
Per evitare che i tuoi contenuti vengano ignorati, devi imparare a monitorare il peso reale delle tue risorse utilizzando strumenti tecnici precisi:
- Chrome DevTools: nella tab “Network”, osserva la colonna “Size”. Il valore che conta è quello della risorsa decompressa (il numero più grande riportato in basso nella cella).
- Screaming Frog: ordina la colonna “Size” per individuare immediatamente le pagine o i file che superano la soglia dei 2MB in tutto il sito.
- Google PageSpeed Insights: controlla la voce “Evita carichi utili di rete eccessivi” per identificare le risorse che appesantiscono inutilmente il crawl budget.
La tua azione deve concentrarsi sull’architettura del file: sposta i dati strutturati json-ld e il contenuto testuale principale nella parte alta del codice sorgente, assicurandoti che siano elaborati entro i primi 500 kilobyte di codice non compresso. Devi atomizzare i file javascript e css attraverso il code splitting, distribuendo le funzionalità su più risorse leggere invece di un unico pacchetto ingombrante che rischierebbe il troncamento. Elimina i commenti degli sviluppatori e i metadati superflui.
Se fino a ieri alleggerire il codice era un’opzione tecnica per rendere il sito più veloce per l’utente e per i parametri di PageSpeed, oggi è una questione di sopravvivenza nell’indice di Google – se il tuo codice è troppo pesante rischi che Googlebot smetta di leggere la pagina a metà .
Fonte: Search Engine Land