Dal 15 gennaio Google ha introdotto un requisito per limitare lo scraping delle sue SERP: l'attivazione di JavaScript per accedere al suo motore di ricerca. Se questa decisione è stata spiegata come un miglioramento dei servizi per gli utenti, le sue conseguenze vanno ben oltre, colpendo direttamente gli strumenti SEO e i LLM come OpenAI.
Da ricordare:
- Google vuole imporre l'attivazione di JavaScript per accedere al suo motore di ricerca, impattando gli strumenti SEO e i LLM.
- Questa misura mira a rafforzare la protezione contro lo scraping, lo spam e gli abusi.
- Gli strumenti SEO devono adattarsi, in particolare tramite browser headless, ma ciò potrebbe aumentare i costi e ridurre la velocità.
- La comunità SEO francese ha rapidamente trovato soluzioni grazie alla reciproca assistenza

Gli obiettivi dichiarati di Google
Secondo un portavoce di Google intervistato da TechCrunch, la nuova necessità di attivare JavaScript per accedere al suo motore di ricerca è motivata da:
- Proteggere i propri servizi dagli abusi, come lo scraping intensivo e lo spam.
- Offrire risultati di ricerca più personalizzati e aggiornati.
JavaScript consente infatti di limitare le richieste abusive grazie a tecniche come il limitazione delle richieste, e rafforza i meccanismi di controllo contro i bot. Questa misura però interessa un volume significativo di utenti: circa 8,5 miliardi di ricerche al giorno vengono attualmente effettuate senza JavaScript, secondo questo portavoce!
Gli strumenti SEO in difficoltà
Gli strumenti SEO, molti dei quali si basano sullo scraping delle pagine dei risultati per raccogliere dati essenziali, sono stati direttamente colpiti da questo cambiamento di Google, che li ha bloccati totalmente o parzialmente. Avevamo già comunicato la settimana scorsa su questa "interruzione degli strumenti SEO", quando l'impatto ha cominciato a farsi sentire, a seguito del post di Vincent Terrasi.
Adrian Delmarre, fondatore dello strumento Haloscan, ci ha riferito: "I cambiamenti di giovedì/venerdì ci hanno infine impattati in modo abbastanza moderato. Abbiamo perso circa il 50% della nostra capacità di scraping giovedì (preciso che ciò non ha in alcun modo alterato il funzionamento di Haloscan, che è rimasto disponibile e utilizzabile al 100% tutto il tempo). Siamo tornati a piena potenza venerdì a fine giornata. Senza costi aggiuntivi, in particolare grazie a un trucco condiviso da Paul Sanches.“
Un grande grazie
à @Seoblackout che, con un piccolo trucco
, ci ha permesso di ritrovare una velocità di scraping ottimale
senza alcun rallentamento!
Un grandissimo grazie!
— HaloScan (@haloscancom) 17 gennaio 2025
Grazie alla reattività e alla condivisione all'interno della community SEO francese
, e complimenti a Paul per aver trovato la soluzione ideale che ha aiutato numerosi strumenti.
“Google ha cambiato qualcosa. Succede spesso, ma di solito lo gestiamo senza che si veda», spiega Adrian, precisando però che non bisogna essere catastrofisti. «Non è la fine della SEO. Ci saranno altri cambiamenti. Ci adatteremo. È il principio della SEO, no?“
Se Google dichiara che è obbligatorio eseguire JavaScript per accedere alle sue SERP, secondo Adrian non è “ancora” necessario attivare JavaScript e quindi emulare un browser per tutte le richieste. Forse lo sarà in futuro.
Una misura soprattutto diretta contro i LLM?
Per diversi esperti, questa decisione di Google sembra mirare principalmente ai modelli linguistici come quelli sviluppati da OpenAI o Perplexity. In un webinar organizzato il 21 gennaio da Olivier Duffez, Fabien Faceries (MyRankingMetrics) e Vincent Terrasi (Draft’n’Goal)gli esperti hanno spiegato che i LLM recuperano i migliori contenuti da Google e li riutilizzano per rispondere alle richieste degli utenti. Questo crea un doppio problema: da un lato Google perde il controllo su questi dati e non beneficia direttamente del loro sfruttamento; dall’altro, questi strumenti rendono alcuni utenti meno dipendenti da Google.

Questa interpretazione è condivisa da Adrian Delmarre: "Forse Google non sta prendendo di mira gli strumenti SEO, ma i suoi concorrenti come i LLM. Se così fosse, sarebbe una buona notizia per noi, perché questi modelli si adattano rapidamente e dimostrano a Google che bloccarli è inutile.".
Conseguenze e soluzioni per i professionisti
Questi cambiamenti di Google colpiscono non solo gli scraper, ma anche strumenti di ottimizzazione semantica, tracciamento del posizionamento, redazione con IA o analisi della cannibalizzazione.
Le soluzioni ipotizzate per adattarsi a questa nuova realtà presentano però dei limiti:
- Utilizzo di JavaScript. Questo approccio richiede il rendering completo delle pagine, aumentando significativamente i costi tecnici per gli strumenti.
- Rafforzamento delle restrizioni da parte di Google. L'eventuale introduzione di trappole o di nuove regole anti-scraping potrebbe rendere queste soluzioni ancora più complesse e sempre più difficili da aggirare.
- Riduzione della velocità di esecuzione. Vincent Terrasi osserva che, allo stato attuale, gli strumenti non dovrebbero aumentare i loro costi nel breve termine. Tuttavia, la loro rapidità in tempo reale potrebbe essere compromessa, anche se ciò non è necessariamente critico per la SEO, dove l'immediatezza non è indispensabile.
Una comunità SEO solidale
La risposta della comunità SEO a questo sconvolgimento ha messo in luce una notevole capacità di adattamento e collaborazione (nonostante i drammi della SEO!). Il trucco condiviso da Paul Sanches, che ha permesso a diversi strumenti di aggirare rapidamente la limitazione legata a JavaScript, è un esempio significativo di questa solidarietà e, davvero, scalda il cuore.
Grazie anche a Olivier Duffez e Fabien Faceries per aver organizzato così rapidamente un webinar per fare il punto sulla situazione, sul contesto del malfunzionamento e sulle soluzioni trovate dagli strumenti SEO!
Vincent Terrasi invita gli SEO a sviluppare piani B, C, ecc., per essere in grado di incrociare i dati senza affidarsi a un unico strumento, per evitare di ritrovarsi senza metriche in caso di interruzione del servizio. Quando manca una sola persona, tutto sembra spopolato!
L'articolo "JavaScript obbligatorio: come Google complica il lavoro degli strumenti SEO e dei LLM" è stato pubblicato sul sito Abondance.

à
, ci ha permesso di ritrovare una velocità di scraping ottimale
senza alcun rallentamento! 
