Che cosa sono la crawlability e l’indexability di un sito web?
Crawlability e Indexability sono termini che non sono molto in auge e probabilmente starai storcendo il naso perchè non li avrai mai sentiti. In realtà, chi tratta di SEO in ambito di scrittura online, dovrebbe avere molta familiarità anche con tale terminologia, poichè esprime un concetto importante, in ambito dell’analisi e indicizzazione dei siti web.
Per poter avere una corretta indicizzazione (Indexability) è necessario che diversi parametri vengano adeguatamente soddisfatti. Il primo fra tutti riguarda il sito stesso, il quale deve lasciar modo al motore di ricerca di scandagliare il contenuto e salvare l’analisi svolta dalla Crawlability.
Crawlability e Indexability: sveliamo il mistero
Crawlability e Indexability sono espressioni che hanno a che fare con la lettura dei siti web da parte dei motori di ricerca. Una volta che sai come questi agiscono, troverai intuitivo cogliere il vero significato e l’importanza dei concetti espressi.
Crawlability deriva da crawler (detto anche spider), ovvero quello strumento in uso ai motori di ricerca utile per verificare dove portano i collegamenti presenti all’interno di una pagina web. In termine tecnico, il web crawler viene definito bot. Esso è sempre attivo e in automatico passa in rassegna le pagine nuove della rete oppure quelle in aggiornamento, con lo scopo di seguire i link (presenti ad esempio nei Guest Post oppure in normali pagine web).
La finalità dell’attività di Crawlability consiste nella scoperta di nuovi contenuti, rendendoli successivamente pronti all’indicizzazione, definita appunto Indexability.
Il ruolo del bot (crawler) è del tutto sostitutivo al tuo. Infatti esso replica quello che con molta probabilità fai pure tu quando stai leggendo un testo in cui trovi un link: ci clicchi sopra e attendi l’apertura della pagina. Il crawler svolge lo stesso lavoro, verificando i contenuti e i link, per poi archiviarli e aggiornare il database interno del motore di ricerca.
Crawlability e Indexability fanno espresso riferimento all’abilità di un search engine di scovare nuove pagine e accederci, con lo scopo di poter determinare un’indicizzazione, arricchendo e completando la banca dati interna. Questo servirà per fare in modo che quando un utente digiterà una richiesta nell’apposito campo di un motore di ricerca, i risultati siano più pertinenti e veloci.
– Crawlability: indica le capacità possedute dal crawler di un motore di ricerca di riuscire ad accedere ad una web page e analizzare i contenuti in essa presenti. In caso di problemi particolari l’operazione non potrà essere completata, ma in caso contrario gil spider potranno essere operativi, scansionare l’intero testo e seguire in modo preciso tutti i collegamenti presenti.
– Indexability: fa espresso riferimento alle capacità del motore di ricerca di svolgere un’analisi delle informazioni ricevute e aggiornare l’indice interno. Va precisato che la Indexibility non è così scontata dopo il lavoro svolto dalla Crawlability. Un sito, infatti, può essere scansionato regolarmente dai crawler, ma potrebbe incontrare problemi di indicizzazione.
Alla scoperta dei problemi di Crawlability e Indexability
Lo spider ha eseguito la scansione del sito, ne ricava una versioni in HTML e la archivia all’inteno dell’index, ossia del database del motore di ricerca. L’index viene aggiornato ogni volta che viene trovato un aggiornamento alla pagina web relativa. Tutto avviene in automatico.
Come accennato le due operazioni non per forza devono andare di seguito l’una all’altra. Crawlability e Indexability possono incontrare delle problematiche che non ne permettono il completamento. Vediamo quali.
– Struttura sito: se la Crawlability agisce sulla capacità di scansionare un sito, la struttura ricopre un importante ruolo. Ti serve un’architettura forte, un template chiaro e organizzato per facilitare il compito del bot.
– Link: i link sono i principali elementi che vengono analizzati dai crawler. Se sono corretti, aggiornati e ben organizzati, tutto risulterà più semplice. A volte capita di aggiornare una pagina web, dimenticandosi di aggiornare i vari link sparsi nei contenuti affini. In questo caso il crawler non completerà il proprio lavoro e tu perderai una valutazione (magari molto buona) delle tue pagine, le quali verranno penalizzate in fase di indicizzazione. L’errore più comune riguarda l’inserimento di un link che conduce ad una pagina inesistente perchè rimossa, cambiata, non più valida, oppure che rimanda ad un contenuto datato. Talvolta capita di cliccare su link che aprono pagine bianche oppure contenuti di almeno 5-6 anni fa, la cui valenza oggi è praticamente nulla.
– Problemi tecnici: continui refresh della pagina, problemi al server oppure la presenza di particolari script che presentano incompatibilità, fanno sì che l’iter di analisi non venga completato. Possono poi nascere anche ulteriori problemi di carattere tecnico che rallentano il sito o che ne impediscono la corretta visualizzazione.
– Blocco volontario: è possibile bloccare volontariamente l’accesso ai crawler, qualora non desiderassi che questi analizzassero la tua pagina web. Puoi avere diversi motivi per farlo, tutti validi, ma ricorda di non sbagliare, perchè erroneamente potresti estendere il blocco anche ad altri contenuti presenti, penalizzando, di fatto, l’intero sito.