I link interrotti sono un problema che affligge periodicamente qualsiasi sito web: quando infatti editiamo periodicamente il nostro sito scrivendo contenuti, sistemando diversamente la struttura dei link interni e cosଠvia, i link che funzionano oggi possono, in teoria, non funzionare più domani. Se ad esempio linko una fonte da un altro sito, l’altro sito è in genere indipendente da me e potrebbe, tra qualche tempo, cambiare l’URL senza redirezionarlo, modificare l’URL per vari motivi oppure, ancora, cancellare la pagina.
Questo porta a linkare pagine di errore che, di fatto, possono produrre vari problemi:
- lato UX un’esperienza non esaltante o un fastidio per gli utenti che ci visitano, che potrebbero sempre cliccare su quei link ed arrivare a pagina non consistenti;
- lato SEO un problema per Google che, un giorno, potrebbe scansionare quella pagina e rilevare un link non consistente.
Per risolvere il problema, uno dovrebbe prendere i link che portano a pagine di errore o 404 uno per uno, editarli manualmente e ripetere l’operazione per evitare che il problema si ripercuota a livello globale nel nostro sito web. Le opzioni che vedremo di seguito sono quelle che uso più spesso nelle mie attività , e che in genere effettuo – salvi casi eccezionali – almeno una volta al mese per ogni sito che mi trovo a gestire.
Plugin WordPress (Broken Link Checker)
Per WordPress Broken Link Checker è un vero e proprio must: permette di tracciare i link rotti, e vi offre anche un’interfaccia molto comoda per correggere gli errori anche in modo massivo (cioè per gruppi di link ad una volta). àˆ un ottimo strumento, ma deve essere usato nel modo corretto: il plugin richiede una discreta quantità di risorse proprio perchè deve scansionare tutto il sito, con l’opzione cosiddetta Atomica, che in pratica fa ripartire da zero la scansione ogni volta.
Ma questo plugin esegue la scansione periodicamente, prendendosi una parte delle risorse di CPU e RAM del sito ed il tutto, ovviamente, mentre i vostri visitatori continueranno ad arrivare nel sito. Quindi se fate una scansione del genere, come prima cosa, è opportuno fermare le campagne Google Ads o Facebook Ads eventualmente in corso: il problema è che il sito, durante la scansione potrebbe andare in down.
Quando andate nelle impostazioni in genere lo imposto come segue, per avere massima efficienza e minimo impatto nel sito:
- Controlla i link: ogni 168 ore
- Notifiche email: disabilitate (rischiano di diventare troppe)
- Link tweaks: abilitate solo il primo (Applica formattazione personalizzata ai link rotti)
- Suggerimenti: suggerisci alternative abilitato
- Avvisi: abilitato
- Salvate le modifiche in questa prima pagina!
Poi nella casella Cerca link in, selezionate solo i tipi che vi interessano per evitare sovraccarico, quindi Articoli, Pagine e Commenti, e poi eventualmente altri tipi dove potrebbero esserci errori 404 o link rotti. Come Stati articolo selezionate solo Pubblicato. Quali link controllare stesso discorso: selezionate solo quello che serve, non mettete troppa roba in mezzo perchè il vostro sito potrebbe andare gi๠durante la scansione, diversamente.
Nel pannellino Avanzate c’è la parte importante per non fare crashare il plugin:
- Timeout: almeno 30 secondi (45 su server meno potenti o hosting condivisi)
- Monitoraggio link: entrambe le opzioni spuntate, in caso di hosting condivisi molto economici deselezionate Funzionamento in background ogni oraÂ
- Tempo massimo di esecuzione: 420 secondi
- Limite server load: 2.0 secondi (deve essere leggermente superiore al valore indicato vicino a In caricamento)
- Utilizzo risorse destinazione: 1% (in genere va sempre bene cosà¬: è più lenta la rilevazione ma almeno non darà fastidio al sito nel suo ordinario funzionamento)
In caso valutate di fare le scansione per rilevare e correggere gli errori 404 soltanto in determinati orari, ad esempio di notte o solo mentre il sito è in manutenzione.
Screaming Frog
Un software must per qualsiasi SEO: un crawler autonomo che nella versione free scansiona fino a 500 URL alla volta per ogni sito, e che permette di raccogliere i link scansionati per gruppi (codice 404, 500, e cosଠvia). Se raggruppate tutte le pagine 404, di fatto, andrete a filtrare in automatico tutti gli URL rotti presenti nel vostro sito, con l’indicazione della pagina che la contiene.
Per le attività SEO professionali su siti grossi serve quasi sempre la versione a pagamento. Lo strumenti è in grado di rilevare, anche qui, i link corrotti in tempo reale, anche se non fornisce suggerimenti su come risolvere: dovrete essere sempre voi a sistemare le cose nel migliore dei modi, in base ad un vostro criterio decisionale.
Google Search Console
Anche dentro la Search Console di Google c’è una sezione per rilevare i link rotti nel vostro sito, ovviamente quelli che ha “visto” Google durante le sue scansioni. Basta entrare nella proprietà del sito, andare su Copertura, e cliccare sul pannellino Errore che apparirà di colore rosso. L’istogramma in basso mostrerà quanti e quali errori 404 ci sono: ma il grafico sembra comunque frutto di valutazioni interne che fa Google, per cui “secondo lui” ci sono errori ma sull’effettiva gravità c’è sempre bisogno del parere di un tecnico SEO esperto.
Attenzione, pertanto, che non sono tutti errori gravi allo stesso modo, tant’è che a volte Google SC mostra dei 404 soft che sono diversi da quelli 404 hard, la differenza tra i due sta nel fatto che i primi sono stimati come possibili 404, mentre i 404 hard sono quasi certamente da correggere.
Nella schermata in basso, gli errori dovuto a link rotti sono legati generalmente alla riga corrispondente al codice 404, non ad altri errori (che dipendono dal server e possono, invece, essere di natura temporanea).
Se c’è un soft 404 va vagliato in modo critico: nella metà dei casi di mia conoscenza, può essere un errore accidentale e di poco conto.
Se l’URL contiene un tag noindex e viene rilevato, è possibile che Google ci sia arrivato accidentalmente (es. via sitemap XML male impostata, ma anche mediante backlink esterni non controllabili).
Se c’è un errore 5xx, è quasi certamente un errore 500.
Se infine c’è un problema di scansione, può dipendere da robots.txt male impostato, visibilità del sito a livello <meta> non corretta e via dicendo (sono problemi tipici di molti siti sui quali non è mai stata fatta SEO, in genere).
👇 Contenuti da non perdere 👇
- Gratis 🎉
- Informatica 🖥
- intelligenza artificiale 👁
- Marketing & SEO 🌪
- Programmare 🖥
- Scrivere 🖋
- 💬 Il nostro canale Telegram: iscriviti
- 🔴 Teoria dei giochi per principianti (GUIDA)
- 🔵 Come ottenere un certificato HTTPS / SSL (anche gratis) per un dominio
- 🔵 Perchè gli hacker amano pastebin