MODULO 2 - Le regole dei motori di ricerca

Come seguire le regole dei Motori Ricerca?


Vediamo che cosa hai imparato nel Modulo precedente:

-come le persone fanno le ricerche e come troveranno il tuo sito web 

-quali sono le parole chiave corrette che porteranno soldi al tuo sito web 

-hai fatto un grande investimento per il tuo successo: una lista enorme di parole chiave targhettizzate per ottimizzare il tuo sito 
 
-hai conosciuto i miei figli Jake e Andy :) 

-hai completato il tuo primo quiz ed ottenuto un punteggio che farà parte del tuo certificato finale

Ecco invece quello che troverai in questo secondo Modulo:

2 .1 I motori di ricerca sanno di te? E ne sanno abbastanza?

2.2 Comunica ai robots l'esistenza del tuo sito

2.3 Rendi il tuo sito Search Engine-friendly

  2.3.1 Crea un file robots.txt

  2.3.2 Trova un hosting veloce ad affidabile

  2.3.3 Riscrivi gli URL dinamici

  2.3.4 Questioni di navigazione

  2.3.5 Utilizza link di testo invece che immagini

  2.3.6 Flash, JavaScript e Frame

  2.3.7 Rimuovi la pagina di Benvenuto (Welcome page)

  2.3.8 Correggi i link rotti

  2.3.9 Sbarazzati dei contenuti duplicati e Cos'è rel ="canonical"?

  2.3.10 Correggi gli errori nel codice HTML e CSS

  2.3.11 Crea una sitemap

2.4 Sommario

Ora il tuo prossimo compito impegnativo è l' ottimizzazione on-page del tuo sito.

Per prima cosa lasciami spiegare cosa sono l'ottimizzazione on-page e off-page:

-La prima consiste nel rendere il tuo sito attraente agli occhi dei Motori di Ricerca.

-La seconda consiste nel trovare buoni collegamenti e posti giusti in cui apparire, così da obbligare i Motori di Ricerca a pensare bene del tuo sito.

Partiamo dalla prima e la prima cosa che faremo sarà controllare che il tuo sito sia indicizzato dai motori di ricerca.

2.1 I motori di ricerca sanno di te? E ne sanno abbastanza?


Se provi a lanciare il tuo sito e, per esempio Yahoo! non lo conosce, allora potresti aspettare settimane, forse mesi, prima che il robot lo veda e lo indicizzi, in quanto il motore di ricerca non sa della sua esistenza.

Ma non preoccuparti. Il problema può essere risolto abbastanza facilmente. Vediamo come.

PROBLEMA 1: il tuo sito non è ancora stato inviato ai motori di ricerca


2.2 Invita i robots nel tuo sito web


1) Inviare il sito ai motori di ricerca


Sì, dobbiamo inviare ai motori di ricerca un invito personale a visitare il tuo sito web.

Per renderla semplice: vai al motore di ricerca che ti interessa e digita "add URL a nome_del_motore_di_ricerca" (esempio ""add URL to Google") e segui il link che appare, compila i campi che ti vengono richiesti e invia il tuo sito web al quel motore di ricerca.

Nota! Non devi inviare TUTTE LE PAGINE al motore di ricerca ma solo la tua homepage!

Oltre a Google e Bing, se esiste un motore di ricerca importante nel tuo paese, allora è consigliabile inviare il sito web anche lì.

Non ci vorrà molto per completare questa fase, ma al contrario un robot potrebbe impiegare molto tempo per visitare il tuo sito se non gli viene segnalato: dalla mia esperienza anche 6 settimane, dipende dal motore di ricerca.

Per questa ragione, un'altra cosa che devi fare è:

2) Ottieni un link IMPORTANTE al tuo sito web

La cosa è piuttosto logica: se lo spider di Google ama una pagina web e la visita abbastanza spesso, e questa pagina web ha un link al tuo sito, allora il crawler di Google sarà felice di seguire quel link e visitare anche il tuo sito web. Stessa cosa per gli altri motori di ricerca.

Quindi quello che voglio dire è: trova una pagina web rispettabile e con un buon Page Rank (meglio da 4 in su) e prova a metterci un link al tuo sito.

FALLO ANCHE TU! Invia il tuo sito ai motori di ricerca o metti un buon link al tuo sito o fai entrambe le cose.

PROBLEMA 2: il tuo sito è difficile da visitare per i robot dei Motori di Ricerca


Nota! Questo problema è abbastanza frequente e può causare una serie di problemi.

Quindi: il motore di ricerca conosce l'esistenza del tuo sito ma lo spider non riesce a strisciarlo poiché  non è seo-friendly. Beh, questo problema richiede un po' più di lavoro per essere risolto, ma non preoccuparti che ce la puoi fare se segui quello che ti dirò.

2.3 Rendi il tuo sito Search Engine-friendly


Per prima cosa incontriamo il Sig. Robot. Mi aiuterà a fornirti un esempio per chiarirti meglio come lavorano logicamente un sito web e un motore di ricerca.

Il Robot, anche chiamato Spider o Crawler, è un grande lavoratore. Guida la sua macchina da una città all'altra, da uno stato all'altro e poi in tutto il mondo.

Allora, gli stati sono i siti web mentre le città sono le pagine e le strade e le autostrade sono i link tra le varie pagine.



mappa del sito web weddingchannelland.com


Il Sig. Robot non è così indipendente come sembra. Dopo le sue ispezioni, invia i dati raccolti al Motore di Ricerca, che aggiorna i suoi indici con i dati che riceve sui siti web. E così avviene continuamente: appena il robot finisce di ispezionare un sito, manda i dati e ne ispeziona un altro, invia i dati anche di questo al motore di ricerca e riparte con un altro, e così via.

In questo modo gli indici del Motore di Ricerca sono sempre aggiornati.

Ma cosa significa indice del motore di ricerca? Si tratta di un enorme database, in cui viene registrato tutto ciò che i robot (come il nostro Sig. Robot) trova sul web: pagine web e le informazioni su di essi. In termini di SEO, è fondamentale per una pagina web che tutto ciò che c'è di buono su di essa sia registrata nell'indice del motore di ricerca (= una pagina è indicizzata). Se questa pagina non viene indicizzata, non sarà trovata attraverso alcuna ricerca, o non porterà i risultati che desideri.

Ci sono 11 cose molto importanti per i robots da considerare:

2.3.1 Crea un file robots.txt


Come chi viaggia in posti che non conosce, anche il robot ha bisogno di una guida, che sarebbe il file robots.txt.

Questo file dice al robot quali città deve visitare e evita che il robot attraversi pagine con materiale privato, dati sensibili o altre cose che non vuoi che siano trovati con una ricerca su Google (per esempio un "Carrello Acquisti"), oppure pagine che non sono importanti e potrebbero danneggiare il tuo ranking.

Puoi crearti il file robots.txt da solo oppure rivolgerti ad un webmaster. In ogni caso qui trovi un esempio creativo di file robots.txt a cui ispirarti: http://store.nike.com/robots.txt.

Una volta creato il tuo file robots.txt puoi validarlo qui: http://www.invision-graphics.com/robotstxt_validator.html

FALLO ANCHE TU! Il file robots.txt può influenzare notevolmente la posizione del tuo sito web nei motori di ricerca e quindi anche i click che riceverai. Crealo subito facendo molta attenzione a quello che fai e poi aggiungilo alla root del tuo sito web!

2.3.2 Trova un hosting veloce ad affidabile





Come molte persone che sono sempre in viaggio, anche il robot ama la velocità e odia gli ingorghi di traffico.

Quindi scegli un hosting veloce ed affidabile. In questo modo ti assicuri che il server web non sia mai verso il basso quando lo spider tenta di indicizzarlo ed inoltre garantisci una buona esperienza di navigazione agli utenti.

Più veloce è il tuo sito web, più velocemente viene caricato e più i visitatori lo gradiranno. E più velocemente farai soldi ;-). Ma questo non riguarda solo l'esperienza degli utenti! Il caricamento di una pagina è uno dei fattori che influenzano il ranking, il che significa che un'ottimizzazione della velocità di caricamento influenzerà positivamente il ranking del tuo sito web.

Secondo le ultime ricerche, quasi la metà degli utenti di Internet si aspettano che un sito venga caricato in 5 secondi o meno, e tendono ad abbandonare un sito che non viene caricato entro 8 secondi. Google offre uno speciale strumento, che puoi trovare in https://developers.google.com/speed/pagespeed/service che ti può aiutare ad ottimizzare le performance del tuo sito web.

Non è necessario essere un guru di Internet per capire e ricordare questo:

velocità e hosting infallibile assicurano
amore da parte del motore di ricerca e portano
vendite veloci e stabili.

FALLO SUBITO! Trova un hosting veloce ed affidabile per il tuo sito web.

2.3.3 Riscrivi gli URL dinamici


Un problema comune per i negozi online, i forum, i blog o altri siti basati sui database è che spesso hanno pagine con URL come questo: www.weddinggift.com/?item=32554, e non si riesce a capire dove questo indirizzo ti sta portando. Invece, URL come www.weddinggift.com/silk-linen.html, o www.weddinggift.com/pots.html, fanno capire facilmente vedere cosa c'è nella pagina che si sta per visitare.

Così il problema con tali URL è: nessuno (né gli utenti e nemmeno il Robot) può dire quale prodotto può essere trovato in quella pagina prima di andarla a visitare.

Per semplicità, supponiamo che gli URL di questo tipo, www.weddinggift.com/?item=32554 sono chiamati URL dinamici, mentre gli URL come www.weddinggift.com/silk-linen.html sono URL statici. Come si può vedere, gli URL statici sono molto più user-friendly. Per gli utenti, gli URL con troppo "?", """ e "=" sono difficili da capire e abbastanza scomodi. Può sorprendere, ma molti preferiscono imparare a memoria i loro URL preferiti, invece di utilizzare i segnalibri.

In secondo luogo, gli URL statici sono più brevi e possono contenere parole chiave che sono segnali positivi per i motori di ricerca.

In terzo luogo, un motore di ricerca vuole elencare nel proprio indice solo pagine che sono uniche. E a volte decide di risolvere questo problema tagliando gli URL dopo un determinato numero di caratteri variabili (ad esempio:? e =). Per assicurarsi che tutte le pagine con contenuti unici e utili appaiono nell'indice un motore di ricerca, è meglio che tu renda gli URL delle tue pagine statici e descrittivi, nei limiti del possibile.

E ora ti racconto un bel trucco per rendere gli URL ben visti dai motori di ricerca.

Esiste un file chiamato .htaccess. Si tratta di un file di testo normale, ed il suo utilizzo ti permetterà di crearee trucchi sorprendenti con il server web. Solo un esempio è riscrivere URL dinamici. E quando un utente (o un robot) cerca di raggiungere una pagina, questo file lancia un comando per visualizzare un URL di una pagina che è user– and crawler–friendly.

Praticamente nasconde un URL dinamico, non amato dai robots, dietro un URL che i robots preferiscono.

Ecco un esempio:

Prendiamo un reggiseno di Victoria 's Secret che viene venduto sotto:

http://www.myshop.com/showgood.php?category=56&good=54146

È possibile riscrivere la pagina, in modo che il robot veda le informazioni in essa contenute, per esempio:

http://www.myshop.com/victorias-secret-underwear/bra.html

In questo modo si otterrà "URL parlanti" che sono capiti dal robot e dagli utenti e sono facili da trovare.

Scrivere un file .htaccess non è un compito banale e richiede conoscenze specifiche. Inoltre, è un lavoro del webmaster. Personalmente non li faccio io, quindi se non hai le competenze necessarie ti consiglio di rivolgerti ad un webmaster oppure di fare una ricerca su internet, per esempio digitando: "URL Rewrite" o "Riscrivere URL".

2.3.4 Questioni di navigazione


Quando entro nella mia cantina, mi sento perso tra ricambi di auto, vecchie riviste, oggetti inutili, oggetti in deposito per la stagione successiva. Se sto cercando qualcosa mi sento male in mezzo a tutto quel caos e spesso ci rinuncio subito.

Questo è quello che succede ai robot dei motori di ricerca: quando arriva al tuo sito web e cerca ulteriori informazioni, se trova del caos ti dà un brutto voto e se ne va. E' per questo che la facilità di navigazione è quasi importante come una corretta ricerca della parola chiave.

Categorizza il tuo sito web


Qualunque- sia il contenuto del tuo sito, può e deve essere raggruppato. Devi creare categorie e sotto-categoria, ma ti prego di non andare oltre e non farti prendere dalla mania delle sotto-sottocategorie. A meno che il tuo sito non sia stra-ricco di informazioni, non hai bisogno di una struttura più complessa di un menu di 2-3 livelli.

Supponiamo che il tuo sito venda prodotti per gli amanti dello sci. Allora una struttura corretta potrebbe essere avere le seguenti categorie:

attrezzature da sci

località sciistiche

impara a sciare

notizie sci

Al limite nelle località turistiche puoi creare sottocategorie delle località: Austria, Italia, Svizzera ecc.

Con le categorie, è molto più facile per i motori di ricerca leggere e comprendere il contenuto del tuo sito web. E per gli utenti è più piacevole navigare. Quindi, pensa a ciò in anticipo ed evita di affrontare il problema in futuro.

Crea percorsi differenti per raggiungere una pagina


Torniamo ancora al nostro Sig Robot. Se deve raggiungere una città e ha 2 percorsi disponibili, ha sicuramente buone probabilità di arrivarci. Ma se i percorsi disponibili fossero 6 diversi, allora le probabilità sarebbero molto più grandi!


vari percorsi per raggiungere lo stesso posto

Quando crei una pagina, cerca di aggiungere un link dalle alle pagine, quando possibile.

FALLO ANCHE TU! Categorizza il tuo contenuto e crea link interni tra le pagine del tuo sito.

2.3.5 Utilizza link di testo invece che immagini


I motori di ricerca non capiscono i testi presenti sui link grafici. Dovresti quindi sempre considerare la possibilità di scegliere tra un bel pulsante e un link testuale come questi:


esempi di pulsanti e link di testo

Il pulsante rende sicuramente molto bella la tua pagina, ma il robot non leggerà il testo su di esso, anche se può essere molto importante. Per quanto riguarda un link di testo, anche se non contribuisce molto per l'aspetto del sito, il suo testo viene notato dai robot dei motori di ricerca. Inoltre, le tecnologie di oggi, come DHTML o CSS, rendono possibile la creazione di elementi di testo molto belli come le immagini, ma facili da capire per i motori di ricerca.

Quindi cercate di evitare i link di immagine e sostituirli con normali link di testo, dove il design del sito lo permette.

FALLO ANCHE TU! Cerca di utilizzare il più possibile link di testo invece che di immagine. Dopo avere fatto le tue modifiche, rendile disponibili nel web.

2.3.6 Flash, JavaScript e Frame


Dai un'occhiata a queste parole: Flash, JavaScript e Frame.

Queste parole hanno una doppia faccia: possono rendere il disegno della tua pagina web molto bello e nel contempo, spesso vengono viste male dai motori di ricerca. Vengono interpretate come collegamenti interrotti e non danno alcun modo di vedere cosa c'è nel tuo sito.

Per il Robot questi non sono altro che segnali di direzione, sono quasi impossibili da leggere anche se i motori di ricerca sono in continua evoluzione.

Solo Google oggi può indicizzare testi che contengono Flash e riesce ad eseguire qualche JavaScript e AJAX. Ma gli altri motori di ricerca no.

Forse un giorno tutti i robot non avranno problemi a fare la scansione di questi elementi, ma per oggi ancora si pensa che non lo facciano.

Quindi, se desideri che il robot esegua la scansione del tuo sito, devi necessariamente accertarti che questi 3 elementi piacciano al Robot. Se non è così, fai un passo indietro e sostituisci questi segnali illeggibili con segnali in un normale linguaggio.

Ma come si fa a riconoscere i Frame, Flash e JavaScript?


Frames

I frames consentono la visualizzazione di più di un documento HTML nella stessa finestra del browser.

Ecco un esempio:


esempio di sito web con frames

Se la tua finestra del browser è rotta in uno o più parti, ciascuna è una pagina web separata che può essere scrollata indipendentemente, allora probabilmente sei in presenza di un frame.

Nell'esempio qui sopra si può vedere che anche se siamo nella sezione "Società", l'URL nella barra degli indirizzi non è cambiato nemmeno un po'.

Come hai già imparato, i motori di ricerca in genere cercano testo che descrive ciò che ogni pagina contiene, e i collegamenti ipertestuali che portano ad altre pagine del tuo sito web, in modo da indovinare correttamente! Entrambi questi sono mancanti in un documento con frameset standard. Quindi, se utilizzi i frame, i motori di ricerca non riusciranno ad eseguire la scansione correttamente e indicizzare i contenuti di valore.

È possibile ricostruire il sito e rimuovere completamente i frame o almeno utilizzare i tag noframes. Cosa sono questi? I tag NOFRAMES sono tag speciali che aiutano i motori di ricerca a scansionare facilmente la tua pagina. Sono sicuro che il tuo webmaster li conosce e aggiungerà i noframes facilmente.

Flash

Non ci si può sbagliare. E' l'animazione grafica che va così di moda di recente, e il più delle volte è usata senza scopo. (Queste animazioni sono realizzate con uno strumento chiamato Macromedia Flash).

Perché il flash non va bene? Perché se hai del testo in esso, i motori di ricerca non lo riconosceranno (ok, Google afferma di riconoscerlo, ma noi, SEO, non ci crediamo troppo). E' possibile effettuare incredibili animazioni flash e usare bei link con un buon uso di parole chiave... Ma per i motori di ricerca sarà solo un insieme di immagini, nessuna keyword ricca di contenuto o anchor text, e assolutamente non ci sarà alcun modo per il robot di sapere che cosa riguarda il tuo sito web.

Quindi ... se si ha il flash incorporato nella navigazione del tuo sito web, devi sapere che può farti del male. Discutine con il webmaster e valuta di sbarazzarti del flash o semplicemente duplicare la barra di navigazione senza flash e metterla da qualche altra parte, ad esempio, nel footer, come questo esempio:


footer links

JavaScript

Per prima cosa, verifica se il tuo sito utilizza JavaScript.

Ecco come si fa: aprirlo nel browser web e scegli Visualizza Sorgente nel menu del browser. Poi, con il comando Ctrl + F effettua una ricerca di "testo" digitando: <script. Ci sono diversi modi di come le sezioni JavaScript possono apparire, ma tutti hanno questi: <script> e </ script> tag.

Anche in questo caso, come con il flash, JavaScript può essere dannoso se usato in elementi di navigazione, come i diversi menu.

Ora, chiedi al webmaster se utilizza JavaScript nella navigazione. Se la risposta è sì, il posizionamento del tuo sito web è a rischio. Non c'è alcuna garanzia che il robot leggerà gli script correttamente: dalla mia esperienza personale, i robot non strisciano il 50% di JavaScript. Quindi, per evitare guai, chiedere al webmaster di eliminare gli script dannosi, o per lo meno includere la sezione noscript. Ecco un esempio generale di questo tipo di sezione:

<script language="javascript" type="text/javascript">

</script>

<noscript>

</noscript>

FALLO SUBITO! Individua JavaScript, Flash e Frame e assicurati che non causino problemi.

Se non hai le conoscenze necessarie per farlo, per il tuo webmaster sarà sicuramente un gioco da ragazzi, ma fatelo subito!

Per tuo interesse, ti elenco qui di seguito una lista di tipi di file che, ad oggi, possono essere indicizzati da Google, ma ti ricordo nuovamente che i motori di ricerca sono in continua evoluzione, quindi quello che vale oggi, nel momento in cui scrivo questo corso, potrebbe essere variato dopo un anno. Ecco la lista:

Adobe Flash (.swf)
Adobe Portable Document Format (.pdf)
Adobe PostScript (.ps)
Autodesk Design Web Format (.dwf)
Google Earth (.kml, .kmz)
GPS eXchange Format (.gpx)
Hancom Hanword (.hwp)
HTML (.htm, .html, other file extensions)
Microsoft Excel (.xls, .xlsx)
Microsoft PowerPoint (.ppt, .pptx)
Microsoft Word (.doc, .docx)
OpenOffice presentation (.odp)
OpenOffice spreadsheet (.ods)
OpenOffice text (.odt)
Rich Text Format (.rtf, .wri)
Scalable Vector Graphics (.svg)
TeX/LaTeX (.tex)
Text (.txt, .text, other file extensions), incluso il codice sorgente nei linguaggi di programmazione comuni:

Basic source code (.bas)
C/C++ source code (.c, .cc, .cpp, .cxx, .h, .hpp)
C# source code (.cs)
Java source code (.java)
Perl source code (.pl)
Python source code (.py)
Wireless Markup Language (.wml, .wap)
XML (.xml)

2.3.7 Rimuovi la pagina di Benvenuto (Welcome page)


La pagina di Benvenuto è grosso modo una pagina iniziale con un'immagine e un link da cliccare per entrare nel tuo sito, e la scritta "Benvenuti nel nostro sito web", o simili.

Personalmente odio queste pagine, i robots le odiano e anche la grande maggioranza degli utenti le odiano. Sono solo una perdita di tempo. E' come se dovessi andare a Roma e, prima di entrare nella città, fossi costretto a fermarmi una notte in un posto chiamato Benvenuti a Roma, brutto, vuoto, senza bar, monumenti o negozi. A chi piacerebbe una cosa del genere?

Quindi, se puoi, ti consiglio di eliminarla subito.

2.3.8 Correggi i link rotti


Che cos'è un link rotto?


Un link rotto è come una strada interrotta o un ponte rotto che ti impediscono di entrare in una città. La tua mappa ti dice che quella è l'unica strada e quindi non hai alcun modo alternativo per entrarci.

In questo caso il robot del motore di ricerca, semplicemente torna indietro senza scansionare il tuo sito web.

Ma qual'è la causa della rottura dei link? Potrebbe essere un elemento sbagliato o mancante nel codice HTML del link oppure un link che conduce ad una pagina web inesistente.

Ti consiglio di trovare i link rotti e correggerli.

Qui trovi uno strumento gratuito che ti permette di rilevare la presenza di link rotti nella tua pagina web:

http://validator.w3.org/checklink

FALLO ANCHE TU! Elimina la pagina di Benvenuto e verifica e correggi gli eventuali link rotti

Pssst! Ti svelo un segreto: alla fine di questo modulo ti rivelerò come trovare tutti i problemi del tuo sito web con uno solo click. Pazienta e studia bene tutto fino alla fine del modulo!

2.3.9 Sbarazzati dei contenuti duplicati e Cos'è rel ="canonical"?


Per prima cosa ti anticipo che questo è forse l'argomento più difficile da affrontare, nonostante io cerchi di sorvolare sugli aspetti SEO più tecnici. Ma non avere fretta di saltarlo. Leggilo più volte fino a quando non capisci bene tutto in quanto è un problema che quasi tutti i SEO devono affrontare. Sono sicuro che più avanti mi ringrazierai per avere insistito.

Avrai sicuramente anche bisogno del tuo webmaster, a meno che non lo sia tu. Ma in ogni caso è giusto capire cosa si sta facendo. Bene, a questo punto iniziamo :)

Cos'è un contenuto duplicato?


I contenuti duplicati sono blocchi di contenuto che, tutto o in parte, corrispondono ad altri contenuti presenti all'interno dello stesso sito web o in domini diversi.

Come puoi immaginare, Google fa un sacco di fatica ad indicizzare tutto il web. Non devi stupirti quindi se cerca di minimizzare questo sforzo in tutti i modi. Ed è per questo che ha deciso di introdurre in indice "supplementare": le pagine contenute all'interno di questo vengono considerate come "cittadini di seconda classe" da Google e non hanno possibilità di avere un ranking.

I risultati supplementari vengono nascosti dietro questo messaggio di attenzione in fondo alla SERP di Google:

"Al fine di visualizzare i risultati più rilevanti, sono state omesse alcune voci molto simili alle ... già visualizzate. In alternativa, è possibile ripetere la ricerca includendo i risultati omessi."

Il punto è che, se la tua pagina appare in questo indice "supplementare" di Google, viene considerata come poco importante o duplicata e non verrà vista dagli utenti. In molti casi i duplicati sono cose poco importanti, ma non è sempre così quindi tu e solo tu sei respondabile per le pagine che compaiono in questo indice.

Inoltre, se il tuo contenuto è duplicato, Google potrebbe classificare la pagina sbagliata, che potrebbe essere più autoritaria ai fini del suo algoritmo. Se questo succedesse, apparirebbe nei risultati di ricerca l' URL sbagliato e questo non è quello che vogliamo giusto?

Come diagnosticare un contenuto duplicato?


Come tutti sappiamo, prevenire è meglio che curare. E questo è importante anche per il SEO. Invece di eliminare subito i contenuti duplicati, ti conviene per prima cosa valutare la struttura del tuo sito web, per assicurarti che le pagine non vengono generate casualmente prive di valore per gli utenti. Ecco perché il primo passo fondamentale verso una struttura sana di un sito web è quella di navigare in modo sistematico il sito per trovare dove vengono creati i duplicati.

Ci sono diversi strumenti che possono aiutarvi, tra cui "Questo-Che-Non-Deve-Essere-Ancora-Nominato". Ma in questo momento mi piacerebbe descrivere quelli gratuiti e facili da usare.

Strumenti per i Webmaster di Google

Nel tuo account Google, vai in Aspetto nella ricerca > Miglioramenti HTML e ti si aprirà una schermata con tutti i problemi riscontrati nel tuo sito web. Troverai varie indicazioni sui contenuti duplicati rilevati.

Utilizzo dell'operatore "site:"

Ti ricorderai che abbiamo usato questo operatore per trovare le pagine indicizzate da Google. Ora lo puoi utilizzare per trovare i contenuti duplicati.

Se infatti dopo "site:" inserisci la frase o il blocco di testo che vuoi controllare, Google ti restituirà come risultato tutte le pagine web che lo contengono.

Copyscape (http://www.copyscape.com/)

Anche questo è uno strumento gratuito e facile da usare, solo che permette di trovare i duplicati di contenuti in pagine esterne al tuo sito web, non all'interno.

FALLO ANCHE TU! Controlla che il tuo sito web non abbia contenuti duplicati al suo interno.

Come trattare un contenuto duplicato?

Cominciamo con i duplicati esterni.

Molto comuni sono le situazioni in cui un webmaster imposta un nuovo sito web e dimentica semplicemente di eliminare quello vecchio o di bloccarne l'indicizzazione. Non c'è bisogno di dirlo: il contenuto di entrambi i siti è simile, ed entrambi sono indicizzati e classificati.

Un altro scenario comune si verifica quando gli affiliati o i rivenditori copiano il contenuto senza chiedere.

Se hai copiato grandi pezzi di contenuti da altri siti, ecco quello che dice Google:

Se hai copiato i tuoi contenuti da altri siti, Google mostrerà sempre la versione che riteniamo più appropriata per gli utenti in ogni data ricerca, che può o non può essere la versione che preferisci."

Soluzione:

a) Se è necessario fornire una descrizione del tuo sito web, non copiarla dalla tua homepage. Invece, passa un paio di minuti a scriverne una unica.

b) Se sei il proprietario più domini con contenuti simili, è possibile creare un tag canonica tra domini. La spiegazione dettagliata è disponibile all'indirizzo

http://googlewebmastercentral.blogspot.com/2009/12/handling–legitimate–cross–domain.html

In sostanza, è necessario scegliere quale URL è la fonte, e reindirizzare a questo.

c) Se non si possiedi i domini, allora hai bisogno di lavorare con il webmaster per risolvere questo problema, ed educare i tuoi affiliati e di indicare il tuo sito come fonte originale.

Per quel che riguarda i duplicati interni al tuo sito web, è facile immaginare che quando il robot trova pagine con contenuti simili, si perde un po' in quanto non sa quale pagine utilizzare da indicizzare e classificare. Allora bisogna aiutarlo.

Vediamo i problemi più comuni che si posso presentare e come gestirli.

1) Diversi URL conducono allo stesso contenuto (percorsi duplicati).

Se aggiungi il tag rel="canonical"



ti permette di identificare pagine con contenuti identici e dire a Google: "Tra tutte queste pagine con contenuti identici, questa è la più importante. Per favore utilizza questa nei risultati di ricerca."

FALLO ADESSO! Se vuoi specificare una pagina come canonica, aggiungi un <link> con l'attributo rel="canonical" alla <head> della versione non-canonica della pagina. Se non hai capito bene, chiedi al tuo webmaster di aiutarti.

Puoi trovare ulteriori informazioni sul tag canonical in

http://support.google.com/webmasters/bin/answer.py?hl=en&answer=139394

2) Una e la stessa pagina è disponibile a diversi URL

Ad esempio, una pagina può essere disponibile a: http://www.example.com/page/, http://example.com/page/ (versione non-www), http://www.example.com/page (senza slash) e http://www.example.com/page/index.html.

Questi esempi possono riferirsi a qualsiasi pagina del sito, ma c'è un problema tipico, associata alla home page. Ci sono casi in cui il dominio principale e il nome effettivo dell'homepage del documento vengono indicizzati, con la conseguenza che l'homepage è disponibile a http://www.example.com e http://www.example.com/index.html

Soluzione: Prima di tutto, sii coerente con i tuoi percorsi interni. Se desideri che la versione root del URL sia quella principale, ma ora conduce a /index.html nella navigazione, stai inviando segnali contrastanti a Google ogni volta che il crawler visita il tuo sito.

Generalmente, questi problemi sono risolti con un reindirizzamento 301 (301-redirect, reindirizzando la seconda versione della pagina a quella principale). Se si utilizza un redirect 301 e non un'altra variante, puoi essere sicuro che il succo del link alla pagina reindirizzata viene passato a quella scelta.

I dettagli sul 301-redirect li potrai trovare a:

http://support.google.com/webmasters/bin/answer.py?hl=en&answer=93633

3) Alcuni siti web (soprattutto gli shop online) contrassegnano ogni nuovo visitatore con un parametro di monitoraggio. A volte finiscono nell' URL e vengono indicizzati, creando qualcosa di simile a http://www.example.com/?session=123. Questo può facilmente aggiungere 1000 di pagine duplicate al vostro indice.

Soluzione: La migliore opzione (se possibile nel tuo sito) è quella di rimuovere la sessione ID dall' URL completamente e riporla in un cookie.

I cookie sono stringhe di testo di piccola dimensione inviate da un server ad un Web client (di solito un browser) e poi rimandati indietro dal client al server (senza subire modifiche) ogni volta che il client accede alla stessa porzione dello stesso dominio web. - wikipedia

Se questo non è possibile, cerca di attuare il tag canonical su tutte queste pagine di sessione.

Inoltre, è possibile utilizzare Strumenti per i Webmaster di Google per specificare i parametri URL che desideri che Google ignori. Clicca su "Scansione"> "parametri URL".

4) Se sei un orgoglioso proprietario di un negozio online, il tuo sito web è probabilmente ricco di filtri di ricerca (prezzo, colore ecc) come nell'esempio qui sotto:




Gli URL generati dai filtri di ricerca sono simili a:

http://www.myntra.com/men–shorts nav_id=395#!sizes=m|colour=black|Length_article_attr=mid%20length

Soluzione: Nella maggior parte dei casi, è meglio non indicizzare i filtri, aggiungendo un metatag Noindex per le pagine con i parametri discutibili. Nella sua forma più semplice, il tag appare simile a questo:


Tag Meta Robots

Questa linea dice ai motori di ricerca di non indicizzare la pagina particolare o seguire i link su di essa. Tuttavia, nel caso di filtri di ricerca, ti raccomanderei di creare "NOINDEX, FOLLOW", che consente al robot di eseguire la scansione dei percorsi senza aggiungere la pagina alll'indice di ricerca.

Puoi fare ciò anche utilizzando gli Strumenti per i Webmaster di Google, come ho descritto sopra.

Bene, fatto tutto ciò che ho appena descritto, possiamo andare avanti!

2.3.10 Correggi gli errori nel codice HTML e CSS


Hai mai provato a parlare con uno straniero che tenta di parlare in italiano ma commette un sacco di errori?

Ti assicuro che si fa veramente fatica a capire quello che dice. Spesso una parola sbagliata in una frase, non ti fa capire il significato dell'intera frase.

Stessa cosa succede ai robot dei motori di ricerca. Errori nel codice HTML o CSS (e ti assicuro che ce ne sono spesso...), rendono la tua pagina illeggibile in quanto i tag con errori vengono ignorati e il loro contenuto pure. E il tuo ranking peggiora!

Quindi, per l' HTML vai qui

http://validator.w3.org/

e per i fogli di stile qui

http://jigsaw.w3.org/css-validator/

Sono strumenti gratuiti che ti permettono di verificare e correggere gli errori nelle tue pagine web.

FALLO SUBITO! Correggi subito i possibili errori nel tuo sito web.

2.3.11 Crea una sitemap

Che cos'è una sitemap?


Una sitemap è una mappa che permette al robot di raggiungere qualsiasi luogo in maniera facile.

In altri termini, la sitemap è un elenco delle pagine del tuo sito web. Come l'indice dei libri.

La Sitemap.html aiuta maggiormente gli utenti a trovare quello che cercano nel tuo sito web.


esempio di una sitemap.html

La Sitemap.xml invece è solo per i motori di ricerca. Creare e inviare una Sitemap, e in tal modo farete in modo che i motori di ricerca conoscono tutte le pagine del tuo sito, inclusi gli URL che non possono essere naturalmente scoperti dai crawler dei motori di ricerca.


esempio di una sitemap.xml

Quindi, se vuoi che il Robot visiti tutte le tue pagine velocemente e che gli utenti abbiano una piacevole esperienza di navigazione, non esitare a creare le sitemap.

In rete ci sono moltissimi strumenti gratuiti per fare ciò. Per esempio usa

http://www.xml–sitemaps.com/

Una volta creata la sua sitemap, ti raccomando di inviarla ai motori di ricerca.

Qui puoi trovare le linee guida di Google al riguardo:

https://support.google.com/webmasters/answer/156184?rd=1

Ricordati inoltre di aggiornare le sitemap ogni volta che inserisci link o pagine nuove nel tuo sito web. Poi non devi più inviarle nuovamente ai motori di ricerca, basta solo che la rimetti nella root una volta aggiornata.

FALLO SUBITO! Crea subito la tua Sitemap.xml ed inviala ai Motori di Ricerca.

Certo che hai un bel po' di lavoro da fare vero? Ma come ti ho già anticipato, io ho un segreto, uso SEMRush.

SEMRush è strumento utilissimo per controllare la presenza di link interotti in un sito web e rilevare la maggior parte dei problemi relativi ai link, l'accessibilità, la crawlability, la semantica e i contenuti duplicati.

Elenca i problemi rilevati su un sito web in tre gruppi diversi, a seconda della loro gravità:


  1. Errori: collegamenti esterni o interni rotti, contenuti duplicati, pagine di errore 4xx o 5xx
  2. Attenzione: le parole mancanti meta, meta descrizioni e le rubriche;
  3. Notifiche: collegamenti interni o esterni con rel="nofollow", e gli URL lunghi.

Effettua un rapporto di audit SEO online per il tuo sito web utilizzando SEMRush per rilevare la parte principale di tutti i possibili problemi e per migliorare le prestazioni del tuo sito in SERP.


2.4 Sommario


In questo modulo hai imparato a:

- capire cosa sanno i motori di ricerca del tuo sito web

- fare trovare il tuo sito dal crawler

- aumentare le chances ti essere trovato dagli utenti

Dopo avere fatto tutto quello che ti ho consigliato di fare, hai reso sicuramente il tuo sito molto più visibile agli utenti e, se non vedi i risultati subito perché il sito è nuovo, presto li vedrai. Alcune volte per i siti nuovi ci vogliono alcuni mesi. Ma una volta che il tuo sito è indicizzato dai motori di ricerca, tutte le tue modifiche successive saranno attive invece in pochi giorni.

Ma non credere di avere fatto tutto! Ci sono ancora duri compiti da svolgere che scoprirai nei prossimi moduli.





Moduli del CORSO SEO ONLINE


-Introduzione
-Modulo 1: 100 Keyword per un Ottimo Inizio
-Modulo 2: Come seguire le regole dei Motori di Ricerca? (Evitando i problemi di crawlability)
-Modulo 3: Un'offerta che non è possibile rifiutare (creare mini landing pages per i Motori di Ricerca e le persone)
-Modulo 4: Iniziamo a muoverci meglio: da dove deve iniziare la costruzione dei link
-Modulo 5: Trovare i gioielli SEO: come ottenere link di qualità

0 commenti:

Posta un commento