Cosa sono i SEO?
Con il termine ottimizzazione (Search Engine Optimization in inglese) si intendono tutte quelle attività finalizzate ad aumentare il volume di traffico che un sito web riceve dai motori di ricerca. Tali attività comprendono l'ottimizzazione sia del codice sorgente della pagina, sia dei contenuti.
L'ottimizzazione è parte di un'attività più complessa, quale il marketing dei motori di ricerca (Search Engine Marketing, SEM).
L'attività di ottimizzazione per i motori di ricerca comprende varie operazioni tecniche che vengono effettuate sul codice HTML (incluso il markup) e sui contenuti delle pagine del sito web, nonché sulla struttura ipertestuale complessiva (tecnologie di interazione comprese).
La figura professionale specializzata in ottimizzazione è il SEO (search engine optimizator, ottimizzatore per i motori di ricerca). In siti di dimensioni elevate, o particolarmente complessi, il SEO resta in stretto contatto con il team di lavoro, necessitando a seconda degli elementi trattati di specifiche professionalità che difficilmente possono ricadere in una singola persona.
L'ottimizzazione di un sito è funzionale al suo posizionamento nelle pagine di risposta dei motori, che a sua volta è funzionale alla visibilità dei prodotti/servizi venduti.
L'ottimizzazione per Google [modifica]
Google introdusse un elemento di novità nell'approccio al problema dell'indicizzazione del web, il PageRank, algoritmo di valutazione della rilevanza di una pagina basato su concetti matematici che l'inventore di Ethernet, Bob Metcalfe, sintetizzò con il termine network effect: una rete è tanto più utile quanto più elevato è il numero dei suoi utenti. Google indicizza una pagina basandosi sui suoi contenuti e sui link che puntano ad essa.
Buone pratiche per l'ottimizzazione delle pagine
Per quanto riguarda la struttura HTML, è buona norma:
Inserire i contenuti importanti all'inizio del codice HTML;
Usare I tag HTML il più possibile attinenti alla struttura dei contenuti presentati (semantico) e verificare sempre che il codice delle pagine sia formalmente valido[1]. Può essere utile confrontarsi con le specifiche WCAG[2] per rendere i contenuti meglio "accessibili" anche per i crawler;
Differenziare opportunamente i titoli delle varie pagine di un sito, renderli chiari e coerenti con il contenuto della pagina: dovrebbero contenere le parole chiave di maggior peso;
Evitare di inviare informazioni incontrollate o inutili (potenzialmente dannose) tramite tag meta: i browser le ignorano, i crawler no[3];
Evitare l'utilizzo di JavaScript per gestire la navigazione, perché il crawler non interpreta gli script e non seguirà questi collegamenti. Usare invece collegamenti standard inserendo tag a con l'attributo
Riguardo alla gestione del server e degli URL, invece, è opportuno:
Possibilmente, scegliere anche l'URL della pagina in modo che contenga le parole chiave più probabili, ovvero che sia descrittivo e possibilmente somigliante al titolo della pagina stessa;
Evitare se possibile l'invio di parametri per un'eventuale applicazione lato server tramite l'inserimento di un'interrogazione (query) nell'URL della pagina, ossia la presenza di coppie parametro=valore dopo un punto di domanda, dopo l'indirizzo della pagina (http://www.sito.it/percorso/pagina?parametri=valori). Alcuni motori di ricerca scaricheranno e indicizzeranno solo la pagina base, senza tener conto della query;
inoltre, se l'interrogazione contiene informazioni specifiche sulla sessione (per esempio Session ID, che cambiano per ogni visitatore) nemmeno Google ottiene un URL univoco per la pagina, e può trarne le più disparate conclusioni negative. Per questo tipo di informazioni è opportuno usare i cookie[4];
Evitare l'utilizzo di redirect non HTTP (attraverso tag meta http-equiv="refresh"), perché non è detto che il motore di ricerca li segua. È anche diffusa l'idea che la loro presenza possa penalizzare il ranking di una pagina[5]. Attuare invece ogni redirezione con una risposta HTTP di reindirizzamento (codici 3xx);
inoltre, ogni redirezione effettuata tramite tag meta http-equiv="refresh" è contraria ai checkpoint 7.4 e 7.5 delle WCAG 1.0[2];
Evitare assolutamente di servire contenuti differenziati ai crawler (Cloaking) tentando di riconoscerne la stringa di User agent o l'IP del bot che scansiona le nostre pagine. È una pratica dannosa che espone al rischio concreto di cancellazione dagli indici dei motori;
Implementare i file robots.txt e sitemap.xml per indicare ai crawler dei motori di ricerca quali contenuti indicizzare e quali escludere dal processo di indicizzazione.
Ottimizzazione per file PDF
L'ottimizzazione dei documenti in formato PDF prevede alcuni interventi al momento della creazione del file.
Gli elementi più importanti da compilare correttamente ai fini del posizionamento sulle SERP di un documento PDF sono:
il nome del file, se è composto da più chiavi utilizzare il trattino per separarle; ad esempio, se il file PDF parla di animali domestici utilizzeremo il seguente nome file: animali-domestici.pdf
le proprietà interne al documento: cliccare su "File" – "Proprietà" e compilare necessariamente "Titolo", "Oggetto" (che sarebbe la description), "Autore" (potete mettere il nome del sito) e "Parole chiave".
Il titolo all’interno del documento: se il documento non dovesse avere un titolo, sarà Google ad attribuirne uno. Meglio, quindi, indicare il titolo che si vuole dare al documento utilizzando per il font: Verdana, Italico e Centrato.
Per quanto riguarda l'inserimento di un link cliccabile all'interno delle pagine, si noti che un file pdf viene letto da Google come una sorta di pagina web a sé stante e risulta, pertanto, un backlink al proprio sito. L'importante è tematizzare il link, cioè inserire l’esatta pagina di riferimento. Per esempio, se abbiamo un PDF che parla di animali domestici su un portale di animali, sarà meglio inserire il link alla pagina che parla esattamente di quelli domestici.
fonte wikipedia
Seja o primeiro a comentar
Posta un commento