Documento dall'Università degli Studi di Pavia su SEO Google - Riassunto libro di F. De Nobili. Il Pdf è un riassunto dettagliato del libro "SEO Google" di F. De Nobili, che esplora i concetti chiave del webmarketing, SEO, SEM e Analytics, utile per studenti universitari di Economia.
Mostra di più44 pagine


Visualizza gratis il Pdf completo
Registrati per accedere all’intero documento e trasformarlo con l’AI.
In questi anni si è sviluppata anche in Italia la consapevolezza che il Web può rappresentare un'enorme opportunità per la promozione e la crescita di un'azienda o di un singolo professionista. Non solo, il Web sta anche creando nuove opportunità di lavoro grazie alle nuove professionalità che sono nate. La prima regola del Web è farsi trovare facilmente.
Il manifesto Cluetrain > 1999, anno in cui alcuni studiosi ed esperti di comunicazione pubblicarono sul Web un vero e proprio manifesto che racchiude 95 tesi per riformare il linguaggio e le tecniche di comunicazione e promozione da adottare su internet. Vediamo alcuni punti del manifesto:
Capire il motore di ricerca Google -> I siti che si posizionano tra i primi 5 nella pagina dei risultati di ricerca, la cosiddetta SERP, sono quelli che avranno più possibilità di essere letti. Queste posizioni di prestigio si possono comprare attraverso la pubblicità a pagamento, oppure si possono raggiungere utilizzando le tecniche SEO. Bisogna inoltre inserire il proprio sito web all'interno della giusta "Directory" dei portali. I portali sono quei siti all'interno dei quali gli altri siti web vengono inseriti secondo strutture gerarchiche o ad albero e suddivisi in categorie in base all'argomento. Questo lavoro di "categorizzazione" viene ormai effettuato direttamente da Google in base ai contenuti del sito. Cerchiamo di capire come funziona un motore di ricerca e quali sono i fattori che influenzano il posizionamento di determinate parole chiave al suo interno. Fondamentalmente il motore di ricerca è un programma che utilizza allo stesso tempo database, software e algoritmi matematici per trovare informazioni sul Web legate alla parola chiave richiesta dall'utente. Google si è affermato tra i motori di ricerca proprio per la qualità del suo mix di strumenti utilizzati. Tra gli strumenti software utilizzati, il più importante è Spider: un programma che gestisce un insieme di componenti per analizzare gli indirizzi delle pagine web e integrare le categorie presenti nei database, raccogliere e memorizzare le informazioni da utilizzare per il motore di ricerca. Molto importante, quindi, quando si vuole sfruttare la potenzialità di un motore di ricerca, è avere più informazioni possibili sullo Spider utilizzato. Google fornisce molte indicazioni su come utilizzare il suo Spider chiamato Googlebot. Per facilitare il lavoro dello Spider, la prima operazione da compiere è quella di inviare a Google la Sitemap nel proprio sito. La Sitemap è la mappa nel sito web, generalmente sotto forma di file XML, che facilita ai motori di ricerca la scansione del sito, favorendo l'indicizzazione. Fornisce anche altre informazioni allo Spider: frequenza di aggiornamento delle notizie, data dell'ultimo aggiornamento del sito, dati specifici legati ai contenuti, la durata di un video o le dimensioni di un'immagine. Le modalità di creazione della Sitemap seguono un protocollo ufficiale.
SEO onpage e SEO offpage > Una volta indicizzato il sito, occorre iniziare il lavoro per il suo posizionamento, quindi la collocazione all'interno della pagina SERP in base alle parole chiave a esso legate. Oltre al passaggio dello Spider, entra in gioco l'algoritmo. Come funziona e quali fattori lo influenzano? Non tutte le leggi che regolano il funzionamento dell'algoritmo di un motore di ricerca sono state svelate. Pertanto, si può solo ipotizzare quali fattori siano maggiormente impattanti sul posizionamento di determinate parole di ricerca. Possiamo dividere i principali fattosi che influenzano il posizionamento in fattori onpage, cioè che riguardano le caratteristiche tecniche delle pagine del sito web, e fattori offpage, in cui rientrano le caratteristiche che derivano da attività effettuate all'esterno del sito. I principali fattori onpage sono:
I principali fattori offpage che possono influenzare in modo positivo anche i motori di ricerca sono:
L'evoluzione dell'algoritmo di Google -> Dal 2003 al 2007 Google si è concentrato soprattutto sulle modifiche dell'algoritmo per penalizzare tecniche innaturali di ottimizzazione delle pagine web. "Dance" e "Florida" colpirono nel 2003 siti web che utilizzavano la tecnica di keyword stuffing, cioè la ripetizione innaturale di parole chiave. Nel 2004, con "Austin" si penalizzarono le tecniche di Black Hat SEO, come, per esempio, nascondere parole chiave utilizzando font di dimensioni minime, o parole chiave dello stesso colore dello sfondo della pagina, per poterle ripetere nel testo senza disturbare il visitatore. Nel 2005, con l'algoritmo "NoFollow", si introdusse l'attributo nofollow per indicare al motore di ricerca quali link non indicizzare e favorire la qualità dei link in entrata. La vera rivoluzione, però, nel 2005 fu l'aggiornamento algoritmico "Local Maps" che incise sui risultati di ricerca in funzione e in relazione alla localizzazione: da questo momento si inizia a parlare di Local SEO.
Dal 2007, oltre agli aggiornamenti di algoritmo, entrò in gioco una serie di cambiamenti nella struttura di ricerca di Google (lato utente) che modifico in modo significativo anche la SERP. Queste modifiche furono introdotte con l' "Universal Search", grazie alla quale Google aggiunse nei risultati di ricerca le opzioni "notizie", "video", "immagini" e, nel 2008, inserì nel box di ricerca dei suggerimenti in tempo reale mentre l'utente sta digitando la parola ricercata.
Tornando agli algoritmi, la prima grande rivoluzione arrivò con "Caffeine" nel 2009, che permetteva di accelerare l'indicizzazione e il posizionamento quasi in tempo reale. Da questo momento si iniziò a parlare di SEO in real time. Dalla fine del 2010 entrarono in gioco, invece, tutti i fattori legati all'utilizzo dei social network: per esempio, con "social Signa" Google iniziò a tenere in considerazione i riscontri sui social media per aumentare il ranking di posizionamento. Oltre ai social, Google raffinò sempre più i risultati di ricerca cercando di premiare contenuti di qualità e non duplicati. Con "Panda" nel 2011, vennero penalizzati i siti con contenuti di bassa qualità o con troppi spazi pubblicitari, e con "Freshness" vennero premiati i siti con contenuti rivisti frequentemente. Nel 20012 grandi novità furono "Penguin", che penalizzò ulteriormente il keyword stuffing e i backlink di dubbia provenienza o collegati a pagamento, e l'introduzione di Google Search Plus Your World, con il quali i risultati di ricerca sarebbero stati condizionati dal grado di autorità e connessioni sociali con il social network Google Plus. Questa integrazione era legata al futuro di Google, che guardava verso una ricerca sempre più legata al cosiddetto Web semantico, fatto di contenuti e non di tecniche informatiche. L'evoluzione di questi concetti è stata integrata totalmente da "Hummingbird", che nel 2013 ha portato ad una vera rivoluzione della SERP di Google, perché, pur utilizzando alcuni componenti dei precedenti algoritmi, fu il primo concepito in modo del tutto nuovo e il primo che ha realmente reinterpretato i dati a disposizione cercando di fornire una risposta sempre più precisa alla richiesta utente. Con questo algoritmo Google cerca di interpretare frasi complete e più lunghe, confrontandole con i dati precedentemente archiviati per fornire risultati sempre più precisi e personalizzati in funzione delle richieste dell'utente (i precedenti algoritmi lavoravano dividendo le frasi in singole parole). Il principio base di questo algoritmo era nel riuscire ad aumentare la capacità di interazione tra Google e l'utente che effettua una ricerca. Anche dal punto di vista dell'usabilità, è stato il primo algoritmo a modificare il layout di Google inserendo il tasto dei risultati privati legato al servizio My Answers. In questo modo è possibile sperimentare l'impatto sempre più forte di una delle caratteristiche principali di Google: la personalizzazione dei risultati in base alle ricerche del singolo utente. Infatti, Google non effettua una ricerca globale in tutto il suo database, ma estrapola i risultati a seconda dell'argomento e delle intenzioni di chi sta effettuando la ricerca, personalizzando i risultati che ha elaborato in relazione ad aspetti connessi all'utente. Diventa, quindi, molto importante capire in che modo una persona effettua una ricerca su Google e la prima discriminante fondamentale consiste nel comprendere se questa ricerca viene fatta quando si è già collegati al proprio account Google, oppure no (in termine tecnico quest'ultima opzione si definisce "senza accesso eseguito"). Chi effettua una ricerca con il proprio account Google fa sì che tutte le ricerche e le attività svolte possano essere salvate dalla Cronologia web: è una cronologia privata, ma viene utilizzata da Google per personalizzare le ricerche dell'utente. L'obiettivo di Google, infatti, è quello di anticipare i bisogni dell'utente per fornire una risposa in base all'utilizzo storico del motore di ricerca. Oltre a tutto ciò Google rileva la posizione geografica dell'utente dall'indirizzo IP dal quale si accede a internet e così modifica l'esito della ricerca in funzione della località.
Professione SEO: perché non se ne può fare a meno > Nonostante le difficoltà che comporta lavorare alla SEO organica, si tratta di avere un posizionamento organico che può durare nel tempo, mentre un annuncio promozionale farà sparire completamente il sito dalle SERP non appena terminerà la campagna. Inoltre, la maggior parte degli utenti è più incline a cliccare sui risultati organici. Ecco perché qualunque tipo di attività non può prescindere dall'impiegare una figura professionale legata alla SEO (SEO specialist). Dalle ultime ricerche nel campo digital marketing, per qualsiasi tipologia di attività o azienda, emerge chiaramente che la SEO va integrata con strategie di Content marketing, che vanno poi veicolate sui social network, che diventano fondamentali per