Posso aiutarti?

Per qualsiasi informazione sui miei servizi, per fissare un appuntamento telefonicamente o se hai bisogno di assistenza, sono sempre a tua completa disposizione.

Chiamami al
+39 333.29.22.308

(lun-ven 09.30 - 20.30)

Oppure scrivimi a
info@georgefiorini.eu

marketing sanitario, inbound marketing e digital ADV a Milano
whatsapp +39 333.29.22.308

I backlink: cosa sono, che importanza hanno

Cosa sono i backlink e a cosa servono per la tua SEO
Scegli il miglior marketing sanitario per i dentisti
LA tua promozione sanitara per dentisti ed odontoiatri
Ti serve aiuto per la tua campagna PUBBLICITARIA?
Contattami velocemente
per richiedere una valutazione GRATUITA del tuo problema!
A che servizio saresti interessato?
CONSENSO OBBLIGATORIO*

*
Questo modulo è protetto contro lo spam da Google Recaptcha

Ah, gli anni '90!

La Italodance, i primi cellulari della Nokia o della Motorola, MC-Hammer, il Game Boy, Brenda, Dylan e Brandon e... I primi siti web pieni zeppi di pagine con infinite liste di link e banner!

Sai, all'epoca ero ancora giovanotto, ma navigando con Netscape Navigator in tutti quei siti fatti di improbabili testi fluorescenti e impaginazioni stile epitaffio funebre e maledetta musichina di sottofondo, mi chiedevo sempre: "Ma che cavolo di senso ha creare pagine solo di liste infinite di link ad altri siti?"

Bontà della gioventù, e della sua innocenza!

Se vuoi sapere perché all'epoca l'imperativo era scambiarsi link a più non posso mentre ora è molto più importante ricevere link da pagine di qualità, non ti resta che continuare a leggere questa pagina!

La coerenza è intesa come sinonimo di pertinenza: più è alta, e più è alto il valore che Googlebot assegna al backlink.

La vista alta degli anni '90

Altavista

Sai com'era il mondo dell'Internet durante la prima metà degli anni '90?

Se non hai ancora superato la trentina, molto probabilmente non puoi ricordatelo, mentre se stai abbondamentemente sopra gli 'anta', forse te lo ricorderai sin troppo bene.

Fisicamente, l'Internet aveva gli stessi identici servizi di adesso: la posta elettronica, il World Wide Web, comunicazioni testuali in tempo reale grazie a IRC, le connessioni FTP, ecc.

Quello che cle ambiava erano essenzialmente due cose: i limiti tecnici della tecnologia di allora e, soprattutto, il concetto di 'condivisione personale', al tempo molto limitato e volutamente tenuto tale.

Sul serio!

Ora fa quasi assurdo pensarlo, ma uno dei 'punti forti' dell'Internet e dei rapporti sociali che potevano istituirsi allora tramite la Rete era proprio... L'anonimità!

In questo contesto, che sarebbe totalmente improponibile ai giorni nostri, il World Wide Web era comunque già stra-pieno di pagine, con miliardi di informazioni, esattamente come ora.

I siti erano abbastanza spartani, ma non per moda 'minimal' (come cominciò ad andare di moda a fine anni 2000 in poi), ma solo per penuria di mezzi.

Javascript lo conoscevano in pochi, si dava poca importanza all'impaginazione e alla grafica in generale e, soprattutto, non si era ancora arrivati a scindere il contenuto dalla presentazione, cosa che verrà solo con l'introduzione dei fogli stile CSS.

In questo contesto, c'erano comunque i primi motori di ricerca, ovverosia appositi software (spider o crawler) che, con appositi algoritmi, mettevano nel loro indice le pagine web.

Tra i più famosi dell'epoca, c'era sicuramente Altavista.

Un motore che, nel punto massimo della propria espansione (nel 1998), contava oltre una decina di milioni di ricerche al giorno.

Un risultato oggi non così sorprendente, ma rapportato a quei tempi (dove la penetrazione mondiale dell'Internet era molto più bassa di quella odierna) era un incredibile dato.

Altavista aveva un algoritmo del suo spider bot molto semplice: principalmente scansionava le pagine tramite i metatag delle keyword, rapportandoli a quelli dei contenuti testuali (duri e puri) della pagina.

Molta importanza era data ai titoli delle pagine, che spesso erano scollegati dal contesto: bastava posizionare un buon titolo con un buon testo di ancoraggio per ingannare facilmente Altavista.

L'algoritmo non era così sofisticato da capire la semantica dei testi, né tantomeno la loro costruzione logica: ciò quindi non permetteva di posizionare le pagine per qualità, ma solo per una forma molto grezza di attinenza puramente testuale.

Aggirare il software con trucchetti anche di basso livello, come ad esempio infilare keyword dello stesso colore dello sfondo nel testo del body, così da farle risultare invisibili ma presenti, erano relativamente facili da attuare, e davano buoni risultati nelle SERP.

Ciò rendeva a volte frustrante la ricerca degli utenti, che spesso si vedevano risultati in SERP molto poco attinenti alle keyword effettivamente ricercate.

Google

Google e l'inizio del PageRank

Nel 1998, Sergey Brin e Lawrence 'Larry' Page si misero in commercio con un'idea destinata a cambiare di molto tutto il business delle ricerche online.

Il presupposto del loro search engine chiamato Google era semplice: piuttosto che sulle keyword (come abbiamo visto, facilmente aggirabili), piuttosto che titoli civetta delle pagine, l'algoritmo si sarebbe dovuto concentrare sulla 'popolarità' della pagina stessa.

E, usando come modello concettuale la famosa 'Teoria delle Reti', Page e Brin idearono un algoritmo che misurasse il numero di link ricevuto dalle pagine in analisi.

Il punto focale era: più link entranti in una pagina (cioè collegamenti esterni che altre pagine le dedicavano), più quella pagina doveva essere dunque popolare, in quanto condivisa.

A loro volta, pagine che si linkavano tra di loro e rimandavano ad altre pagine volevano dunque significare che le pagine finali di tutti questi link erano, giocoforza, ancora più popolari.

Era nato il PageRank ed il concetto di 'backlink', ossia il sistema di valutazione che, in poco tempo, cambiò totalmente il sistema di ricerca e di indice delle pagine del World Wide Web.

Il PageRank e l'inizio della condivisione

Il pagerank e lo schema della teoria delle reti
Il famoso schema del PageRank, che poi rimanda direttamente alla Teoria delle Reti: pagine popolari che rimandano ad altre pagine fanno diventare quest'ultime ancora più popolari

Il PageRank si dimostrò all'inizio estremamente accurato per l'epoca: col sistema delle preferenze basate su link in entrata le ricerche erano molto snelle, si evitavano i trucchetti di ben poco onesti webmaster (keyword ben posizionate e titoli-civetta), e le attinenze con le query degli utenti erano molto più precise.

Sembrava che il software quasi 'leggesse nel pensiero', e ciò era considerato incredibile, per l'epoca.

Uno dei punti forti del PageRank era l'algoritmo di calcolo: Page e Brin si accorsero che era molto più veloce far contare i link in entrata al sofware invece che analizzare tutte le keyword delle pagine in maniera sequenziale.

La velocità e l'attinenza delle ricerche fece quindi diventare Google molto popolare in brevissimo tempo, scalzando di fatto ogni altro search engine, AltaVista compreso.

Intuito che il nuovo software di Google analizzava in primis il PageRank, e quindi i link in entrata, i webmaster del periodo non ci misero molto ad adattare le loro strategie di SEO per ingraziarsi il nuovo algoritmo.

Col senno di poi, credo sia giusto mettere in luce una cosa molto importante della nascita di Google, forse ancora non del tutto ben realizzata: il PageRank, raffinatezza software a parte, è stato veramente importante nella storia del World Wide Web perché, per primo, ha iniziato a mettere in risalto la condivisione delle pagine come priorità per i webmaster.

I concetti come 'condivisione' e 'repost' che oggi diamo per scontati sono essenzialmente partiti da lì, da quando Google cambiò le carte in tavola, introducendo il premio per chi era 'più condiviso di altri.'

I backlink e lo scambio ossessivo

PageRank, nelle sue prime incarnazioni, era un algoritmo che sfruttava il concetto della Teoria delle Reti per operare al meglio.

Non era inizialmente programmato per controllare la qualità di chi, effettivamente, linkava cosa a cosa.

PageRank analizzava i numeri totali, e su quelli faceva essenzialmente affidamento.

Una volta capito come l'algoritmo 'ragionava', fu abbastanza facile iniziare a gabbarlo.

Il pagerank e lo schema della teoria delle reti
Come funziona un backlink classico: la pagina sorgente linka l'URL di una pagina target (od oggetto)

Capito che PageRank dava molta più importanza ai link esterni (provenienti da altri siti) piuttosto che da link interni (ciò provenienti dalle stesse pagine di un dominio), i webmaster cominciarono a modificare la loro strategia SEO creando pagine essenzialmente 'civetta', strapiene di backlink, che si scambiavano tra di loro.

Ancora, per migliorare ulteriormente la posizione e il PageRank di una data pagina, cominciarono ad essere creati interi siti civetta, molto spesso totalmente dal contenuto totalmente avulso ai link esterni delle pagine che puntavano, messi su solo per tenere alto il PageRank dei clienti paganti.

In qualche anno d'attività, il World Wide Web fu quindi praticamente sommerso da siti essenzialmente inutili, messi su non tanto per promuovere un prodotto o un brand, ma solo per pompare il PageRank di altre pagine (paganti) mediante i backlink.

Ciò creò degli scompensi nell'indice di Google, tanto che a metà anni 2000 la qualità totale delle ricerche era molto peggiorata, ed i risultati delle SERP videro un brusco calo di attinenza.

Ciò spinse l'azienda di Mountain View ad un totale cambio di rotta, modificando pesantemente l'agoritmo di Googlebot.

Google Panda e l'importanza dei contenuti

Dopo qualche modifica minoritaria all'algoritmo del PageRank, nel 2011 Google cambiò (anzi, stravolse) totalmente il suo Googlebot, introducendo il Panda Update.

In sostanza, i nuovi algoritmi ridimensionarono di molto, moltissimo il PageRank, ed introducendo nuovi elementi di valutazione come la qualità dei testi, l'usabilità del sito, l'autorevolezza dei backlink.

Backlink provenienti da pagine di scarsa qualità penalizzano la pagina che li riceve, rendendo in questo modo inutili le pagine civetta, piene zeppe di link messi lì solo per motivi di SEO.

In effetti, è stato notato che Panda Update non è stato altro che un filtro, necessario dopo anni di totale anarchia nel mercato.

Panda Update non è stato il solo miglioramento di Googlebot, ma è stato uno dei tanti, corposi, cambiamenti che hanno portato all'evoluzione dell'algoritmo di posizionamento.

Ormai l'algoritmo di Googlebot è molto avanzato, completamente differente da ciò che era all'origine: riesce a capire la semantica, la connessione logica, il posizionamento dei testi e dei contenuti (anche le foto), giudicandone in prima battuta la qualità e l'attinenza con le keyword della query dell'utente.

Il software è in continua espansione e miglioramento: Google modifica costantemente i suoi parametri e regola l'algoritmo in base all'evoluzione del mercato, delle richieste degli utenti, della tecnologia disponibile.

Hanno ancora importanza i backlink nella SEO attuale?

Sì, ne hanno.

Sebbene il PageRank non sia più prioritario nell'assegnazione della posizione all'indice di Google, i backlink continuano ad essere considerati da Googlebot e continuano ad avere un (seppur modesto) peso nei risultati della SERP.

Diversamente dal passato però, questo 'peso' può influire positivamente ma anche negativamente sulla pagina a cui puntano i backlink.

Questo perché Googlebot ora assegna un punteggio di qualità alle pagine che puntano ad altre pagine, e ciò è causato dall'autorevolezza del dominio che genera il backlink, dalla qualità della pagina, dall'età del link e dalla peritenza.

Come dici? Cosa c'entra l'età del link?

Eh, c'entra.

Google assegna punteggi preferenziali a pagine che hanno backlink pernamenti da tempo, stabili ed attivi.

Ciò non vuol dire che anche i nuovi backlink siano inutili: servono anche quelli, ma solitamente fanno ottenere un punteggio inferiore a quelli 'storici'.

La Topical Relevance

Uno dei parametri che Googlebot analizza con particolare attenzione è la pertinenza del backlink rispetto al contenuto della pagina a cui punta.

Come detto, Googlebot è capace di analizzare non solo le mere parole chiave, ma riesce a capire anche la semantica dei testi, e ha una limitata (per ora) percezione del contesto e delle espressioni logiche.

È quindi abbastanza 'intelligente' da capire se la pagina che origina in backlink sia attinente con la pagina obiettivo: è la Topical Relevance, l'indicatore che premia backlink di pagine collegate che si dimostrano coerenti tra di loro.

La coerenza intesa come sinonimo di pertinenza: più è alta, e più è alto il valore che Googlebot assegna al backlink.

Al contrario, si ha una Topical Relevance bassa è quando i backlink non sono pertinenti, quindi c'è poca o nulla correlazione tra le pagine sorgente ed oggetto.

In questo caso, il valore del blacklink viene penalizzato.

Strong backlink
Un backlink attinente: la pagina sorgente linka l'URL di una pagina che tratta argomenti simili o collegati (stesso settore, stessa azienda, stesse problematiche, ecc.)

L'agoritmo che tegola la Topical Relevance ha motivazioni facilmente comprensibili: prima del cambio di rotta dell'algoritmo, webmaster ben poco onesti miglioravano la SEO delle pagine collegando grandi quantità di link a siti civetta, che poco o nulla avevano a che vedere con le pagine oggetto.

Questo causava posizionamenti nelle SERP falsati di pagine non per merito od attinenza di contenuti, ma per puro calcolo di PageRank.

Ora, simili comportamenti abbastanza truffaldini non solo non aggiungono benefici, ma al contrario penalizzano le pagine non pertinenti.

Una pagina che è stata precedentemente penalizzata da Google, perché ritenuta pericolosa (malware, codice mal scritto, contenuto giudicato provocatorio, violento, truffaldino, ecc.) non passa valore ai suoi backlink.

Anzi, molti specialisti SEO ritengono che backlink da tali pagine possano far decadere il valore della pagina target.

In realtà Google cerca di non penalizzare direttamente backlink provenienti da pagine considerate di bassa qualità o penalizzate, in quanto sa bene che i backlink non sono un elemento direttamente modificabile dal proprietario della pagina oggetto.

In ogni caso, è sempre preferibile evitare di farsi linkare da pagine ritenute sospette da Google, anche se ciò non è esattamente facile da attuare.

La tipologia dei link

In HTML, un collegamento ipertestuale (hypertext) è un oggetto (testo o immagine) che rimanda ad un'altra pagina, oppure ad una posizione interna della pagina stessa.

A volte, l'ipertesto richiama una specifica funzione (ad esempio, l'esecuzione di Javascript), oppure un'azione, come richiamare un programma client email per inviare un messaggio di posta.

Il tag per richiamare un collegamento ipertestuale classico è <a href="collegamento">, e questo tag può essere applicato sia a testo che immagini.

Non tutte le tipologie di link sono uguali per Google: i backlink a cui Googlebot assegna miglior punteggio sono quelli provenienti dai testi, con a seguire poi le immagini (sempre che incorporino il metatag della descrizione).

I link che invece provengono da Javascript sono quelli peggio valutati, e non sempre comunque Googlebot è capace di recepirli correttamente.

Parlando di ipertesti, discorso particolare merita l'anchor text, ovverosia il 'testo di ancoraggio', in italiano.

Molto semplicemente, è il mero testo che viene rinchiuso nel tag <a href> e che fa diventare un semplice testo un ipertesto.

Sono considerati importanti da molti esperti della SEO, principalmente per una vecchia falla nell'algoritmo di Googlebot, ormai corretta da tempo.

Quando ancora il PageRank era tutto per il posizionamento di una data pagina e Googlebot non era così evoluto come ora, alcuni webmaster capirono molto presto che il testo di ancoraggio veniva rilevato dal crawler e veniva enfatizzato se si appaiava con le keyword della pagina.

Si creò così una schiera infinita di anchor text a profusione in ogni santa pagina creata a cavallo degli anni '90 e 2000, con una procedura sempre uguale, fastidiosa e noiosa sia da programmare e sia da sorbirsi in lettura.

Fortunatamente, tale mostruosità fini nel 2012, con l'introduzione dell'algoritmo Google Penguin.

Tale implementazione software, molto evoluta, da molti anni ha ripulito quasi completamente le pagine web da inutili e ridondanti anchor text e spam di keyword stile mantra.

Ora come ora, gli anchor text continuano ad essere valutati da Google, ma il loro uso deve essere funzionale e coerente con i contenuti della pagina.

Pagine web piene zeppe di anchor text sospetti vengono penalizzate in ottica SEO, e quindi è sempre bene non abusarne, usando gli ancoraggi col testo solo quando effettivamente servono.

Suggerimenti per link utili, e non punitivi

Ottenere il massimo dai backlink e non essere penalizzati da collegamenti di scarsa qualità è difficile: nessun webmaster o specialista SEO ha il potere di impedire agli altri di collegare una tale pagina alla propria.

Il massimo che puoi fare è quello di rifiutare i backlink indicando manualmente a Google quelli che proprio non vuoi e che ritieni non naturali (qui c'è la procedura nel dettaglio).

Sappi però che, solitamente, non dovresti preoccuparti troppo dei backlink non naturali: Googlebot è abbastanza evoluto da capire quali backlink sono da ignorare e quali no, quindi il tuo intervento manuale è generalmente non necessario.

Può essere utile saperlo fare, però.

Quello che dovresti invece sempre fare, è stare molto attento all'uso e all'abuso di anchor text.

Come abbiamo visto in precedenza, Penguin è un algoritmo molto efficace: riesce a capire quando stai abusando degli testi di ancoraggio e, nel caso che tu lo stia effettivamente facendo, è in grado di punirti penalizzandoti nella SERP.

Ricorda sempre il mantra di ogni buona SEO: "Produrre sempre contenuti attinenti, pertinenti e di qualità".

Al contrario di quello che puoi sicuramente leggere in molte guide e molti siti di SEO, l'unica regola che sinoira da sempre risultati certi e duraturi nel tempo è quella.

Hai bisogno di aiuto per la tua SEO?

Promozione e marketing a Roma

Vuoi ottimizzare e far risalire di posizione le tue pagine web?

Ti ascolto!

Mi occupo di SEO, SEM, e web copywriting da oltre 15 anni, e sono pronto ad ascoltarti e a mettere le mie conoscenze al servizio del tuo business.

Se hai bisogno di contattarmi velocemente, compila pure il modulo che trovi qui sotto: ti risponderò sempre entro 24 ore.

P.S. Presta attenzione ai campi con * perché sono obbligatori!

E se ci tieni davvero ad essere ricontattato, non sbagliare ad inserire il tuo numero telefonico ed il tuo indirizzo email!

Scrivimi ora, e ti aiuterÃ’!
prima consulenza sempre gratuita!
Contattami ora per la tua promozione digital
Tutti i campi con * sono obbligatori.
Ti risponderò entro 24 ore al recapito che sceglierai come preferenziale.
Sei interessato a:
Dove preferisci essere ricontattato?
Email Telefono


Questo modulo è protetto contro lo spam da Google Recaptcha
Se il form ti dà problemi d'invio,
puoi mandarmi una mail a
info[at]georgefiorini.eu
Digital Marketing a Milano
Vuoi contattarmi telefonicamente?
Sono sempre a tua disposizione, chiamami!

Siti web ottimizzati SEO
La tua agenzia pubblicitaria creativa a Milano
La tua agenzia pubblicitaria creativa a Milano
Giorgio Fiorini
Digital Specialist , SEO e SEM expert
Ho smontato il mio primo calcolatore elettronico a 9 anni, e miracolosamente sono riuscito a rimontarlo più o meno funzionante.
A 10 anni volevo essere Haran Banjo, a 40 mi sono accontentato di essere riuscito a divenire me stesso.
Non tutto si può vendere grazie al marketing, ma di certo senza il marketing niente si può vendere.
La buona promozione parte da un buon prodotto, al quale non si deve mai rinunciare.
Milano non è una città, è un bel vestito: ti fa risaltare solo se sei tu ad avere eleganza.
Ah: Uan era solo un bastardo rosa.

Sito anti-bufala
Professionisti certificati google per la tua pubblicità
Sono certificato Google, e così tutti quelli che lavorano per me
Una garanzia per te, un dovere professionale per me.
Le Certificazioni Google ti assicurano che sia io che i miei collaboratori siamo costantemente formati, anno dopo anno, e che ci teniamo sempre aggiornati sui servizi che ti offriamo.
Certificazione Google YouTube Video Ads
Google Ads Video Certification

Certificazione Google Measurement
Measurement Certification

Certificazione Google Search Ads
Google Ads Search Certification

Certificazione Google Dislay Ads
Google Ads Display Certification

Certificazione Google App Ads
Google Apps Certification

Certificazione Google Shopping Ads
Shopping Ads Certification
ti potrebbero interessare anche i seguenti contenuti:

Articoli generati da un'AI? No, grazie

Articoli sanitari scritti da umani e non ai

Tutti gli articoli sanitari presenti in questo sito sono stati scritti da professionisti umani.
Le informazioni sono date secondo i principi di scienza e coscienza, con fonti certe, verificate ed attendibili, senza ausilio di algoritmi generativi.
Nessun articolo è stato scritto, anche parzialmente, da un'intelligenza artificiale generativa.

Iscriviti alla mia newsletter

Iscriviti per essere sempre informato sul mondo della pubblicità, del marketing e della tecnologia!
Ti prometto che non ti manderò mai spam o proposte commerciali non attinenti ai tuoi interessi, ed i tuoi dati saranno trattati nel rispetto della legge sulla privacy!

Ti è piaciuta questa pagina? Vuoi parlarne con me?

È rapido e veloce: se hai il tuo profilo su uno dei seguenti social network, clicca semplicemente sul logo che ti interessa per aggiungermi ai tuoi amici: