Cos’è la SEO? Ingegneria inversa dell’intelligenza artificiale di Google (2022)
L’ottimizzazione per i motori di ricerca (SEO) è il processo di ottimizzazione dei fattori on-page e off-page che incidono sul posizionamento di una pagina web per uno specifico termine di ricerca. Questo è un processo sfaccettato che include l’ottimizzazione della velocità di caricamento della pagina, la generazione di una strategia di creazione di link e l’apprendimento di come eseguire il reverse engineering dell’intelligenza artificiale di Google utilizzando il pensiero computazionale .
Il pensiero computazionale è un tipo avanzato di analisi e tecnica di risoluzione dei problemi che i programmatori di computer utilizzano durante la scrittura di codice e algoritmi. I pensatori computazionali cercheranno la verità fondamentale scomponendo un problema e analizzandolo utilizzando il pensiero dei primi principi.
Dal momento che Google non rilascia la sua salsa segreta a nessuno, faremo affidamento sul pensiero computazionale. Esamineremo alcuni momenti cruciali nella storia di Google che hanno plasmato gli algoritmi utilizzati e scopriremo perché è importante.
Come creare una mente
Inizieremo con un libro pubblicato nel 2012, intitolato ” Come creare una mente: il segreto del pensiero umano rivelato ” dal famoso futurista e inventore Ray Kurzweil. Questo libro ha sezionato il cervello umano e ne ha analizzato il modo in cui funziona. Impariamo da zero come il cervello si alleni usando il riconoscimento di schemi per diventare una macchina di previsione, lavorando sempre per predire il futuro, prevedendo anche la parola successiva.
In che modo gli esseri umani riconoscono i modelli nella vita di tutti i giorni? Come si formano queste connessioni nel cervello? Il libro inizia con la comprensione del pensiero gerarchico, questa è la comprensione di una struttura composta da diversi elementi che sono disposti in uno schema, questa disposizione rappresenta quindi un simbolo come una lettera o un carattere, e poi questo è ulteriormente organizzato in uno schema più avanzato come una parola, e infine una frase. Alla fine questi modelli formano idee e queste idee vengono trasformate nei prodotti che gli esseri umani sono responsabili della costruzione.
Emulando il cervello umano, rivelato è un percorso per creare un’intelligenza artificiale avanzata oltre le attuali capacità delle reti neurali che esistevano al momento della pubblicazione.
Il libro era un progetto per la creazione di un’intelligenza artificiale in grado di scalare aspirando i dati del mondo e utilizzare la sua elaborazione di riconoscimento di modelli a più livelli per analizzare testo, immagini, audio e video. Un sistema ottimizzato per l’upscaling grazie ai vantaggi del cloud e alle sue capacità di elaborazione parallela. In altre parole, non ci sarebbe un massimo sull’input o sull’output dei dati.
Questo libro è stato così fondamentale che subito dopo la sua pubblicazione l’autore Ray Kurzweil è stato assunto da Google per diventare il direttore dell’ingegneria incentrato sull’apprendimento automatico e l’elaborazione del linguaggio. Un ruolo perfettamente in linea con il libro che aveva scritto.
Sarebbe impossibile negare quanto questo libro sia stato influente per il futuro di Google e come classificano i siti web. Questo libro sull’intelligenza artificiale dovrebbe essere una lettura obbligatoria per chiunque desideri diventare un esperto SEO.
DeepMind
Lanciata nel 2010, DeepMind era una nuova startup che utilizzava un nuovo tipo rivoluzionario di algoritmo di intelligenza artificiale che stava prendendo d’assalto il mondo, si chiamava apprendimento per rinforzo . DeepMind lo ha descritto meglio come:
“Vi presentiamo il primo modello di deep learning per apprendere con successo le politiche di controllo direttamente dall’input sensoriale ad alta dimensione utilizzando l’apprendimento per rinforzo. Il modello è una rete neurale convoluzionale , addestrata con una variante di Q-learning, il cui input è costituito da pixel grezzi e il cui output è una funzione di valore che stima le ricompense future.
Fondendo l’apprendimento profondo con l’apprendimento per rinforzo, è diventato un sistema di apprendimento per rinforzo profondo . Nel 2013, DeepMind utilizzava questi algoritmi per accumulare vittorie contro giocatori umani nei giochi Atari 2600. E questo è stato ottenuto imitando il cervello umano e il modo in cui impara dall’allenamento e dalla ripetizione.
Simile a come un essere umano impara ripetendo, che si tratti di calciare un pallone o giocare a Tetris, anche l’IA imparerebbe. La rete neurale dell’intelligenza artificiale ha monitorato le prestazioni e si sarebbe auto-migliorata in modo incrementale, con conseguente selezione delle mosse più forte nella successiva iterazione.
DeepMind era così dominante nel suo vantaggio tecnologico che Google ha dovuto acquistare l’accesso alla tecnologia. DeepMind è stata acquisita per oltre 500 milioni di dollari nel 2014.
Dopo l’acquisizione, l’industria dell’intelligenza artificiale ha assistito a scoperte successive, un tipo che non si vedeva dall’11 maggio 1997, quando il grande maestro di scacchi Garry Kasparov perse la prima partita di una partita di sei partite contro Deep Blue, un computer per giocare a scacchi sviluppato dagli scienziati di IBM.
Nel 2015, DeepMind ha perfezionato l’algoritmo per testarlo sulla suite di 49 giochi di Atari e la macchina ha battuto le prestazioni umane su 23 di essi.
Quello era solo l’inizio, più tardi nel 2015 DeepMind ha iniziato a concentrarsi su AlphaGo , un programma con l’obiettivo dichiarato di sconfiggere un campione del mondo di Go professionista. L’antico gioco del Go, visto per la prima volta in Cina circa 4000 anni fa, è considerato il gioco più impegnativo della storia umana, con le sue potenziali 10 360 mosse possibili.
DeepMind ha utilizzato l’apprendimento supervisionato per addestrare il sistema AlphaGo imparando dai giocatori umani. Poco dopo, DeepMind ha fatto notizia dopo che AlphaGo ha battuto Lee Sedol , il campione del mondo, in una partita di cinque partite nel marzo 2016.
Non essere da meno, nell’ottobre 2017 DeepMind ha rilasciato AlphaGo Zero, un nuovo modello con l’elemento chiave di differenziazione che non richiedeva alcuna formazione umana. Poiché non richiedeva formazione umana, non richiedeva nemmeno l’etichettatura dei dati, il sistema utilizzava essenzialmente l’apprendimento senza supervisione . AlphaGo Zero ha rapidamente superato il suo predecessore, come descritto da DeepMind .
“Le versioni precedenti di AlphaGo si sono inizialmente addestrate su migliaia di giochi umani amatoriali e professionali per imparare a giocare a Go. AlphaGo Zero salta questo passaggio e impara a giocare semplicemente giocando contro se stesso, partendo da un gioco completamente casuale. In tal modo, ha rapidamente superato il livello di gioco umano e ha sconfitto la versione precedentemente pubblicata di AlphaGo di AlphaGo di 100 partite a 0.
Nel frattempo, il mondo SEO era iper focalizzato sul PageRank, la spina dorsale di Google. Inizia nel 1995, quando Larry Page e Sergey Brin erano Ph.D. studenti della Stanford University. Il duo ha iniziato a collaborare a un nuovo progetto di ricerca soprannominato ” BackRub “. L’obiettivo era classificare le pagine Web in una misura di importanza convertendo i loro dati di backlink. Un backlink è semplicemente qualsiasi collegamento da una pagina a un’altra, simile a this link .
L’algoritmo è stato successivamente rinominato in PageRank, dal nome sia del termine “pagina web” che del co-fondatore Larry Page. Larry Page e Sergey Brin avevano l’ambizioso obiettivo di costruire un motore di ricerca in grado di alimentare l’intero Web esclusivamente tramite backlink.
E ha funzionato.
PageRank domina i titoli
I professionisti SEO hanno capito immediatamente le basi di come Google calcola un ranking di qualità per una pagina web utilizzando il PageRank. Alcuni esperti SEO black hat hanno fatto un ulteriore passo avanti, comprendendo che per ridimensionare i contenuti potrebbe avere senso acquistare link invece di aspettare di acquisirli organicamente.
Una nuova economia è emersa attorno ai backlink. I proprietari di siti Web desiderosi che avevano bisogno di influire sul posizionamento nei motori di ricerca acquisterebbero collegamenti e, in cambio, nel disperato tentativo di monetizzare i siti Web, venderebbero loro collegamenti.
I siti Web che hanno acquistato i collegamenti spesso hanno invaso Google dall’oggi al domani superando i marchi affermati.
La classificazione con questo metodo ha funzionato molto bene per molto tempo: fino a quando non ha smesso di funzionare, probabilmente nello stesso periodo in cui l’apprendimento automatico è entrato in azione e ha risolto il problema sottostante. Con l’introduzione del deep reinforcement learning , il PageRank diventerebbe una variabile di ranking, non il fattore dominante.
Ormai la comunità SEO è divisa sull’acquisto di link come strategia. Personalmente credo che l’acquisto di link offra risultati non ottimali e che i metodi migliori per acquisire backlink si basino su variabili specifiche del settore. Un servizio legittimo che posso consigliare si chiama HARO (Help a Reporter Out). L’opportunità di HARO è acquisire backlink soddisfacendo le richieste dei media.
I marchi affermati non hanno mai dovuto preoccuparsi di reperire collegamenti, poiché avevano i vantaggi del tempo che lavorava a loro favore. Più vecchio è un sito web, più tempo ha avuto per raccogliere backlink di alta qualità. In altre parole, il posizionamento nei motori di ricerca dipendeva fortemente dall’età di un sito Web, se si calcola utilizzando la metrica tempo = backlink .
Ad esempio, la CNN riceverebbe naturalmente backlink per un articolo di notizie grazie al suo marchio, alla sua fiducia e perché era elencato in alto per cominciare – Quindi naturalmente ha ottenuto più backlink da persone che effettuano ricerche su un articolo e si collegano al primo risultato di ricerca che hanno trovato .
Ciò significa che le pagine web con un punteggio più alto hanno ricevuto organicamente più backlink. Sfortunatamente, ciò significava che i nuovi siti Web erano spesso costretti ad abusare dell’algoritmo di backlink rivolgendosi a un mercato di backlink.
All’inizio degli anni 2000, l’acquisto di backlink funzionava molto bene ed era un processo semplice. Gli acquirenti di link hanno acquistato link da siti Web di alta autorità, spesso collegamenti a piè di pagina in tutto il sito o forse in base all’articolo (spesso camuffato da guest post) e i venditori che cercavano disperatamente di monetizzare i loro siti Web erano felici di accontentarli – Sfortunatamente, spesso a sacrificio di qualità.
Alla fine il pool di talenti di Google di ingegneri dell’apprendimento automatico ha capito che la codifica manuale dei risultati dei motori di ricerca era inutile e che gran parte del PageRank era codifica scritta a mano. Invece hanno capito che l’IA alla fine sarebbe diventata responsabile del calcolo completo delle classifiche senza alcuna interferenza umana.
Per rimanere competitivi, Google utilizza tutti gli strumenti del proprio arsenale e questo include il deep reinforcement learning , il tipo più avanzato di algoritmo di machine learning al mondo.
Questo sistema, sovrapposto all’acquisizione di MetaWeb da parte di Google, è stato un punto di svolta. Il motivo per cui l’acquisizione di MetaWeb nel 2010 è stata così importante è che ha ridotto il peso che Google attribuiva alle parole chiave. Il contesto è diventato improvvisamente importante, questo è stato ottenuto utilizzando una metodologia di categorizzazione chiamata “entità”. Come descritto da Fast Company :
Una volta che Metaweb ha capito a quale entità ti riferisci, può fornire una serie di risultati. Può persino combinare entità per ricerche più complesse: “attrici over 40” potrebbe essere un’entità, “attrici che vivono a New York City” potrebbe essere un’altra e “attrici con un film attualmente in riproduzione” potrebbe essere un’altra. “.
Questa tecnologia è stata inserita in un importante aggiornamento dell’algoritmo chiamato RankBrain che è stato lanciato nella primavera del 2015. RankBrain si è concentrato sulla comprensione del contesto invece di essere puramente basato su parole chiave, e RankBrain prendeva in considerazione anche i contesti ambientali (ad es. stato nessuno prima. Questo è stato un aggiornamento importante soprattutto per gli utenti mobili.
Ora che abbiamo capito come Google utilizza queste tecnologie, usiamo la teoria computazionale per speculare su come è fatto.
Che cos’è l’apprendimento profondo?
Il deep learning è il tipo di machine learning più comunemente utilizzato: sarebbe impossibile per Google non utilizzare questo algoritmo.
L’apprendimento profondo è influenzato in modo significativo dal modo in cui opera il cervello umano e tenta di rispecchiare il comportamento del cervello nel modo in cui utilizza il riconoscimento di schemi per identificare e classificare gli oggetti.
Ad esempio, se vedi la lettera a , il tuo cervello riconosce automaticamente le linee e le forme per poi identificarla come lettera a . Lo stesso viene applicato dalle lettere ap , il tuo cervello tenta automaticamente di prevedere il futuro inventando potenziali parole come app o apple . Altri modelli possono includere numeri, segnali stradali o l’identificazione di una persona cara in un aeroporto affollato.
Puoi pensare alle interconnessioni in un sistema di apprendimento profondo come simili a come opera il cervello umano con la connessione di neuroni e sinapsi.
L’apprendimento profondo è in definitiva il termine dato alle architetture di apprendimento automatico che uniscono molti perceptron multistrato insieme, in modo che non ci sia solo uno strato nascosto ma molti strati nascosti. Più “profonda” è la rete neurale profonda, più modelli sofisticati la rete può apprendere.
Le reti completamente connesse possono essere combinate con altre funzioni di machine learning per creare diverse architetture di deep learning.
In che modo Google utilizza il deep learning
Google fa lo spider dei siti Web del mondo seguendo i collegamenti ipertestuali (si pensi ai neuroni) che collegano i siti Web tra loro. Questa era la metodologia originale che Google ha utilizzato fin dal primo giorno ed è ancora in uso. Una volta che i siti web sono stati indicizzati, vengono utilizzati vari tipi di intelligenza artificiale per analizzare questo tesoro di dati.
Il sistema di Google etichetta le pagine web in base a varie metriche interne, con solo input o interventi umani minori. Un esempio di intervento potrebbe essere la rimozione manuale di un URL specifico a causa di una richiesta di rimozione DMCA .
Gli ingegneri di Google sono famosi per i partecipanti frustranti alle conferenze SEO e questo perché i dirigenti di Google non possono mai articolare correttamente il modo in cui opera Google. Quando vengono poste domande sul motivo per cui alcuni siti Web non riescono a classificarsi, è quasi sempre la stessa risposta mal articolata. La risposta è così frequente che spesso i partecipanti affermano preventivamente di essersi impegnati a creare buoni contenuti per mesi o addirittura anni senza risultati positivi.
Com’era prevedibile, ai proprietari di siti Web viene chiesto di concentrarsi sulla creazione di contenuti di valore: una componente importante, ma lungi dall’essere completa.
Questa mancanza di risposta è dovuta al fatto che i dirigenti non sono in grado di rispondere correttamente alla domanda. L’algoritmo di Google opera in una scatola nera. C’è l’input e poi l’output, ed è così che funziona il deep learning.
Torniamo ora a una penalizzazione del ranking che ha un impatto negativo su milioni di siti web, spesso all’insaputa del proprietario del sito web.
Informazioni sulla velocità della pagina
Google spesso non è trasparente, PageSpeed Insights è l’eccezione. I siti Web che non superano questo test di velocità verranno inviati in una casella di penalità per il caricamento lento, soprattutto se gli utenti di dispositivi mobili ne risentono.
Ciò che si sospetta è che a un certo punto del processo ci sia un albero decisionale che analizza i siti web veloci, rispetto ai siti web a caricamento lento (PageSpeed Insights fallito). Un albero decisionale è essenzialmente un approccio algoritmico che suddivide il set di dati in singoli punti dati in base a criteri diversi. I criteri potrebbero essere quelli di influenzare negativamente il posizionamento di una pagina per gli utenti mobili rispetto a quelli desktop.
Ipoteticamente potrebbe essere applicata una penalità al punteggio di classifica naturale. Ad esempio, un sito Web che senza penalità si classificherebbe al 5° posto potrebbe avere -20, -50 o qualche altra variabile sconosciuta che ridurrà il rank a #25, #55 o un altro numero selezionato dall’IA.
In futuro potremmo vedere la fine di PageSpeed Insights, quando Google acquisirà maggiore fiducia nella propria intelligenza artificiale. Questo attuale intervento sulla velocità da parte di Google è pericoloso in quanto potrebbe potenzialmente eliminare risultati che sarebbero stati ottimali e discrimina i meno esperti di tecnologia.
È una grande richiesta chiedere a tutti coloro che gestiscono una piccola impresa di avere l’esperienza per diagnosticare e risolvere con successo i problemi dei test di velocità. Una soluzione semplice sarebbe che Google rilasciasse semplicemente un plug-in per l’ottimizzazione della velocità per gli utenti di wordpress, poiché wordpress alimenta il 43% di Internet.
Sfortunatamente, tutti gli sforzi SEO sono vani se un sito web non supera il PageSpeed Insights di Google . La posta in gioco non è altro che un sito Web che scompare da Google.
Come superare questo test è un articolo per un’altra volta, ma come minimo dovresti verificare se il tuo sito web lo supera .
Un’altra metrica tecnica importante di cui preoccuparsi è un protocollo di sicurezza chiamato SSL (Secure Sockets Layer). Ciò modifica l’URL di un dominio da http a https e garantisce la trasmissione sicura dei dati. Qualsiasi sito web che non ha SSL abilitato sarà penalizzato. Sebbene ci siano alcune eccezioni a questa regola, i siti Web di e-commerce e finanziari saranno maggiormente colpiti.
Gli host web a basso costo addebitano una tariffa annuale per l’implementazione SSL, mentre i buoni host web come Siteground emettono certificati SSL gratuitamente e li integrano automaticamente.
Metadati
Un altro elemento importante del sito è il Meta Title e la Meta description. Questi campi di contenuto hanno un ordine di importanza fuori misura che può contribuire al successo o al fallimento di una pagina tanto quanto l’intero contenuto di quella pagina.
Questo perché Google ha un’alta probabilità di selezionare il Meta Title e la Meta description da mostrare nei risultati di ricerca. Ed è per questo che è importante compilare il campo meta title e meta description il più attentamente possibile.
L’alternativa è che Google può scegliere di ignorare il meta titolo e la meta descrizione per generare invece automaticamente i dati che prevede si tradurranno in più clic. Se Google prevede male quale titolo generare automaticamente, ciò contribuirà a ridurre il numero di clic da parte degli utenti e di conseguenza ciò contribuirà alla perdita del posizionamento nei motori di ricerca.
Se Google ritiene che la meta descrizione inclusa sia ottimizzata per ricevere clic, la mostrerà nei risultati di ricerca. In caso contrario, Google prende una parte casuale di testo dal sito web. Spesso Google seleziona il miglior testo sulla pagina, il problema è che questo è il sistema della lotteria e Google è costantemente pessimo nello scegliere quale descrizione selezionare.
Naturalmente, se ritieni che il contenuto della tua pagina sia davvero buono, a volte ha senso consentire a Google di scegliere la meta descrizione ottimizzata che meglio corrisponde alla query dell’utente. Opteremo per nessuna meta descrizione per questo articolo poiché è ricco di contenuti ed è probabile che Google selezioni una buona descrizione.
Nel frattempo, miliardi di persone fanno clic sui migliori risultati di ricerca – Questo è l’ human-in-the-loop , l’ultimo meccanismo di feedback di Google – Ed è qui che entra in gioco l’apprendimento per rinforzo.
Cos’è l’apprendimento per rinforzo?
L’apprendimento per rinforzo è una tecnica di apprendimento automatico che prevede l’addestramento di un agente di intelligenza artificiale attraverso la ripetizione di azioni e le relative ricompense. Un agente di apprendimento per rinforzo sperimenta in un ambiente, intraprende azioni ed è ricompensato quando vengono intraprese le azioni corrette. Nel tempo, l’agente impara a intraprendere le azioni che massimizzeranno la sua ricompensa.
La ricompensa potrebbe essere basata su un semplice calcolo che calcola la quantità di tempo trascorso su una pagina consigliata.
Se combini questa metodologia con una sub-routine Human-in-the-loop, sembrerebbe molto simile ai motori di raccomandazione esistenti che controllano tutti gli aspetti delle nostre vite digitali come YouTube, Netflix, Amazon Prime. un motore di ricerca dovrebbe funzionare, hai ragione.
In che modo Google utilizza l’apprendimento per rinforzo
Il volano di Google migliora con ogni ricerca, gli esseri umani addestrano l’intelligenza artificiale selezionando il miglior risultato che risponde meglio alla loro domanda e alla domanda simile di milioni di altri utenti.
L’agente di apprendimento rinforzante lavora continuamente all’auto-miglioramento rafforzando solo le interazioni più positive tra la ricerca e il risultato della ricerca fornito.
Google misura la quantità di tempo necessaria a un utente per scansionare la pagina dei risultati, l’URL su cui fa clic e misura la quantità di tempo trascorso sul sito Web visitato e registra il clic di ritorno. Questi dati vengono quindi compilati e confrontati per ogni sito Web che offre una corrispondenza di dati simile o un’esperienza utente simile.
Un sito Web con un basso tasso di ritenzione (tempo trascorso sul sito) viene quindi alimentato dal sistema di apprendimento per rinforzo con un valore negativo e altri siti Web concorrenti vengono testati per migliorare le classifiche offerte. Google è imparziale, supponendo che non ci sia alcun intervento manuale, Google alla fine fornisce la pagina dei risultati di ricerca desiderata.
Gli utenti sono l’essere umano nel giro che fornisce a Google dati gratuiti e diventano il componente finale del sistema di apprendimento per rinforzo profondo. In cambio di questo servizio, Google offre all’utente finale la possibilità di fare clic su un annuncio.
Gli annunci al di fuori della generazione di entrate fungono da fattore di ranking secondario, fornendo più dati su ciò che spinge un utente a fare clic.
Google essenzialmente apprende ciò che un utente desidera. Questo può essere vagamente paragonato a un motore di raccomandazione da un servizio di streaming video. In tal caso, un motore di raccomandazione alimenterebbe un contenuto utente mirato ai suoi interessi. Ad esempio, un utente che gode abitualmente di un flusso di commedie romantiche potrebbe apprezzare alcune parodie se condividono gli stessi comici.
In che modo questo aiuta la SEO?
Se continuiamo con il pensiero computazionale, possiamo presumere che Google si sia allenato per fornire i migliori risultati, e questo è spesso ottenuto generalizzando e soddisfacendo i pregiudizi umani. Sarebbe infatti impossibile per l’intelligenza artificiale di Google non ottimizzare i risultati che soddisfano questi pregiudizi, se lo facesse i risultati sarebbero subottimali.
In altre parole non esiste una formula magica, ma esistono alcune buone pratiche.
È responsabilità del professionista SEO riconoscere i pregiudizi che Google cerca che sono specifici del proprio settore e alimentare tali pregiudizi. Ad esempio, qualcuno che cerca i risultati dei sondaggi elettorali senza specificare una data, molto probabilmente sta cercando i risultati più recenti: questo è un bias di recency. Chi cerca una ricetta, molto probabilmente non ha bisogno della pagina più recente, e potrebbe anzi preferire una ricetta che ha resistito alla prova del tempo.
È responsabilità del professionista SEO offrire ai visitatori i risultati che stanno cercando. Questo è il modo più sostenibile per posizionarsi su Google.
I proprietari di siti Web devono abbandonare il targeting di una parola chiave specifica con l’aspettativa di poter fornire ciò che desiderano all’utente finale. Il risultato della ricerca deve corrispondere esattamente alle esigenze dell’utente.
Cos’è un pregiudizio? Potrebbe avere un nome di dominio che sembra di alta autorità, in altre parole il nome di dominio corrisponde al mercato che stai servendo? Avere un nome di dominio con la parola India può scoraggiare gli utenti statunitensi dal fare clic sull’URL, a causa di un pregiudizio nazionalista di risultati attendibili che provengono dal paese di residenza di un utente. Avere un dominio di una sola parola può anche dare l’illusione dell’autorità.
Il pregiudizio più importante è cosa vuole un utente per abbinare la sua query di ricerca? È una FAQ, una top 10, un post sul blog? A questo è necessario rispondere e la risposta è facile da trovare. Devi solo analizzare la concorrenza eseguendo una ricerca su Google nel tuo mercato di riferimento.
Black Hat SEO è morto
Confrontalo con Black Hat SEO, un metodo aggressivo per classificare i siti Web che sfrutta subdole tecniche SPAM, tra cui l’acquisto di backlink, la falsificazione di backlink, l’hacking di siti Web, la generazione automatica di social bookmark su larga scala e altre metodologie oscure applicate tramite una rete di strumenti black hat .
Strumenti che vengono spesso riproposti e rivenduti su vari forum di marketing sui motori di ricerca, prodotti quasi privi di valore e con poche probabilità di successo. Al momento questi strumenti consentono ai venditori di diventare ricchi mentre offrono un valore minimo all’utente finale.
Questo è il motivo per cui consiglio di abbandonare Black Hat. Concentra il tuo SEO sulla visualizzazione dall’obiettivo dell’apprendimento automatico. È importante capire che ogni volta che qualcuno salta un risultato di ricerca per fare clic su un risultato nascosto sotto, è l’essere umano nel giro che collabora con il sistema di apprendimento per rinforzo profondo. L’umano sta assistendo l’IA con l’auto-miglioramento, diventando infinitamente migliore col passare del tempo.
Questo è un algoritmo di apprendimento automatico che è stato addestrato da più utenti di qualsiasi altro sistema nella storia umana.
Google gestisce in media 3,8 milioni di ricerche al minuto in tutto il mondo. Ciò equivale a 228 milioni di ricerche all’ora, 5,6 miliardi di ricerche al giorno . Sono molti dati, ed è per questo che è sciocco tentare un SEO black hat. Supponendo che l’intelligenza artificiale di Google rimarrà stagnante è sciocco, il sistema sta utilizzando la legge dei rendimenti accelerati per auto-migliorarsi in modo esponenziale.
L’intelligenza artificiale di Google sta diventando così potente che è concepibile che alla fine possa diventare la prima intelligenza artificiale a raggiungere l’ Artificial General Intelligence (AGI). Un AGI è un’intelligenza che è in grado di utilizzare l’apprendimento del trasferimento per padroneggiare un campo per poi applicare l’intelligenza appresa su più domini. Sebbene possa essere interessante esplorare i futuri sforzi AGI di Google, dovrebbe essere chiaro che una volta che il processo è in atto è difficile fermarlo. Questo ovviamente sta speculando sul futuro poiché Google è attualmente un tipo di IA ristretta, ma questo è un argomento per un altro articolo.
Sapendo che spendere un secondo in più per il cappello nero è una commissione da pazzi.
WHITE HAT SEO
Se accettiamo che l’intelligenza artificiale di Google si auto-migliorerà continuamente, allora non abbiamo altra scelta che rinunciare a tentare di superare in astuzia Google. Invece, concentrati sull’ottimizzazione di un sito web per fornire in modo ottimale a Google ciò che sta cercando.
Come descritto, ciò comporta l’abilitazione di SSL, l’ottimizzazione della velocità di caricamento della pagina e l’ottimizzazione di Meta Title e Meta Description. Per ottimizzare questi campi, il Meta Title e la Meta Description devono essere confrontati con i siti Web concorrenti: identificare gli elementi vincenti che si traducono in un’elevata percentuale di clic.
Se hai ottimizzato il fatto di essere cliccato, il prossimo traguardo è creare la migliore pagina di destinazione. L’obiettivo è una pagina di destinazione che ottimizzi così tanto il valore per l’utente che il tempo medio trascorso sulla pagina superi concorrenti simili che si contendono i migliori risultati dei motori di ricerca.
Solo offrendo la migliore esperienza utente una pagina web può aumentare il ranking.
Finora abbiamo identificato queste metriche come le più importanti:
Velocità di caricamento
SSL abilitato
Meta titolo e meta descrizione
Pagina di destinazione
La pagina di destinazione è l’elemento più difficile in quanto competi contro il mondo. La pagina di destinazione deve caricarsi rapidamente e deve servire tutto ciò che ci si aspetta, quindi sorprendere l’utente con altro.
Pensieri finali
Sarebbe facile riempire altre 2000 parole che descrivono altre tecnologie di intelligenza artificiale utilizzate da Google, nonché scavare ulteriormente nella tana del coniglio della SEO. L’intenzione qui è di focalizzare nuovamente l’attenzione sulle metriche più importanti.
I partizionatori SEO sono così concentrati sul gioco del sistema che dimenticano che alla fine della giornata, l’elemento più importante del SEO è dare agli utenti il massimo valore possibile.
Un modo per raggiungere questo obiettivo è non permettere mai che i contenuti importanti diventino obsoleti. Se tra un mese mi verrà in mente un contributo importante, verrà aggiunto a questo articolo. Google può quindi identificare quanto è fresco il contenuto, abbinato alla cronologia della pagina che fornisce valore.
Se sei ancora preoccupato per l’acquisizione di backlink, la soluzione è semplice. Rispetta il tempo dei tuoi visitatori e dai loro valore. I backlink arriveranno naturalmente, poiché gli utenti troveranno valore nella condivisione dei tuoi contenuti.
La domanda si sposta quindi sul proprietario del sito Web su come fornire il miglior valore utente e la migliore esperienza utente.
Antonio Tardif da unite.ai