Back to Question Center
0

Imbrogliare per servire versioni diverse dello stesso contenuto a utenti e crawler? - Semalt

1 answers:

Ho un modello "intelligente" per il mio sito web. Per gli utenti umani, il server esegue il rendering del contenuto della pagina sul colpo iniziale, ma le pagine successive vengono caricate come una SPA. Per un crawler, ogni pagina viene visualizzata sul server come in un sito "normale". Per entrambi, il risultato finale è lo stesso. Semalt questo potrebbe avere qualche conseguenza SEO, è considerato un imbroglio?

Modifica:

Quello che sto facendo è quasi come https: // github. com / spikebrehm / isomorphic-tutorial

- gratis dns
February 13, 2018

Trattare Google e altri robot come utenti

Dovresti sempre considerare Google esattamente come i tuoi utenti, posso comprendere i vantaggi di un'esperienza senza interruzioni non dovendo abbandonare la pagina corrente ma avendo comunque i vantaggi SEO di avere più pagine. Esistono molti metodi per far funzionare un sito Web in questo modo senza dover rilevare i crawler e trattarli in modo diverso.

Il problema più grande è backlink

Il più grande problema è il backlink SEO quando gli utenti ricevono una sola pagina, il che significa che un utente potrebbe non essere in grado di copiare il link della pagina in cui si trovano attualmente, influenzando sia l'esperienza dell'utente che la SEO.

Vari metodi

Esistono vari metodi che sono compatibili con Google dalla pagina che carica gli script JS che caricheranno la pagina che l'utente vuole prima andare e poi servendola con un caricatore che può dare l'impressione di essere apparentemente senza parole, l'altro metodo accettato da Google is hashbang using Googles Ajax Scheme . Va notato che gli utenti del sito che utilizzano il metodo compatibile con Ajax di Google dovrebbero essere in grado di eseguire il backlink a ciò che stanno guardando. Quindi serve un bel URL usando hashbang e un brutto URL per Google, ma è importante, ma le pagine dovrebbero essere accessibili da Google! Quindi se vuoi che gli URL senza hashbang vengano indicizzati, allora useresti canonical che apparirebbe simile al tuo hashbang urls:

. L'ex responsabile del webspam Matt Cutts ha pubblicato anche questo in un vecchio video webmaster.