Top 10 neînţelegeri despre Google & SEO

Top 10 neînţelegeri despre Google & SEO

10 lucruri pe care credeți că le știți despre SEO, dar care sunt, de fapt, mituri

Agenția dvs. de construire a legăturilor vă pierde bugetul?

SEO este renumit pentru dezinformare, neînțelegeri și concepții greșite. Acest lucru nu este neînsemnat, din cauza faptului că Google este oarecum o cutie neagră care încearcă să limiteze jocul SERP-urilor.

Cu toate acestea, în ultima vreme, Google a făcut pași vizibili pentru a deveni mai transparent prin creșterea activității în comunitatea SEO.

Indiferent dacă este vorba de Hangouts Webmaster obișnuit, angajamente de vorbire la conferințe sau metafore profunde pe Twitter, cum ar fi John Mueller, Gary Illyes și Danny Sullivan, Google ajută la demontarea miturilor SEO prin fapte.

Pentru a demonta în continuare aceste mituri, am făcut o listă cu 10 greșeli comune despre Google și SEO și de ce ele se întȃmplă.

Mitul 1: Google penalizează conținutul duplicat

Pedeapsa conținutului duplicat nu există. Google nu penalizează site-urile pentru conținutul duplicat.

Google înțelege că conținutul duplicat este o parte firească a paginii web și dorește să indexeze pagina de cea mai bună calitate și cea mai relevantă, astfel încât utilizatorii să nu fie prezentați în mod repetat cu același conținut în rezultatele căutării.

Cu excepția cazului în care un site încearcă să manipuleze clasamentele și este în întregime alcătuit din conținut duplicat, cel mai grav scenariu care rezultă din conținutul duplicat este acela că paginile similare sunt strȃnse împreună în index și că este afișată o versiune alternativă a paginii.

Specialiștii în SEO pot oferi motoarelor de căutare un număr de semnale cu privire la paginile pe care doresc să le indexeze, incluzând utilizarea corectă a canonicelor, includerea sitemap-urilor și link-urile interne care indică pagina preferată.

Mitul 2: Google Respectă URL-ul canonic ca versiune preferată pentru indexare

Doar pentru că ați stabilit o adresă URL ca versiune preferată pentru indexare printr-o etichetă canonică aceasta nu înseamnă că această pagină este cea pe care Google o va selecta pentru indexare.

Relația canonică este tratată ca un semnal de către Google pentru pagina preferată și nu este întotdeauna respectată.

Astfel de cazuri pot fi găsite în noua versiune a Consolei de Căutare Google în raportul de acoperire index sub steagul “Adresa URL trimisă nu este selectată drept canonică”.

Google poate alege o altă pagină decât cea pe care ați selectat-o ​​drept canonică atunci când judecă o altă pagină într-un set de duplicate, pentru a fi un candidat mai bun la afişarea în căutare.

În astfel de cazuri, ar fi recomandat să analizați dacă pagina canonică pe care ați selectat-o, cea dorită indexării. Dacă este, atunci va trebui să vă uitați la semnalele discutate anterior (sitemap-uri, link-uri interne etc.), pentru a verifica dacă indică versiunea preferată.

Cheia este să vă asigurați că trimiteți semnale Google consistente cu privire la versiunea preferată a paginii.

Mitul 3: Actualizările de calitate au ca rezultat sancțiuni algoritmice

Într-un interviu recent, fostul inginer Google Fili Wiese a vorbit despre mitul crimelor algoritmice:

“O concepție greșită care există adesea este în jurul unor lucruri precum Google Panda sau Phantom, așa cum o numește industria, sau Fred. Actualizări de calitate în principiu. Dar oamenii cred că sunt sancțiuni sau sancțiuni algoritmice (când ele, de fapt, nu sunt).

Problema este că nu există nici un fel de pedeapsă algoritmică, este de fapt o recalculare. E ca o cutie neagră mare, cu formula înăuntru, ai pus ceva înăuntru, ceva iese și ceea ce iese este clasamentul și ceea ce intră este site-ul tău.

Modificările algoritmului sunt doar modificări în interiorul cutiei negre, ceea ce înseamnă că ceea ce iese pe cealaltă parte este puțin diferit acum. Asta înseamnă că ai fost penalizat? Nu.

S-ar putea să te simți așa, dar nu ești penalizat”.

Aceasta este o diferență subtilă, pe care Wiese o ridică, dar în acelaşi timp una importantă în înțelegerea modului în care funcționează algoritmii de căutare Google.

Mitul 4: Google are 3 factori de top ai clasării

Aceasta a fost o veste mare în martie 2016, când Andrei Lipattsev a anunțat că link-urile, conţinutul și RankBrain-ul au constituit primii trei factori de clasificare Google.

Cu toate acestea, Mueller a respins această declarație într-un Hangout pentru webmasteri, spunând că nu este posibil să se determine cei mai importanți factori de clasificare, deoarece aceştia se schimbă de la întrebare la întrebare și de la zi la zi.

Nu este util să vă concentrați asupra semnalelor de clasificare individuale, deoarece algoritmii motoarelor de căutare sunt prea sofisticați pentru ca aceasta să fie o modalitate utilă de conceptualizare a algoritmilor.

În schimb, profesioniștii SEO ar trebui să se concentreze pe optimizarea site-urilor lor, pentru a îmbunătăți experiența utilizatorului, pentru a concorda cu intenția utilizatorului și, în sens mai larg, pentru a îmbunătăți calitatea site-ului, fiind totodată la curent cu ultimele evoluții ale Google.

Mitul 5: Sandbox-ul Google aplică un filtru la indexarea site-urilor noi

O altă concepție provine din modul în care Google tratează noi site-uri în index. Există o veche părere printre unii membri ai comunitaţii SEO că Google aplică un filtru pe site-uri noi pentru a opri site-urile spam din clasament imediat după lansare.

Mueller a pus groapa de nisip Google la culcare într-un hangout Webmaster atunci când a spus că nu există un astfel de filtru aplicat pe noile site-uri. El a spus însă că poate exista un set de algoritmi care ar putea arăta similar cu o groapă de nisip, dar că ei încearcă să înțeleagă modul în care site-ul se potrivește cu alții care încearcă să clasifice pentru aceleași interogări.

Acest lucru, în unele cazuri, poate însemna că paginile sunt clasate mai mult sau mai puțin pentru o perioadă de timp, în timp ce algoritmii Google analizează modul în care ei se potrivesc cu paginile concurente.

Mitul 6: Folosiți fișierul Disavow pentru a menține profilul link-ului site-ului

O caracteristică esențială a responsabilităților SEO a fost, pe filiera istorică, reducerea profilului de backlink al unui site, dezmințind legăturile de calitate scăzută sau spam.

Pe parcursul anilor, algoritmii Google s-au pretat mai bine la înțelegerea acestor tipuri de backlink-uri de calitatea scăzută, mai ales știind când ar trebui să fie ignorate. Drept urmare, necesitatea ca profesioniștii SEO să mențină și să actualizeze un fișier de Disavow a scăzut semnificativ.

La BrightonSEO, în septembrie 2017, Illyes a afirmat că dacă backlink-urile vin în mod organic la un site, este puțin probabil ca site-ul să primească o acțiune manuală . Illyes a continuat să spună că nu are un fișier Disavow (fişier de respingere) pentru propriul site personal.

Acum este recomandat doar să se folosească fișierul de respingere atunci când un site a primit o acțiune manuală, în scopul de a elimina legăturile ofensatoare.

Mitul 7: Valorile backlink-urilor Google din toate domeniile de înaltă autoritate

Crearea link-urilor de succes ar trebui să fie judecate de autoritatea și relevanța backlink-urilor care indică site-ul țintă. Totuși, backlink-urile din domeniile de înaltă autoritate sunt foarte căutate, indiferent cât de relevante sunt pentru site-ul țintă.

Cu toate acestea, o altă perspectivă obținută de la BrightonSEO Q & A a lui Illyes a arătat că Google ia în considerare contextul backlink-urilor, aceasta însemnȃnd că SEO acordă o importanță mai mare relevanței atunci când este după căutare de link-uri.

Illyes crede că există valoare în stabilirea link-urilor interne și externe, dar este important să ținem cont de context. Dacă un articol de proastă calitate (care nu are nimic de-a face cu site-ul dvs.) atacă site-ul dvs., Google îl va ignora, deoarece contextul nu se potrivește.

Mitul 8: Google utilizează viteza paginii ca semnal major de clasificare

Google a folosit viteza site-ului ca semnal de clasificare din anul 2010 și intuitiv ați crede că au o modalitate inteligentă de a-l încorpora ca o parte cheie a algoritmilor lor, mai ales că a devenit un subiect atât de important în SEO.

Cu toate acestea, Mueller a explicat că, deși ei au planuri de introducere a unei actualizări de viteză târziu, în 2018, Google utilizează doar viteza pentru a diferenția între pagini lente și cele din intervalul normal.

DeepCrawl (dezvăluire: lucrez pentru DeepCrawl) a constatat că Googlebot va indexa pagini care durează până la trei minute pentru a răspunde. Viteza poate, de asemenea, să influențeze indirect poziţionările prin feedback de la experiența utilizatorului, cum ar fi vizitatorii care sar (părăsesc) paginile care durează prea mult pentru a se încărca, dar așa cum este folosită de către Google, utilizarea vitezei în algoritmii lor este rudimentară pentru moment.

Mitul 9: Fred a fost o actualizare de algoritm legată de calitatea link-ului

Google actualiza continuu algoritmii lui de căutare la o rată medie de 2-3 pe zi. Actualizarea algoritmului Fred în martie 2017 a fost considerată o actualizare legată de calitatea link-ului. Cu toate acestea, Illyes a afirmat limpede că nu a existat nici o actualizare algoritmică specifică, cum ar fi Panda sau Penguin – de fapt, el a numit fluctuațiile clasamentului Fred drept o glumă.

Illyes a continuat să spună că 95-98% din aceste actualizări continue nu pot fi aplicabile pentru webmasteri. Fluctuațiile se întâmplă întotdeauna, dar ar trebui să vă concentrați asupra unui site de înaltă calitate, cu multe persoane care vorbesc despre brandul dvs. prin intermediul unor linkuri, rețele sociale etc.

Mitul 10: Bugetul de crawlere (Crawl Budget) nu este un subiect

Crawl Budget este un subiect foarte dezbătut, dar este neglijat de către unii care supraestimează capacitatea Google de a accesa cu crawlere toate paginile dintr-un anumit site. Google poate crawla cu ușurință toate paginile dintr-un anumit site simultan pentru site-uri mici și mijlocii (până la aproximativ 200.000 de pagini). Cu toate acestea, bugetul de crawlere este o problemă stringentă pentru cei care gestionează site-uri de afaceri mari, deoarece trebuie să se asigure că paginile importante sunt accesate cu crawlere și în mod regulat.

Un mod de a verifica dacă Google a accesat cu crawlere marea majoritate a site-ului dvs. este aceea de a vedea dacă Googlebot accesează cu crawlere o mulțime de pagini, deoarece acest lucru indică faptul că majoritatea paginilor importante au fost deja crawlate.

Concluzie

Sper că această postare a ajutat la uciderea unor vaci sacre ale SEO, care durează de multă vreme. Când vine vorba de SEO, există fapte și mituri. Asigurați-vă că vă concentrați pe fapte, nu pe basme!

Share this post


 

Close your account?

Your account will be closed and all data will be permanently deleted and cannot be recovered. Are you sure?