fbpx

Paginile tale indexate sunt în cădere? Iată cinci (5) motive posibile pentru lucrul acesta.

Oblyo Digital Agency august 1, 2017

Este un lucru esențial ca paginile tale web să fie indexate de Google (sau orice alt motor de căutare). Paginile care nu sunt indexate nu pot fi clasate.
Cum vezi câte pagini ai indexat? Poți să:

– să folosești ”Site: Operator” de la Google.
– Verifică starea trimiterilor tale XML Sitemap în Consola de căutare Google (Google Search Console)
– verifică starea generală a indexării.

Fiecare îți va da anumite cifre, dar de ce sunt diferite este o altă poveste.

Pentru moment, hai să vorbim despre analizarea săderii numărului de pagini indexate raportate de Google.

Dacă paginile tale nu sunt indexate, s-ar putea să fie un semnal că Google nu este prea mulțumit de pagina ta sau că poate nu o accesează cu ușurință. Prin urmare, dacă numărul de pagini indexate începe să scadă, acest lucru se poate datora unor factori ca:
– ai fost penalizat de Google.
– Google crede că paginile sunt irelevante.
– Google nu poate accesa cu crawlere (crawler este un program care vizitează site-urile web și citește paginile și alte informații pentru a crea intrări pentru un indice al motorului de căutare. Motoarele de căutare au un astfel de program, cunoscut și sub numele de ”păianjen”. Sunt programate să viziteze site-urile care sunt noi sau au fost actualizate. Întregul site sau anumite pagini pot fi vizitate selectiv și indexate. Au această denumire deoarece accesează printr-un site câte o pagină, urmând link-urile către alte pagini de pe site până când toate paginile au fost citite) paginile tale.

Să vedem câteva sfaturi despre cum să diagnostichezi și să rezolvi problema căderii paginilor indexate:

1. Paginile se încarcă normal?

Asigură-te că au starea corectă de 200 HTTP (Hypertext Transfer Protocol). (Sunt mesaje pe care serverul le primește înapoi când accesează un document web. Mesajele de stare HTTP din seria 200 indică faptul că cererea a reușit. 200 OK este cel mai comun mesaj legat de starea HTTP, înseamnă că serverul a răspuns solicitării.)

Serverul a avut perioade lungi și frecvente de întrerupere? Domeniul a expirat recent și a fost reînoit?

Ce să faci:

– poți utiliza un instrument gratuit pentru verificarea stării HTTP pentru a îi determina starea. Pentru site-urile masive, instrumente tipice de accesare cu crawlere, cum ar fi Xenu, DeepCrawl, Screaming Frog sau Botify , pot testa starea protocolului HTTP. Starea corectă este 200. Uneori pot apărea unele erori 3xx (cu excepția celor 301), 4xx, 5xx- nici o astfel de eroare nu este benefică pentru adresele URL pe care vrei să le indexezi.

2. Ai schimbat recent adresele URL?

Uneori, o schimbare în CMS (sistemul de administrare a conținutului), programare back-end (programatorul) sau o setare a serverului care are ca rezultat o schimbare în domeniu, subdomeniu sau un fișier poate modifica adresele URL ale unui site.
Motoarele de căutare pot reține adresele vechi URL, însă, dacă nu redirecționează corect, o mulțime de pagini pot să nu mai fie indexate.

Ce să faci:

– Cu ceva noroc o copie veche a vechiului site poate fi vizitată într-un fel sau altul, pentru a lua notă de toate URL-urile vechi, astfel încât să poți să folosești redirecționarea 301 către adresele URL corespunzătoare.

3. Ai rezolvat problemele legate de conținutul duplicat?

Rezolvarea problemei conținutului duplicat implică de multe ori implementarea de etichete canonice (canonical tags- metodă de a arăta motoarelor de căutare că un URL specific este copia master a paginii), redirecționări 301, meta etichete noindex, sau dezactivări din robots.txt. Toate acestea pot duce la o scădere a indexării adreselor URL. Acesta este un exemplu în care scăderea indexării paginilor poate însemna un lucru benefic.

Ce să faci:

– din moment ce acest lucru este bun pentru site-ul tău, singurul lucru pe care ar trebui să îl faci este să verifici de două ori că acesta este motivul neindexării paginilor.

4. Sunt paginile cu timp mare de accesare?

Unele servere au restricții de lățime de bandă din cauza costului asociat care vine cu o lățime de bandă mai mare. Este posibil ca aceste servere să fie actualizate. Uneori, problema este legată de hardware și poate fi rezolvată prin adăugarea unor piese mai performante.

Unele site-uri blochează adresele IP atunci când vizitatorii accesează prea multe pagini la o anumită rată. Această setare este o modalitate strictă de a evita orice încercare de hacking a DDOS-ului, dar poate avea și un impact negativ asupra site-ului tău.

În mod obișnuit, acest lucru este monitorizat de sătările paginii și dacă pragul este prea mic, crawling-ul obișnuit al motoarelor de căutare ating un prag, iar booții nu mai pot accesa cu crawl-lere site-ul în mod corespunzător.

Ce să faci:

– Dacă este o limitare a lățimii de bandă a serverului, atunci este un moment potrivit să actualizezi serviciile.
– Dacă este o problemă de procesare/ memorare a serverului, în afară de actualizarea hardware-ului, verifică dacă ai o anumită tehnologie de stocare a cache-urilor pe server, ca să nu mai fie stresat serverul.
– Dacă există un program anti DDOS, fie mai scazi din setări, fie îl adaugi în lista albă a Google bot ca să nu fie blocat. Totuși, ai grijă, există unele Googlebots false. Detectarea Bingbot are o precedură similară.

5. Motoarele de căutare văd site-ul diferit?

Uneori, ce văd păianjenii motorului de căutare este diferit de ceea ce vedem noi. Unii creatori de site-uri construiesc site-urile fără a cunoaște implicațiile optimizării SEO. Uneori, un CMS o să fie folosit fără a se testa dacă este prietenos cu motorul de căutare. Se mai poate ca cineva “specialist în SEO” să facă un cloacking de conținut (content claocking- tehnică a SEO prin care conținutul prezentat ”păianjenilor” motoarelor de căutare este diferit de conținutul paginii), încercând să se joace cu motoarele de căutare.

Alteori, site-ul a fost compromis de hackeri, care provoacă afișarea de către Google a unei pagini diferite pentru a-și promova link-urile ascunse sau pentru a acoperi redirecționările către site-ul lor.

Situația mai neplăcută ar fi paginile care sunt infectate cu un anumit tip de malware, pe care Google le dezindexează automat după ce le detectează.

Ce este de făcut:

– Utilizarea funcției de preluare (fetch) și de redare (render) a Consolei de Căutare Google ( Google Search Console) este cea mai bună metodă de a vedea dacă boții Google (Googlebot) văd același conținut ca și tine.
– De asemenea, poți încerca să traduci pagina în ”Google Traducere”, chiar dacă nu ai intenția de a traduce sau poți verifica pagina cache în Google.

Paginile indexate nu sunt utilizate ca KPI-uri tipice.

Indicatorii cheie de performanță (KPI), care contribuie la măsurarea succesului unei campanii de SEO, se referă deseori la traficul de căutare organică și la clasament. Indicatorii KPI tind să se concentreze asupra obiectivelor unei afaceri, care sunt legate de venituri.

O creștere a numărului de pagini indexate poate duce la creșterea numărului de cuvinte pe care le poți clasifica, ceea ce poate duce la profituri mai mari. Cu toate acestea, motivul de a te uita la paginile indexate este, în principal, de a vedea dacă motoarele indexează în mod corespunzător paginile.

Reține că paginile tale nu pot să fie clasate într-un top dacă motoarele de căutare nu le pot vedea, accesa cu crawlere sau indexa.
O scădere a paginilor indexate nu este întotdeauna ceva rău.

De cele mai multe ori, o scădere a paginilor indexate ar putea însemna ceva negativ. Dar, o soluționare pentru conținutul duplicat, a conținutului de calitate scăzută ar putea avea ca rezultat și scăderea numărului de pagini indexate, ceea ce este un lucru bun.

Acum că ai aflat cinci posibile motive pentru care paginile ale indexate suferă, este momentul să evaluezi site-ul tău. Pentru o evaluare de calitate îți stăm la dispoziție.

Call Now Button