Modalități experte de a împiedica Google să indexeze site-ul dvs. WordPress
Publicat: 2022-12-21Toată lumea știe că Google este principalul motor de căutare. Dar există momente când nu doriți ca site-ul dvs. WordPress să apară în rezultatele căutării Google.
Deci, cum să împiedici Google să indexeze o pagină? Ei bine, există diferite moduri de a face acest lucru. Dar nu toate modurile sunt potrivite pentru fiecare site web. Metoda pe care o alegeți va depinde de obiectivele dvs. specifice. În această postare de blog, vom explora cum să împiedicăm Google să indexeze o pagină web, precum și site-ul dvs. Dar înainte de a cunoaște metodele, este și necesar să înțelegem de ce oamenii vor să o facă.
Uneori, agenții de marketing sau proprietarii de site-uri web obțin trafic organic pe pagini care nu trebuie să fie vizitate frecvent . De exemplu, pagina de mulțumire, pagina Anulare și alte pagini mai puțin importante. Din păcate, distruge o anumită țintă și încurcă sistemul de urmărire. Deci, va fi benefic dacă blocați Google să vadă aceste pagini. Sau pur și simplu se recomandă deindexarea acestora.
De asemenea, blocarea căilor de indexare pentru anumite pagini web poate îmbunătăți SEO-ul unui site. Dacă obțineți mai mult trafic pe paginile principale, atunci site-ul va ridica rangul.
Metode pentru a împiedica Google să indexeze site-ul dvs. WordPress
Puteți găsi metode populare și specifice pentru a opri Google să indexeze un site web WordPress. Prima și esențială sarcină este să găsiți pagini web care nu sunt importante. Da, includem diverse tipuri de pagini din când în când pentru a ne aranja sau proiecta site-ul web. Dar, nu toți au nevoie de trafic de căutare, așa cum am discutat mai înainte.
Așadar, înainte de a învăța modalitățile de a împiedica Google să indexeze un WordPress, enumerați paginile. Vă va ajuta să opriți motorul de căutare să indexeze temporar acele pagini. Și, desigur, le puteți aranja ulterior după necesitate. Acum, să învățăm ce tehnici ar trebui să urmați pentru a controla indexarea site-urilor web.
Editarea fișierului Robots.Txt
Editarea fișierului robots.txt ajută la ascunderea paginilor web de motoarele de căutare. Sau, cei care folosesc un serviciu de hosting pentru a menține un site le pot cere să-l modifice. Este un fișier text simplu care acceptă Robots Exclusion Standard. Puteți găsi un fișier robots.txt în domeniul rădăcină al site-ului dvs. Puteți, de asemenea, să editați singur acest fișier și să acordați permisiunea sau să blocați orice crawler pentru a vă lista domeniul sau subdomeniul.
Pentru a aplica această tehnică: descărcați o copie a fișierului dvs. robots.txt, editați-o și apoi încărcați-o din nou în domeniul rădăcină . Fișierul poate conține una sau mai multe instrucțiuni. De exemplu, puteți bloca agentul Google să acceseze cu crawlere orice adresă URL utilizând aceasta,
User-agent: Googlebot Disallow: /nogooglebot/
În acest fel, puteți împiedica și alți agenți să indexeze o pagină și un site web. Amintiți-vă, trebuie să creați fișierul numit robots.txt. Și site-ul dvs. trebuie să aibă un singur fișier robots.txt. Există și alte reguli; poti verifica detaliile aici.
NOTĂ: Rețineți că nu ar trebui să utilizați etichetele Disallow și Noindex împreună într-un fișier robots.txt.
Aplicarea Instrumentelor Google pentru webmasteri
Acest sistem acceptă blocarea unei pagini sau a unei adrese URL pentru o perioadă determinată. Oamenii știu că Google Search Console ajută și la menținerea unui site în multe aspecte. Puteți împiedica cu ușurință Google să indexeze site-ul dvs. utilizând instrumentul său de eliminare a adreselor URL. Pentru a aplica metoda, verificați lucrurile de mai jos:
- Verificați că adresa URL este plasată în proprietatea Search Console.
- Alegeți Ascundeți temporar și adăugați adresa URL a paginii.
- Apoi, selectați Ștergeți adresa URL din cache și eliminați-o din Căutare. Puteți copia și lipi cu ușurință adresa URL a paginii. Dar, uneori, unele adrese URL de pagini imbricate pot încurca procesul. De exemplu, adresele URL ale mai multor postări pot indica aceeași pagină, cum ar fi
http://www.example.com/greenery/thread/007 http://www.example.com/greenery/post/156 http://www.example.com/greenery/thread/007?post=156
Soluția este că trebuie să trimiteți solicitări suplimentare de eliminare. Pentru fiecare conținut pe care îl vedeți, veți trimite o solicitare de eliminare.
NOTĂ: Nu uitați că este o metodă temporară de blocare a paginii. Durează doar aproximativ șase luni.
Aplicarea Noindex
Puteți aplica această metodă în două moduri . Mai întâi, aflați implementarea de mai jos și selectați orice metodă în funcție de confortul dvs.
Meta etichetă
Există, de asemenea, două moduri de a utiliza o metaetichetă. Pentru a opri majoritatea motoarelor de căutare să indexeze o pagină, trebuie doar să puneți următoarea metaetichetă în partea <head> a paginii dvs. -
<meta name="robots" content="noindex">
Și dacă doriți să împiedicați numai crawlerele web Google să indexeze o pagină, utilizați-
<meta name="googlebot" content="noindex">
În plus, puteți împiedica listarea unei pagini adăugând o metaetichetă nofollow . Este destul de simplu să specificați legătura-
<a href="example.html" rel="nofollow" />
De asemenea, îl puteți adăuga la toate paginile pentru a împiedica Google să vă indexeze site-ul.
<meta name="googlebot" content="noindex, nofollow">
Antet HTTP X-Robots-Tag
Acesta este o modalitate alternativă de utilizare a metaetichetelor. Puteți selecta o metaetichetă sau această etichetă X-Robots. Puteți alege o etichetă X-Robots pentru orice adresă URL care să funcționeze ca instrucțiune pentru antetul HTTP. Folosind această metodă simplă, puteți bloca Google de la indexarea fișierelor non-html. Fișierele de imagini, videoclipuri, PDF-uri etc., sunt fișiere non-HTML. O directivă a metaetichetei roboților funcționează la fel și pentru o etichetă X-Robots. Un antet HTTP X-Robots-Tag poate avea instrucțiuni noindex sau none , arătând astfel,
HTTP/1.1 200 OK Date: Wed, 14 August 2022 20:42:40 GMT (…) X-Robots-Tag: noindex (…)
Dacă nu doriți ca Google să genereze o pagină în cache, atunci aplicați acest cod noarchive X-Robots-Tag cu o etichetă unavailable_after X-Robots-Tag.
HTTP/1.1 200 OK Date: Wed, 14 August 2022 20:42:40 GMT (…) X-Robots-Tag: noarchive X-Robots-Tag: unavailable_after: 25 Jun 2010 15:00:00 PST (…)
Din nou, puteți pune condiții unui set de X-Robots-Tag pentru a face o pagină vizibilă. Și poate funcționa pentru diferite motoare de căutare.
Opriți manual din tabloul de bord
Mulți oameni nu știu că împiedicarea motoarelor de căutare să clasifice un site este posibilă și din tabloul de bord WordPress. Poate că mulți dintre voi văd opțiunea, dar nu-i cunosc exact scopul. De exemplu, dacă site-ul dvs. este nou, aveți o mulțime de sarcini de ultimă oră de terminat și aveți nevoie de timp. Nu veți dori ca motoarele de căutare să listeze acel site în acest caz. Deci, această metodă este potrivită pentru tine.
Acces la tabloul de bord: Setări → Citire → Găsiți Vizibilitatea motorului de căutare → Faceți Bifați bifați caseta
Această mică sarcină vă poate menține conținutul privat. De fapt, modifică fișierul robots.txt și uneori adaugă o etichetă meta asociată la antet. Astfel, bifarea casetei împiedică Google să identifice site-ul.
NOTĂ: Oamenii uită adesea să debifeze caseta atunci când preiau site-ul live. Lăsând caseta nebifată mai mult timp va face site-ul invizibil pentru Google și nu se va clasa niciodată.
O modalitate parțial eficientă - a nu folosi un sitemap sau a împiedica Google indexarea acestuia
O hartă a site-ului ajută Googlebot să identifice paginile și să clasifice site-ul WordPress. Conține toate adresele URL ale paginilor unui site. De asemenea, în procesul de accesare cu crawlere a motorului de căutare, sitemapurile ajută la găsirea de noi pagini. Deci, un motor de căutare are șanse mici de a pierde orice conținut. Dacă doriți ca motoarele de căutare să treacă cu vederea noul dvs. site pentru o perioadă de timp, atunci nu adăugați un XML_sitemap.
Cu toate acestea, sitemap-urilor nu este garantat că Google va indexa întotdeauna toate paginile. Depinde si de diverse alte lucruri. Dar, puteți încetini procesul de indexare a motorului de căutare fără a utiliza o hartă a site-ului.
Din nou, dacă ați inclus deja unul sau mai multe XML_sitemap, puteți împiedica Google să indexeze fișierele. Puteți utiliza un plugin și, de asemenea, puteți edita fișierul .htaccess al site-ului dvs.
Folosirea unui plugin pentru a preveni indexarea sitemapului de către Google - Există diferite pluginuri pentru SEO astăzi. Unele au opțiuni de indexare a sitemap-ului, cum ar fi Yoast SEO, Rank Math și altele. Dacă site-ul tău are un singur plugin SEO, poți să cauți opțiunea și să o dezactivezi. Vezi exemplul de mai jos,
Editarea fișierului .htaccess pentru a împiedica Google indexarea sitemap- Trebuie doar să adăugați o etichetă X-Robots la răspunsurile HTTP ale site-ului dvs. prin fișierele de configurare. Puteți utiliza X-Robots-Tag: noindex pentru a opri indexarea de către Google a sitemapului.
Pentru un fișier sitemap, codul este,
<IfModule mod_rewrite.c> <Files sitemap.xml> Header set X-Robots-Tag "noindex" </Files> </IfModule>
Pentru mai mult de un fișier sitemap, codul este,
<IfModule mod_rewrite.c> <Files ~ "^(sitemap1|sitemap2|sitemap3)\\.xml$"> Header set X-Robots-Tag "noindex" </Files> </IfModule>
Acum, Google sau alte motoare de căutare nu vor găsi XML_sitemaps și nu le vor indexa. Deoarece o hartă a site-ului are adrese URL ale tuturor paginilor web, ascunderea acesteia de motoarele de căutare va ajuta să nu indexați site-ul.
Faceți întreținere regulată a site-ului prin implementarea redirecționării 307 pe site-ul WordPress!
Cum vă puteți reindexa site-ul?
Ei bine, nu puteți ignora importanța rangului Google al unui site WordPress. Trebuie să-ți promovezi site-ul și să atragi trafic nou. Așadar, după ce ați terminat sarcinile rămase de construire a site-ului web și blocați Google să indexeze anumite pagini web, trebuie să lucrați la SEO. Și SEO bun înseamnă indexarea și reindexarea paginilor web.
- Debifați caseta de vizibilitate a motorului de căutare din tabloul de bord
- Verificați directorul rădăcină al site-ului dacă ați adăugat din greșeală orice comandă Noindex și bloc Robots.txt la orice pagină importantă.
- Dacă ați adăugat în mod conștient instrucțiuni la roboți pentru a nu indexa conținutul sau pagina și acum doriți să reindexați, repetați numărul doi cu atenție.
- Adăugați un XML_sitemap pe site-ul dvs. WordPress.
- Dacă utilizați un plugin pentru a împiedica Google să indexeze harta site-ului dvs., atunci dezinstalați-l sau activați numai opțiunea de indexare XML_sitemap .
- Google Search Console are un instrument de inspecție a adreselor URL. Puteți genera un raport general de adrese URL folosindu-l pentru a verifica ce vede Google. Aici, puteți inspecta o anumită adresă URL, puteți trimite și o adresă URL și puteți solicita un index la Google.
- În cele din urmă, faceți SEO regulat și bun pentru paginile dvs. reindexate și creșteți traficul general pentru site-ul dvs. web.
Știți de ce oamenii au nevoie uneori să ștergă un titlu de pagină?
Uitați-vă aici Eliminarea titlului paginii din WordPress
Cuvinte de sfârșit
Acestea sunt câteva modalități de a împiedica Google să indexeze site-ul dvs. Selectați-vă metoda cu înțelepciune și aplicați-o pe site-ul dvs. WordPress. Cu toate acestea, în general, proprietarii de site-uri web se luptă să-și indexeze site-urile. Oamenii nu înțeleg că prea mult SEO este rău și nu trebuie să treacă peste bord. Mulți oameni nici măcar nu știu importanța și motivele pentru deindexarea unei pagini. De fapt, ar trebui să împiedicați motoarele de căutare să vă indexeze uneori site-ul pentru a obține mai mult trafic. Cu toate acestea, acest articol este despre indexarea, deindexarea și reindexarea paginilor web. Sper că veți afla principalele fapte și le veți aplica în consecință.