Internet, Blogi
Kako odstraniti spletno stran ali fragmenti iz Googlovega indeksa
Glede na koncept indeksiranje, ki ga je Google sprejeto, predstavljala popolnost, objektivnosti informacij in skladnost z iskalno poizvedbo pri izdajanju rezultatov. Če je indeks pade spletno nezakonite vsebine ali vir za spam, strani te spletne strani ne bodo označene v skupno bazo podatkov iskalnika. Za nas je pomembno, da se naučijo , kako odstraniti stran od izdaje rezultatov iskanja strežnika.
Variante nič indeksiranje Google
Ko iskalni robot - program za zbiranje informacij o novih virih - bo skeniranje stran stran za stranjo, potem, ko je v skladu z zahtevami Googlove politike za razčlenjevanje, da bo indeksirana. Vendar pa smo tudi pokazali, kako odstraniti svojo spletno stran ali fragmente za iskalnike preko robots.txt - indeks in iskanje hkrati postaje.
Če želite izključiti iz izdaje vira kot celote, v korenski mapi strežnika, na katerem se nahaja mesto, ustvarja določeno besedilno območje - je dejal robots.txt. Ta cona se zdravijo z iskalniki in ravnati v skladu z navodili berejo.
Imejte v mislih, da se indeksi Google iskalnik na stran, tudi če ima uporabnik dostop pogled prepovedana. Ko brskalnik odzove z 401 ali 403 "Dostop je neveljavna", to velja samo za obiskovalce, namesto programov, ki se zbira v ta iskalnik.
Da bi razumeli, kako odstraniti stran od indeksiranje iskalnika, mora besedilo kazalec vnesite naslednje vrstice:
User-agent: Googlebot
Disallow: /
To kaže na gosenicah indeks prepoved vseh vsebin na spletni strani. Tukaj je , kako odstraniti stran Google, tako da ta ne predpomnilnik vir v seznamu iz zazna.
Izvedbe predmetnega skeniranja za različne protokole
Če morate navesti posamezne komunikacijske standarde, za katere želite, da se uporabljajo posebna pravila za indeksiranje Google, na primer, ločeno za hipertekstovne protokolov http / https, je treba tudi, da se registrirajo v robots.txt na naslednji način (primer).
(Http://yourserver.com/robots.txt) - ime domene za vašo spletno stran (kateri koli)
User-agent: * - vsaka iskalnik
Dovoli: / - omogoči polno indeksacijo
Kako odstraniti stran od izdaje popolnoma v skladu s protokolom https
(Https://yourserver.com/robots.txt):
User-agent: *
Ne dovoli: / popolno prepoved indeksiranje
HITRI naslovi odstranitev URL- vire iz Google SERPs
Če ne želite čakati na ponovno indeksacije, in mesto, ki ga želite skriti kot, vam priporočam, da takoj uporabite http://services.google.com/urlconsole/controller storitev, kot je mogoče. Pre robots.txt je treba namestiti v korenski imenik strežnika spletne strani. treba predpisati, da ustrezna navodila.
Če kazalec iz neznanega razloga ni mogoče urejati v korenski imenik, ustvariti dovolj v mapo s cilji, za katere želite skriti od iskalnikov. Ko to storite, in se nanašajo na storitve, samodejno odstranjevanje hiperbesedilno naslove, Google ne bo skeniranje mape, napisane ven napako v robots.txt.
Obdobje tega nevidnosti je določena za 3 mesece. Po tem obdobju bo imenik umaknjen iz izdaje, ponovno obdela Google strežnika.
Ak odstraniti stran delno skeniranje
Ko je iskanje bot branje vsebine robots.txt, so, da so nekatere odločitve sprejemajo na podlagi njegove vsebine. Recimo, da želite prikazovati celoten imenik z imenom anatom izključiti. To je dovolj, da se predpiše take predpise:
User-agent: Googlebot
Disallow: / anatom
Ali pa, na primer, ki ga želite ni kazalo vse vrste slik .gif. Če želite to narediti, dodajte naslednji seznam:
User-agent: Googlebot
Izklopi: /*.gif$
Tu je še en primer. Naj jih je treba črtati iz razčlenjevanje informacije o dinamično ustvarjene strani, hkrati pa dodaja, da vrsto vpisa indeks:
User-agent: Googlebot
Disallow: / *?
To je približno, ter določa pravila za iskalnike. Druga stvar je, da je veliko bolj primeren za samo uporabo te META oznako. In webmastere pogosto uporabljajo le tak standard, ki ureja delovanje iskalnikov. Vendar bomo razpravljali o tem v prihodnjih člankih.
Similar articles
Trending Now