Ne pozabite, da:
1. Tako kot ste rekli, Google ima veliko strežnikov na celotnem svetu, in te je redno prerazporediti podatkov med vsakim drugim. Zato je mogoče nekatere strani videl že indeksirane na enem kontinentu, vendar še ni na drugi.
2. Ne pozabite, da Google prikazuje APROXIMATE število rezultatov, kar pomeni, da:
a) ni realno število
b) se lahko število rezultatov spremeni, tudi ko je realno število indeksiranih strani, ni
c) se lahko število rezultatov še vedno enako, tudi če število indeksiranih strani spremenila
d) Google uporablja hevristiko ne algoritmov, tako da so rezultati res ni deterministično - najverjetneje ne boste videli na vrhunske rezultate, zaradi caches in tako naprej, vendar če bi bilo vidno, ko dobili na zelo nizkih rezultatov
e) se lahko zgodi, magic
Resno - preberite nekaj mojih zadnjih prispevkov v tem nit - upam, da lahko pomaga
Pravkar sem pogledal za nadomestnih znakov v robots.txt (saj glede na moje prejšnje znanje, ki ga ne bi smela biti v robots.txt), in našel ta članek, ki pravi, da bi morale delovati:
Še vedno sem našel zelo zanimivo avtorjev stavek:Code:http://seogadget.co.uk/wildcards-in-robots-txt/
Bom nekaj več raziskav na tem področju.Nekatere SEO je ne strinjajo z uporabo nadomestnih znakov, ali pa vsaj jo vidijo kot nekoliko tvegano ali daleč od najboljše prakse.
IZDAL.
Tukaj sem našel več o wildcard v robots.txt:- Glede na informacije, tam Google in Yahoo omogoča uporabo nadomestnih znakov.Code:http://tools.seobook.com/robots-txt/
Still - se prepričajte, da ste ne blokira vse prevedeno vsebino, ki jih nekateri wildcard pravila. Prosimo, uporabite webmaster orodja za določanje (najprej vBET teče spet). Kot je zapisal avtor zadnje omenjeno članka:
Razmislite, povezane URL, če boste uporabili Robots.txt nadomestnih znakov: I nesreči strošek sam več kot 10.000 $ v poslovnem robots.txt z eno napako!
Nazadnje urejal vBET; 07-03-11 pri 00:08.
Nisem mu povedal, vnaprej za poenostavitev svojih robot.txt - Nisem strokovnjak, ampak
Mislil sem, da pravico off kij, da imajo tako noro robots.txt ni
da od leta. robot.txt mora biti enostaven, ni pretiravanje ....
Mislim, da sem omenil tudi, da mu, da to ni dobra ideja, bodisi
odstranitev mod, kot da ne bi rešila problema, ker tisto, kar
se zgodi, če se začne znova, pa je nato obravnavala odstranite
mod še enkrat, saj mu ni rešila to prvič, da
samo ne bo, ker samo un-namestite mod ne da bi rešili vprašanje.