Bitte beachten Sie, dass:
1. Genau wie du gesagt Google hat viele Server auf ganze Welt und auch diese müssen in regelmäßigen Abständen verteilen Daten zwischen der jeweils anderen. Das ist, warum einige Seiten können sahen bereits auf einem Kontinent, aber noch nicht auf anderen indiziert werden.
2. Beachten Sie, dass Google UNGEFÄHRE Anzahl der Ergebnisse, was bedeutet, dass zeigt:
a) es ist nicht reelle Zahl
b) Anzahl der Ergebnisse können auch bei realen Anzahl der indizierten Seiten nicht
c) Anzahl der Ergebnisse kann noch die gleichen, auch wenn die Anzahl der indizierten Seiten gewechselt
d) Google nutzt heuristische Algorithmen nicht, so dass die Ergebnisse sind wirklich nicht deterministisch - wahrscheinlich werden Sie nicht sehen, das auf Top-Ergebnisse, da der Cache-Speicher und so weiter, aber wenn es sein könnte sichtbar, wenn immer auf, um wirklich niedrige Ergebnisse
e) Magie passieren kann
Ernsthaft - bitte lesen Sie meine letzte mehrere Beiträge zu diesem Thema - ich hoffe es kann helfen
Ich sah für Wildcards in robots.txt (da nach meinen bisherigen Kenntnissen sollte es nicht in robots.txt werden) und fand diesen Artikel, es sollte funktionieren, sagt:
Dennoch fand ich sehr interessant Autoren Satz:Code:http://seogadget.co.uk/wildcards-in-robots-txt/
Ich will noch mehr Forschung in diesem Bereich.Einige SEO ist nicht mit der Verwendung von Wildcards zustimmen, oder zumindest sehen sie es als etwas riskant oder weit entfernt von best practice.
Bearbeitet werden.
Hier fand ich mehr über Platzhalter in robots.txt:- Nach Auskunft gibt Google und Yahoo ermöglicht Platzhalter verwenden.Code:http://tools.seobook.com/robots-txt/
Still - stellen Sie bitte sicher, dass Sie nicht blockieren alle Ihre übersetzten Inhalte durch einige Wildcard-Regel. Bitte benutzen Sie den Webmaster-Tools, um zu bestimmen (zunächst vBET wieder zum Laufen). Wie schrieb der Autor des letztgenannten Artikels:
Betrachten wir im Zusammenhang URLs, wenn Sie Robots.txt Platzhalter verwenden: Ich habe versehentlich Kosten selbst über $ 10.000 Gewinn mit einer robots.txt-Fehler!
Zuletzt bearbeitet von vBET; 07-03-11 an 00:08.
Ich habe ihm sagen, im Voraus zu seinem robot.txt vereinfachen - ich bin kein Experte, aber
Ich dachte, auf Anhieb zu haben, wie eine verrückte robots.txt nicht
machen, da. einer robot.txt muss einfach sein, nicht übertrieben ....
Ich glaube, ich erwähnte auch, um ihn, dass es nicht eine gute Idee war, entweder
Entfernen Sie die Mod als dass nicht lösen würde das Problem, weil das, was
passiert, wenn es noch einmal startet, tut er dann in Erwägung ziehen,
der mod noch einmal, da er nicht zu lösen dies das erste Mal, es
einfach nicht machen, da nur auf un-install die mod ohne Lösung des Problems.