कृपया मन में है कि रखने के:
1. बस के रूप में आप ने कहा कि पूरी दुनिया पर गूगल सर्वर के बहुत कुछ किया है और वे एक दूसरे के बीच समय - समय पर पुनर्वितरित डेटा है. यही कारण है कि क्यों कुछ पन्नों पहले से ही देखा कर सकते हैं, लेकिन अभी तक नहीं दूसरे पर एक महाद्वीप पर अनुक्रमित.
2. ध्यान रखें कि गूगल के परिणामों के APROXIMATE संख्या क्या इसका मतलब है कि पता चलता है:
a) यह वास्तविक संख्या नहीं है
ख) परिणामों की संख्या भी जब अनुक्रमित पृष्ठों की वास्तविक संख्या नहीं बदल सकते हैं
ग) परिणामों की संख्या अभी भी एक ही भले ही अनुक्रमित पृष्ठों की संख्या बदल कर सकते हैं
घ) गूगल heuristics नहीं एल्गोरिदम का उपयोग करता है, तो परिणाम वास्तव में नियतात्मक नहीं कर रहे हैं - सबसे शायद आप इस शीर्ष परिणामों पर नहीं caches और इतने पर की वजह से, देखेंगे, लेकिन अगर यह दृश्य हो सकता है जब वास्तव में कम परिणाम पर हो रही सकता है
ई) जादू हो सकता है
गंभीरता से मेरे इस धागे में कई पिछले पोस्ट पढ़ कृपया - मुझे आशा है कि यह मदद कर सकते हैं![]()
मैं बस robots.txt में वाइल्डकार्ड (मेरे पिछले ज्ञान के अनुसार के बाद से यह robots.txt में नहीं होना चाहिए) के लिए देखा है और इस लेख है जो कहता है यह काम करना चाहिए पाया:
फिर भी मैं बहुत दिलचस्प लेखकों की सजा पाया है:Code:http://seogadget.co.uk/wildcards-in-robots-txt/
मैं इस क्षेत्र में कुछ और अधिक शोध कर देगा.कुछ एसईओ वाइल्डकार्ड के उपयोग के साथ सहमत नहीं है, या कम से कम वे यह सबसे अच्छा अभ्यास से दूर थोड़ा जोखिम भरा है या के रूप में देखते हैं.
संपादित.
यहाँ मैं robots.txt में वाइल्डकार्ड के बारे में अधिक पाया गया:जानकारी के अनुसार गूगल और याहू करने के लिए वाइल्डकार्ड का उपयोग करने की अनुमति देता है.Code:http://tools.seobook.com/robots-txt/
फिर भी - कृपया सुनिश्चित करें कि कि आप अपने सभी वाइल्डकार्ड शासन के कुछ लोगों द्वारा अनुवादित सामग्री अवरुद्ध नहीं कर रहे हैं. (पहले vBET फिर से चलाने) निर्धारित करने के लिए वेबमास्टर उपकरण का उपयोग करें. के रूप में उल्लेख किया है पिछले लेख के लेखक ने लिखा है:
संबंधित URLs पर विचार करें यदि आप Robots.txt वाइल्डकार्ड का उपयोग करें: मैं गलती से अपने आप को एक robots.txt त्रुटि के साथ लाभ में 10,000 डॉलर खर्च!
पिछले द्वारा संपादित vBET; 07-03-11 में 00:08.
मैं बता उसे अपने robot.txt को आसान बनाने में अग्रिम था - मैं एक विशेषज्ञ नहीं हूँ, लेकिन
मैं सही बल्ले से सोचा था कि ऐसे पागल robots.txt नहीं
बाद से कर. एक robot.txt करने के लिए, है overkill नहीं सरल होने की जरूरत है ....
मुझे लगता है कि मैं भी उसे बताया कि यह एक अच्छा विचार या तो नहीं था
आधुनिक दूर के रूप में है कि समस्या का समाधान नहीं होगा, क्योंकि क्या
अगर यह सब फिर से शुरू होता है होता है, वह तो हटाने पर विचार
आधुनिक एक बार फिर, क्योंकि वह यह पहली बार हल नहीं है, यह था
बस नहीं कर सकता है के बाद से सिर्फ इस मुद्दे को सुलझाने के बिना आधुनिक संयुक्त राष्ट्र स्थापित.