देखें पूर्ण संस्करण: हल मुझे गूगल मेल
bhanuprasad1981
24-04-10, 20:37
Googlebot को समस्याओं का सामना करना पड़ा, जबकि अपनी साइट Pdaapps (http://www.pdaapps.org/) रेंगने है.
Googlebot को आपकी साइट पर लिंक के बहुत बड़ी संख्या का सामना करना पड़ा. यह आपकी साइट के URL संरचना के साथ एक समस्या का संकेत हो सकता है. Googlebot को अनावश्यक अलग यूआरएल की एक बड़ी संख्या में रेंगने जा सकता है कि समान या इसी तरह की सामग्री, या आपकी साइट के रेंगने भागों है कि Googlebot द्वारा क्रॉल नहीं किया जा इरादा कर रहे हैं इंगित. एक परिणाम के रूप में Googlebot को आवश्यक से बहुत अधिक बैंडविड्थ की खपत है, या हो सकता है पूरी तरह से अपनी साइट पर सूचकांक सामग्री के सभी करने में असमर्थ हो सकता है.
इस मुद्दे के बारे में अधिक जानकारी: -
Googlebot को अपनी साइट पर एक यूआरएल की एक अत्यंत उच्च संख्या का सामना करना पड़ा - वेबमास्टर उपकरण सहायता (http://www.google.com/support/webmasters/bin/answer.py?answer=76401)
यहाँ संभावित समस्याओं के साथ नमूना यूआरएल की एक सूची है. हालांकि, इस सूची में आपकी साइट पर सभी समस्याग्रस्त यूआरएल शामिल नहीं हो सकता.
क्या मैं कुछ के बारे में चिंता करने की जरूरत है?
कृपया:
1. Robots.txt द्वारा ब्लॉक अप्रासंगिक सामग्री (यहाँ देखें: http://www.vbenterprisetranslator.com/forum/vbet4-general-discussions/408-vbet-performance.html)
2. वेबमास्टर उपकरण अगम्य लिंक में जाँच करें. और हमें ध्यान दें अगर यह कुछ vBET करने के लिए संबंधित तरीका है.
3. यदि आप अपने मंच पर कुछ 'looped' लिंक जहाँ आप उसी कड़ी में कई भाषा कोड देख पाते हैं यह हमें ध्यान दें करने के लिए.
पुनश्च.
तुम भी कुछ जावक लिंक (Norton, McAfee की तरह) को हटाने के बारे में सोच भी नहीं सकते, यह भी आप 5 अपने मुख्य पृष्ठ पर विज्ञापन बैनर है (नोट: इस पतवार इस मुद्दे में नहीं होगा, होगा, लेकिन निश्चित अपने एसईओ के लिए बेहतर हो जाएगा).
bhanuprasad1981
25-04-10, 07:08
यहाँ ठीक है मैं क्या किया है: -
1. पहले से ही किया
2. वेबमास्टर उपकरण केवल 8 लिंक अगम्य का कहना है
3. समझ नहीं सकता
मैं भी अतिरिक्त विज्ञापन अब केवल दो बैनर विज्ञापन, Norton और McAfee लिंक हटा हटा दिया
अधिक किसी भी सुझाव?
के बारे में 3. यदि आप / / en / वायुसेना pl की तरह अपने मंच के लिंक पर हमारे कहीं मिल जाए ... - कृपया यह हमारे लिए ध्यान दें. मैं इसे सिर्फ मामले में लिखते हैं, क्योंकि vBET इस तरह के लिंक का उत्पादन नहीं चाहिए (यह लंबे, लंबे समय से पहले ठीक किया गया था).
अधिकतर समान पृष्ठों कैलेंडर और सदस्य पृष्ठों से आता है. आप इसे अभी robots.txt द्वारा अवरोधित - लगता है कि यह पर्याप्त होना चाहिए. इस पल में कोई अधिक संकेत - Google चेक ऐसा न हो कि खुश हो करता है;)
bhanuprasad1981
28-04-10, 08:30
noooo मेरे 14k के लिए 80k + से अनुक्रमित नीचे यूआरएल, मैं चिंतित हूँ पर क्या जा रहा है: (यातायात नीचे भी है: (
noooo मेरे 14k के लिए 80k + से अनुक्रमित नीचे यूआरएल, मैं चिंतित हूँ पर क्या जा रहा है: (यातायात नीचे भी है: (
आप पृष्ठों robot.txt द्वारा अवरुद्ध - इतना सब कुछ ठीक है. अवरोधित पृष्ठों सूचकांक से हटा रहे हैं. और अपने यातायात के नीचे केवल यातायात जो जो अब अवरुद्ध कर रहे हैं पृष्ठों पर रोबोटों द्वारा उत्पादित किया गया है:) तो सब कुछ है जैसे कि यह होना चाहिए. ) नहीं है और प्रासंगिक पृष्ठों (कम सामग्री दोहराव, सूचकांक में और अधिक वास्तविक सामग्री, बेहतर एसईओ, और देता है कि अंत में पेजरेंक में सुधार किया जाएगा आशा है कि सूचकांक से हटा रहे हैं:: - रोबोट (बेहतर सर्वर प्रदर्शन कम नकली यातायात) नहीं प्रासंगिक पृष्ठों पर क्रॉल नहीं करते )).
यह मेरे लिए अच्छा लगता है:)
bhanuprasad1981
29-04-10, 05:44
robots.txt 3 महीने के पिछले जगह में इतना है कि मुद्दा नहीं हो सकता है: (वास्तविक यूआरएल गिरा दिया गया है.
robots.txt 3 महीने के पिछले जगह में इतना है कि मुद्दा नहीं हो सकता है: (वास्तविक यूआरएल गिरा दिया गया है.
क्षमा करें - मैं हमारे पिछले उत्तरों की एक गलत समझा - मैंने सोचा था कि तुम सिर्फ robots.txt बदल - कि यातायात परिवर्तन के कारण होगा. कृपया फ़ाइल संशोधन दिनांक की जांच - आप यकीन है कि आप robots.txt में हाल ही में परिवर्तन नहीं किया था.
यह अभी भी अनुक्रमित से गायब पन्नों के कारण लगता है. कृपया ध्यान दें कि गूगल अपनी अनुक्रमित immediatelly नहीं बदल रहा है Plese. और 2-3 महीनों साइट में परिवर्तन की प्रतिक्रिया के लिए अवधि के मानक हैं.
क्या आप निर्धारित करने के लिए जो पृष्ठों सूचकांक से गायब हो रहे हैं करने में सक्षम के रूप में मुझे उम्मीद है उन robots.txt द्वारा अवरोधित पन्नों रहे हैं और तुम शांत हो सकता है. तो कृपया निर्धारित क्या गायब है - शायद सिर्फ होता है कि क्या आप robots.txt में पृष्ठों को अवरुद्ध करके के लिए कहा.
badawidollah
21-05-10, 12:44
मैं इस समस्या को भी मिला ..
हमारे पास एक ही समस्या
मेरे 134.000 से 128.000 करने के लिए नीचे सूचकांक
और तुम्हारी तरह गूगल से ईमेल मिला
मेरे साइटमैप जनरेटर चल रहा है इस vbet नहीं
मैं इस समस्या को भी मिला ..
हमारे पास एक ही समस्या
मेरे 134.000 से 128.000 करने के लिए नीचे सूचकांक
और तुम्हारी तरह गूगल से ईमेल मिला
मेरे साइटमैप जनरेटर चल रहा है इस vbet नहीं
क्या आप fallowed इस धागे में दिए गए निर्देशों? कृपया ध्यान दें कि Google सामग्री दोहराव (यानी सदस्य पृष्ठों, callendar, आदि.) के रूप में अप्रासंगिक पृष्ठों के सबसे देखेंगे. वह क्यों यह यह ब्लॉक शिकंजा पहले गूगल यह इस तरह से विचार करेंगे. Robots.txt का उपयोग करने के लिए अप्रासंगिक सामग्री और ध्यान दें कि अनुक्रमित पृष्ठों की संख्या ब्लॉक नीचे, क्योंकि अवरुद्ध पृष्ठों सूचकांक क्या उम्मीद है और अच्छे से हटा दिया जाएगा.
Automatic Translations (Powered by Google, Microsoft®,
Yandex, SDL Language Cloud, IBM Watson and Apertium):
Powered by vBulletin® Version 4.2.5 Copyright © 2024 vBulletin Solutions Inc. All rights reserved.