Ważne: Ta strona jest za pomocą plików cookie (cookies). Za pomocą tej strony internetowej bez wyłączania plików cookie w przeglądarce, oznacza to, że użytkownik zgadza się za to.
Kup Teraz! Funkcje Pliki do pobrania

Zarabiaj z nami!

Jeśli chcieliby Państwo rozpocząć zarabianie pieniędzy z vBET dołączyć do Program partnerski.
Strona 3 z 3 FirstPierwszy 123
Wyniki 21 do 24 z 24

Wątek: Google usunął wszystkich indeksowanych stron tłumaczenia

  1. #21
    Michał Podbielski (vBET pracowniczego) vBET's Avatar
    Zarejestrowany
    Październik 2009
    Wiadomości
    3,037

    Default

    Quote Napisał pepito69 View Post
    I odinstalować mod vBET, usunie wszystkie zasady relationed do vBET, czekać 4 dni i ponownie od zera.
    Zły pomysł. Jesteś fizycznie zrobić przetłumaczone linki nie działają i nie istniejących na forum. Adresów URL, które nie istnieje, nie może być indeksowane.

  2. #22
    Michał Podbielski (vBET pracowniczego) vBET's Avatar
    Zarejestrowany
    Październik 2009
    Wiadomości
    3,037

    Default

    Quote Napisał pepito69 View Post
    Proste, wystarczy wpisać w Google Site Search:www.yourdomain.com / forum / to

    Zmiany liczby linków indeksowane przez google to spowodowane prawdopodobnie różnych serwerach Google, nie są one indeksowania taką samą liczbę adresów URL, i nie więcej niż 50 serwerów.

    za każdym razem zrobić:
    strony:www.yourdomain.com
    łączy się z jednego serwera google.
    Proszę pamiętać, że:
    1. Tak jak powiedziałeś, Google ma wiele serwerów na całym świecie i tych, które okresowo redystrybucji danych pomiędzy pozostałymi. Dlatego niektóre strony mogą zostać widział już indeksowane na jednym kontynencie, ale jeszcze nie na innych.
    2. Należy pamiętać, że Google pokazuje Aproximate ilość wyników, co oznacza, że:
    a) nie rzeczywista liczba jest
    b) liczba wyników może zmienić nawet wtedy, gdy rzeczywista liczba zaindeksowanych stron nie
    c) liczba wyników może być wciąż tym samym, nawet jeśli liczba indeksowanych stron zmienił
    d) Google wykorzystuje algorytmy heurystyczne nie, więc wyniki nie są naprawdę deterministyczny - najprawdopodobniej nie będzie widać tego na górze wyników, ze względu na bufory i tak dalej, ale jeśli może to być widoczne, gdy się na wyniki bardzo niskie
    e) magia może się zdarzyć

    Poważnie - przeczytaj moje kilka ostatnich postów w tym wątku - Mam nadzieję, że może pomóc

  3. #23
    Michał Podbielski (vBET pracowniczego) vBET's Avatar
    Zarejestrowany
    Październik 2009
    Wiadomości
    3,037

    Default

    Po prostu szukał wieloznacznych w robots.txt (ponieważ według moja poprzednia wiedza nie powinna być w pliku robots.txt) i znaleźć ten artykuł, który mówi to powinno działać:
    Code:
    http://seogadget.co.uk/wildcards-in-robots-txt/
    Jeszcze znalazłem bardzo ciekawe zdanie autorów:
    Niektóre SEO nie zgadzają się z wykorzystaniem symboli wieloznacznych, lub przynajmniej uważają to za lekko ryzykowne lub daleko od najlepszych praktyk.
    Zrobię więcej badań w tej dziedzinie.

    EDITED.
    Tu znalazłem więcej o wildcard w pliku robots.txt:
    Code:
    http://tools.seobook.com/robots-txt/
    - Według informacji tam Google i Yahoo pozwala na użycie symboli wieloznacznych.

    Still - upewnij się, że nie blokujesz wszystkie przetłumaczone zawartości przez niektóre symbole władzy. Proszę używać narzędzi dla webmasterów w celu ustalenia (najpierw vBET uruchomiony ponownie). Jak napisał autor ostatniej wymienionym artykule:
    Rozważ związane adresy URL, jeśli używać symboli wieloznacznych Robots.txt: przypadkowo koszt siebie ponad 10.000 dolarów w zyskach z jednym robots.txt błąd!
    Ostatnio edytowane przez vBET; 07-03-11 W 00:08.

  4. #24
    Członek
    Zarejestrowany
    Luty 2011
    Wiadomości
    40

    Default

    Quote Napisał vBET View Post
    Zły pomysł. Jesteś fizycznie zrobić przetłumaczone linki nie działają i nie istniejących na forum. Adresów URL, które nie istnieje, nie może być indeksowane.
    I powiedziałem mu z góry w celu uproszczenia jego robot.txt - nie jestem ekspertem, ale
    Myślałem, że tuż nietoperza mieć takie szalone robots.txt nie
    się od. robot.txt musi być proste, wcale nie przesada ....

    Myślę, że również wspomniałem mu, że to nie był dobry pomysł, albo
    usunąć mod jak nie rozwiąże problemu, ponieważ to, co
    się stanie, jeśli zaczyna się od nowa, czy potem rozważyć usunięcie
    mod jeszcze raz, bo nie udało się rozwiązać ten po raz pierwszy, to
    po prostu nie ma, ponieważ po prostu odinstalować mod bez rozwiązania problemu.

Strona 3 z 3 FirstPierwszy 123

Tagi dla tego tematu

Uprawnienia

  • Państwo nie może wysyłać nowe wątki
  • Państwo nie może odpowiedzi po
  • Państwo nie może załączników postu
  • Państwo nie może edytować swoich postów
  •