Post
#1
|
|
|
Grupa: Zarejestrowani Postów: 16 Pomógł: 0 Dołączył: 30.06.2010 Ostrzeżenie: (0%)
|
Czy ilosc podstron zablokowanych dla bota w robots.txt moze spowodowac spadek strony w wyszukiwarce?
|
|
|
|
![]() |
Post
#2
|
|
|
Grupa: Moderatorzy Postów: 4 362 Pomógł: 714 Dołączył: 12.02.2009 Skąd: Jak się położę tak leżę :D |
Zależy co masz pod frazą "duplicate content" na myśli.
Jeśli w obrębie serwera to Ci już podpowiedziano powyżej: 1. Redirect 301 na jeden właściwy adres. Tutaj wiele osób nie zdaje sobie sprawy z własnych reguł. jeśli mają w regułce coś w stylu: ^artykul_(.*),([0-9]+).html to artykul_jhfbjhsd,1.html i artykul_yjfgfgf,1.html wskazuje na to samo i robi duplicate content. Podobnie udostępnianie tego samego pod różnymi linkami w stylu artykul.php?id=1 oraz artykul_yjfgfgf,1.html nie powinno mieć miejsca. Ustal jeden główny i sprawdzaj przy wejściu poprawność. Jeśli napotkasz niezgodność - 301 na prawidłowy. 2. Canonical dla wariantywnych lub zbyt podobnych do siebie wersji. Jeśli w porównaniu do tych co rżną Ci tekst ze strony i jako własny upubliczniają lub na stronach będących mirrorami Twojej. Niektóre zaplecza SEO nie przystosowane do Pandy robią copy-paste opisów, tekstów z jednego portalu na inny, za to masz wciery. Tu też powinien być canonical do źródła. A na rżnących... musisz mieć lepsze linkowanie wewnętrzne i zewnętrzne. Wtedy będziesz uznany przez roboty za oryginalny, pierwotny tekst, dostawcę treści innymi słowy. |
|
|
|
cinus_pl Plik robots.txt 13.08.2011, 20:24:25
Omni źle ustawiony plik może wyciąć wartościowe podstro... 19.08.2011, 01:13:05
daren88 Ja często ukrywam niektóre podstrony w robots.txt ... 3.09.2011, 21:13:59
dlugi_as jezeli usunles duplicate content to nie powinno sp... 18.09.2011, 17:30:30 
lukasz_test Cytat(dlugi_as @ 18.09.2011, 18:30:30... 25.10.2011, 19:23:34
cyrexx Jak zablokować duplicate content? 22.12.2011, 15:32:50
grochu78 pierwsze co byś musiał zrobić to przekierowanie ca... 27.12.2011, 10:57:40 ![]() ![]() |
|
Aktualny czas: 6.12.2025 - 10:59 |