Post
#1
|
|
|
Grupa: Zarejestrowani Postów: 16 Pomógł: 0 Dołączył: 30.06.2010 Ostrzeżenie: (0%)
|
Czy ilosc podstron zablokowanych dla bota w robots.txt moze spowodowac spadek strony w wyszukiwarce?
|
|
|
|
![]() |
Post
#2
|
|
|
Grupa: Zarejestrowani Postów: 26 Pomógł: 1 Dołączył: 4.06.2010 Skąd: Internet Ostrzeżenie: (0%)
|
źle ustawiony plik może wyciąć wartościowe podstrony które mają znaczenie dla SEO więc z tym plikiem trzeba uważać co się gdzie wpisuje. Dobrze ustawiony na pewno nie wpłynie negatywnie na pozycje serwisu w serpach a wręcz przeciwnie możne znacznie podnieść jego wartość w "oczach" Google.
|
|
|
|
cinus_pl Plik robots.txt 13.08.2011, 20:24:25
daren88 Ja często ukrywam niektóre podstrony w robots.txt ... 3.09.2011, 21:13:59
dlugi_as jezeli usunles duplicate content to nie powinno sp... 18.09.2011, 17:30:30 
lukasz_test Cytat(dlugi_as @ 18.09.2011, 18:30:30... 25.10.2011, 19:23:34
cyrexx Jak zablokować duplicate content? 22.12.2011, 15:32:50
grochu78 pierwsze co byś musiał zrobić to przekierowanie ca... 27.12.2011, 10:57:40
thek Zależy co masz pod frazą "duplicate content... 27.12.2011, 11:31:55 ![]() ![]() |
|
Aktualny czas: 6.12.2025 - 14:53 |