Post
#1
|
|
|
Grupa: Zarejestrowani Postów: 16 Pomógł: 0 Dołączył: 30.06.2010 Ostrzeżenie: (0%)
|
Czy ilosc podstron zablokowanych dla bota w robots.txt moze spowodowac spadek strony w wyszukiwarce?
|
|
|
|
![]() |
Post
#2
|
|
|
Grupa: Zarejestrowani Postów: 9 Pomógł: 0 Dołączył: 27.12.2011 Skąd: WLKP Ostrzeżenie: (0%)
|
pierwsze co byś musiał zrobić to przekierowanie canonical a polega ono na tym że robisz przekierowanie strony np: z www.twojastrona.pl na twojastrona.pl. Zapis może wyglądać np tak w pliku .htaccess:
RewriteCond %{HTTP_HOST} ^www\.(.+)$ [NC] RewriteRule ^(.*)$ http://%1/$1 [R=301,L] drugie to zastosowanie rel dla linków. Może być taka postać : <link rel="canonical" href="http://twojastrona.pl/ciasta/"> trzecie co znam to noindex a postać dla podtrony to: <meta name="robots" content="noindex, follow" /> oczywiście w zancznikach <head></head> Ten post edytował grochu78 27.12.2011, 10:58:48 |
|
|
|
cinus_pl Plik robots.txt 13.08.2011, 20:24:25
Omni źle ustawiony plik może wyciąć wartościowe podstro... 19.08.2011, 01:13:05
daren88 Ja często ukrywam niektóre podstrony w robots.txt ... 3.09.2011, 21:13:59
dlugi_as jezeli usunles duplicate content to nie powinno sp... 18.09.2011, 17:30:30 
lukasz_test Cytat(dlugi_as @ 18.09.2011, 18:30:30... 25.10.2011, 19:23:34
cyrexx Jak zablokować duplicate content? 22.12.2011, 15:32:50
thek Zależy co masz pod frazą "duplicate content... 27.12.2011, 11:31:55 ![]() ![]() |
|
Aktualny czas: 6.12.2025 - 10:59 |