Post
#1
|
|
|
Grupa: Zarejestrowani Postów: 231 Pomógł: 17 Dołączył: 26.08.2007 Ostrzeżenie: (10%)
|
Witam,
Czy istnieje możliwość zdefiniowania w pliku robots.txt aby roboty wyszukiwarek miały dostęp do strony 1 raz dziennie? Pozdrawiam Ten post edytował Puzi 27.03.2013, 09:38:10 |
|
|
|
![]() |
Post
#2
|
|
|
Grupa: Zarejestrowani Postów: 231 Pomógł: 17 Dołączył: 26.08.2007 Ostrzeżenie: (10%)
|
Dostęp dla robotów chcę ograniczyć ponieważ ich żądania powodują bardzo duże obciążenie serwera. Jednak nie mogę zablokować dostępu do strony w taki sposób jak in5ane zaproponowałeś gdyż raczej będą problemy z indeksowaniem strony.
Jak na razie spróbuję użyć w pliku robots.txt czegoś takiego: Kod User-agent: * Crawl-delay: 10 Ograniczy to liczbę żądań. Jeśli ma ktoś inne pomysły to proszę pisać. |
|
|
|
Puzi [inne] Ograniczenia dla robotów 27.03.2013, 09:37:57
in5ane Myślę, że można to rozwiązać za pomocą PHP. Tutaj ... 27.03.2013, 10:31:03
nospor Cytatjeżeli było danego bota, to po prostu blokuje... 27.03.2013, 10:33:35
in5ane Dlatego napisałem, że nie wiem, jaki to będzie mia... 27.03.2013, 10:38:09 ![]() ![]() |
|
Aktualny czas: 27.12.2025 - 07:59 |