![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 3 Pomógł: 0 Dołączył: 17.11.2006 Ostrzeżenie: (0%) ![]() ![]() |
Problem polega na tym, ze moj serwis zawiera ok 30.000 dynamicznie generowanych stron. Zadarzaja sie namietni ssacze, ktorzy pobieraja caly serwis
![]() ![]() |
|
|
![]() |
![]()
Post
#2
|
|
![]() Grupa: Zarejestrowani Postów: 332 Pomógł: 6 Dołączył: 13.01.2005 Ostrzeżenie: (0%) ![]() ![]() |
Sprawdzałeś user-agenta?
|
|
|
![]()
Post
#3
|
|
Grupa: Zarejestrowani Postów: 3 Pomógł: 0 Dołączył: 17.11.2006 Ostrzeżenie: (0%) ![]() ![]() |
Tak, w tym problem, ze niektorzy podszywaja sie pod googla
![]() |
|
|
![]()
Post
#4
|
|
![]() Grupa: Zarejestrowani Postów: 332 Pomógł: 6 Dołączył: 13.01.2005 Ostrzeżenie: (0%) ![]() ![]() |
Pewnie są inne sposoby ale...
Adresy IP robotów google są znane, więc podszywaczy można wyeliminować. Co do reszty to narazie nie mam pomysłu na jakieś efektywne rozwiązanie. |
|
|
![]() ![]() |
![]() |
Aktualny czas: 20.08.2025 - 01:08 |