![]() |
![]() |
![]() ![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 44 Pomógł: 2 Dołączył: 25.08.2009 Ostrzeżenie: (0%) ![]() ![]() |
Witam wszystkich wyjadaczy, pytanie może proste, ale ja dopiero zaczynam zabawę z cURL, i poznaję jego możliwości, np chamskie skopiowanie strony kumpla, tak aby linki wywoływały ją w naszym skrypcie, podmiana reklam i heja, co kumplowi pokazałem i oddałem malusi plik odpowiedzialny za taki działania.
Padło wtedy pytanie, a czy NK tak wciągnę, oczywiście spróbowałem i kiszka (IMG:style_emoticons/default/smile.gif) Kumplel, mając dochodową stronę (google top1 (IMG:style_emoticons/default/smile.gif) ), zapragnął się przed tym zabezpieczyć aby nikt nie mógł w taki sposób zarabiać. Pewnie każdemu taka informacja się przyda, tak więc zapytuję się was, jak zablokować swoją stronę przed cURL? (IMG:style_emoticons/default/smile.gif) Wiem że jeszcze jest iframe, ale to przez JS zrobione (IMG:style_emoticons/default/biggrin.gif) i przekierowuje na porno site (IMG:style_emoticons/default/smile.gif) |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 1 590 Pomógł: 185 Dołączył: 19.04.2006 Skąd: Gdańsk Ostrzeżenie: (0%) ![]() ![]() |
Nie da się zrobić nic łatwego i pewnego bez mocnego ograniczenia dostępności dla wyszukiwarek (google top1) i użytkowników nie używających JS. Jak już to są specjalne filtry, czarne listy robotów, limity pobrań z jednego adresu itp. itd. etc.
Zresztą w czym to tak naprawdę przeszkadza? Przez CURL czy przeglądarkę, co za różnica dla serwera? |
|
|
![]() ![]() |
![]() |
Aktualny czas: 15.10.2025 - 00:14 |