![]() |
![]() |
![]() ![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 25 Pomógł: 0 Dołączył: 26.01.2006 Ostrzeżenie: (0%) ![]() ![]() |
Witam,
Czy ktoś zna sposób na zablokowanie parsowania własnej strony internetowej, tak aby użytkownicy innych stron nie byli w stanie tego robić korzystając np. z funkcji: curl_init? Wiem, że istnieją takie sposoby, bo np. onet blokował taką możliwość w stosunku do strony głównej. Niemniej jednak nie znalazłem rozwiązania w internecie. Nie jestem pewien czy jest to odpowiedni dział na forum. Jeżeli nie to przepraszam i proszę o przeniesienie go w odpowiednie miejsce. A przede wszystkim mam nadzieję, że osoby, które znają rozwiązanie tego problemu, podzielą się wiedzą. Za co z góry dziękuję! (IMG:http://forum.php.pl/style_emoticons/default/smile.gif) |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 25 Pomógł: 0 Dołączył: 26.01.2006 Ostrzeżenie: (0%) ![]() ![]() |
Kiedyś próbowałem to się nie dało... może po zmianie szaty graficznej strony głównej z tego zrezygnowali, teraz tego nie sprawdziłem (IMG:http://forum.php.pl/style_emoticons/default/winksmiley.jpg) Skoro mówicie że się nie da to się nie da ;P
Mike jeżeli dobrze Cię zrozumiałem to jak się będzie zasysać dane przez ajax'ik to curl nie pobierze już danych zassanych po załadowaniu podstawowej konstrukcji strony, tak? |
|
|
![]()
Post
#3
|
|
Grupa: Przyjaciele php.pl Postów: 7 494 Pomógł: 302 Dołączył: 31.03.2004 Ostrzeżenie: (0%) ![]() ![]() |
Mike jeżeli dobrze Cię zrozumiałem to jak się będzie zasysać dane przez ajax'ik to curl nie pobierze już danych zassanych po załadowaniu podstawowej konstrukcji strony, tak? Dokładnie. Ponieważ funkcje typu file_get_contents() czy mechanizmy cURL nie potrafia wykonywać JavaScriptu. Większość robotów i pająków zresztą też.
|
|
|
![]() ![]() |
![]() |
Aktualny czas: 14.10.2025 - 05:53 |