![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 41 Pomógł: 3 Dołączył: 26.01.2005 Ostrzeżenie: (0%) ![]() ![]() |
Otoz uzywam file_get_contents do pobierania stron i dalszej ich obrobki "tekstowej". Niestety trafiam czasami na duze strony ok 500-700 kb. Moj serwer ma limit czasu wykonywania skryptu, wiec w sumie nie jest mozliwe zaciagnac takiej stronki.
Myslalem, zeby to zrobic fopen, fgets i w petli ladnie to odczytac z przystankami tzn. odczytac pierwsze 100 kb, zapisac gdzies, w ktorym miejscu skonczylo sie czytanie pliku, zakonczyc skypt i uruchomic go od nowa od miejsca gdzie skonczyl sie wykonywac poprzednio. Co w takiej sytuacji polecacie? Pozdrawiam |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 442 Pomógł: 0 Dołączył: 27.12.2005 Ostrzeżenie: (0%) ![]() ![]() |
Spróbuj set_time_limit" title="Zobacz w manualu PHP" target="_manual, jeśli nie pomoże ( choćby przez safe_mod ) spróbuj cURL'em wykorzystać możliwości oferowane przez RFC 2616 - HTTP 1.1 Specification - HTTP Compression
|
|
|
![]()
Post
#3
|
|
Grupa: Zarejestrowani Postów: 41 Pomógł: 3 Dołączył: 26.01.2005 Ostrzeżenie: (0%) ![]() ![]() |
Dzieki za odpowiedz.
Problem juz rozwiazany. Otoz set_time_limit byl juz testowany i niestety nic nie zmienial. Natomiast mail do administratora pomogl. Timeout zostal przedluzony, co rozwiazalo problem. (IMG:http://forum.php.pl/style_emoticons/default/smile.gif) |
|
|
![]() ![]() |
![]() |
Aktualny czas: 22.08.2025 - 21:59 |