![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 11 Pomógł: 0 Dołączył: 31.07.2014 Ostrzeżenie: (0%) ![]() ![]() |
witam
mam taki kod:
problem polega na tym ze te 40000 url sprawdza tak długo ze po około 700 przerywa się działanie skryptu... czy możecie mi pomóc zmodyfikować to tak aby jedno zapuszczenie skryptu przemieliło wszystkie url?? Ten post edytował ttomekb 26.08.2014, 11:05:34 |
|
|
![]() |
![]()
Post
#2
|
|
![]() Grupa: Zarejestrowani Postów: 1 270 Pomógł: 184 Dołączył: 7.10.2012 Skąd: Warszawa Ostrzeżenie: (0%) ![]() ![]() |
Probowales set_time_limit , max_execution_time?
Ten post edytował rad11 26.08.2014, 11:07:38 |
|
|
![]()
Post
#3
|
|
![]() Grupa: Moderatorzy Postów: 36 557 Pomógł: 6315 Dołączył: 27.12.2004 ![]() |
A skad my mamy wiedziec, co sie kryje pod tymi magicznymi
działąnie działanie działanie ..... Jedyne co ci moge napisac to albo odpalaj to z crona co pare urli a nie wszystkie albo zwieksz dlugosc wykonywania skryptu -------------------- "Myśl, myśl, myśl..." - Kubuś Puchatek || "Manual, manual, manual..." - Kubuś Programista "Szukaj, szukaj, szukaj..." - Kubuś Odkrywca || "Debuguj, debuguj, debuguj..." - Kubuś Developer |
|
|
![]()
Post
#4
|
|
Grupa: Zarejestrowani Postów: 11 Pomógł: 0 Dołączył: 31.07.2014 Ostrzeżenie: (0%) ![]() ![]() |
A skad my mamy wiedziec, co sie kryje pod tymi magicznymi działąnie działanie działanie ..... crawler pobiera dane ze strony i zapisuje do bazy
set_time_limit , max_execution_time tu raczej nie pomogą bo serwer jestustawiony tak a nie inaczej... Ten post edytował ttomekb 26.08.2014, 11:13:29 |
|
|
![]()
Post
#5
|
|
Grupa: Zarejestrowani Postów: 321 Pomógł: 55 Dołączył: 19.04.2009 Ostrzeżenie: (0%) ![]() ![]() |
odpal to sobie w konsoli - problemu z timeoutem nie będzie
nie wiem co tam skanujesz ale jak jakiś serwis - to sprawdzaj sobie czasem czy serwer nie wyciął twojego IP -------------------- Polecam MyDevil hosting idealny dla deweloperów
|
|
|
![]() ![]() |
![]() |
Wersja Lo-Fi | Aktualny czas: 24.07.2025 - 17:21 |