![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 90 Pomógł: 0 Dołączył: 2.12.2007 Ostrzeżenie: (0%) ![]() ![]() |
Witam,
Pobieram treść różnych przykładowo 10 stron przez file_get_cont..... żeby nie zamulać zbytnio strony, chcę cacheować te dane zapisując je po prostu do pliku html i aktualizować te pliki poprzez Crona co 24 godziny. 1. Co myślicie o takim rozwiązaniu? Co proponujecie bardziej wydajnego, chociaż to wydaje mi sie proste i ok. 2. Pobranie naraz 10 stron zamuli chyba lekko PHP albo stronę z której to pobieram, jak opóźnić pobieranie poszczególnych podstron, tak żeby mi się nic nie pozacinało...nie chcę tworzyć dla każdej strony osobnego pliku php wywoływanego np. o minutę później...to odpada. |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 57 Pomógł: 9 Dołączył: 12.11.2005 Skąd: ze wnowu?! Ostrzeżenie: (0%) ![]() ![]() |
One nie beda sie sciagaly naraz, tylko 1 po 2. Poza tym nawet gdyby sciagalo sie 50 stron po 1MB to nie jest to zadnym problemem imho.
|
|
|
![]() ![]() |
![]() |
Aktualny czas: 12.10.2025 - 14:15 |