![]() |
![]() |
![]() ![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 269 Pomógł: 7 Dołączył: 12.10.2006 Skąd: Newcastle Upon Tyne Ostrzeżenie: (0%) ![]() ![]() |
Witam
Mam while z okolo 30000 rekordów które dodaje do bazy przyklad:
Wszystko dziala jednak system sie wywala jesli zrobie insert wiecej niz 5000 kazdego razu. Dodalem ini_set("memory_limit","16000M"); ale ciagle nie dziala. Zastanawiam sie czy da sie zrobic ze wysle 5000 rekordow potem strona sie przeladuje i zrobi kolejne 5000 i tak az do 30000?? Dzieki |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 269 Pomógł: 7 Dołączył: 12.10.2006 Skąd: Newcastle Upon Tyne Ostrzeżenie: (0%) ![]() ![]() |
Wiec tak mam csv z 30000 rekordami na serverze i funkcje która go czyta. Jak zwiekszylem pamies do 16mb to funkcja wyświetla na ekran 30000 rekordów. Schody zaczynaja się kiedy muszę wysłać przetworzone dane do kolejnego serwera wtedy mam myślenie przez 3 min i nic się nie dzieje. Jak zmniejsze czytanie tylko 5000 rekordów i przesłanie wszystko działa idealnie. Czyli szukam rozwiązania gdzie Cron uruchomi plik i plik zrobi 5000 rekordów wyśle je a potem zrobi kolejne 5000 i tak do 30000 jak to najlepiej rozwiązać? Dzieki
|
|
|
![]() ![]() |
![]() |
Aktualny czas: 8.10.2025 - 03:44 |