![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 384 Pomógł: 13 Dołączył: 16.06.2006 Ostrzeżenie: (0%) ![]() ![]() |
Mam plik csv który zajmuje 140 MB, serwer nie daje rady jest "Out of memory" i zastanawiam sie czy nie da sie jakos partiami wczytywac pliku zeby tylko jego czesc byla w pamieci a pozniej kolejna czesc odczytac i przerobic ? Ewentualnie jakis inny sposob, jestem w kropce, juz 2 godziny nad tym siedze ... w komentarzach w manualu znalazlem klase CsvImporter która niby to robi, ale jak odczytam przed tym plikiem jakis jeszcze wczesniej, to tez mam "Out of memory". Moze daloby sie przerobic jakos ta klase zeby nie zajmowala tyle pamieci ?
|
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 655 Pomógł: 73 Dołączył: 2.05.2014 Ostrzeżenie: (0%) ![]() ![]() |
Ja parsuje kilka plików .csv po 300-400MB każdy. PHP nie daje rady (IMG:style_emoticons/default/smile.gif)
Zaciągnąłem node.js, wielowątkowość i czas na jeden plik: PHP - 20-30 minut node.js - 20-30 sekund cóż.. nie do wszystkiego PHP się nadaje (IMG:style_emoticons/default/wink.gif) fakt ze tam jest coś więcej niż czytanie, jest jeszcze mapowanie i parsowanie odpowiednio, ale mimo wszystko.. |
|
|
![]() ![]() |
![]() |
Aktualny czas: 14.10.2025 - 14:18 |