kamil_lk
14.01.2019, 20:15:10
Cześć.
Muszę zrobić import do bazy na podstawie pliku json, który waży ponad 1 giga.
W jaki sposób zrobić to najoptymalniej, żeby było szybko i nie zjadło pamięci?
Czego używacie w takich przypadkach?
Pozdrawiam
Pyton_000
14.01.2019, 20:22:23
Zerknij na to:
https://soyuka.me/streaming-big-json-files-the-good-way/Nie masz alternatywnych formatów? XML byłby lepszy w tym wypadku
kamil_lk
14.01.2019, 20:42:00
Budowanie xmla w usłudze, która mi zwraca dane trwa zbyt długo i stąd json.
Cytat
@Pyton_000
Czy podany przykład przez Ciebie jest czymś w rodzaju tego
https://www.tutorialspoint.com/php/php_sax_...ser_example.htm dla xmla, o ile się nie mylę, tak?
Pyton_000
14.01.2019, 20:54:00
Ten SAX jakoś dziwnie mi wygląda. Ja używałem XMLReader jak integrowałem hurtownie danych.
Co do XML to jak często się zmienia, może warto go wygenerować co jakiś czas i zrobić z niego cache. Bo JSON średnio nadaje się do tak ogromych struktur bo json nie ma mechanizmów streamingu tak jak w przypadku XML.
Lord
14.01.2019, 22:21:04
http://forum.php.pl/index.php?s=&showt...t&p=1221903Kiedys miałem problem z różnicą prędkości miedzy jednym a drugim formatem plików i mądrzy ludzi radzili wybrać XML