Pomoc - Szukaj - Użytkownicy - Kalendarz
Pełna wersja: [PHP] Big data json parser
Forum PHP.pl > Forum > Przedszkole
kamil_lk
Cześć.

Muszę zrobić import do bazy na podstawie pliku json, który waży ponad 1 giga.
W jaki sposób zrobić to najoptymalniej, żeby było szybko i nie zjadło pamięci?
Czego używacie w takich przypadkach?

Pozdrawiam
Pyton_000
Zerknij na to: https://soyuka.me/streaming-big-json-files-the-good-way/


Nie masz alternatywnych formatów? XML byłby lepszy w tym wypadku
kamil_lk
Budowanie xmla w usłudze, która mi zwraca dane trwa zbyt długo i stąd json.
Cytat


@Pyton_000
Czy podany przykład przez Ciebie jest czymś w rodzaju tego https://www.tutorialspoint.com/php/php_sax_...ser_example.htm dla xmla, o ile się nie mylę, tak?
Pyton_000
Ten SAX jakoś dziwnie mi wygląda. Ja używałem XMLReader jak integrowałem hurtownie danych.

Co do XML to jak często się zmienia, może warto go wygenerować co jakiś czas i zrobić z niego cache. Bo JSON średnio nadaje się do tak ogromych struktur bo json nie ma mechanizmów streamingu tak jak w przypadku XML.
Lord
http://forum.php.pl/index.php?s=&showt...t&p=1221903

Kiedys miałem problem z różnicą prędkości miedzy jednym a drugim formatem plików i mądrzy ludzi radzili wybrać XML
To jest wersja lo-fi głównej zawartości. Aby zobaczyć pełną wersję z większą zawartością, obrazkami i formatowaniem proszę kliknij tutaj.
Invision Power Board © 2001-2025 Invision Power Services, Inc.