![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 325 Pomógł: 33 Dołączył: 31.05.2008 Ostrzeżenie: (0%) ![]() ![]() |
Cześć.
Muszę zrobić import do bazy na podstawie pliku json, który waży ponad 1 giga. W jaki sposób zrobić to najoptymalniej, żeby było szybko i nie zjadło pamięci? Czego używacie w takich przypadkach? Pozdrawiam |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 8 068 Pomógł: 1414 Dołączył: 26.10.2005 Ostrzeżenie: (0%) ![]() ![]() |
Ten SAX jakoś dziwnie mi wygląda. Ja używałem XMLReader jak integrowałem hurtownie danych.
Co do XML to jak często się zmienia, może warto go wygenerować co jakiś czas i zrobić z niego cache. Bo JSON średnio nadaje się do tak ogromych struktur bo json nie ma mechanizmów streamingu tak jak w przypadku XML. |
|
|
![]() ![]() |
![]() |
Aktualny czas: 16.10.2025 - 14:11 |