![]() ![]() |
Post
#1
|
|
|
Grupa: Zarejestrowani Postów: 131 Pomógł: 0 Dołączył: 20.08.2007 Ostrzeżenie: (0%)
|
Witam
Czy znacie może jakieś sposoby aby zoptymalizować tysiąc lub więcej zapytań do mysql typu INSERT ? Aktualnie wczytuję jedno po drugim, ale zajmuje to sporo minut i serwer nie pracuje aż do wykonania ostatniego zapytania.... |
|
|
|
Post
#2
|
|
|
Grupa: Moderatorzy Postów: 36 561 Pomógł: 6315 Dołączył: 27.12.2004 |
a nie mozesz do w insert wkladac po kilkadziesiat rekordow? Musisz po jednym?
|
|
|
|
Post
#3
|
|
|
Grupa: Zarejestrowani Postów: 131 Pomógł: 0 Dołączył: 20.08.2007 Ostrzeżenie: (0%)
|
mam petle odczytujaca informacje z xml'a, moge ewentualnie zrobic jedno zapytanie ze wszystkimi danymi, nie wiem czy to będzie lepsze... moze będzie?
|
|
|
|
Post
#4
|
|
|
Grupa: Moderatorzy Postów: 36 561 Pomógł: 6315 Dołączył: 27.12.2004 |
100 zapytan jest zdycdowanie lepsze niz 1000.
Do jednego zapytania wszystkiego nie wal bo ci sie wywali sql. Rob w jednym zapytanie np. po 10-50 rekordow. Ale ta ilosc zalezy od tego ile danych jest na jeden rekord |
|
|
|
Post
#5
|
|
|
Grupa: Moderatorzy Postów: 6 072 Pomógł: 861 Dołączył: 10.12.2003 Skąd: Dąbrowa Górnicza |
A nie lepiej będzie przerzucić dane z XML do pliku tekstowego rozdzielając poszczególne elementy np. średnikiem, po czym wykonać w MySQL LOAD DATA?
http://dev.mysql.com/doc/refman/5.1/en/load-data.html |
|
|
|
![]() ![]() |
|
Aktualny czas: 24.12.2025 - 14:17 |