Post
#1
|
|
|
Grupa: Zarejestrowani Postów: 48 Pomógł: 0 Dołączył: 10.03.2006 Skąd: Warszawa Ostrzeżenie: (0%)
|
Witajcie,
mam taki problem jest plik CSV zawierający 21 kolumn i bardzo dużą ilość pozycji (jakies 38 tysięcy). Napisałem filtr i skrypcik który ładnie to wrzuca do bazy. Lecz niestety ale zrywa wrzucanie danych w różncyh losowych miomentach. Czasem pozycja 880 albo 1920-a itd. Czy to jakieś przeciążenienie czy coś innego co nie uwzględniłem. Procedura na początku nawiązuje połączenie, potem w pętli while wrzuca po kolei dane a na koniec zamyka połączenie. Plik CSV znajduje się na serwerze tam gdzie odpalany jest skrypt do przerzucenia danych na MySQL. Znacie ten problem? możecie wspomóc radą? Pozdrawiam MacDavido |
|
|
|
![]() |
Post
#2
|
|
|
Grupa: Zarejestrowani Postów: 352 Pomógł: 0 Dołączył: 22.01.2006 Ostrzeżenie: (0%)
|
Rozszerzenie mysqli ma funkcję multi_query i przez to możesz aplikować wiele insert'ów na raz, jest to dużo szybsze niż pojedyńcze wywołania query, też poprzez mysqli możesz wysyłać skompresowane dane.
Miałem ten problem kiedyś i generalnie trzeba limitować ilość zapytań na przeładowanie (też wszystko zależy od serwera, jedne odmówią współpracy wcześniej inne później.) Nie mniej używając mysqli_multi_query mogłem dodawać znacznie więcej danych na raz niż poprzez zwykłe query. |
|
|
|
macdavido Ładowanie duzych danych w php 29.05.2006, 11:50:50
athabus a próbowałeś load data infile? 29.05.2006, 11:57:47
macdavido a tego nie znam :-O
mozesz cos przytoczyc? 29.05.2006, 12:03:26
nospor oj... ale co tu przytaczac?
http://www.google.com... 29.05.2006, 12:06:28
macdavido -> nospor
dzieki za info, sprobowalem ale chyba... 29.05.2006, 16:37:27 ![]() ![]() |
|
Aktualny czas: 26.12.2025 - 11:52 |