![]() |
![]() ![]() |
![]() |
![]()
Post
#1
|
|
![]() Grupa: Zarejestrowani Postów: 10 Pomógł: 0 Dołączył: 1.10.2002 Skąd: Sieradz Ostrzeżenie: (0%) ![]() ![]() |
Witam ponownie z centrum Polski
![]() Mam następujące pytanie. Tworzę system zarządzający dużą ilością informacji pochodzących z przestarzałego systemu sprzedaży. Obecnie system jest na ukończeniu, baza działa itepe itede. Jednakże po skończeniu aplikacji będę musiał jeszcze raz wgrać całą bazę (2x 100.000 rekordów). Mam gotowe pliki z zapytaniem SQL. Jednakże aby dało się je, za pomocą PHPmyAdmina wgrać, muszę ciąć pliki na kawałki po 5.000 rekordów. Łatwo więc policzyć, że powstanie 40 plików, które mój komputer (Celeron 2,2, 256 DDRAM - niestety laptopik) będzie mielił pewnie kilka dni (jeśli nie stracę po drodze cierpliwości aby zmieniać pliki co godzinę myślenia). Próbowałem grzebać w ustawieniach mysqla, ale mimo ustawienia wszystkich zmiennych (stanowiących limity na paczki itp.) na kilkakrotnie wyższe nadal mysql + apache nie trawi plików większych niż 5.000 rekordów. Podglądając w menedzerze zadań XP po wgraniu pliku sql większego niż wspomniany - procesor ani drgnie (w IE widać jakby coś się działo). Będę bardzo wdzięczny za wskazówki jak dokonać hurtowego wgrania 100.000 rekordów przy minimalizacji czasu i użycia procesora ![]() Z pozdrowieniami, Michal S. |
|
|
![]()
Post
#2
|
|
![]() Grupa: Zarejestrowani Postów: 99 Pomógł: 0 Dołączył: 14.07.2003 Skąd: z epoki lodowcowej Ostrzeżenie: (0%) ![]() ![]() |
proponuje zainteresowac sie klientem mysql dostarczanym razem z serwerem - o nazwie po prostu 'mysql' lub 'mysql.exe' np.:
mysql -u user -p -D baza <plik_z_zapytaniami_sql.sql -------------------- |
|
|
![]()
Post
#3
|
|
![]() Grupa: Zarejestrowani Postów: 384 Pomógł: 0 Dołączył: 3.04.2003 Skąd: Chorzow Ostrzeżenie: (0%) ![]() ![]() |
Sprobuj zmienic zapytania na postac
[sql:1:655301c284] INSERT INTO ... VALUES (...),(...),(...)... [/sql:1:655301c284] bedzie wstawial Ci znacznie szybciej. Skad takie dziwne ograniczenie to nie wiem, ja mam tabele ktora mysqldump podzielil na trzy zapytani a ma ~27.000 wierszy (trzy zapytania, zeby miescily sie w standartowej megabajtowej paczce) |
|
|
![]()
Post
#4
|
|
![]() Grupa: Zarejestrowani Postów: 10 Pomógł: 0 Dołączył: 1.10.2002 Skąd: Sieradz Ostrzeżenie: (0%) ![]() ![]() |
Cytat Sprobuj zmienic zapytania na postac
[sql:1:12d44ec103] INSERT INTO ... VALUES (...),(...),(...)... [/sql:1:12d44ec103] bedzie wstawial Ci znacznie szybciej. Generalnie konstrukcja zapytan wygladala wlasnie w przytoczony przez Ciebie sposob. Niestety nie funkcjonowalo to sprawnie. Skorzystalem z programu MyManager - swoja droga baaardzo fajny program - i zaimportowalem wszystkie rekordy do bazy prosto z pliku DBF (trwalo to 15 minut - SUUUPER!). Wczesniej z pliku tego eksportowalem zapytanie za pomoca programu DBF Viewer & Editor. Dzieki wielkie mimo wszystko za pomoc! Teraz mam inny problem, ale o tym w wątku: Nie realizuje zapytania, czy to wina wielkiej ilości rekordów? Pozdrawiam! -------------------- czasem gadam gumpoty
|
|
|
![]()
Post
#5
|
|
![]() Grupa: Zarejestrowani Postów: 384 Pomógł: 0 Dołączył: 3.04.2003 Skąd: Chorzow Ostrzeżenie: (0%) ![]() ![]() |
Musialbys miec naprawde chora ich ilosc. Trudno powiedziec bez dokladnego opisu co sie dzieje.
|
|
|
![]()
Post
#6
|
|
Grupa: Zarejestrowani Postów: 23 Pomógł: 0 Dołączył: 16.08.2003 Skąd: Polska Ostrzeżenie: (0%) ![]() ![]() |
jakiś czas temu napisałem skrypt który obsługuje import z DBF'a do MySQL'a 300.000 rekordów (cennik części zamiennych SCANIA), kwestia kilku minut na localu a na komercyjnym serwerze www jeszcze szybciej...
|
|
|
![]() ![]() |
![]() |
Wersja Lo-Fi | Aktualny czas: 19.07.2025 - 04:42 |