![]() |
![]() ![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 312 Pomógł: 0 Dołączył: 29.12.2004 Ostrzeżenie: (0%) ![]() ![]() |
Witam,
mam pytanie jak narazie teoretyczne. Chodzi o szybkość obsługi danych, jeśli chcem "obrobić" plik tekstowy zawierający ok 150 tys linijek (rekordów) poprzez zaprzęgnięcie do pracy mysq i php to czy szybkość obsługi tych danych będzie znacznie różniła się od ich obsługi np. w ms acces ? czy są metody na obróbkę tak dużych plików z poziomu mysql bez kodu php. I na koniec jak przeglądarka będzie radziła sobie z takąilością danych. Pozdr! --- po głębszym namyśle na dobrą sprawę przeglądarka nie musi wyświetlać żadnych danych tylko generować pliki w formacie CVS które można wrzucić później do excel... pojawia siępyatnie o szybkość php. Ten post edytował ennics 11.01.2005, 15:48:32 |
|
|
![]()
Post
#2
|
|
Grupa: Zarząd Postów: 2 277 Pomógł: 6 Dołączył: 27.12.2002 Skąd: Wołów/Wrocław ![]() |
oczywiste jest, że jeśli tylko to jest możliwe - lepiej jest korzystać z mechanizmów zaimplementowanych w MySQL.
Dla przykładu export 100 Mb bazy przy pomocy komendy MySQL trwa około sekundy, a przy pomocy php - kilkanaście minut. Jest to oczywiste, i nikogo nie powinno dziwić. A że MySQL potrafi całkiem sprytnie wyeksportowywać i importować dane w różnych formatach - wydaje mi się do najlepszym rozwiązaniem (o ile tylko będziesz miał odpowiednie prawa na serwerze ... ) |
|
|
![]()
Post
#3
|
|
Grupa: Zarejestrowani Postów: 312 Pomógł: 0 Dołączył: 29.12.2004 Ostrzeżenie: (0%) ![]() ![]() |
czy mogę to zrobic poprzez mysqlimport czy są jakieś inne, wygodniejsze metody ?
|
|
|
![]() ![]() |
![]() |
Aktualny czas: 16.09.2025 - 02:23 |