![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 261 Pomógł: 0 Dołączył: 24.02.2008 Ostrzeżenie: (0%) ![]() ![]() |
Witam,
Mam do przesłania kilkadziesiąt tysięcy małych (1-5kb) plików na serwer. Łącznie ważą 20 mb więc przesłanie ich powinno zająć niecałe pół godziny, jednak trwa to wiele godzin ponieważ total commander przy kazdym pliku odczekuje sekundę. Czy istnieje jakiś inny sposób na szybkie przesłanie dużej liczby małych plików? |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 46 Pomógł: 1 Dołączył: 2.08.2009 Ostrzeżenie: (0%) ![]() ![]() |
Ja jakoś nie mogę sobie tego wyobrazić, jak by mi się przyciął klient FTP wbudowany w eksplorator systemowy gdybym otworzył taki katalog (IMG:http://forum.php.pl/style_emoticons/default/biggrin.gif) (Linux Ubuntu).
Co do tematu: nie można tych plików połączyć w jeden (np. 10 plików łączonych w jeden) a potem je oddzielać skryptem? Takie rozwiązanie co prawda by ładowało calutki plik ale jak ktoś słusznie zauważył, koszt transferu by spadł (Wysłanie jednego pliku to chyba przynajmniej 3 komendy w FileZilli, w TotalCommanderze jest o parę więcej z tego co pamiętam), jeżeli ci na prędkości nie zależy. Zanim poznałem bazy danych (i bylem baaardzo początkujący (IMG:http://forum.php.pl/style_emoticons/default/smile.gif) ) robiłem bazy danych w plikach. Heh na 10 userów miałem ~500 plików w katalogu, wtedy nie znałem funkcji PHP. Ale znalazłem explode i udało mi się wyciągnąć ~50 plików (IMG:http://forum.php.pl/style_emoticons/default/smile.gif) |
|
|
![]() ![]() |
![]() |
Aktualny czas: 13.10.2025 - 19:13 |