![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 261 Pomógł: 0 Dołączył: 24.02.2008 Ostrzeżenie: (0%) ![]() ![]() |
Witam,
Mam do przesłania kilkadziesiąt tysięcy małych (1-5kb) plików na serwer. Łącznie ważą 20 mb więc przesłanie ich powinno zająć niecałe pół godziny, jednak trwa to wiele godzin ponieważ total commander przy kazdym pliku odczekuje sekundę. Czy istnieje jakiś inny sposób na szybkie przesłanie dużej liczby małych plików? |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 99 Pomógł: 2 Dołączył: 27.10.2006 Skąd: CyberRZECZYWISTOŚĆ Ostrzeżenie: (0%) ![]() ![]() |
Z moich obserwacji wynika, że sama ilość plików nie generuje obciążenia żadngo i nie ma pływu na działanie serwera...
Obciążenie generuje to co sie z nimi robi. Np. majac 10 000 plików w jednym katalogu przy zapytaniu typu: czy istnieje plik i następnie wyświetlenie go to obciążenie jest takie samo jak by ten plik był tylko sam w katalogu. Natomiast podczas zalogowania sie menedzerem ftp do katalogu z dużą ilością plików następuje odczyt nazw plików, ich rozmiary, daty modyfikacji itp. w tym przypadku ilość plików ma negatywny wpływ na działanie serwera(obciążenie). Ta sama zasada tyczy się robienia kopii zapasowych, jeśli jest ich dużo to serwer musi troche przetworzyć danych i robi sie to dość długo. Kiedyś robiłem sporo testów tego typu i najefektywniejsze rozwiązanie to pliki w jednym katalogu tylko poprostu trzeba nimi mądrze zarządzać, aby nie zmuszać serwera do przetwarzania ich wszystkich. |
|
|
![]() ![]() |
![]() |
Aktualny czas: 9.10.2025 - 02:46 |