![]() |
![]() |
-Gość- |
![]()
Post
#1
|
Goście ![]() |
Wyjaśnię na przykładowej stronie o co mi chodzi.
Jest przykładowo strona o piłkarskiej Lidze Mistrzów (strona jest na serwerze dedykowanym, przepustowość 100 Mbit, transfer miesięczny 5000 GB). Strona chodzi bardzo dobrze z wyjątkiem środy, w godzinach 21-23 (czyli pory w której odbywają się mecze). Wtedy radykalnie wzrasta ilość użytkowników, którzy odwiedzają stronę, serwer nie wytrzymuje takiego ruchu i strona przestaje działać. 1. Jaki parametr za to odpowiada? Chyba przepustowość łącza? (dodam, że transfer miesięczny 5000 GB nie jest wykorzystywany nawet w połowie, więc to raczej nie kwestia transferu miesięcznego) 2. Jeżeli to przepustowość, to czy da się dokupić na te 2 godziny dodatkową przepustowość? Powiedzmy jak normalnie serwer ma przepustowość 100 Mbps, to na 2 godziny dokupuję dodatkowe 300 Mbps. Tylko czy firmy hostingowe na takie coś się zgodzą? Czy jest to w ogóle możliwe? |
|
|
![]() |
-Gość- |
![]()
Post
#2
|
Goście ![]() |
2. Jeżeli to przepustowość, to czy da się dokupić na te 2 godziny dodatkową przepustowość? Powiedzmy jak normalnie serwer ma przepustowość 100 Mbps, to na 2 godziny dokupuję dodatkowe 300 Mbps. Tylko czy firmy hostingowe na takie coś się zgodzą? Czy jest to w ogóle możliwe? Piszesz, że masz przepustowość 100 Mbps i chcesz dowiedzieć się ile ile w danej chwili wykorzystywanej jest przepustowości. A ja zastanawiam się czy da się jakoś to policzyć? Powiedzmy, że mamy: - w jednej sekundzie 1000 użytkowników - storna/podstrona średnio waży 100 KB = 800 kb Czyli w trakcie jednej sekundy generowany jest ruch: 1000 użytkowników * 800 kb = 800000 kbps = 800 Mbps czyli 8 razy większy ruch niż oferowana przez serwer przepustowość 100 Mbps. Czy w takiej sytuacji (przekroczona maksymalna przepustowość) strona przestanie działać? Czy te moje obliczenia są w ogóle prawidłowe? |
|
|
![]()
Post
#3
|
|
Grupa: Zarejestrowani Postów: 142 Pomógł: 9 Dołączył: 3.03.2011 Ostrzeżenie: (0%) ![]() ![]() |
A ja zastanawiam się czy da się jakoś to policzyć? Powiedzmy, że mamy: - w jednej sekundzie 1000 użytkowników rok temu miałem tego typu problem i przepustowość nie miała nic do rzeczy. Za mało ramu + czekanie na odpowiedź z bazy (a tym samym procesy apacha czekały i dla nowych userów powstawały nowe). Sprawę rozwiązało przekonfigurowanie apache + zoptymalizowanie zapytań + cacheowanie części rzeczy, żeby bazę odciążyć. |
|
|
-Gość- |
![]()
Post
#4
|
Goście ![]() |
rok temu miałem tego typu problem i przepustowość nie miała nic do rzeczy. Za mało ramu + czekanie na odpowiedź z bazy (a tym samym procesy apacha czekały i dla nowych userów powstawały nowe). Obecnie mam serwer dzielony (wirtualny). Strona ma zwykle 150 userów na raz. Ale jak jest duże natężenie, to w pewnych momentach sięga 4000 userów na raz. Chciałbym więc kupić serwer dedykowany. Pytanie, czy serwer z takimi parametrami jak poniżej wystarczy na te 4000 userów na raz? Cytat Procesor Intel Xeon E3-1230 (3.20GHz/4-core/8MB) Pamięć RAM 8 GB RAM Dyski twarde 2x500 GB SATA RAID 1/0 Łącze upload/download 100 Mbps Transfer miesięczny Transfer no limit, po przekroczeniu 5000 GB w miesiącu przycinamy do 10 Mbps Sprawę rozwiązało przekonfigurowanie apache + zoptymalizowanie zapytań + cacheowanie części rzeczy, żeby bazę odciążyć. A czy można/warto cachować np. stronę główną? Zastanawiam się czy nie warto by było wziąć serwera dedykowanego z dyskami SSD, bo są one bardzo szybkie, więc czy nie wpłynęło by to pozytywnie na ogólną wydajność serwa (chociażby szybszy czas wykonania zapytań do relacyjnej bazy danych)? |
|
|
![]()
Post
#5
|
|
Grupa: Zarejestrowani Postów: 142 Pomógł: 9 Dołączył: 3.03.2011 Ostrzeżenie: (0%) ![]() ![]() |
A czy można/warto cachować np. stronę główną? Cacheować warto wszystko, co nie jest ciągle zmienne (IMG:style_emoticons/default/smile.gif) Zawsze możesz to co jakiś czas (1minuta/1godzina/1dzień) automagicznie odświeżać... Jeśłi teraz masz wirtuala, to może skontaktuj się z administratorami - powinni podać ci gdzie jest wąskie gardło obecnego rozwiązania... Ten post edytował skleps 27.11.2012, 17:59:11 |
|
|
-Gość- |
![]()
Post
#6
|
Goście ![]() |
Cacheować warto wszystko, co nie jest ciągle zmienne (IMG:style_emoticons/default/smile.gif) Zawsze możesz to co jakiś czas (1minuta/1godzina/1dzień) automagicznie odświeżać... Ciekawe jak to jest cacheowaniem w kontekście wyjątkowo dużego ruchu na stronie. Od czasu do czasu słyszy się, że serwery jakiejś znanej strony padły z powodu wyjątkowo dużej odpowiedzialności strony: http://aplikacje.komorkomania.pl/2012/11/0...oru-ciekawskich No skoro nawet serwery na których jest strona NASA padły, to już chyba po prostu przerasta to możliwości nawet najsilniejszych serwerów na rynku? I co wtedy zrobić? Czy cacheowanie pomogło by uniknąć braku działania strony z powodu wyjątkowego dużego ruchu? |
|
|
![]() ![]() |
![]() |
Aktualny czas: 7.10.2025 - 17:41 |