Witaj Gościu! ( Zaloguj | Rejestruj )

Forum PHP.pl

> [inne]Dokupienie dodatkowej przepustowości serwera?
-Gość-
post
Post #1





Goście







Wyjaśnię na przykładowej stronie o co mi chodzi.
Jest przykładowo strona o piłkarskiej Lidze Mistrzów (strona jest na serwerze dedykowanym, przepustowość 100 Mbit, transfer miesięczny 5000 GB).
Strona chodzi bardzo dobrze z wyjątkiem środy, w godzinach 21-23 (czyli pory w której odbywają się mecze). Wtedy radykalnie wzrasta ilość użytkowników, którzy odwiedzają stronę, serwer nie wytrzymuje takiego ruchu i strona przestaje działać.

1. Jaki parametr za to odpowiada? Chyba przepustowość łącza? (dodam, że transfer miesięczny 5000 GB nie jest wykorzystywany nawet w połowie, więc to raczej nie kwestia transferu miesięcznego)
2. Jeżeli to przepustowość, to czy da się dokupić na te 2 godziny dodatkową przepustowość? Powiedzmy jak normalnie serwer ma przepustowość 100 Mbps, to na 2 godziny dokupuję dodatkowe 300 Mbps. Tylko czy firmy hostingowe na takie coś się zgodzą? Czy jest to w ogóle możliwe?
Go to the top of the page
+Quote Post
 
Start new topic
Odpowiedzi
-Gość-
post
Post #2





Goście







Cytat(Gość @ 25.11.2012, 13:29:36 ) *
2. Jeżeli to przepustowość, to czy da się dokupić na te 2 godziny dodatkową przepustowość? Powiedzmy jak normalnie serwer ma przepustowość 100 Mbps, to na 2 godziny dokupuję dodatkowe 300 Mbps. Tylko czy firmy hostingowe na takie coś się zgodzą? Czy jest to w ogóle możliwe?


Piszesz, że masz przepustowość 100 Mbps i chcesz dowiedzieć się ile ile w danej chwili wykorzystywanej jest przepustowości.

A ja zastanawiam się czy da się jakoś to policzyć?

Powiedzmy, że mamy:
- w jednej sekundzie 1000 użytkowników
- storna/podstrona średnio waży 100 KB = 800 kb
Czyli w trakcie jednej sekundy generowany jest ruch:
1000 użytkowników * 800 kb = 800000 kbps = 800 Mbps

czyli 8 razy większy ruch niż oferowana przez serwer przepustowość 100 Mbps.

Czy w takiej sytuacji (przekroczona maksymalna przepustowość) strona przestanie działać?
Czy te moje obliczenia są w ogóle prawidłowe?
Go to the top of the page
+Quote Post
skleps
post
Post #3





Grupa: Zarejestrowani
Postów: 142
Pomógł: 9
Dołączył: 3.03.2011

Ostrzeżenie: (0%)
-----


Cytat(Gość @ 26.11.2012, 19:40:05 ) *
A ja zastanawiam się czy da się jakoś to policzyć?
Powiedzmy, że mamy:
- w jednej sekundzie 1000 użytkowników


rok temu miałem tego typu problem i przepustowość nie miała nic do rzeczy.
Za mało ramu + czekanie na odpowiedź z bazy (a tym samym procesy apacha czekały i dla nowych userów powstawały nowe).

Sprawę rozwiązało przekonfigurowanie apache + zoptymalizowanie zapytań + cacheowanie części rzeczy, żeby bazę odciążyć.
Go to the top of the page
+Quote Post
-Gość-
post
Post #4





Goście







Cytat(skleps @ 26.11.2012, 19:55:46 ) *
rok temu miałem tego typu problem i przepustowość nie miała nic do rzeczy.
Za mało ramu + czekanie na odpowiedź z bazy (a tym samym procesy apacha czekały i dla nowych userów powstawały nowe).


Obecnie mam serwer dzielony (wirtualny). Strona ma zwykle 150 userów na raz. Ale jak jest duże natężenie, to w pewnych momentach sięga 4000 userów na raz. Chciałbym więc kupić serwer dedykowany. Pytanie, czy serwer z takimi parametrami jak poniżej wystarczy na te 4000 userów na raz?
Cytat
Procesor Intel Xeon E3-1230 (3.20GHz/4-core/8MB)
Pamięć RAM 8 GB RAM
Dyski twarde 2x500 GB SATA RAID 1/0
Łącze upload/download 100 Mbps
Transfer miesięczny Transfer no limit, po przekroczeniu 5000 GB w miesiącu przycinamy do 10 Mbps


Cytat(skleps @ 26.11.2012, 19:55:46 ) *
Sprawę rozwiązało przekonfigurowanie apache + zoptymalizowanie zapytań + cacheowanie części rzeczy, żeby bazę odciążyć.


A czy można/warto cachować np. stronę główną?

Zastanawiam się czy nie warto by było wziąć serwera dedykowanego z dyskami SSD, bo są one bardzo szybkie, więc czy nie wpłynęło by to pozytywnie na ogólną wydajność serwa (chociażby szybszy czas wykonania zapytań do relacyjnej bazy danych)?
Go to the top of the page
+Quote Post
skleps
post
Post #5





Grupa: Zarejestrowani
Postów: 142
Pomógł: 9
Dołączył: 3.03.2011

Ostrzeżenie: (0%)
-----


Cytat(Gość @ 26.11.2012, 21:41:19 ) *
A czy można/warto cachować np. stronę główną?


Cacheować warto wszystko, co nie jest ciągle zmienne (IMG:style_emoticons/default/smile.gif)
Zawsze możesz to co jakiś czas (1minuta/1godzina/1dzień) automagicznie odświeżać...


Jeśłi teraz masz wirtuala, to może skontaktuj się z administratorami - powinni podać ci gdzie jest wąskie gardło obecnego rozwiązania...

Ten post edytował skleps 27.11.2012, 17:59:11
Go to the top of the page
+Quote Post
-Gość-
post
Post #6





Goście







Cytat(skleps @ 27.11.2012, 17:57:57 ) *
Cacheować warto wszystko, co nie jest ciągle zmienne (IMG:style_emoticons/default/smile.gif)
Zawsze możesz to co jakiś czas (1minuta/1godzina/1dzień) automagicznie odświeżać...



Ciekawe jak to jest cacheowaniem w kontekście wyjątkowo dużego ruchu na stronie.
Od czasu do czasu słyszy się, że serwery jakiejś znanej strony padły z powodu wyjątkowo dużej odpowiedzialności strony:
http://aplikacje.komorkomania.pl/2012/11/0...oru-ciekawskich

No skoro nawet serwery na których jest strona NASA padły, to już chyba po prostu przerasta to możliwości nawet najsilniejszych serwerów na rynku?
I co wtedy zrobić? Czy cacheowanie pomogło by uniknąć braku działania strony z powodu wyjątkowego dużego ruchu?
Go to the top of the page
+Quote Post

Posty w temacie


Reply to this topicStart new topic
2 Użytkowników czyta ten temat (2 Gości i 0 Anonimowych użytkowników)
0 Zarejestrowanych:

 



RSS Aktualny czas: 7.10.2025 - 17:41