Witaj Gościu! ( Zaloguj | Rejestruj )

Forum PHP.pl

> Zasady pisania na forum Pro

Tematy na forum Pro mogą zakładać jedynie moderatorzy. W otwartych tematach może pisać każdy, kto ma coś fachowego do powiedzenia. Wszystkie posty nie wnoszące nic do tematu będą natychmiast usuwane, a ich autorzy dostaną ostrzeżenie.
Jeśli uważasz, że jakiś temat jest warty dyskusji na tym forum, zgłoś go w temacie Propozycje.

3 Stron V  < 1 2 3 >  
Reply to this topicStart new topic
> Duże aplikacje i load balancing, Czyli co i jak zrobic jak maszyna nie daje rady
mike
post 6.08.2008, 11:47:12
Post #21





Grupa: Przyjaciele php.pl
Postów: 7 494
Pomógł: 302
Dołączył: 31.03.2004

Ostrzeżenie: (0%)
-----


Cytat(wlamywacz @ 6.08.2008, 12:38:17 ) *
Ale jak działa to
www2.cos.pl
Tak samo jak www.cos.pl
Ty tylko nazwa :-)
Go to the top of the page
+Quote Post
nrm
post 6.08.2008, 13:48:56
Post #22





Grupa: Zarejestrowani
Postów: 627
Pomógł: 33
Dołączył: 1.05.2005
Skąd: Katowice

Ostrzeżenie: (0%)
-----


a mnie ciekawiły by rady w jakim kierunku iść kiedy osobny dedyk z MySqlem to już za mało? Jedna maszyna jest z serwisem, 2 są "kontentowe", trzecia jest z mysqlem. Oczywiście dalej zakładając rozwiązania niskobudżetowe na poziomie małej firmy, a nie korporacji.


--------------------
Go to the top of the page
+Quote Post
grzegory
post 7.08.2008, 21:36:06
Post #23





Grupa: Zarejestrowani
Postów: 5
Pomógł: 0
Dołączył: 7.06.2008

Ostrzeżenie: (0%)
-----


Przyłączam się do tematu.

Mój problem wygląda następująco.
Serwis stoi na koncie hostingowym Active w nazwa.pl
Na nazwa.pl stoi serwis, czyli wszystkie pliki php.
Aby odciążyć serwer glowny, grafika została przerzucona na inny.
W tej chwili główny serwis generuje 2GB transferu dziennie, ten dodatkowy chyba 4GB.

Nazwa ma ograniczenie - 40 osób jednoczesnie na stronie. U mnie licznik liczący wg id sesji - wskazuje w tej chwili 200 osób online.
Strona robi 1,5mln odsłon miesięcznie.

Oczywiście cache jest - smartowski.
Jestem w trakcie przygotowania nowej wersji serwisu - bardziej zoptymalizowanej, mniej wycięczonej zmianami które zaszły w niej w ciagu ostatnich 4 lat. Jednak wiem, że to nie pomoże.

Pytanie - co z tym zrobić.
Grafika i zdjęcia są już ciągnięte z innego serwera (superhost.pl). Baze mógłbym dać również na innym, jednak ona nie robi problemów.
Jest jakiś sposób na rozłożenie ruchu na kilka kont hostingowych?
Rozwiązanie musi być bardzo niskobudzetowe.
Go to the top of the page
+Quote Post
wlamywacz
post 7.08.2008, 21:50:20
Post #24





Grupa: Zarejestrowani
Postów: 535
Pomógł: 27
Dołączył: 3.05.2005

Ostrzeżenie: (20%)
X----


Kup serwer dedykowany, da radę bez problemu. Patrz ovh smile.gif
Go to the top of the page
+Quote Post
Sedziwoj
post 7.08.2008, 21:56:20
Post #25





Grupa: Zarejestrowani
Postów: 793
Pomógł: 32
Dołączył: 23.11.2006
Skąd: Warszawa

Ostrzeżenie: (0%)
-----


@grzegory
Zacznę od tego że to raczej nie jest temat (całe pod forum) jak sobie poradzić z problemem, a dyskusją nad pewnymi.
Co do Twojego problemu, "niskobudzetowe" to dla mnie coś jest nie tak, bo jak masz taką odwiedzialność, to powinny iść za tym odpowiednie środki.


--------------------
Algorytmy w PHP, czy ktoś o tym słyszał?
Dlaczego tak mało kobiet programuje? ponieważ nie zajmują się głupotami.
Go to the top of the page
+Quote Post
wrauk
post 8.08.2008, 09:47:21
Post #26





Grupa: Zarejestrowani
Postów: 10
Pomógł: 1
Dołączył: 18.07.2007

Ostrzeżenie: (0%)
-----


Cytat(normanos @ 6.08.2008, 14:48:56 ) *
a mnie ciekawiły by rady w jakim kierunku iść kiedy osobny dedyk z MySqlem to już za mało? Jedna maszyna jest z serwisem, 2 są "kontentowe", trzecia jest z mysqlem. Oczywiście dalej zakładając rozwiązania niskobudżetowe na poziomie małej firmy, a nie korporacji.

Kiedy osobny dedyk z bazą to za mało kupujesz drugi dedyk i możesz zrobić trzy rzeczy:
- rozdzielić logicznie bazę, tak, aby serwis działał na dwóch niezaleznych bazach,
- master-slave
- cluster

No i oczywiście możesz się pobawić w optymalizację, czyli:
- cache zapytań do bazy,
- tuning konfiguracji mysql'a (my.cnf),
- tuning struktury bazy (przejżeć slow query log).

Cytat(wlamywacz @ 7.08.2008, 22:50:20 ) *
Kup serwer dedykowany, da radę bez problemu. Patrz ovh smile.gif

Poczytaj sobie: http://prawo.vagla.pl/node/8027
Go to the top of the page
+Quote Post
nrm
post 8.08.2008, 09:57:13
Post #27





Grupa: Zarejestrowani
Postów: 627
Pomógł: 33
Dołączył: 1.05.2005
Skąd: Katowice

Ostrzeżenie: (0%)
-----


Cytat(wrauk @ 8.08.2008, 08:47:21 ) *
Kiedy osobny dedyk z bazą to za mało kupujesz drugi dedyk i możesz zrobić trzy rzeczy:
- master-slave
- cluster

Znam te hasła ale literatury ciągle za mało. Niestety nie mam z Mysql aż tak dużego doświadczenia. Googlam dalej winksmiley.jpg

Cytat(wrauk @ 8.08.2008, 08:47:21 ) *
No i oczywiście możesz się pobawić w optymalizację, czyli:
- cache zapytań do bazy,
- tuning konfiguracji mysql'a (my.cnf),
- tuning struktury bazy (przejżeć slow query log).

to chyba oczywiste i tu nie ma o czym rozmawiać. co było do zrobienia to zostało już zrobione na poprzednich serwerach (optymalizacja, cache, memcached, lighttpd/nginx etc.)


--------------------
Go to the top of the page
+Quote Post
wrauk
post 8.08.2008, 10:35:20
Post #28





Grupa: Zarejestrowani
Postów: 10
Pomógł: 1
Dołączył: 18.07.2007

Ostrzeżenie: (0%)
-----


Cytat(normanos @ 8.08.2008, 10:57:13 ) *
Znam te hasła ale literatury ciągle za mało. Niestety nie mam z Mysql aż tak dużego doświadczenia. Googlam dalej winksmiley.jpg


Sorki za kryproreklamę, ale może tutaj znajdziesz linki których szukasz :-)

http://talen.jogger.pl/2008/03/16/duze-por...logia-serwerow/
Go to the top of the page
+Quote Post
Ace
post 12.08.2008, 11:03:43
Post #29





Grupa: Zarejestrowani
Postów: 216
Pomógł: 0
Dołączył: 9.08.2003
Skąd: Warszawa

Ostrzeżenie: (0%)
-----


Od kilku miesięcy interesuje się tematyką wysokich obciążeń, dużej dostępności...

Polecam jedne link http://highscalability.com/ smile.gif

np:
http://highscalability.com/linkedin-architecture-0
http://highscalability.com/ebay-architecture
http://highscalability.com/37signals-architecture
Go to the top of the page
+Quote Post
rashid
post 27.11.2008, 12:27:56
Post #30





Grupa: Zarejestrowani
Postów: 27
Pomógł: 0
Dołączył: 22.11.2003

Ostrzeżenie: (0%)
-----


Pozwole sie wtracic, bo Panowie proboja rozwiazac problemy, ktore stosunkowo dobrze sa opisane w literaturze zagranicznej, ktora chyba nie wszystkim jest znana.

Po pierwsze zalozenie, ze ruch jest wysylany jest do najmniej obciazonego serwera jest niezbyt wydajne, bo do load balancingu dochodzi wtedy potrzeba monitorowania wydajnosci. Znacznie prosciej jest zastosowac load balancing metoda round-robin (czyli po kolei kazdy serwer) lub przyklejac uzytkownikow do poszczegolnych maszyn i zakladac, ze statystycznie rozlozy sie to ladnie.

Pomysly oparte o wspoldzielone dyski sprawdzaja sie tylko w ograniczonym zakresie. Ze szczegolna rezerwa nalezy podchodzic do propozycji oferujacych liniowa skalowalnosc na architekturach SAN - wg. naszej opinii nie nadaja one sie operacji charakterystycznych dla srodowiska webowego - czyli malych plikow o duzej liczbie dostepow. Skalowalnosc odczytu mozesz miec liniowa tylko przy zalozeniu, ze tworzysz za kazdym razem kopie obiektu na nowym dysku.

Sesje najprosciej jest przechowywac lokalnie, na pojedynczej maszynie. Wszelkie pomysly z trzymaniem sesji w bazie, czy wykorzystaniem memcached, beda juz powodowac komplikacje. Wiekszosc serwerow proxy dzialajacych jako akceleratory WWW pozwala "przykleic" sesje uzytkownika do pojedynczej maszyny.

Powaznym problemem jest synchronizacja plikow miedzy serwerami, szczegolnie takich, ktore uploaduja uzytkownicy systemu.

Zanim zacznie sie analizowac mozliwosci load balancingu powinno sie wykonac pewna prace u podstaw - skonfigurowanie aplikacji i serwerow WWW w taki sposob, by pliki statyczne wykorzystywaly efektywnie cache przegladarek internetowych. Robi to gigantyczna roznice i przydaje sie bardzo przy nastepnym kroku - dodaniu akceleratora WWW przed pozostalym srodowiskiem webowych do przezroczystego serwowania plikow statycznych. Taka konstrukcja ma ta zalete, ze kolejne akceleratory mozna dodawac rownolegle i skorzystac z DNS round-robin do load balancingu ruchu statycznego.

Zastanowcie sie w jakim stopniu mozecie wyjac statyczny kontent poza wasza infrastrukture. Z pomoca Amazon S3 i Cloud Front mozna osiagnac niskim kosztem swietne rezultaty. Czasami tez latwo osiagnac znaczaca poprawe wykonujac zwykle profilowanie aplikacji i wylapujac waskie gardla.

Nie skaluj, dopoki to nie jest potrzebne. Jesli masz mozliwosc, to sprawdz czy nie oplaca sie bardziej zwiekszyc mocy maszyny.

@normanos - jesli wydajnosc pojedynczej maszyny bazodanowej nie jest wystarczajaca do uciagniecia ruchu, to nalezy przyjrzec sie strukturze bazy danych i rozwazyc wydobycie czesci tabel do osobnej bazy. Oczywiscie jest to znacznie utrudnione w przypadku gestej sieci powiazan miedzy tabelami i wlasnie przez to mozna zaryzykowac twierdzenie, ze JOINy sie nie skaluja. Czesciowo mozna tez zaryzykowac wybranie jednej maszyny na zapisy (master) i kilku wylacznie do odczytow (slave). Zwroc tez uwage, ze istnieja alternatywy do relacyjnych baz danych, ktore znacznie lepiej sie skaluja. Byc moze trzeba przyjrzec sie modelowi w aplikacji i go przebudowac pod katem skalowalnosci.


--------------------
Robert Janeczek
G-Forces Web Management Polska
robert.janeczek@gforces.pl
Go to the top of the page
+Quote Post
Krolik
post 2.12.2008, 10:37:42
Post #31





Grupa: Zarejestrowani
Postów: 53
Pomógł: 0
Dołączył: 16.11.2004

Ostrzeżenie: (0%)
-----


Jeśli baza danych się nie wyrabia i używamy MySQL/PostgreSQL, to mamy przerąbane. IMHO, jeśli proste rozwiązania takie jak dołożenie brakujących indeksów, poprawa zapytań i sensowne buforowanie nie poskutkują, rozważałbym najpierw zmiane silnika na coś komercyjnego, co ma solidne możliwości partycjonowania, replikacji no i ma porządny optymalizator zapytań. Opensourcowe bazy danych nie spełniają tych wymagań.

Co do przyklejania sesji do jednej maszyny, to może wydajnościowo dobry pomysł, ale nie można tego nazwać HA. Bo jak serwer się rypnie, to użytkownicy stracą sesje - b. nieładnie. Hmm, nie wiem, jakie komplikacje mogą być z replikacją sesji, my nie mieliśmy żadnych (fakt, jedziemy na J2EE, a nie PHP, ale to chyba nie robi różnicy?).

BTW: Jakie inne możliwości się lepiej skaluja niż relacyjne bazy danych? XMLowe? Obiektowe? Płaskie pliki? Relacyjne bazy danych się bardzo dobrze skalują. To że FOSS "nie umią" to nie znaczy, że to wina modelu relacyjnego.

Ten post edytował Krolik 2.12.2008, 10:41:54


--------------------
Projekty: PLAY, optymalizator baz danych
Go to the top of the page
+Quote Post
rashid
post 11.12.2008, 11:10:50
Post #32





Grupa: Zarejestrowani
Postów: 27
Pomógł: 0
Dołączył: 22.11.2003

Ostrzeżenie: (0%)
-----


Cytat(Krolik @ 2.12.2008, 10:37:42 ) *
Jeśli baza danych się nie wyrabia i używamy MySQL/PostgreSQL, to mamy przerąbane. IMHO, jeśli proste rozwiązania takie jak dołożenie brakujących indeksów, poprawa zapytań i sensowne buforowanie nie poskutkują, rozważałbym najpierw zmiane silnika na coś komercyjnego, co ma solidne możliwości partycjonowania, replikacji no i ma porządny optymalizator zapytań. Opensourcowe bazy danych nie spełniają tych wymagań.


Nie zgadzam sie. To, ze Oracle przychodzi w paczce z narzedziami nie znaczy, ze jest lepszy. Podobne narzedzia sa do baz open source, tylko trzeba ich poszukac. Jednoczesnie przyznaje, ze narzedzia takie zwykle pojawiaja sie najpierw w rozwiazaniach komercyjnych, a dopiero potem migruja do open source.

Cytat(Krolik @ 2.12.2008, 10:37:42 ) *
Co do przyklejania sesji do jednej maszyny, to może wydajnościowo dobry pomysł, ale nie można tego nazwać HA. Bo jak serwer się rypnie, to użytkownicy stracą sesje - b. nieładnie. Hmm, nie wiem, jakie komplikacje mogą być z replikacją sesji, my nie mieliśmy żadnych (fakt, jedziemy na J2EE, a nie PHP, ale to chyba nie robi różnicy?).


Z kazda replikacja sa problemy, byc moze po prostu nie dotarliscie jeszcze do limitow, w ktorych sie one pojawiaja. HA i Load Balancing to dwie zupelnie odrebne rzeczy - ten watek mial byc o LB smile.gif

Cytat(Krolik @ 2.12.2008, 10:37:42 ) *
BTW: Jakie inne możliwości się lepiej skaluja niż relacyjne bazy danych? XMLowe? Obiektowe? Płaskie pliki? Relacyjne bazy danych się bardzo dobrze skalują. To że FOSS "nie umią" to nie znaczy, że to wina modelu relacyjnego.


http://en.wikipedia.org/wiki/SimpleDB
http://labs.google.com/papers/bigtable.html

Znormalizowana relacyjna baza danych sie skaluje slabo, niezaleznie od rodzaju oprogramowania. Przykladem niech bedzie eBay, ktory dziala na MSSQL i jednak skalowalnosc z relacjami im nie wyszla. Dlatego poszli w sharding, czyli w praktyce tworzenie plaskich nieznormalizowanych tabel i rozdzielanie ich na wiele serwerow.


--------------------
Robert Janeczek
G-Forces Web Management Polska
robert.janeczek@gforces.pl
Go to the top of the page
+Quote Post
klakson
post 20.12.2008, 13:05:29
Post #33





Grupa: Zarejestrowani
Postów: 3
Pomógł: 0
Dołączył: 20.12.2008

Ostrzeżenie: (0%)
-----


Witam serdecznie,

chcialbym wykonac aplikacje w php, z dosc duza iloscia uniklanych userow w tym samym czasie, np 50 tys, ktorzy pobieraliby i wysylali z/do serwera mala porcje danych, czyli bylaby duza dynamika zmiany danych w tym samym czasie. Calosc danych max do 150 tys rekordow, 10 kolumn - w kazdym polu np 500 bajtow.
I teraz mam pytania:

- gdzie moge poczytac o takich rozwiazaniach w php, co zastosowac (moduly, biblioteki), jak to sie je?, aby raz (zalozmy na 5 minut) zaladowac do pamieci biezace dane ok 700MB, a logike przy kazdym (re)starcie. Dane na dysku bede gromadzil w kilkudziesieciu plikach txt,
a nie w bazie danych.
Oczywiscie wszystkie inne porady i wskazowki od doswiadczonych programistow chetnie przyjme. Jesli chodzi o optymalizacje dostepu do wszystkich danych, pociecie na tablice, sprawdzanie zlozonosci obliczeniowej, wydajnosci... to juz sam bede sobie radzil.

- i jeszcze jedno - praktyka, czy w przypadku niezawodnego, optymalnego oprogramowania, taki RPS: http://www.ovh.pl/prywatne/produkty/rps3.xml bedzie w stanie mi to ucjagnac? A jesli nie, czy rozwiazanie zrownoleglic (np na 2 RPSy), czy innego, silniejszego dedyka wziac na początek? Nie mam pojecia jak to w praktyce wyglada, wiec prosze o opinie osob doswiadczonych w boju. Chce aby mi to wyszlo jak najtaniej, przy dobrym np 100MB łączu..... a szczegolnie musze to najtaniej przetestowac przy realnym obciazeniu.

Bede wdzieczny za wszelkie odpowiedzi, namiary na materialy... musze jakos wystartowac, poczytac...., bo na teraz nie mam bogatego doswiadczenia w praktycznym programowaniu, znam jednie teorie algorytmow i szacowanie zlozonosci obliczeniowej.
Go to the top of the page
+Quote Post
nrm
post 20.12.2008, 13:47:49
Post #34





Grupa: Zarejestrowani
Postów: 627
Pomógł: 33
Dołączył: 1.05.2005
Skąd: Katowice

Ostrzeżenie: (0%)
-----


piszesz, że będziesz mielił dane z dysku a potem wybierasz RPS, to jakby się wyklucza.


--------------------
Go to the top of the page
+Quote Post
rashid
post 20.12.2008, 14:11:47
Post #35





Grupa: Zarejestrowani
Postów: 27
Pomógł: 0
Dołączył: 22.11.2003

Ostrzeżenie: (0%)
-----


Cytat(klakson @ 20.12.2008, 13:05:29 ) *
Witam serdecznie,

chcialbym wykonac aplikacje w php, z dosc duza iloscia uniklanych userow w tym samym czasie, np 50 tys, ktorzy pobieraliby i wysylali z/do serwera mala porcje danych, czyli bylaby duza dynamika zmiany danych w tym samym czasie. Calosc danych max do 150 tys rekordow, 10 kolumn - w kazdym polu np 500 bajtow.
I teraz mam pytania:

- gdzie moge poczytac o takich rozwiazaniach w php, co zastosowac (moduly, biblioteki), jak to sie je?, aby raz (zalozmy na 5 minut) zaladowac do pamieci biezace dane ok 700MB, a logike przy kazdym (re)starcie. Dane na dysku bede gromadzil w kilkudziesieciu plikach txt,
a nie w bazie danych.


50tys. jednoczesnych uzytkownikow i kilkadziesiat plikow txt? Wychodzi na to, ze mozesz miec tysiac uzytkownikow korzystajacych z kazdego z tych plikow jednoczesnie - to jest nierealizowalne w praktyce. Wlasnie po to korzysta sie z baz danych, ktore kolejkuja polecenia.

Zwroc jednak uwage, ze bazy danych SQL zwykle kiepsko radza sobie z duza liczba modyfikacji/nowych wierszy/usuniec, wiec warto rozwazyc alternatywy. Jesli jestes w stanie okreslic maksymalna liczbe rekordow i liczbe danych w kazdym rekordzie, to najszybszym rozwiazaniem bedzie chyba skorzystanie z BerkeleyDB (BDB). Jest to bardzo szybka baza danych oparta na plikach. Predkosc takiego rozwiazania bywa o rzedy wielkosci wyzsza od tradycyjnych baz SQL w niektorych zastosowaniach.


--------------------
Robert Janeczek
G-Forces Web Management Polska
robert.janeczek@gforces.pl
Go to the top of the page
+Quote Post
klakson
post 20.12.2008, 16:37:27
Post #36





Grupa: Zarejestrowani
Postów: 3
Pomógł: 0
Dołączył: 20.12.2008

Ostrzeżenie: (0%)
-----


Dzieki za pierwsze odpowiedzi, i juz uscislam, bo zbyt malo wyjasnilem......
W ogole na poczatku powiem, ze (wstępnie tylko) rozwiazanie dopasowalem do ceny.

Sytuacja bedzie taka, ze bedzie np 50 katalogow, w kazdym katalogu po 1k plikow - 1 plik na uzytkownika. Nie przemyslalem tego jeszcze dokladnie, bo moze bede wykorzystywal jeden plik na kilku lub wiecej uzytkownikow, to bede chcial optymalizowac, ale chyba to nie mam teraz znaczenia.
Dalej.... w danej chwili np 15% (i raczej wiecej nigdy nie bedzie) wszystkich uzytkownikow wysle porcje danych, kazdy do swojego pliku, czyli bedzie to dodanie, modyfikacja lub usunicie rekordu w pliku uzytkownika. I teraz, np co 5 minut bedzie wykonywana procedura scalania wszystkich plikow do jednego pliku, pobranie ich i przetorzenie przez logike na podstawie konkretnych filtrow/kryteriow oraz cięcie danych na kilkadziesiat plikow xml, ktore trzeba zaladowac do pamieci na 5 minut, bo na nich beda wykonywan czeste i rozne operacje prawie przez wszystkich uzytkownikow, wiec musi to mi siedziec w pamieci przez te np 5 minut i dzialac bardzo szybko (wiec baza danych tu odpada). Dlaczego kilkadziesiat plikow? bo beda to juz wtedy niezalezne od siebie dane, czyli np 70 tablic po 10MB, z czaem moga jednak dojsc do tego relacje miedzy tymi tablicami (jeszcze tego nie wiem, ale to juz nie jest tu istotne). Aha, ilosc danych wiadomo ze bedzie sie zmieniac co te 5 minut, np raz 70 plikow po 3MB, pozniej 70 plikow po 5MB itd, łącznie jednak nie wiecej niz około 700MB. Mozna wiec chyba przyjac jakis jeden bufor pamieci ram i zallokowac na te 70 tablic max 700MB.

A teraz jesli chodzi o RPSa, on jest punktem kluczowym, bo po pierwsze cena, po drugie cena, ktora implikuje rownie: 1)łącze, 2)wydajnosc procesora oraz 3)ramu. Po przegladnieciu ofert..... wybralem wlasnie RPSa III OVH, wiedzac dobrze ze ISCSI/NFS ma slaba wydajnosc, wiec baza mi tego nie uciagnie, tak wiec w tej cenie, z tym procesorem i ramem i przy braku limitu transferu na łaczu 100MB (co bardzo wazne) wlasnie ten RPS mi najbardziej pasuje do mojej koncepcji z ładowniem danych i logiki do pamieci. Dodam, ze do realizacji chce wykorzystac albo modlu apacha xslt albo php'owy procesor xslt.
A wazne jest tez, ze mysle o serwerze zapasowym, takim samym RPSie, gotowym od razu przejąć pracę, gdy pierwszy RPS sie wysypie.

Jesli w czyms sie bardzo myle, albo cos waznego pomijam, to prosze mi o tym powiedziec.
Dodam tylko, ze jesli mi to wszystko zagra i cos zaczne zarabiac, to jasne jest ze zaczne myslec o inwestycji, aby zrobic to lepiej, bezpieczniej, wydajniej. Na razie moge wydawac miesiecznie jedynie okolo 100 PLN.

Poczytam o BerkeleyDB, bo musze widziec w ogole czy to jest za free.

Dzieki za uwagi i prosze o wiecej smile.gif
Przy okazji zycze wszelkiego dobra z okazji Swiat Bozego Narodzenia i Nowego 2009 Roku!

Ten post edytował klakson 20.12.2008, 16:44:36
Go to the top of the page
+Quote Post
Kocurro
post 20.12.2008, 16:59:28
Post #37





Grupa: Zarejestrowani
Postów: 461
Pomógł: 32
Dołączył: 17.09.2003
Skąd: Łódź

Ostrzeżenie: (0%)
-----


Wybaczcie offtopic ale nie mogę.

Kolega się z choinki urwał na bardzo niewydajnym serwerze chce zrobić coś co wytrzyma duży ruch. Chce płacić prawie 100 pln za bardzo wolny dysk 10 GB ... a szkoda mu już zainwestować prawie 200 pln za szybki dysk 500 GB w wersji bezpiecznej bądź też 1 TB w wersji szybkiej. Do tego pamięci tyle samo ale w tej droższej ofercie szybszy procesor.

Ale najlepszy ubaw jest taki, że ten kolega chce wolny dysk po to by udostępnić serwis, który ... uwaga ... będzie odczytywał dużo z dysku biggrin.gif

Aha - nie doczytał kolega jak należy ... te 100 Mbps ma najniższy priorytet ... co za tym idzie - jeśli będzie wolno to wykorzysta tyle ... chociaż nie nie wykorzysta ... bo z moich testów RPS III wytrzymywał nie więcej niż 20 Mbps ... za to ten co ja mówię testowałem i wytrzymał spokojnie 60 Mbps.

Ale to nie koniec - kolega ten planuje na dysku sieciowym robić od groma operacji zapisu biggrin.gif Ci co się znają na architekturze a tym bardziej korzystali z opcji RPS wiedzą jak to będzie chodzić (dla ułatwienia dodam, że jak dawna wersja pewnego serwisu pozwalającego odnaleźć znajomych ze szkolnych lat).

Drogi kolego - wybacz, że tak po Tobie jeżdżę ... ale tylko w ten sposób mam możliwość zmusić Cię do przemyślenia swojego pomysłu. A gdy już go przemyślisz i zauważysz, że Twoje rozwiązanie naciągnie Cię na koszty to przelicz na jakie i tą sumę co byś stracił wpłać proszę na dowolne konto charytatywne.
Go to the top of the page
+Quote Post
klakson
post 20.12.2008, 18:52:22
Post #38





Grupa: Zarejestrowani
Postów: 3
Pomógł: 0
Dołączył: 20.12.2008

Ostrzeżenie: (0%)
-----


No ok Kocurro,

ale moze po pierwsze, to przeczytaj moj pierwszy post, w ktorym prosilem o pomoc, bo jak napisalem, nie mam duzgo doswiadczenia z programowaniem webowym i hostingiem,
ledwo co postawilem kilka malych serwisow, na shared hostingu typu dreamhost, lypha, servage... raczej jako forme nauki i doraznego zarobku, wiec trudno jest (instalujac gotowe forum, sklep, cms, podpinajac templatki itp), zanc tez i sie dobrze orietnowac w faktycznych paramtrach oferowanych w hostingu dedykowanym. Z wypowiedzi przeczytanych na roznych forach, dowiedzialem sie ze parametry rps'ow ovh (a szczegolnie transfer) nie sa wcale tak kiepskie jak Ty przedstawiasz.

A przechodzac do sedna, w czym niby jest problem, aby to, co pisalem o zapisie i odczycie danych dla uzytkownikow, wykonywac tak samo w ramie?, a co 10 minut zrzucac na dysk w kilku duzych plikach? Wtedy wszystko bedzie mozna zrobic dynamicznie, a co jakis sensowny czas odkladac w duzych porcjach na dysk jako xml'e (backup na shared sobie zrobie). Wtedy tylko jest pytanie, czy na system i aplikacje ze wszystkimi danymi starczy mi 2gb ramu (na poczatek na pewno). Wtedy spokojnie dysk 10 GB mi wystarczy, oraz nie musi byc on bardzo szybki.

A teraz kwestia kasy, ja mam wydac conajmniej 200, 300 PLN plus kolejna kasa za serwer zapasowy (a nie wiadomo czy niedlugo nie bedzie limitow na transfer, jak na forach piszą)? Czy Ty to policzyles? Jak sie to ma do 100 PLN x 2? Moge tak zrobic jak piszesz, chyba ze Ty mi za to zaplacisz i zaplacisz mi tez za stancje i za studia ktore ledwo podjalem.... albo jak mi dasz lepsza prace, za wieksza kase.

Moge powiedziec, ze to nie bedzie serwis dostepny dla kazdego z sieci, typu nasza klasa, czy fotka, aby na reklamach zarabiac..., to bedzie baza ofert pewnej branzy, ktora łączy max do 50 tys firm w Polsce (w jednej z nich pracuje), wiec ruch generowany bedzie (tylko w godz 8-16 przez autoryzoanych urzytkownikow) i bedzie to czysty tekst (dane i troche tagow html).

A wracajac do pytania z pierwszego mojego postu, prosze o pomoc, czego mam sie uchwycic, co poczytac, aby sie dowiedziec na temat rozwiazan, funkcji, bibliotek modlulow php, ktore realizuja ladowanie na stale do pamieci skryptow z logika i danych.

Ten post edytował klakson 20.12.2008, 19:28:23
Go to the top of the page
+Quote Post
rashid
post 20.12.2008, 18:53:32
Post #39





Grupa: Zarejestrowani
Postów: 27
Pomógł: 0
Dołączył: 22.11.2003

Ostrzeżenie: (0%)
-----


Zalozenie, ze operujac na wlasnym formacie plikow bedzie sie operowalo danymi lepiej niz BDB jest zludne. Duza zaleta BDB jest to, ze swietnie wykorzystuje mozliwosc przechowywania danych w RAM. Nie trzeba ladowac danych do pamieci i wtedy na nich operowac - wystarczy wczytywac dane poprzez BDB. Mala uwaga na sam poczatek - jesli zaczniesz testowac wydajnosc BDB, to nie bierz pod uwage pierwszego przebiegu po danych, bo jest kilkadziesiat/kilkaset razy wolniejszy niz kolejne.

BDB jest dostepne za darmo ze strony Oracle.

Przy okazji musze odradzic uzywanie PHP przy przetwarzaniu takich ilosci danych - slabe zarzadzanie pamiecia wyjdzie ci bokiem. Moze lepiej Ruby - my mamy bardzo dobre doswiadczenia z mixem Ruby + BDB?


--------------------
Robert Janeczek
G-Forces Web Management Polska
robert.janeczek@gforces.pl
Go to the top of the page
+Quote Post
Kocurro
post 20.12.2008, 19:40:32
Post #40





Grupa: Zarejestrowani
Postów: 461
Pomógł: 32
Dołączył: 17.09.2003
Skąd: Łódź

Ostrzeżenie: (0%)
-----


Szanowny kolego klakson - proponuje najpierw zapoznać się z prawdę na temat rozliczania transferu. A dopiero potem chcieć sponsoringu. Na forach piszą dużo i nie zawsze prawdę.

Odnośnie rozliczenia transferu masz cztery możliwe opcje i zależnie od tego co wybierzesz masz limity. Limity te dotyczą tak samo zwykłych serwerów dedykowanych jak i serwerów RPS. Przy tych drugich o tym nie piszą ponieważ uzyskanie w ciągu miesiąca transferu danych na poziomie 5 TB jest bardzo trudne.

Pozdrawiam

ps: jeśli chcesz przechowywać dane w pamięci to no cóż rispect - czeka Cię sporo roboty, która przy PHP będzie bardzo trudna biggrin.gif

Ten post edytował Kocurro 20.12.2008, 19:42:47
Go to the top of the page
+Quote Post

3 Stron V  < 1 2 3 >
Reply to this topicStart new topic
1 Użytkowników czyta ten temat (1 Gości i 0 Anonimowych użytkowników)
0 Zarejestrowanych:

 



RSS Wersja Lo-Fi Aktualny czas: 19.03.2024 - 03:38