![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 216 Pomógł: 0 Dołączył: 9.08.2003 Skąd: Warszawa Ostrzeżenie: (0%) ![]() ![]() |
Planuje stworzenie projektu w ktorym bede wykorzystywal duza ilosc danych/rekordow. Mam na mysli rekordy rzedu kilku milionow... Dlatego moje pytanie. Czy MySQL jest w stanie obsluzyc duze obciazenie na bazie przy duzej ilosci zapytan, wysylaniu/odbieraniu danych, Czy Postgre bedzie dawalo sobie rade z tym lepiej/gorzej ? Pytanie moze padlo juz na forum, lecz nie moglem znalezc informacji na ten temat. Czy ktos moze sie wypowiedziec na moj temat ?
Ten post edytował Ace 19.06.2004, 09:03:31 |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarząd Postów: 2 277 Pomógł: 6 Dołączył: 27.12.2002 Skąd: Wołów/Wrocław ![]() |
Natomiast ja podzielę się opinią mojego admina, który po kilku latach zarządzania klikunastoma mocno wykorzystywanymi serwerami, na których pracują obie te bazy, stwierdził, że choć MySQL często bywa szybsze, to jednak przy dużym obiciążeniu, i sporym ruchu PG jest wydajniejszy, mniej zasobożerny itp.
Nie mam żadnych możliwości by potwierdzić te dane, jednak jedno jest pewne - przy prawidłowo skonstuowanych tabelach i odpowiednio zdefiniowanych indexach zarówno MySQL jak i PG poradzą sobie świetnie nawet z nastoma milionami danych. ps. zostawiam jednak temat otwarty - może się jesz ze coś mądrego uda w nim wymyślić? |
|
|
![]() ![]() |
![]() |
Aktualny czas: 29.09.2025 - 19:04 |