Post
#1
|
|
|
Grupa: Zarejestrowani Postów: 235 Pomógł: 2 Dołączył: 30.06.2006 Ostrzeżenie: (0%)
|
Witam
Jakiś czas temu opisałem problem z ładowaniem wpisów do bazy - rozwiązaniem okazał się serwer dedykowany i podzielenie pliku na pakiety (IMG:http://forum.php.pl/style_emoticons/default/winksmiley.jpg) Aktualnie mierzę się z takim problemem: baza zawiera 30 mln wpisów i zwykły count zajmuje 8 sekund (tak, wiem, w postgresqlu są wolne, ale bez przesady!). Jak można rozwiązać problem wydajności przy tej ilości danych? Czytałem trochę o partycjonowaniu tabel, trochę o widokach - jednak nie wiem które rozwiązanie przyniesie największe korzyści wydajnościowe. Tabela zawiera 4 kolumny - 3 integery i 1 boolean. Jeśli to ma znaczenie: wyszukiwanie w niej planowo ma się opierać na czymś takim: WHERE col1 = 5 AND col2 BETWEEN 400 AND 94200 |
|
|
|
Ziels Postgresql - wydajność 4.08.2008, 11:07:20
Sedziwoj A kiedy miałeś ostatnio VACUUM na niej robione?
C... 4.08.2008, 15:10:22
Ziels Dzięki za odpowiedź
VACUUM - dzisiaj c... 4.08.2008, 15:19:02 
Sedziwoj Cytat(Ziels @ 4.08.2008, 16:19:02 ) =... 4.08.2008, 16:36:02
Sedziwoj indeks na te kolumny:
[SQL] pobierz, plaintext CRE... 4.08.2008, 15:37:59
Ziels Zadziałało - dzięki wielkie Szukanie takie o któr... 4.08.2008, 16:00:08
Ziels Dzięki
To ja moze jeszcze skorzystając... 4.08.2008, 19:32:18
Sedziwoj Proste pytanie, czy jest konieczne aby tyle danych... 4.08.2008, 21:39:16
Ziels Nie - zwykle to będą "paczki" ... 6.08.2008, 13:29:38
Sedziwoj Chodziło mi o takie coś, czy przed z... 6.08.2008, 14:28:59
Ziels Dokładnie tamtą stronę czytałem
Ano dokładnie - ... 6.08.2008, 14:31:37 ![]() ![]() |
|
Aktualny czas: 23.12.2025 - 17:37 |