Witam,
mam problem z bardzo duzą bazą danych. Dokładanie ramu powoli przestalo przekładać się na wydajność, a nowe indeksy powoli przestają mieć sens bo po złączeniu kilkunastu ogromnych tabel w jednym zapytaniu, serwer pada jak ścierka pomimo tego, że wszystkie złączenia i warunki są poprawnie indeksowane, indeksty są na jedno lub wiele pól w zależności od potrzeb, a wielkość pól nie może być już mnejsza. Padł pomysł stworzenia clustera na którym chcemy trzymać zdenormalizawaną strukturę która lepiej będzie sobie radziła z naszymi zapytaniami tzn. minimalna ilość złączen przełoży się na łatwiejsze zapytania które nie będą tak mordowały bazy.
Jest kilka pomysłów jak zabrać się za optymalizację, jednak przydałoby się jakieś ustandaryzowane podejście. Przy okazji czytania o hurtowniach danych trafilem na termin kostek olap i brzmiało to jak coś, czego potrzbuję tzn. struktura podzielona na ładne wymiary/poziomy/miary z których w prosty sposób bierzemy duże ilości danych do raportów.
Czy ktoś wie jak zabrać się za projektowanie takiej kostki od strony praktycznej ? Jak powinna wyglądać faktyczna struktura bazy danych ? czy ktoś ma jakieś przykłady ?