![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 59 Pomógł: 0 Dołączył: 11.08.2006 Ostrzeżenie: (0%) ![]() ![]() |
Witam!
Mamy taki przypadek. Jest jedna wieksza tabela , założmy 2 mln rekordów do której dołączamy kilka mniejszych po 200-400 każda. Czyli coś w stylu :
Wszystko fajnei działą gdy duża tabela ma ok 100k rekordów. Gdy wchodzimy na większa ilość krotek , wszystko diametralnie zwalnia. Czy ktoś ma może pomysł jak takie zapytanko zooptymalizować ? Indeksy są założone na PK i FK , i testowałem już kilka wariantów z indeksami na innych polach (m.in na tym po którym grupuje). Efekt zerowy. Silnik InnoDB. |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Zarejestrowani Postów: 59 Pomógł: 0 Dołączył: 11.08.2006 Ostrzeżenie: (0%) ![]() ![]() |
Transakcji uzywam, wiec musi być InnoDB.
Właśnie sprawa jest dziwna, bo desc pokazuje wszędzie użycie indeksów, maksymalnie analizowane jest 520 rekordów. Tego warunku pole2='T' tez nie moge sprowadzić do liczby, bo po prostu takie dane dostaje : ) Może ma to jakiś związek z tym, że grupuje tylko po jednym polu a wyświetlam poza max , także inne ? |
|
|
![]() ![]() |
![]() |
Aktualny czas: 13.10.2025 - 20:16 |