![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 459 Pomógł: 26 Dołączył: 1.06.2009 Ostrzeżenie: (0%) ![]() ![]() |
Witam. Mam pytanie do osób posiadających spore bazy (większe niż 100tys rekordów).
Otóż interesuje mnie, w jaki sposób usuwacie ewentualne duplikaty? Moja baza rośnie w tempie około 1tys rekordów na 24h. Wyszukałem w sieci pewne rozwiązanie jednak jest ono strasznie nieoptymalne.
Pytanie 1. Czy da się to zapytanie zoptymalizować? Czy dać sobie spokój z tym zapytaniem i szukać czegoś innego? Pytanie 2. Czy jest sens bawienia się z przepisywaniem rekordów (po posortowaniu bez duplikatów)? |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Moderatorzy Postów: 15 467 Pomógł: 1451 Dołączył: 25.04.2005 Skąd: Szczebrzeszyn/Rzeszów ![]() |
Cytat Moja baza rośnie w tempie około 1tys rekordów na 24h. Wyszukałem w sieci pewne rozwiązanie jednak jest ono strasznie nieoptymalne. Aaaaaale potwór... O.o'. Takie coś powinno góra kilka sekund zająć na dobrze poindeksowanej bazie. Co explain pokazuje? GROUP BY na link + HAVING COUNT(id)>1 i będziesz miał linki, które występują więcej niż raz. Wtedy spokojnie wyciągniesz same id. |
|
|
![]()
Post
#3
|
|
Grupa: Zarejestrowani Postów: 341 Pomógł: 40 Dołączył: 23.06.2009 Ostrzeżenie: (0%) ![]() ![]() |
|
|
|
![]()
Post
#4
|
|
Grupa: Zarejestrowani Postów: 459 Pomógł: 26 Dołączył: 1.06.2009 Ostrzeżenie: (0%) ![]() ![]() |
Aaaaaale potwór... O.o'. Takie coś powinno góra kilka sekund zająć na dobrze poindeksowanej bazie. Pierwszy raz mam do czynienia z takim przyrostem danych, więc dla mnie to spora baza. GROUP BY na link + HAVING COUNT(id)>1 i będziesz miał linki, które występują więcej niż raz. Wtedy spokojnie wyciągniesz same id.
takie zapytanie będzie optymalne? |
|
|
![]()
Post
#5
|
|
Grupa: Moderatorzy Postów: 15 467 Pomógł: 1451 Dołączył: 25.04.2005 Skąd: Szczebrzeszyn/Rzeszów ![]() |
EXPLAIN prawdę Ci powie.
|
|
|
![]() ![]() |
![]() |
Aktualny czas: 23.08.2025 - 23:45 |