Post
#1
|
|
|
Grupa: Zarejestrowani Postów: 417 Pomógł: 44 Dołączył: 23.06.2011 Ostrzeżenie: (0%)
|
Siemka, mam plik CSV, chce go wrzucić do bazy danych. Są to rekordy, do których w przyszłości będzie dopasowywane to co użytkownik wpisał w input. Mam około 100 000 000 rekordów (stringów) co waży ponad 1GB.
System będzie działał na zasadzie użytkownik wpisuje -> system znajduje podobny. Teraz moje pytanie jak rozlokować te rekordy tak, aby wyszukiwanie trwało jak najkrócej . Myślałem o posortowaniu alfabetycznym i np powrzucaniu do różnych tabel odpowiadającym pierwszym literom stringów. Co o tym myślicie ? Ma to sens ? |
|
|
|
![]() |
Post
#2
|
|
|
Grupa: Zarejestrowani Postów: 417 Pomógł: 44 Dołączył: 23.06.2011 Ostrzeżenie: (0%)
|
wygląda to tak:
content || hits testtest || 3 mam założony UNIQUE na content bo tekst z założenia się nie powtarza ... Myślałem o czymś więcej niż tylko o pozakładaniu indexów, ale teraz zauważam że rozłożenie tego na wiele tabel to baaaardzo głupi pomysł... Ten post edytował Posio 25.04.2013, 21:37:31 |
|
|
|
Posio Ilość rekordów i lokowanie w bazie. 25.04.2013, 19:21:33
matiit Baza danych ma coś takiego jak Indeksy.
Tylko hmm... 25.04.2013, 20:24:23
franki01 Wrzucanie do wielu tabel ma sens tylko w przypadku... 26.04.2013, 22:56:01 ![]() ![]() |
|
Aktualny czas: 27.12.2025 - 13:55 |