![]() |
![]() |
![]()
Post
#1
|
|
Grupa: Zarejestrowani Postów: 35 Pomógł: 0 Dołączył: 23.11.2006 Ostrzeżenie: (0%) ![]() ![]() |
Pytanie czysto teoretyczne.
Jeżeli przyjdzie użytkownikowi wykonać operacje wpisania do tabeli powiedzmy 100 - 200 tysięcy wpisów to jak najlepiej to zrobić? Myślałem o cronjob, który co pare s wpisywałby do tabeli po 10-20 tysięcy, i to w sumie nie byłoby źle, tyle, że może istnieją lepsze rozwiązania? |
|
|
![]() |
![]()
Post
#2
|
|
Grupa: Przyjaciele php.pl Postów: 2 923 Pomógł: 9 Dołączył: 25.10.2004 Skąd: Rzeszów - studia / Warszawa - praca Ostrzeżenie: (0%) ![]() ![]() |
Nie ma sensu stosowac crona, no chyba ze to operacje cykliczne i pochodza z innej bazy wtedy warto sie zastanowic nad linkiem miedzy bazami jesli to dane pochodzace z innych zrodel a wrzucanie powiedzmy jest nie czesciej niz powiedzmy 1h i tabela posiada indexy na pola warto na czas wrzucania danych usunac wszystkie indeksy wrzucic taka paczke danych a nastepnie odbudowac index. Problem jeszcze sie pojawia z dostepem do tych danych po sciagnieciu indeksu.
Mozliwosci jest bardzo wiele. Jesli masz bardzo duzo rekordow i stosowane sa do tego skomplikowane zapytania i bardzo zalezy Ci na wydajnosci to zaintresuj sie tematem hurowni danych. Jest wiele pozycji na ten temat pisanych pod Oracle i M$ wiec cos do MySQLa by sie znalazlo. Jak zrobisz to musisz sam zdecydowac, jesli zalezy Ci na wydajnosci dane pomnoz przez powiedzmy 10 - 100 i sprawdzaj jesli czasy beda znosne to bedziesz pewny ze dla Twojej ilosci danych tez bedzie ok. |
|
|
![]() ![]() |
![]() |
Aktualny czas: 17.10.2025 - 11:55 |