Witaj Gościu! ( Zaloguj | Rejestruj )

Forum PHP.pl

> Ręczny backup dużej bazy danych (używając PHP)
MatKus
post
Post #1





Grupa: Zarejestrowani
Postów: 63
Pomógł: 3
Dołączył: 27.08.2008

Ostrzeżenie: (0%)
-----


Witam.
Pracuję nad pewnym serwisem i chcę sobie wykonać lokalną jego kopię, na której będe mógł spokonie pracować zamiast robić to na żywym orgamiźmie.
W tym celu potrzebuję wykonać zrzut sporej bazy danych.
i tu pojawia się problem. phpMyAdmin nie wykona tego, bo "Allowed memory size of 134217728 bytes exhausted..."
dostępu do shella nie mam, więc standardowy mysqldump
Mail do admina serwera raczej też odpada, bo za ponadplanowe backupy każą sobie płacić, a zresztą zanim się doczekam na jego reakcję, to się zestarzeję (IMG:style_emoticons/default/wink.gif)

Czy ktoś spotkał się ze skryptem, który by coś takiego potrafił wykonać? Coś a'la bigdump, tylko w drugą stronę? najlepiej żeby od razu gzippem albo czymkolwiek podobnym to kompresował? Tylko ważny element - ten skrypt musi mieć możliwość działania na raty, bo zapisanie niektórych elementów strony może potrwać długo (niektóre tabele mają po kilkaset MB) i prawdopodobnie dostał by timeouta, gdyby wszystko na raz zrzucał.
Go to the top of the page
+Quote Post
 
Start new topic
Odpowiedzi
MatKus
post
Post #2





Grupa: Zarejestrowani
Postów: 63
Pomógł: 3
Dołączył: 27.08.2008

Ostrzeżenie: (0%)
-----


Tak, myślałem i o tym, ale to i tak będzie kilkanaście, jeśli nie kilkadziesiąt kawałków, bo w niektórych przypadkach nawet pojedynczej tabeli w całości nie zrzuci (największa tabela ma kilka mln wierszy po kilkadziesiąt kolumn) i myślałem, że ktoś może stworzył automat na to. Ale trudno, będę się bawił.
Go to the top of the page
+Quote Post

Posty w temacie


Reply to this topicStart new topic
2 Użytkowników czyta ten temat (2 Gości i 0 Anonimowych użytkowników)
0 Zarejestrowanych:

 



RSS Aktualny czas: 10.10.2025 - 16:46