Witaj Gościu! ( Zaloguj | Rejestruj )

Forum PHP.pl

> [php] Duplikaty linków
Qbexus
post
Post #1





Grupa: Zarejestrowani
Postów: 112
Pomógł: 0
Dołączył: 12.07.2006

Ostrzeżenie: (0%)
-----


To mój pierwszy post, więc witam wszystkich.
Gromadzę linki do katalogu tematycznego i utknąłem na narzędziu do zbierania sortowania i weryfikacji linków.
Zrobiłem kasowanie duplikatów w txt na array_unique ale niestety to nie wystarcza. Nie wiem jak poradzić sobie z linkami typu http://domena.com i http://www.domena.com jeden z nich powinien zostać usunięty. A także nie wiem jak zrobić, aby skrypt porównywał linki z jednego pliku txt z linkami z drugiego np. badlinks.txt i z 1 usuwał te, które są w 2. Nie wiem czy jasno to opisałem, ale jestem początkujący, więc proszę o wyrozumiałość
Go to the top of the page
+Quote Post
 
Start new topic
Odpowiedzi
Ludvik
post
Post #2





Grupa: Przyjaciele php.pl
Postów: 698
Pomógł: 3
Dołączył: 28.03.2004
Skąd: Wrocław

Ostrzeżenie: (0%)
-----


Z tego co napisałeś, to nie widzę, żebyś zrobił, to co mówiłem.
  1. <?
  2. $plik = file('./pelnalistaurli.txt');
  3. $plik = array_filter($plik, 'trim');
  4. $plik2 = file('./badurl.txt');
  5. $plik2 = array_filter($plik2, 'trim');
  6. $wynik = array_diff ($plik, $plik2);
  7. $numerlini = count($plik);
  8. $numerlini2 = count($plik2);
  9. $numerlini3 = count($wynik);
  10. echo $numerlini.'<br>';
  11. var_dump ($plik);
  12. echo '<br>';
  13. echo $numerlini2.'<br>';
  14. var_dump ($plik2);
  15. echo '<br>';
  16. echo $numerlini3.'<br>';
  17. var_dump ($wynik);
  18. $fp = fopen("urle_sort.txt", "w");
  19. fputs($fp, $wynik);
  20. fclose($fp);
  21. ?>
Go to the top of the page
+Quote Post

Posty w temacie


Reply to this topicStart new topic
2 Użytkowników czyta ten temat (2 Gości i 0 Anonimowych użytkowników)
0 Zarejestrowanych:

 



RSS Aktualny czas: 3.10.2025 - 20:12