Masowe ściąganie bez czekania to pewnego rodzaju herezja. Ogólnie warto między plikami trochę poczekać, żeby nie robić właścicielowi gnoju, a po dokumentnym i nieodwracalnym padzie serwera nie trzymać kopii dla siebie. Tyle z netykiety.
Będzie ciężko, gdyż pokefinder jest pewnego rodzaju repozytorium linków, i nie zawsze są to bezpośrednie linki.
Zacznijmy od szerzenia herezji typu klasycznego, z FTP chyba każdy wie jak się ściąga

. Wget lub dowolny klient. Lista serwerów jest.
Jest poza FTP jedna strona, która wymaga analizy. Ogólna mechanika działania robota-downloadera jest mniej więcej taka (metoda ArchiveTeam w języku LUA ma pewne modyfikacje celem zatrzymania specyficznych metadanych, to jest tylko najprostszy szkic):
1. Pobierz strony listy (jeżeli dostępna)
2. Dla każdego elementu listy: Pobierz stronę programu.
3. Stronę parsuj znajdując URL do pliku.
4. Pobierz plik.
5. Posprzątaj po sobie pozostawiając co najważniejsze (plik lub, jak się chce, jeszcze stronę/screenshot/wyekstrahowane dane w danym formacie) - WAŻNE inaczej zapcha dysk.
Gdy nie ma listy to robi się to różnie, niektórzy lecą po id jak leci (tzw. bruteforce), co doprowadziło urlteam do globalnego zbanowania, inni losują przedziały - co spowodowało, że podczas ściągania Webshots'ów członkowie ArchiveTeamu zrobili ddos na własny tracker

.
Najlepiej pisze się takie programiki w jakimś skryptowym języku. Wymagane jest tylko jak najlepsze przetwarzanie stringów by parsować strony. Strony tworzone są maszynowo z bazy danych, więc (na 99%) da się je odczytać maszynowo.