Zainspirowany jednym komentarzem postanowiłem napisać artykuł. Nie będzie on długi, ale pewne sprawy na pewno rozjaśni. Zacznę trochę nietypowo, dlatego, że nie będzie to artykuł o footprintach wyszukujących blogi oparte na różnych platformach itp, a zupełnie o czymś innym, choć powiązanym z harvestowaniem. Dla osób, które nie znają angielskiego, albo znają w stopniu podstawowym powiem, że samo słowo „harvester” oznacza kombajn – nawet w takim jeździłem, ale pewnie dlatego, że mieszkam na wsi :) Komentarz, który spowodował, że postanowiłem napisać ów artykuł brzmi następująco:
Fajna wskazówka, ale jak wybierzemy wszystkie platformy do harvestowania, to i tak jest przecież limit w harvesterze 1mln, więc po skończeniu harvestowania nawet jak będzie więcej jak 2mln blogów, to doda nam tylko do boxu 1mln :P Link do komentarza: Marek
W powyższym komentarzu niejaki Marek ma rację, ale nikt nie powiedział, że nie da się tego obejść :D Może nie w takim sensie jak w tej chwili sobie wyobraziłeś/aś, lecz w zupełnie innym. Jak wiadomo podczas harvestowania liczba tych samych adresów jest spora. Niestety gdy podczas harvestowania liczba przekroczy 1mln, to Scrapebox nie usuwa zdublowanych adresów, tylko umieszcza w boxie „Harvested” pierwszy milion. A co z resztą ?
Resztę adresów można znaleźć w folderze: Harvester_Sessions. Potem tylko wystarczy zainstalować wtyczkę Scrapebox DupRemove oraz wczytać pliki z Harvester_Sessions -> Harvester_ostania_data do wtyczki DupRemove i usunąć takie same adresy, albo domeny. Można również najpierw scalić wszystkie pliki, a następnie wczytać scalony plik i usunąć takie same adresy. Potem plik niezawierający zduplikowanych adresów wczytać do Scrapeboxa i tym samym będziemy mieli „więcej jak 1mln” adresów.
Przeczytaj Także:
- Scrapebox – auto-approve konkurencji Ten artykuł będzie dotyczył tego jak znaleźć blogi konkurencji, w których komentarze są automatycznie akceptowane. Jest to bardzo prosta metoda, ale z pewnością nie wszyscy ją znają. Pomyślałem zatem, że...
- Sprawdzanie linków – link checker Program napisany przez twórczynię Scrapeboxa, a mianowicie link checker jest w pełni darmowy i służy do znajdowania na konkretnej stronie/podstronie naszego linku bądź linków. Link Checker powstał z myślą o...
- Jak znaleźć serwery proxy SOCKS ? Swego czasu napisałem artykuł o tym jak znaleźć publiczne proxy korzystając z operatora filetype w Google. W tym artykule napiszę jak znaleźć serwery proxy SOCKS. Dzięki czemu pozyskamy znacznie więcej...
- Jak znaleźć publiczne proxy ? Osobiście nie używam już publicznych proxy do komentowania (może czasami), ale można je wykorzystywać do innych celów np. harvestowanie adresów, do katalogowania albo sprawdzania PageRank. Nie zawsze publiczne proxy są...
Najpopularniejsze zapytania:
- jak harvestować
Daję jeden głos, bo nie wiedziałem, że istnieje folder w którym zapisują się blogi z harvestera. Dzięki wielkie.
13/04/2011 o 12:47