Scrapování výsledků hledání

scraping-datPoslední dny jsme s Markem ve Žďáru řešili scrapování dat z výsledků vyhledávání a jejich další následné použití pro nejrůznější projekty, způsoby propagace atd.

Scrapování znamená vlastně automatický sběr dat, nemusí jít přímo o tahání dat z výsledků hledání, ale můžete si vlastně vyscrapovat jakýkoliv web, záleží co tím chcete udělat.

Nás teď aktuálně „trápí“ marketing pro naše soutěžní shopy a tak Marka napadlo, že by se dalo scrapování využít právě i tady.

Díky scrapovacím programům si totiž můžeme snadno a rychle najít kontakty, se kterými můžeme spolupracovat ať už v rámci různých soutěží, recenzí našeho produktu, klasického nákupu odkazů, ale hlavně se chystáme oslovit navštěvovanější weby, se kterými bychom spolupracovali formou přeposílání objednávek.

Díky tomu, že máme vlastně jen jeden typ produktu můžeme relativně rychle vytvářet jednostránkové eshopy anebo se lze dohodnout na affiliate spolupráci. Webmasteři dodají traffic, my zpracujeme objednávky a pro obě strany je to win-win.

V minulosti jsem hledal kontakty ke spolupráci docela složitě a pomalu – všechno ručně. Vybral jsem pár klíčových slov a pak jsem ručně procházel výsledky hledání, vybíral vhodné weby a pak dohledával kontakty přes whois. Měl jsem vždycky ruční práci radši, protože to trvalo dlouho a přitom to nebylo nijak náročné (ideální kombinace pro workoholika).

Když jsem se ale od Marka učil pracovat s programy na scrapování, zjistil jsem, že nastavování není nijak složité, programy a placené Proxy vyjdou na pár stovek měsíčně a dá se s tím hodně čarovat (způsobů použití je mnohem víc než jsem zmínil).

Marek na svém blogu napsal konkrétní návod, jak scrapovací programy nastavit a scrapovat, ale když to shrnu, tak stačí stáhnout 2 programy (1 placený, 1 free), koupit si proxy, napojit to, nakrmit keywordy a můžete scrapovat.

V první fázi se scrapují weby v SERP, tyhle potom načte druhý program a vyhledá kontakty přímo na majitele stránek, které už pak stačí jen oslovit. Ještě si tam dáváme mezikrok – ruční filtraci, kdy přebereme weby a odstraníme netématické anebo ty, u kterých je jisté, že nebudou chtít spolupracovat (Heureka, velké eshopy,…).

Pro mě je tohle první zkušenost se scrapováním a zatím mě ještě nenapadlo nějaké zajímavější využití (radši bych něco míň korektnějšího), ale začíná se mi to dost líbit.

Přemýšlím jak to využít, aby se z toho dalo co nejrychleji a nejsnáz něco vydělat, ale na tohle bude potřeba užít nějaké motivační intoxikanty 🙂

U nás se zatím o scrapování moc nepíše. Vsadím se ale, že tohle dělá úspěšně hodně lidí i mimo konzultanty, ale nemají potřebu se tím chlubit a dělat si konkurenci.
Pokud by vás zajímali další informace, pak se obraťte na Linkiho, Filipa Podstavce anebo Marka Hnátka.

Další články o tom jak scrapovat data:

Jak na scraping dat z webů

NEPŘEHLÉDNĚTE  Jak se učím SEO

 

Přidej komentář