donker proxyscrape logo

Web Scraping voor Leadgeneratie: Duizenden leads binnen handbereik

Schrapen, -05-20215 min gelezen

Inhoudsopgave

Waarom Leadgeneratie belangrijk is

Het genereren van leads is een essentieel onderdeel van het laten groeien van je bedrijf. Als je verkoopteam geen leads heeft om te benaderen, kunnen ze hun werk niet doen. Het koud bellen van prospects is zelden effectief, vooral voor merken die producten met een hogere waarde verkopen waarbij het idee van een aankoop enige wrijving met zich meebrengt.

Elke verkoop begon als een lead

Verkoop komt van leads. Het rapport Technology Content Marketing: Benchmarks, Budgets and Trends rapport geproduceerd door het Content Marketing Institute en MarketingProfs benadrukt dat 77% van de tech marketeers marketing-qualified leads gebruiken om de verkoop te stimuleren (een stijging ten opzichte van 64% in 2019).

Gekwalificeerde leads zijn gemakkelijker te converteren omdat het mensen (of bedrijven) zijn die al interesse hebben getoond in je product of dienst. Door je doelgroep te identificeren en je marketinginspanningen specifiek op deze mensen te richten, bespaar je je verkoopteam tijd en energie zodat zij zich kunnen richten op de beste prospects.

De kracht van het web binnen handbereik

Het genereren van leads is tegenwoordig gemakkelijker dan ooit. Directe communicatie, zeer gerichte marketingopties via sociale media en toegang tot databases met bijna alle denkbare informatie betekenen dat eigenaars van kleine bedrijven alles kunnen bereiken wat ze maar willen.

Als je in het verleden een specifieke doelgroep wilde bereiken, moest je een enorm bedrag betalen aan een marketingbedrijf om folders per post te kunnen sturen naar de bedrijven in hun database.

Tegenwoordig is dat niet meer nodig. Als je een lijst wilt van Mexicaanse restaurants aan de oostkust of K-12 scholen in jouw staat, dan kun je die online vinden. Bedrijven die actief zijn in de B2B-ruimte kunnen snel en eenvoudig een database van prospects opbouwen, die lijst vervolgens filteren en op maat gemaakte marketingberichten versturen.

Voor B2B entiteiten die zich richten op een relatief klein geografisch gebied, kan een eenvoudige zoekopdracht op het web voldoende zijn om een lijst met potentiële klanten te vinden. Als je echter bedrijven in het hele land of zelfs het hele land wilt bereiken, zou het handmatig verzamelen van al die gegevens enorm tijdrovend zijn.

Web scraping kan jou en je marketingteam een aanzienlijke hoeveelheid tijd en geld besparen door de gegevens die je nodig hebt automatisch te verzamelen.

Wat is web scrapen?

Web Scraping is een geautomatiseerde techniek om gegevens van een website of meerdere websites te halen, zodat je de gegevens in andere toepassingen kunt gebruiken. Stel bijvoorbeeld dat je een lijst met namen en adressen van restaurants bij jou in de buurt wilt samenstellen, in plaats van handmatig elk lokaal restaurant te bezoeken dat op Yelp of Tripadvisor staat. In dat geval zou je een webscraper kunnen gebruiken om die pagina's te doorlopen en die gegevens eruit te halen, zodat je een lijst krijgt die je kunt gebruiken voor mailings.

Web scraping kan bedrijven veel tijd en moeite besparen bij het opbouwen van een marketinglijst. Het is ook verrassend eenvoudig om te doen als je over de juiste tools of programmeerkennis beschikt.

Hoe werken webscrapers?

Webscrapers werken door de pagina's op te laden waar je gegevens van wilt halen en vervolgens de pagina te lezen om te zoeken naar het soort informatie dat je probeert te vinden. Die informatie kan zijn:

  • Bedrijfsnamen
  • Telefoonnummers
  • E-mailadressen
  • Postadressen
  • Adressen website

Wanneer een webscraper een pagina downloadt, leest hij de broncode om patronen te zoeken. Afhankelijk van de site waar je de gegevens vandaan haalt, kan het simpelweg zoeken naar iets dat overeenkomt met het 123-456-78901 patroon van een telefoonnummer of het [email protected] formaat van een e-mailadres.

De ontwikkelaar van de scraper kan ook weten dat op een bepaalde website met adresboeken contactgegevens worden omgeven door een specifieke set tags in de HTML en de scraper de informatie tussen die tags laten halen.

Sommige scrapersoftware kan worden geconfigureerd door de eindgebruiker, zodat het kan worden geleerd om bijna elke website te begrijpen.

Uitdagingen bij het gebruik van schrapers

Een probleem met het gebruik van scrapersoftware is dat regelgeving zoals de GDPR van de EU betekent dat gebruikers heel voorzichtig moeten zijn met de gegevens die ze verzamelen en hoe deze worden gebruikt. Onder GDPR moet een organisatie toestemming hebben van een persoon om gegevens over een individu te bewaren of te verwerken.

Sommige websites proberen de privacy van hun gebruikers en hun eigen serverbronnen te beschermen door te proberen web scrapers te blokkeren. Er zijn verschillende opties om dit te doen, waaronder het controleren van de 'user agent' die wordt teruggestuurd door de clientsoftware en het beperken van het aantal aanvragen voor pagina's die afkomstig zijn van een specifiek IP-adres.

Als je scrapers effectief wilt gebruiken, moet je ervoor zorgen dat je de regels rond marketing in je land begrijpt, dat je alle gegevens die je verzamelt op een verantwoorde manier verwerkt en dat je weet hoe je gegevens van de door jou gekozen bronnen op een efficiënte, niet-destructieve manier verzamelt, zodat je niet van die site wordt verbannen.

Op ProxyScrape bieden we bijvoorbeeld residentiële proxies die kunnen worden gebruikt voor het verzamelen van gegevens. We raden je aan om, als je overweegt om die proxies te gebruiken, ervoor te zorgen dat je scraper niet een buitensporig aantal aanvragen doet naar een doelwebsite in een korte tijdspanne. Scrapeer op een verantwoorde manier zodat je geen schade toebrengt aan de websites waarmee je werkt.

Gegevensbronnen kiezen voor hoogwaardige leads

Content scraping geeft bedrijfseigenaren toegang tot enorme hoeveelheden informatie die anders moeilijk te verzamelen zou zijn, maar die informatie is slechts zo nuttig als de bron waar het vandaan komt.

Een van de uitdagingen bij het verzamelen van gegevens via scraping is om er zeker van te zijn dat de informatie up-to-date is. Er zijn duizenden directories op het web en veel daarvan zijn slecht gecureerd en verouderd.

Als je gegevens verzamelt van een verouderde bron van lage kwaliteit, verspil je in het beste geval tijd aan e-mails die niet worden gelezen. In het ergste geval kun je te maken krijgen met klachten omdat je herhaaldelijk ongevraagd hebt gebeld naar een nummer dat niet meer toebehoort aan het bedrijf waarvan je dacht dat het dat deed.

Dus hoe kun je de kans vergroten dat de gegevens die je verzamelt nuttig zijn?

Kies je gegevensbron zorgvuldig

Voordat je begint met het verzamelen van gegevens met behulp van een schraaptool, moet je de website waarmee je overweegt te werken handmatig doorlichten. Verzamel een paar leads met de hand en onderzoek ze.

Zijn de bedrijven nog steeds actief? Zijn de contactgegevens nog correct? Lijkt het erop dat de eigenaar van de bedrijvengids de informatie controleert voordat deze wordt toegevoegd?

Stel dat de helft van de leads die je handmatig verzamelt dood, verouderd of mogelijk nep zijn. In dat geval is de kans groot dat elke database die je opbouwt door die site te schrapen van lage kwaliteit is.

Grotere directorysites zoals Tripadvisor, Yelp of FourSquare hebben meer kans om kwaliteitsgegevens te hebben dan kleinere, minder bekende directorys omdat deze platforms een veel grotere groep gebruikers hebben die ze updaten.

Nichegidsen kunnen waardevol zijn als je een obscure belangengroep of een zeer gespecialiseerd type bedrijf wilt benaderen, maar je moet er rekening mee houden dat je veel gegevens moet opschonen voordat je de verzamelde informatie voor marketingdoeleinden kunt gebruiken.

Overweeg sites waarvoor je moet inloggen

In veel gevallen krijg je veel waardevollere gegevens als je ze verzamelt van een site waarvoor je moet inloggen. LinkedIn en Twitter kunnen bijvoorbeeld worden gescraped als u een snelheidsbegrenzer gebruikt om het aantal verzoeken dat uw bot verstuurt op een redelijk niveau te houden en ingelogd bent op de site wanneer u de verzoeken doet.

Een andere optie is om een API te gebruiken in plaats van een eenvoudige HTTP-scraper en gegevens te verzamelen van een van de populaire kaartdiensten. Google biedt bijvoorbeeld een bedrijfszoek-API die kan worden gebruikt om informatie te verzamelen over organisaties die zijn opgenomen in Google Maps, maar je moet akkoord gaan met de algemene voorwaarden van Google voordat je toegang krijgt tot de API.

Als er een API beschikbaar is, is het over het algemeen beter om je gegevens via die API te verzamelen dan door middel van web scraping. Je zult veel minder snel in de problemen komen met website-eigenaren en het is eenvoudiger om gegevens op te schonen die via een API worden aangeleverd.

Stel je vragen goed op

Er is een gezegde in computerprogrammering van "garbage in, garbage out", en dat is zeker van toepassing op het verzamelen van gegevens. Zorg ervoor dat je alle zoekopdrachten die je uitvoert zorgvuldig construeert.

Als je bijvoorbeeld wilt verkopen aan bouwers in Newcastle, vergeet dan niet dat er meer dan één Newcastle in Engeland is en dat er ook een Newcastle in Australië is. Als je zoekt naar 'Newcastle' via een proxy, zullen de meeste websites proberen te raden welke Newcastle je bedoelt door te kijken welke het dichtst bij de geografische locatie van de proxy ligt.

Probeer de zoekopdracht zo veel mogelijk te beperken door informatie over stad, staat en zelfs land te geven als de doelwebsite dat toestaat. Zo voorkom je dat je eindigt met een database vol contactgegevens van organisaties die honderden kilometers verwijderd zijn van het door jou gewenste gebied.

Web scraping kan zo eenvoudig of zo complex zijn als je zelf wilt. Als je scraping voor de eerste keer probeert, hoef je niet veel geld uit te geven aan geavanceerde software.

Enkele goede opties zijn:

  • Schraper
  • ProWebScraper
  • Scrapy
Scraper is een webbrowseruitbreiding waarmee gebruikers snel en eenvoudig gegevens van webpagina's kunnen halen. Als je informatie van een enkele resultatenpagina of een klein aantal pagina's wilt halen, is Scraper een eenvoudige en effectieve manier om dit te doen, en je zult merken dat het veel gemakkelijker te gebruiken is dan een meer geavanceerde webcrawler.
ProWebScraper is een geavanceerdere tool met gratis en premium versies. Met de gratis tool kun je tot 100 pagina's scrapen, wat betekent dat het voldoende zou moeten zijn voor een kleiner, nichebedrijf. ProWebScraper is relatief eenvoudig te gebruiken voor scraping software, met een point-and-click interface en vooraf ontworpen regels waarmee je scraping kunt instellen, zelfs als je geen technisch inzicht hebt.

ProWebScraper kan afbeeldingen downloaden en JSON, CSV of XML-dumps aanmaken. Het kan zelfs worden ingesteld om sites volgens een schema te scrapen, zodat je de gegevens kunt verzamelen en je marketingrecords kunt bijwerken.

Scrapy is een web scraping framework dat gratis en open source is. Deze tool vereist technische kennis, maar is snel, flexibel en kan worden gebruikt om grote hoeveelheden gegevens te scrapen. Scrapy kan worden uitgevoerd op je eigen Linux, OS X, Windows of BSD computer of op een webserver.

Er is een actieve Scrapy gemeenschap, inclusief IRC chat, Reddit en StackOverflow. Je kunt advies inwinnen bij de community en mogelijk gebruikmaken van extensies of modules die door de community zijn gemaakt, waardoor je de kracht van Scrapy kunt benutten, zelfs als je zelf geen ervaren ontwikkelaar bent.

Je eigen scraper coderen

Als je veel gegevens moet verzamelen of van plan bent om regelmatig te scrapen, zijn gratis tools en GUI-gebaseerde tools misschien niet krachtig genoeg voor jouw use-case. Je eigen scraper coderen, of een ontwikkelaar inhuren om het voor je te doen, is een goede optie.

Er zijn verschillende gratis, open-source frameworks die kunnen worden gebruikt om een scraper te coderen in populaire talen zoals Python, Perl, Java, R of PHP.

Een van de populairste bibliotheken voor web scraping is BeautifulSoup. Dit is een Python-schraaptool die snel en eenvoudig gegevens uit HTML- of XML-bestanden kan halen. Je moet enige kennis van programmeren hebben om het te kunnen gebruiken, maar het doet veel van het gedetailleerde werk van het schrapen voor je, zodat je het wiel niet opnieuw hoeft uit te vinden.
Zodra je de gegevens hebt geëxtraheerd, kun je ze exporteren als een CSV-bestand of ze weergeven in verschillende formaten met behulp van een bibliotheek voor gegevensverwerking zoals Pandas.

De voor- en nadelen van het coderen van je eigen scraper

Je eigen scraper coderen is een goed idee als je enige programmeerkennis hebt. Het kan ook nuttig zijn om je eigen scraper te coderen als je veel gegevens van een ongewone webpagina moet halen die gratis scraptools niet aankunnen.

Je eigen scraper coderen of iemand betalen om het voor je te doen kan een goed idee zijn als je specifieke, geavanceerde behoeften hebt. Een op maat gemaakte scraper kan effectiever worden ontworpen rond een doelpagina dan een meer algemene tool, zodat je minder kans hebt op bugs of problemen met het verwerken van de gegevens.

Omgekeerd zijn op maat gemaakte scrapers ook nuttig voor kleinere, eenvoudige taken. Als je eenmaal een scraper hebt geschreven, kun je de parsingroutine aanpassen en hetzelfde script gebruiken om gegevens van andere pagina's te halen.

Het nadeel van het gebruik van een aangepaste scraper is dat het tijd kost om de scraper voor de eerste keer te schrijven, en als u geen ervaren ontwikkelaar bent, besteedt u misschien meer tijd aan het worstelen met JSON-indeling of aan het leren van een nieuwe bibliotheek dan nodig is om gewoon de handleiding van ProWebScraper te lezen en deze te configureren.

Afhankelijk van de taak kan het kosteneffectiever zijn om voor een tool te betalen dan om een aangepaste tool te schrijven.

Als je van plan bent om je eigen scraper te schrijven, moet je bovendien op de hoogte zijn van de beste scrapingpraktijken en coderingsproblemen, zoals:

  • Een User-Agent gebruiken om uw bot te identificeren
  • Hoe je verificatie regelt voor sites waarvoor een login vereist is
  • Naleving van alle voorwaarden en bepalingen van de website
  • Uw aanvragen beperken om de website niet onnodig te belasten
  • Juist gevormde verzoeken versturen
  • Gebruiken (en regelmatig rouleren) proxies
  • Alle informatie opschonen die door de server wordt geretourneerd
  • Gegevensbeschermingsregels voor hoe en waar je de geretourneerde informatie opslaat
  • CAPTCHA oplossen

Het schrijven van een kleine scraper om informatie op te halen over een paar honderd of een paar duizend bedrijven is heel zinvol. Als je grotere hoeveelheden gegevens ophaalt, wil je misschien advies inwinnen of samenwerken met een expert om er zeker van te zijn dat je volledig voldoet aan de lokale privacyregels.

Gouden regels voor web scrapen

Als je besluit om je eigen scraper te schrijven, vergeet dan niet om "aardig te zijn". Doe er alles aan om op een beleefde manier te scrapen, door correct gevormde verzoeken te sturen, langzaam te scrapen en een reeks IP-adressen te gebruiken wanneer je scrapeert.

Probeer je scraper eruit te laten zien als een mens. Dat betekent pagina's langzaam opvragen en proberen geen vast patroon te volgen wanneer je door de pagina's gaat. Overweeg bijvoorbeeld om een lijst met zoekresultaten op te vragen, een lijst te maken van de links op de resultatenpagina en dan in willekeurige volgorde naar die links te gaan, zodat het minder opvalt dat je een bot bent.

Stuur niet meerdere verzoeken tegelijkertijd vanaf hetzelfde IP-adres. Anti-scraping tools zullen detecteren dat je de server abnormaal belast.

Respecteer de informatie in het Robots.txt-bestand van de website. Als er pagina's zijn waarvan de webmaster niet wil dat ze worden geïndexeerd. Het zou onethisch zijn om dat te negeren.

Overweeg het gebruik van een bibliotheek zoals Selenium om je bot menselijker te laten lijken door klikken naar de pagina te sturen of op een andere manier interactie met de pagina te hebben. Sommige geavanceerdere ant-scraper tools zoeken naar 'bot-achtige interactiepatronen en zullen een IP-adres blokkeren als ze een gebrek aan scrollen, klikken en andere interactie waarnemen.

Er is een technologische wapenwedloop gaande tussen ontwikkelaars van scrapers en degenen die proberen scrapers van hun websites te weren. Het is erg moeilijk om een scraper te maken die ongemerkt enorme hoeveelheden gegevens kan verzamelen. Echter, voor kleinere of middelgrote projecten, als je de regels volgt van aardig zijn en niet inhalig zijn, zou je in staat moeten zijn om de gegevens te krijgen die je nodig hebt met een langzame, regelmatige scraper en wat proxies.

Vergeet niet dat je bot 24 uur per dag kan werken en op de achtergrond gegevens kan verzamelen, dus je hoeft niet in één keer de hele lijst met kleine bedrijven op Yelp te downloaden.

Problemen met krabbers oplossen

Er zijn verschillende potentiële problemen die je kunt tegenkomen als je een scraper gebruikt. Deze kunnen zijn:

  • Je IP laten blokkeren door de webmaster
  • Uw scrapingclient laten blokkeren door de webmaster
  • Je scraper raakt in de war bij het navigeren door de website
  • Vuilnisgegevens worden verzameld via 'honeypots' op sites
  • Snelheidsbeperking waardoor je scraper niet snel werkt
  • Wijzigingen in site-ontwerpen die een scraper breken die vroeger werkte

Het goede nieuws is dat deze problemen allemaal kunnen worden opgelost als je begrijpt hoe scrapers werken.

Eenvoudige web scrapers volgen een patroon:

  1. De scraper stuurt een HTTP-verzoek naar een website
  2. De website stuurt een antwoord, zoals naar een normale webbrowser
  3. De scraper leest het antwoord en zoekt naar een patroon in de HTML
  4. Het patroon wordt geëxtraheerd en opgeslagen in een JSON-bestand voor latere verwerking.
  5. De scraper kan dan doorgaan met het lezen van het antwoord op zoek naar meer patronen of zijn volgende verzoek sturen

Er zijn een paar gebieden waar het mis kan gaan.

De scraper pikt geen gegevens op

Als de scraper helemaal geen gegevens oppikt, kan dit komen door een probleem met de manier waarop je de parser hebt ingesteld, of het kan zijn dat de scraper niet dezelfde site ziet als jij wanneer je een webbrowser gebruikt.

Om uit te zoeken wat er mis is gegaan, stel je je scraper in om de HTML van de pagina uit te voeren en vergelijk je die met de normale uitvoer van de browser.

Als je een foutmelding of een andere pagina ziet, kan het zijn dat je scraperclient geblokkeerd is. De site kan je IP-adres of de scraperclientsoftware geblokkeerd hebben.

Probeer de User-Agent die uw scraper identificeert te wijzigen in een die het laat lijken op een moderne webbrowser zoals Firefox of Chrome. Dit kan u helpen om eenvoudige beperkingen op sommige sites te omzeilen.
Als dat niet werkt, kun je overwegen om je scraper zo in te stellen dat hij een proxy om verbinding te maken met de website in kwestie. Een proxy is een server die webverzoeken namens jou verstuurt, zodat de website niet kan zien dat ze van jouw internetverbinding komen.

Als u een 'normale' pagina ziet, dan ligt het probleem waarschijnlijk meer bij de manier waarop u de scraper hebt ingesteld om gegevens te extraheren. Elk scrapingprogramma heeft zijn eigen manier om patronen te matchen, hoewel de meeste een variatie van reguliere expressies gebruiken. Zorg ervoor dat er geen typografische fouten zitten in het matchen van patronen. Vergeet niet dat het programma precies doet wat jij het opdraagt, dus zelfs één klein foutje zal de matching-regels volledig doorbreken!

De krabber werkt een tijdje, maar stopt dan

Een ander veel voorkomend probleem is dat een scraper korte tijd werkt en dan stopt met werken. Dit betekent meestal dat de website je IP-adres heeft geblokkeerd, tijdelijk of permanent, omdat je in korte tijd te veel aanvragen hebt verzonden.

Als dit gebeurt, kun je de ban omzeilen door een proxy te gebruiken. Proxyscrape biedt zowel premium als residentiële proxies aan die mensen kunnen gebruiken voor dataschrapen. Premium datacenter proxies zijn snel en bieden onbeperkte bandbreedte, maar hebben IP-adressen die webmasters kunnen herkennen als afkomstig van een datacenter. residentiële proxies eruit zien alsof het 'thuisgebruikers' zijn, maar de beschikbare doorvoer op deze kan lager zijn.

Overweeg om de proxy die je gebruikt na een paar verzoeken te wijzigen om het risico te verkleinen dat een IP-adres van proxywordt geblokkeerd. Je kunt het risico op IP-banzen ook verkleinen door de snelheid waarmee je scraper verzoeken verstuurt te verlagen.

Vergeet niet dat een scraper 24 uur per dag op de achtergrond kan werken, zonder pauzes. Zelfs als je de snelheid van de scraper beperkt tot het parsen van een pagina elke 15-30 seconden, zal hij sneller werken dan een mens.

Hou er rekening mee dat veel websites, vooral kleinere, gehost worden op servers die een limiet hebben op hun snelheid en de hoeveelheid data die ze maandelijks kunnen doorsturen. Misschien vindt u het niet onredelijk dat uw bot wat gegevens gaat schrapen, maar als veel andere gebruikers hetzelfde doen, of als uw bot 'verdwaalt' en eindeloos dezelfde pagina's probeert te downloaden, kunt u de prestaties van de website voor menselijke gebruikers nadelig beïnvloeden of de webmaster geld kosten door buitensporig veel bronnen te verbruiken.

De Scraper raakt in de war en gaat door een eindeloze lus van pagina's

Een ander veel voorkomend probleem dat marketeers tegenkomen wanneer ze een webscraper proberen te gebruiken, is dat de scraper in de war raakt en pagina's downloadt die hij niet zou moeten downloaden.

Stel dat het plan van je scraper is om een lijst van metselaars in je stad te vinden, en je stuurt hem naar een directory waar hij dat doorzoekt. De scraper moet:

  • Een HTTP-verzoek indienen met de gewenste zoekreeks
  • De resultatenpagina downloaden
  • Parseer de resultatenpagina om een link naar het eerste resultaat te vinden
  • Open die link
  • Haal de contactgegevens van die nieuwe pagina
  • Ga door met het parsen van de resultatenpagina om het tweede resultaat te vinden
  • Open die link
  • Enzovoort...

Sommige websites zijn gebouwd met 'honeypots' die bots in de val lokken en verwarren. Deze honeypots zijn stukjes HTML die zijn voorzien van een weergavetag met de tekst 'display:none', zodat ze niet zichtbaar zijn in een normale browser. Bots kunnen ze echter wel zien en als ze niet zijn geconfigureerd om ze te negeren, verwerken ze ze net als normale HTML.

Het is erg moeilijk om een bot zo te programmeren dat hij alle bot-trapping HTML volledig negeert, omdat sommige van deze vallen ongelooflijk geavanceerd zijn. Wat u wel kunt doen, is een limiet instellen op het aantal links dat uw bot zal volgen. U kunt ook zelf de bron van de pagina bekijken en zoeken naar duidelijke valstrikken, zodat u de bot kunt instellen om deze te negeren.

Ethische marketing: Gebruik uw geschraapte leads verstandig

Web scraping is iets waar veel sites niet blij mee zijn en waar bedrijfseigenaren voorzichtig mee moeten zijn. Onder GDPR is het bijvoorbeeld illegaal om informatie van een inwoner van de EU te scrapen zonder hun toestemming.

Bovendien verbieden veel websites die gegevens verbergen achter een inlogscherm expliciet web scraping in hun algemene voorwaarden. Dit betekent dat je het risico loopt om van die website te worden verbannen als blijkt dat je een scraper gebruikt.

Als je besluit om scraping te gebruiken om leads te verzamelen, probeer dit dan op een verstandige manier te doen. Zie scraping eerder als een manier om tijd te besparen bij het verzamelen van leads die je toch al zou hebben verzameld, dan als een manier om een grootschalige marketingcampagne op te zetten.

Vermijd een te breed net met scraping. Het kan verleidelijk zijn om de contactgegevens te verzamelen van elk bedrijf of persoon in je omgeving en de omliggende gebieden, in de hoop een van die bedrijven om te zetten in een klant, maar zo'n brede, ongerichte campagne zal waarschijnlijk averechts werken.

Uw database opschonen en onderhouden

Voordat je met je marketingcampagne begint, moet je de verzamelde gegevens controleren. Schoon de database op om duidelijk onjuiste gegevens te verwijderen, zoals bedrijven die zijn gesloten, dubbele records of records van mensen die zich niet in je doelgebied bevinden.

Zodra je de campagne start, moet je de database up-to-date houden. Als een lead vraagt om uit je database verwijderd te worden, verwijder hem dan. Als je wettelijk in staat bent om dit te doen in jouw rechtsgebied, bewaar dan net genoeg gegevens over hen om hun e-mailadres of telefoonnummer toe te voegen aan een 'geen contact'-lijst zodat ze niet opnieuw kunnen worden toegevoegd aan je marketingdatabase de volgende keer dat je gaat schrapen.

Enkele andere dingen die je moet onthouden bij het beheren van je marketingcampagnes zijn:

  • Beperk het aantal e-mails of telefoontjes naar koude leads
  • Geef opt-out informatie in alle contacten die je verstuurt
  • Afmeldingsverzoeken respecteren en onmiddellijk uitvoeren
  • Als iemand op je marketing reageert, werk dan hun gegevens bij

Er is een dunne lijn tussen proactieve marketing en agressieve spam. Herhaalde contacten van marketeers maken deel uit van het klanttraject en het is belangrijk om in contact te blijven met potentiële klanten, maar al te agressieve marketing kan prospects van je vervreemden en je merk een slechte reputatie bezorgen.

Overweeg om de gegevens die je via scraping verkrijgt te importeren in een CRM-systeem, zodat je van elke klant kunt bijhouden in welke fase van het conversieproces ze zich bevinden en hoe ze hebben gereageerd op marketingberichten.

Als je dit doet, blijf je niet alleen op de hoogte van individuele klanten, maar kun je ook gemakkelijker zien hoe je marketingcampagnes collectief presteren, zodat je je berichten kunt verfijnen.

Het bijhouden van de bron van leads kan ook nuttig zijn, omdat het je een idee geeft welke gegevensbronnen informatie van de hoogste kwaliteit bevatten.