DeepCrawl heeft zijn prijs een beetje verhoogd sinds we er voor het eerst naar keken.
De tool begint nu bij $ 89 per maand, maandelijks gefactureerd; $ 81,50 wanneer jaarlijks gefactureerd).
Dat is ongeveer $ 10 meer dan het voorheen kostte, dus het zou geen probleem moeten zijn voor de meeste klanten van zoekmachineoptimalisatie (SEO).
Wat je echter zou kunnen misleiden, is de ontwerpfocus: deze tool is maar voor één ding bedoeld: van binnen naar buiten, van boven naar beneden crawlen van websites.
SEO-tools kunnen over het algemeen worden gegroepeerd in drie hoofdcategorieën.
Ten eerste is er ad-hoczoekwoordonderzoek, waarmee u de meest geschikte zoekpagina's kunt vinden om uw inhoud hoger te laten scoren.
Vervolgens is er doorlopende positiemonitoring, waarmee u uw zoekposities bijhoudt om te bepalen waar u terrein wint en verliest.
Ten slotte is er crawling, waarbij webbots een enkele website analyseren of systematisch het hele internet crawlen en indexeren.
DeepCrawl doet geen internetbrede crawls, maar het geeft uw website een zo uitgebreide SEO "full body scan" als u maar kunt krijgen.
Dit soort deep-sitecrawling is op een aantal manieren nuttig voor bedrijven.
DeepCrawl is een tool voor zowel beginnende gebruikers die siteproblemen willen benadrukken als voor gevorderde gebruikers die hun crawls aanpassen, maar zonder enige beperking van gegevenstoegang.
Crawling maakt het ook gemakkelijker om de toestand van de site te bewaken met zowel realtime als historische context, waardoor bedrijven de mogelijkheid hebben om crawls van jaar tot jaar te vergelijken en inzoomen op verschillende trends en rapporttypen.
Over het algemeen moet u een combinatie van meerdere tools in de drie categorieën van SEO gebruiken voor de meest effectieve strategie, en met sitecrawlers kunt u de sterke en zwakke punten van uw eigen website en bestemmingspagina's identificeren.
Keuze van de redactie SEO-tools Moz Pro (79,00 per maand, jaarlijks gefactureerd bij Moz), SpyFu (33,00 per maand, jaarlijks gefactureerd bij SpyFu) en AWR Cloud hebben een veel diepere zoekwoord- en positiemonitoring, maar hebben dat bijna niet de capaciteit voor crawlen en site-audit.
Dus als u bijvoorbeeld een van de Editors 'Choice-tools of een zoekwoordspecifiek product zoals KWFinder.com zou gebruiken om een ??doelzoekmachine-resultatenpagina (SERP) te identificeren en ideaal te vinden om uw inhoud te rangschikken, zou u een DeepCrawl-scan van de architectuur van uw site om pagina-uitsplitsingen te genereren en de specifieke SEO-problemen te identificeren die uw site moet verbeteren en oplossen om die pagina te rangschikken.
Hetzelfde geldt voor het uitzoeken waarom uw inhoud terrein verliest in de zoekrangschikkingen zoals bijgehouden in een monitoringtool zoals AWR Cloud (49,00 per maand bij Advanced Web Ranking) of voor het uitvoeren van een hoofdoorzaakanalyse van waarom uw site werd geraakt door een Google-zoekopdracht.
boete en hoe u kunt herstellen.
Vroeg of laat komt een SEO-strategie altijd terug op het controleren van uw eigen site.
Dat is de enige baan van DeepCrawl.
Prijzen en plannen
Zoals vermeld, begint DeepCrawl bij $ 81,50 per maand, jaarlijks gefactureerd ($ 89 van maand tot maand) voor zijn Starter-abonnement, dat wordt geleverd met 100.000 actieve URL's, vijf actieve projecten, plus volledige toegang tot de Application Programming Interface (API).
De meeste SEO-tools reserveren API-toegang voor enterprise-niveaus, wat een duidelijk pluspunt is voor DeepCrawl-gebruikers die diepere aanpassingen willen zonder het zakelijke prijskaartje.
Een andere verandering die is opgetreden sinds we de tool voor het laatst hebben beoordeeld, is dat het bedrijf zijn andere tariefplannen heeft afgeschaft.
Voor degenen die zich online willen aanmelden voor de service, is er het startersplan en dat is alles.
Meer geavanceerde functies en uitgebreide service-opties zijn nu allemaal beschikbaar in slechts één ander type abonnement: het bedrijfsplan.
Er zijn hier niet veel details, afgezien van "Op maat gemaakte" prijzen, waarvan we aannemen dat een telefoontje naar een bedrijfsvertegenwoordiger betekent, zodat deze een service- en prijsplan kan afstemmen op uw behoeften.
Website crawlen
Het crawlproces van de site in DeepCrawl begint met een snelle installatie in vier stappen.
In elke crawl kunt u maximaal vijf bronnen, sitemaps, websites, analyses, backlinks en URL-lijsten opnemen.
Het idee is om het gemakkelijk te maken hiaten in de architectuur van uw site te identificeren, met specifieke statistieken die u niet zult vinden in andere crawlhulpmiddelen, zoals zwevende pagina's die verkeer genereren.
DeepCrawl is ontworpen om gebruikers een compleet overzicht te geven van de technische gezondheid van hun website, met bruikbare gegevens en inzichten om de SEO-zichtbaarheid te vergroten en organisch verkeer om te zetten in inkomsten.
Wanneer u zich aanmeldt voor een gratis DeepCrawl-proefversie, brengt de interface u eerst naar het projectdashboard.
Om mijn Daxdi-testproject op te zetten, heb ik Daxdi.com ingevoerd als het hoofddomein.
Stap twee is het kiezen van gegevensbronnen voor de crawl, waaronder de website zelf, de sitemaps van Daxdi en analyses waartoe u toegang hebt met een actief Google Analytics-account.
U kunt ook specifieke backlink- en URL-doelparameters binnen het domein toevoegen (bijvoorbeeld als u doelpagina's heeft geïdentificeerd in een trefwoordonderzoekstool) door CSV-bestanden van specifieke backlinks of URL-lijsten te uploaden.
Er is ook een pop-upvenster onder aan de pagina om een ??videozelfstudie te bekijken voor het opzetten van DeepCrawl-projecten en crawls.
Met stap drie kunt u de parameters voor de crawl zelf instellen.
Ik was in staat om de crawlsnelheid overal in te stellen, van één URL tot 50 URL's per seconde.
Van daaruit had ik de mogelijkheid om in te stellen hoeveel "crawlniveaus" diep de scan vanaf de Daxdi-homepagina zou moeten gaan, en het maximale aantal URL's in te stellen waarop het crawlen zou moeten stoppen.
Mijn gratis proefperiode was voor het Starter-abonnement, dus mijn URL's waren beperkt tot 100.000.
De laatste stap is om in te stellen of dit een eenmalige of een terugkerende crawl zal zijn, die elk uur, dagelijks, wekelijks, tweewekelijks, maandelijks of driemaandelijks kan zijn, met de optie om begin- en eindtijden voor de crawl in te stellen.
Dit is een belangrijke functie om in te stellen als u regelmatige siteaudits nodig heeft, maar wees voorzichtig met uw URL-limieten, afhankelijk van het plan dat u kiest.
Er zijn ook meer geavanceerde instellingen voor diepere crawlbeperkingen, uitgesloten URL's, het herschrijven van URL's en API-callbacks, maar een niet-technische SEO-gebruiker hoeft daar niet per se op in te gaan.
Van daaruit klikte ik op Crawl starten en ontving een paar minuten later een e-mail toen de crawl was voltooid.
In het voltooide crawl-dashboard sta je meteen voor een muur van informatie.
Als u weet waarnaar u op zoek bent, zijn er dubbele zoekbalken bovenaan om een ??specifieke URL te vinden of om het rapport over een bepaald gebied van de site-architectuur te vinden; dit kan van alles zijn, van body-inhoud en sociale tags tot mislukte URL's en website-omleidingen.
In totaal had DeepCrawl 175 rapporten over mijn URL's - die in de gratis proefperiode op iets meer dan 10.000 bleken te liggen - en ontdekte 30 siteproblemen en crawlde zes "niveaus" of links diep van de startpagina.
De hoofddashboardpagina biedt een overzicht van alle huidige siteproblemen, van waaruit u kunt inzoomen op de specifieke URL's waar DeepCrawl paginafouten zal markeren, zoals dubbele inhoud, verbroken pagina's, overtollige links of pagina's met titels, beschrijving en metadata die SEO-verbetering nodig hebben.
Naast die lijst vond ik een pagina-uitsplitsing in een interactief cirkeldiagram met de meest voorkomende problemen onder de meer dan 10.000 gecrawlde pagina's.
DeepCrawl heeft ook de gebruikersinterface (UI) bijgewerkt sinds onze eerste beoordeling, door broodkruimels op elke pagina toe te voegen om het gemakkelijker te maken om naar andere delen van het platform te navigeren en een dashboardsectie toe te voegen om alle lopende crawls op één plek te beoordelen.
Voor mijn domein ontdekte ik dat, hoewel er geen grote problemen waren met 49 procent van mijn pagina's (de meeste 'primaire' pagina's), 30 procent van mijn pagina's onder de oppervlakte te maken had met 5xx-serverfouten, vijf procent van de pagina's heeft mislukte URL's en 16 procent van de pagina's was 'niet-indexeerbaar'.
Volgens DeepCrawl zijn de 5xx-fouten waarschijnlijk opgetreden doordat de Daxdi-site aspecten van de crawl blokkeerde of doordat de server te snel crawlen.
DeepCrawl heeft ook duidelijk gemaakt dat pagina's die als primair zijn gemarkeerd niet per se probleemloos zijn en nog steeds kunnen worden beoordeeld om ontbrekende pagina's op te nemen, pagina's met een lage waarde uit te sluiten en geannoteerd met SEO-aanbevelingen op de pagina.
Sommige van de andere crawlhulpmiddelen die ik heb getest, waaronder Ahrefs (82,00 per maand, jaarlijks gefactureerd op FS.com) en Majestic (49,99 per maand, driemaandelijks gefactureerd op Majestic.com), geven je ook dit soort uitsplitsing, inclusief basisproblemen met de site evenals backlinkindexering, dat wil zeggen de inkomende hyperlinks van andere sites naar de uwe.
Wat de anderen niet helemaal doen, is dieper ingaan op het punt dat DeepCrawl doet, met name met storingen zoals de pagina's die zijn beveiligd met het veiligere HTTPS-protocol in tegenstelling tot HTTP, iets waar het Google-algoritme rekening mee houdt bij het rangschikken van pagina's.
DeepCrawl biedt u ook intelligente paginagroeperingen (die u kunt vinden in Geavanceerde instellingen bij het opzetten van een crawl), wat betekent dat uw steekproeven zijn gebaseerd op een percentage pagina's in plaats van op een aantal.
Het op deze manier groeperen van pagina's is belangrijk omdat u hierdoor een consistente steekproef van alle crawls krijgt.
Zie het als een wetenschappelijk experiment: als u een e-commerce website bent die 20 procent van uw productpagina's crawlt, zal Deepcrawl bij de volgende crawl dezelfde 20 procent scannen op pagina's die zijn toegevoegd, verwijderd, ontbreken of gewijzigd binnen elk rapport.
Dit vermindert ook de crawltijd en -kosten, aangezien u uw crawl target op de specifieke subset van pagina's waarin u geïnteresseerd bent.
Evenzo kunnen de aangepaste extracties van DeepCrawl worden gebruikt om de parameters van uw keuze op te nemen of uit te sluiten.
Dit is een meer geavanceerde functie die is ontworpen voor meer gespecialiseerde crawl om je focusgebieden aan te scherpen.
Het bedrijf heeft ook toegevoegd Vooraf ingestelde aangepaste extracties voor niet-technische gebruikers, aangezien het schrijven van aangepaste extracties kennis van reguliere expressietaal (Regex) vereist.
Geavanceerde rapportage
Afgezien van de GSC-integratie, zijn de meest prominente verbeteringen aan DeepCrawl de rapportagemogelijkheden, waarvoor DeepCrawl het afgelopen jaar 75 nieuwe rapporten heeft toegevoegd.
Verder dan de basisbeginselen—Rapporten delen en exporteren, of een taak voor dat rapport toevoegen-jij kan klik op de knop Delen om een ??deelbare link naar dat rapport te krijgen.
U kunt het rapport vervolgens naar een willekeurig aantal ontvangers e-mailen.
U kunt het rapport ook downloaden als een CSV-bestand of een XML-sitemap, en rapporten aanpassen met aangepaste branding.
De taakgebaseerde functie is bijzonder handig.
Met DeepCrawl kon ik een taak toevoegen voor specifieke rapporten - in dit geval de lijst met 5xx-serverfouten - om actie te ondernemen tegen die SEO-kwetsbaarheid.
Met DeepCrawl kunt u niet alleen crawls plannen en aanpassen, maar met Taakbeheer kunt u de voortgang volgen en workflows voor problemen en deadlines beheren.
Het kenmerk van een goede tool ...








