DeepCrawl har hævet sin pris lidt siden vi først kiggede på den.
Værktøjet begynder nu med $ 89 pr.
Måned, faktureret måned til måned; $ 81,50 ved fakturering årligt).
Det er omkring $ 10 mere, end det tidligere kostede, så det burde ikke være et problem for de fleste SEO-værktøjskunder.
Hvad der måske kan kaste dig, er dens designfokus: dette værktøj er beregnet til en ting og kun en ting: indefra og ud, top-til-bund-webcrawling.
SEO-værktøjer kan generelt grupperes i tre hovedkategorier.
Først er der ad hoc-søgeordsforskning, som hjælper dig med at finde de mest hensigtsmæssige søgesider, så dit indhold kan placere sig højere.
Dernæst er der løbende positionsovervågning, hvilket er, hvordan du holder styr på dine søgepositioner for at identificere, hvor du vinder og taber terræn.
Endelig er der gennemsøgning, hvor webbots analyserer enten et enkelt websted eller systematisk gennemsøger og indekserer hele internettet.
DeepCrawl foretager ikke internet-gennemgang, men det vil give dit websted omtrent så omfattende en SEO "full body scan", som du kan få.
Denne form for gennemgang af dybe websteder er nyttig for virksomheder på en række måder.
DeepCrawl er et værktøj til begge nybegyndere, der ønsker at fremhæve webstedsproblemer eller avancerede brugere, der tilpasser deres gennemgange, men uden nogen begrænsninger for dataadgang.
Gennemgang gør det også nemmere at overvåge websteds sundhed med både realtids- og historisk sammenhæng, hvilket giver virksomhederne mulighed for at sammenligne gennemgange år over år og gå ned i forskellige tendenser og rapporttyper.
Du skal generelt bruge en kombination af flere værktøjer på tværs af de tre kategorier af SEO til den mest effektive strategi, og webstedscrawlere er, hvordan du identificerer styrker og svagheder ved dit eget websted og destinationssider.
Redaktørernes valg af SEO-værktøjer Moz Pro (79,00 pr.
Måned, faktureres årligt hos Moz), SpyFu (33,00 pr.
Måned, faktureres årligt ved SpyFu) og AWR Cloud har en langt større dybde af nøgleords- og positionsovervågning, men har ikke næsten kapaciteten til gennemgang og webstedsrevision.
Så hvis du f.eks.
Brugte et af Editors 'Choice-værktøjerne eller et nøgleordsspecifikt produkt såsom KWFinder.com til at identificere en målsøgningsside til resultatsøgemaskine (SERP) og stedet ideel til dit indhold at rangere, ville du så en DeepCrawl-scanning af dit websteds arkitektur for at generere sidefordelinger og identificere de specifikke SEO-problemer, dit websted har brug for for at forbedre og løse for at siden skal rangere.
Det samme gælder for at finde ud af, hvorfor dit indhold mister terræn i søgerangeringer, som spores i et overvågningsværktøj som AWR Cloud (49,00 pr.
Måned ved avanceret webrangering) eller foretage en rodårsagsanalyse om, hvorfor dit websted blev ramt med en Google-søgning straf og hvordan du kan komme dig.
Før eller senere kommer en SEO-strategi altid tilbage til revision af dit eget websted.
Det er DeepCrawls eneste job.
Priser og planer
Som nævnt starter DeepCrawl med $ 81,50 pr.
Måned, faktureres årligt ($ 89 måned til måned) for sin Starter-plan, som leveres med 100.000 aktive URL'er, fem aktive projekter plus fuld applikationsprogrammeringsgrænseflade (API) adgang.
De fleste SEO-værktøjer forbeholder API-adgang til virksomhedsniveauer, hvilket er et klart plus for DeepCrawl-brugere, der ønsker dybere tilpasning uden virksomhedens pris.
En anden ændring, der er sket, siden vi sidst gennemgik værktøjet, er, at virksomheden har fjernet sine andre prisplaner.
For dem, der ønsker at tilmelde sig online til tjenesten, er der startplanen, og det er det.
Mere avancerede funktioner og øgede servicemuligheder er nu kun tilgængelige i en anden plantype: Virksomhedsplanen.
Der er ikke meget detaljer her bortset fra "Skræddersyede" priser, som vi antager betyder et opkald til en virksomhedsrepræsentant, så de kan skræddersy en service- og prisplan til dine behov.
Webstedets gennemgang
Webstedets gennemgangsproces i DeepCrawl begynder med en hurtig firetrinsopsætning.
I en hvilken som helst gennemgang kan du inkludere op til fem kilder, sitemaps, websteder, analyser, backlinks og URL-lister.
Ideen er at gøre det let at identificere huller i dit webstedsarkitektur med specifikke metrics, som du ikke finder i andre gennemsøgningsværktøjer, såsom Orphaned Pages Driving Traffic.
DeepCrawl er designet til at give brugerne et komplet overblik over deres websteds tekniske sundhed med handlingsmæssige data og indsigt for at øge SEO-synligheden og gøre organisk trafik til indtægter.
Når du tilmelder dig en gratis DeepCrawl-prøveversion, tager grænsefladen dig først til projektdashboardet.
For at oprette mit Daxdi Test-projekt indtastede jeg Daxdi.com som det primære domæne.
Trin to er at vælge datakilder til gennemgangen, som inkluderer selve webstedet, PCMags sitemaps og analyser, som du kan få adgang til med en aktiv Google Analytics-konto.
Du kan også tilføje specifikke backlink- og URL-målparametre inden for domænet (for eksempel hvis du har identificeret målsider i et søgeordsforskningsværktøj) ved at uploade CSV-filer med specifikke backlinks eller URL-lister.
Der er også en pop op-boks nederst på siden for at se en videovejledning til, hvordan du konfigurerer DeepCrawl-projekter og -crawler.
Trin 3 giver dig mulighed for at indstille parametrene til selve gennemgangen.
Jeg var i stand til at skifte gennemgangshastighed til hvor som helst fra en URL til 50 URL'er pr.
Sekund.
Derfra havde jeg mulighed for at indstille, hvor mange "crawlniveauer" dybt scanningen skulle gå fra Daxdi-hjemmesiden, og indstille det maksimale antal webadresser, som crawlingen skulle stoppe med.
Min gratis prøveperiode var til startplanen, så mine webadresser var begrænset til 100.000.
Det sidste trin er at indstille, om dette vil være en engangs- eller en tilbagevendende gennemgang, som kan være hver time, dagligt, ugentligt, hver uge, månedligt eller kvartalsvis med mulighed for at indstille start- og sluttider for gennemgangen.
Dette er en vigtig funktion, der skal indstilles, hvis du har brug for regelmæssige webstedsrevisioner, men vær forsigtig med dine URL-grænser afhængigt af hvilken plan du vælger.
Der er også mere avancerede indstillinger for dybere gennemgangsbegrænsninger, ekskluderede URL'er, URL-omskrivning og API-tilbagekald, men en ikke-teknisk SEO-bruger behøver ikke nødvendigvis at komme ind i dem.
Derfra klikkede jeg på Start gennemgang og modtog en e-mail et par minutter senere, da gennemgangen var afsluttet.
I det færdige gennemgangs dashboard står du straks over for en mur af information.
Hvis du ved hvad du leder efter, er der to søgelinjer øverst for at finde en bestemt URL eller finde rapporten om et bestemt område af webstedsarkitekturen; dette kan være alt fra kropsindhold og sociale tags til mislykkede webadresser og omdirigeringer af websteder.
I alt kørte DeepCrawl 175 rapporter om mine webadresser - som i den gratis prøveperiode viste sig at være begrænset til lidt over 10.000 - og opdagede 30 webstedsproblemer og gennemsøgte seks "niveauer" eller links dybt fra hjemmesiden.
Hovedinstrumentets side giver en listeopdeling over alle aktuelle webstedsproblemer, hvorfra du kan gå ned til de specifikke webadresser, hvor DeepCrawl vil fremhæve sidefejl som duplikatindhold, ødelagte sider, overskydende links eller sider med titler, beskrivelse og metadata, der har brug for SEO-forbedring.
Ved siden af ??denne liste fandt jeg en interaktiv cirkeldiagramoversigt over de mest udbredte problemer blandt de 10.000+ gennemsøgte sider.
DeepCrawl har også opdateret sin brugergrænseflade (UI) siden vores første gennemgang ved at tilføje brødkrummer på tværs af hver side for at gøre det nemmere at navigere til andre dele af platformen og tilføje et dashboard-afsnit for at vurdere alle kørende gennemgange på ét sted.
For mit domæne fandt jeg ud af, at selvom der ikke var store problemer med 49 procent af mine sider (de fleste af dem "primære" sider), havde 30 procent af mine sider under overfladen beskæftiget sig med 5xx serverfejl, fem procent af siderne har mislykkede webadresser, og 16 procent af siderne var "ikke-indekserbare." Ifølge DeepCrawl opstod der sandsynligvis 5xx-fejl på grund af Daxdi-webstedets blokerende aspekter af gennemgangen eller på grund af gennemsøgning for hurtigt til serveren til at håndtere.
DeepCrawl har også præciseret, at sider, der er markeret som primære, ikke nødvendigvis er problemfri og stadig kan gennemgås for at omfatte manglende sider, ekskludere sider med lav værdi og kommenteres med SEO-anbefalinger på siden.
Nogle af de andre gennemsøgningsværktøjer, jeg testede, inklusive Ahrefs (82,00 pr.
Måned, faktureret årligt på FS.com) og Majestic (49,99 pr.
Måned, faktureret kvartalsvis på Majestic.com), giver dig også denne form for opdeling, herunder grundlæggende webstedsproblemer samt indeksering af backlink, hvilket betyder de indgående hyperlinks fra andre websteder til dine.
Hvad de andre ikke helt gør, er at gå dybere ned til det punkt, som DeepCrawl gør, især med sammenbrud som de sider, der er sikret med den mere sikre HTTPS-protokol i modsætning til HTTP, noget som Google-algoritmen tager højde for, når siderne rangeres.
DeepCrawl giver dig også intelligente sidegrupperinger (som du kan finde i Avancerede indstillinger, når du opretter en gennemgang), hvilket betyder, at din sampling er baseret på en procentdel af sider snarere end et tal.
Gruppering af sider på denne måde er vigtigt, da det giver dig en jævn prøveudtagning på tværs af gennemgange.
Tænk på det som et videnskabeligt eksperiment: Hvis du er et e-handelswebsite, gennemgår 20 procent af dine produktsider, i den følgende gennemgang scanner Deepcrawl de samme 20 procent for sider, der er tilføjet, fjernet, manglet eller ændret inden for hver rapport.
Dette reducerer også gennemgangstid og omkostninger, da du målretter din gennemgang til det specifikke undersæt af sider, du er interesseret i.
På samme måde kan DeepCrawls brugerdefinerede ekstraktioner bruges til at inkludere eller ekskludere de parametre, du vælger.
Dette er en mere avanceret funktion designet til mere specialiseret gennemgang til at finpudse i dine fokusområder.
Virksomheden har også tilføjet Forudindstillede brugerdefinerede ekstraktioner til ikke-tekniske brugere, da skrivning af brugerdefinerede ekstraktioner kræver kendskab til sprog for regulært udtryk (Regex).
Avanceret rapportering
Bortset fra GSC-integrationen er de mest fremtrædende forbedringer af DeepCrawl i dens rapporteringsfunktioner, som DeepCrawl har tilføjet 75 nye rapporter i det forløbne år.
Ud over det grundlæggende—Deling og eksport af rapporter eller tilføjelse af en opgave til den pågældende rapport-du kan klik på knappen Del for at få et link, der kan deles til denne rapport.
Du kan derefter e-maile rapporten til et hvilket som helst antal modtagere.
Du kan også downloade rapporten som en CSV-fil eller et XML-sitemap og tilpasse rapporter med tilpasset branding.
Den opgavebaserede funktion er særlig nyttig.
DeepCrawl tillod mig at tilføje en opgave til specifikke rapporter - i dette tilfælde listen over 5xx-serverfejl - for at tage skridt til denne SEO-sårbarhed.
DeepCrawl giver dig mulighed for ikke kun at planlægge og tilpasse gennemgange, men ved hjælp af Task Manager kan du spore fremskridt og styre problem- og deadline-arbejdsgange.Mærket for et godt værktøj ...








