DeepCrawl je nekoliko povišal svojo ceno, odkar smo ga prvi? pogledali.
Orodje se zdaj za?ne pri 89 USD na mesec, obra?unava se iz meseca v mesec; 81,50 USD, ko se obra?una vsako leto).
To je približno 10 dolarjev ve?, kot je stalo prej, zato ve?ina kupcev orodij za optimizacijo iskalnikov (SEO) ne bi smela predstavljati težav.
Kar pa vas lahko vrže, je osredoto?enost na oblikovanje: to orodje je namenjeno samo enemu in enemu: iskanju spletnih strani od zgoraj navzdol.
SEO orodja lahko na splošno razdelimo v tri glavne kategorije.
Najprej obstaja ad hoc raziskava klju?nih besed, ki vam pomaga najti najbolj primerne strani za iskanje vaše vsebine, da se uvrstite višje.
Nato je stalno spremljanje položaja, kar pomeni, kako sledite iskalnim položajem, da ugotovite, kje pridobivate in izgubljate položaj.
Na koncu je še iskanje po vsebini, pri katerem spletni roboti raz?lenijo eno samo spletno mesto ali sistemati?no pajkajo in indeksirajo celoten internet.
DeepCrawl ne iska po internetu, vendar bo vašemu spletnemu mestu omogo?il približno tako obsežen SEO "pregled celotnega telesa", kot ga lahko dobite.
Takšno globoko iskanje po spletnih mestih je za podjetja koristno na ve? na?inov.
DeepCrawl je orodje tako za za?etnike, ki želijo izpostaviti težave s spletnimi mesti, kot tudi za napredne uporabnike, ki prilagajajo svoje pajke, vendar brez kakršnih koli omejitev dostopa do podatkov.
Pajkanje olajša tudi spremljanje zdravja spletnega mesta tako v realnem ?asu kot v zgodovinskem kontekstu, kar podjetjem omogo?a primerjavo pajkov iz leta v leto in podrobno analizo razli?nih trendov in vrst poro?il.
Na splošno morate za naju?inkovitejšo strategijo uporabiti kombinacijo ve? orodij v treh kategorijah SEO, pajki po spletnem mestu pa so na?in, kako prepoznate prednosti in slabosti lastnega spletnega mesta in ciljnih strani.
SEO orodja Moz Pro (79,00 na mesec, obra?unano vsako leto pri Moz), SpyFu (33,00 na mesec, obra?unano vsako leto pri SpyFu) in AWR Cloud imajo veliko ve?jo globino spremljanja klju?nih besed in položaja, vendar nimajo skoraj zmožnost iskanja po vsebini in revizije spletnega mesta.
?e ste na primer uporabili eno od orodij Editors 'Choice ali izdelek, ki je zna?ilen za klju?no besedo, na primer KWFinder.com, da bi identificirali ciljno stran z rezultati iskanja (SERP) in mesto, idealno za uvrstitev vaše vsebine, bi nato zagnali DeepCrawl skeniranje arhitekture vašega spletnega mesta za ustvarjanje raz?lenitev strani in prepoznavanje posebnih težav s SEO, ki jih mora vaše spletno mesto izboljšati in rešiti, da se stran lahko uvrsti.
Enako velja za ugotovitev, zakaj vaša vsebina izgublja tla na lestvicah iskanja, kot jo spremlja orodje za spremljanje, kot je AWR Cloud (49,00 na mesec pri napredni spletni lestvici), ali izvedba analize vzrokov za to, zakaj je bilo vaše spletno mesto zadeto z Googlovim iskanjem.
kazen in kako si lahko opomorete.
Prej ali slej se strategija SEO vedno vrne k reviziji lastnega spletnega mesta.
To je eno in edino delo DeepCrawla.
Cene in na?rti
Kot že re?eno, se DeepCrawl za?ne pri 81,50 USD na mesec, letno pa ga zara?una (89 USD iz meseca v mesec) za svoj za?etni na?rt, ki vsebuje 100.000 aktivnih URL-jev, pet aktivnih projektov in popoln dostop do programskega vmesnika (API).
Ve?ina orodij SEO rezervira dostop do API-ja za ravni podjetja, kar je nedvomen plus za uporabnike DeepCrawl, ki želijo globlje prilagoditve brez cenika podjetja.
Druga sprememba, ki se je zgodila od zadnjega pregleda orodja, je, da je podjetje odpravilo svoje druge cenovne na?rte.
Za tiste, ki se želijo na spletu prijaviti za storitev, obstaja za?etni na?rt in to je to.
Naprednejše funkcije in pove?ane možnosti storitev so zdaj na voljo samo v drugi vrsti na?rta: korporacijski na?rt.
Tu ni veliko podrobnosti, razen cen po naro?ilu, za katere domnevamo, da pomenijo klic predstavniku podjetja, da lahko prilagodijo na?rt storitev in cen glede na vaše potrebe.
Iskanje po spletni strani
Postopek iskanja po spletnem mestu v DeepCrawl se za?ne s hitro nastavitvijo v štirih korakih.
V katero koli pajkanje lahko vklju?ite do pet virov, zemljevide mesta, spletna mesta, analitiko, povratne povezave in sezname URL-jev.
Ideja je olajšati prepoznavanje vrzeli v arhitekturi spletnega mesta s posebnimi meritvami, ki jih ne boste našli v drugih orodjih za iskanje po vsebini, kot je na primer osirotele strani, ki spodbujajo promet.
DeepCrawl je zasnovan tako, da uporabnikom nudi popoln pregled tehni?nega stanja njihovega spletnega mesta, z dejanskimi podatki in vpogledi za pove?anje prepoznavnosti SEO in pretvorbo organskega prometa v prihodek.
Ko se prijavite za brezpla?en preskus DeepCrawl, vas vmesnik najprej pripelje do nadzorne ploš?e projekta.
Za nastavitev projekta Daxdi Test sem kot primarno domeno vpisal Daxdi.com.
Drugi korak je izbrati vire podatkov za iskanje po vsebini, ki vklju?ujejo samo spletno mesto, zemljevide spletnega mesta Daxdi in analitiko, do katere lahko dostopate z aktivnim ra?unom Google Analytics.
V domeno lahko dodate tudi posebne ciljne parametre povratne povezave in URL-ja (na primer, ?e ste v orodju za raziskovanje klju?nih besed prepoznali ciljne strani) tako, da naložite datoteke CSV z dolo?enimi povratnimi povezavami ali seznami URL-jev.
Na dnu strani je tudi pojavno okno, v katerem si lahko ogledate video vadnico, kako nastaviti projekte in pajkanje DeepCrawl.
Tretji korak vam omogo?a nastavitev parametrov za samo iskanje po vsebini.
Hitrost iskanja sem lahko preklopil na poljubno obmo?je od enega do 50 URL-jev na sekundo.
Od tam sem lahko na doma?i strani Daxdi dolo?il, koliko "ravni iskanja" naj globoko pregleduje, in dolo?il najve?je število URL-jev, pri katerih se mora iskanje in iskanje ustaviti.
Moja brezpla?na preizkusna razli?ica je bila za za?etni na?rt, zato so bili moji URL-ji omejeni na 100.000.
Zadnji korak je nastavitev, ali bo to enkratno ali ponavljajo?e se pajkanje, ki je lahko urno, dnevno, tedensko, dvotedensko, mese?no ali ?etrtletno, z možnostjo nastavitve za?etnega in kon?nega ?asa za pajkanje.
To je pomembna funkcija, ki jo lahko nastavite, ?e potrebujete redne revizije spletnih mest, vendar bodite previdni pri omejitvah URL-jev, odvisno od tega, kateri na?rt izberete.
Obstajajo tudi naprednejše nastavitve za globlje omejitve iskanja po vsebini, izklju?ene URL-je, prepisovanje URL-jev in povratne klice API-jev, toda netehni?nemu uporabniku SEO ni treba nujno priti do njih.
Od tam sem kliknil Za?ni iskanje in nekaj minut pozneje po zaklju?ku iskanja prejel e-poštno sporo?ilo.
Na dokon?ani nadzorni ploš?i za iskanje po vsebini se takoj soo?ite s steno informacij.
?e veste, kaj iš?ete, so na vrhu dvojne iskalne vrstice za iskanje dolo?enega URL-ja ali poro?ila o dolo?enem obmo?ju arhitekture spletnega mesta; to je lahko vse od vsebine telesa in družbenih oznak do neuspelih URL-jev in preusmeritev spletnih mest.
Skupaj je DeepCrawl objavil 175 poro?il na mojih URL-jih - za katere se je v brezpla?nem preskusu izkazalo, da jih je bilo omejenih na nekaj ve? kot 10.000 - in odkril 30 težav s spletnimi mesti ter preiskal šest "ravni" ali povezav globoko z doma?e strani.
Glavna stran nadzorne ploš?e vsebuje raz?lenitev seznama vseh trenutnih težav s spletnim mestom, od koder lahko natan?no dolo?ite URL-je, kjer bo DeepCrawl poudaril napake strani, kot so podvojena vsebina, pokvarjene strani, odve?ne povezave ali strani z naslovi, opisom in metapodatke, ki potrebujejo izboljšanje SEO.
Zraven tega seznama sem našel interaktivno raz?lenitev strani najpogostejših vprašanj med 10.000 iskanimi stranmi.
DeepCrawl je od našega prvotnega pregleda posodobil tudi svoj uporabniški vmesnik (UI), na vsako stran je dodal drobtine, da je lažje krmariti do drugih delov platforme, in dodal razdelek na nadzorni ploš?i, da oceni vse teko?e pajke na enem mestu.
Za svojo domeno sem ugotovil, da ?eprav ni bilo ve?jih težav z 49 odstotki mojih strani (ve?ina jih je primarnih strani), je 30 odstotkov mojih strani pod površino obravnavalo napake strežnika 5xx, pet odstotkov strani ima neuspešnih URL-jev, 16 odstotkov strani pa je bilo "brez indeksacije".
Po mnenju DeepCrawl-a so se napake 5xx verjetno pojavile zaradi blokiranja vidikov iskanja po vsebini spletnega mesta Daxdi ali zaradi prehitrega iskanja, ki bi ga strežnik obvladal.
DeepCrawl je tudi pojasnil, da strani, ozna?ene kot primarne, niso nujno brez težav in jih je še vedno mogo?e pregledati tako, da vklju?ujejo manjkajo?e strani, izklju?ujejo strani z majhno vrednostjo in so ozna?ene s priporo?ili za SEO na strani.
Nekatera druga orodja za pajkanje, ki sem jih preizkusil, med drugim Ahrefs (82,00 na mesec, obra?unano letno na FS.com) in Majestic (49,99 na mesec, obra?unano ?etrtletno na Majestic.com), vam dajejo tudi to vrsto raz?lenitve, vklju?no z osnovnimi težavami na spletnem mestu.
kot tudi indeksiranje povratnih povezav, kar pomeni dohodne hiperpovezave z drugih spletnih mest na vaše.
Kar drugi ne storijo, je poglobiti se do to?ke, ki jo DeepCrawl po?ne, zlasti pri okvarah, kot so strani, ki so zaš?itene z varnejšim protokolom HTTPS v primerjavi s HTTP, kar Google algoritem upošteva pri razvrš?anju strani.
DeepCrawl vam ponuja tudi inteligentne skupine strani (ki jih najdete v naprednih nastavitvah pri nastavitvi pajkanja), kar pomeni, da vaše vzor?enje temelji na odstotku strani in ne na številu.
Grupiranje strani na ta na?in je pomembno, saj vam omogo?a dosledno vzor?enje med pajki.
Pomislite na to kot na znanstveni eksperiment: ?e spletno mesto za e-trgovino preiskuje 20 odstotkov strani izdelkov, bo v naslednjem iskanju Deepcrawl istih 20 odstotkov skeniral za strani, ki so bile dodane, odstranjene, manjkajo?e ali spremenjene znotraj vsako poro?ilo.
S tem se tudi zmanjša ?as in stroški iskanja, saj pajkanje ciljate na dolo?eno podmnožico strani, ki vas zanimajo.
Podobno lahko izvle?ke po meri DeepCrawl vklju?ite ali izklju?ite izbrane parametre.
To je naprednejša funkcija, zasnovana za bolj specializirano pajkanje, da se izostrijo vaša ostrenja.
Podjetje je tudi dodalo Prednastavljeni izvle?ki po meri za netehni?ne uporabnike, saj je za pisanje izvle?kov po meri potrebno znanje jezika regularnih izrazov (Regex).
Napredno poro?anje
Poleg integracije GSC so najpomembnejše izboljšave DeepCrawla njegove zmožnosti poro?anja, za katere je DeepCrawl v zadnjem letu dodal 75 novih poro?il.
Onstran osnov- skupna raba in izvoz poro?il ali dodajanje naloge za to poro?ilo-ti lahko kliknite gumb Skupna raba, da dobite povezavo do tega poro?ila, ki jo je mogo?e deliti z drugimi.
Nato lahko poro?ilo pošljete poljubnemu številu prejemnikov.
Poro?ilo lahko prenesete tudi kot datoteko CSV ali zemljevid mesta XML in poro?ila prilagodite z blagovno znamko po meri.
Funkcija, ki temelji na opravilih, je še posebej uporabna.
DeepCrawl mi je dovolil, da dodam nalogo za dolo?ena poro?ila - v tem primeru seznam napak strežnika 5xx - za ukrepanje v zvezi s to ranljivostjo SEO.
DeepCrawl vam omogo?a, da ne samo razporejate in prilagajate pajkanja, temve? lahko z upraviteljem opravil spremljate napredek in upravljate poteke težav in rokov.
Oznaka dobrega orodja ...








