DeepCrawl, ilk bakt???m?zdan beri fiyat?n? biraz art?rd?.
Araç art?k ayl?k 89 dolardan ba?l?yor ve aydan aya faturaland?r?l?yor; Y?ll?k faturaland?r?ld???nda 81,50 $).
Bu, önceki maliyetinden yakla??k 10 $ daha fazla, bu nedenle ço?u arama motoru optimizasyonu (SEO) arac? mü?terisi için sorun olmamal?.
Bununla birlikte, sizi ?a??rtabilecek ?ey, tasar?m odak noktas?d?r: bu araç yaln?zca bir ?ey ve tek bir ?ey içindir: içten d??a, yukar?dan a?a??ya web sitesi taramas?.
SEO araçlar? genel olarak üç ana kategoriye ayr?labilir.
?lk olarak, içeri?inizin daha üst s?ralarda yer almas? için en uygun arama sayfalar?n? bulman?za yard?mc? olan geçici anahtar kelime ara?t?rmas? var.
Daha sonra, nerede kazand???n?z? ve kaybetti?inizi belirlemek için arama pozisyonlar?n?z? nas?l takip edece?iniz sürekli bir pozisyon izleme var.
Son olarak, web botlar?n?n tek bir web sitesini ayr??t?rd??? veya tüm interneti sistematik olarak taray?p dizine ekledi?i tarama var.
DeepCrawl internet çap?nda taramalar yapmaz, ancak web sitenize alabilece?iniz kadar kapsaml? bir SEO "tam vücut taramas?" verir.
Bu tür bir derin site taramas?, i?letmeler için çe?itli ?ekillerde yararl?d?r.
DeepCrawl, hem site sorunlar?n? vurgulamak isteyen acemi kullan?c?lar hem de taramalar?n? özelle?tiren ileri düzey kullan?c?lar için, ancak veri eri?iminde herhangi bir k?s?tlama olmaks?z?n bir araçt?r.
Tarama ayr?ca, hem gerçek zamanl? hem de geçmi? ba?lamda site sa?l???n?n izlenmesini kolayla?t?r?r ve i?letmelere taramalar? y?ldan y?la kar??la?t?rma ve çe?itli e?ilimleri ve rapor türlerini inceleme olana?? verir.
En etkili strateji için genellikle üç SEO kategorisinde birden fazla arac?n bir kombinasyonunu kullanman?z gerekir ve site taray?c?lar?, kendi web sitenizin ve aç?l?? sayfalar?n?z?n güçlü ve zay?f yönlerini nas?l belirledi?inizdir.
Editörlerin Seçimi SEO araçlar? Moz Pro (Ayda 79.00, Moz'da Y?ll?k Faturaland?r?l?r), SpyFu (Ayda 33.00, SpyFu'da Y?ll?k Faturaland?r?l?r) ve AWR Cloud, çok daha derin bir anahtar kelime ve konum izleme derinli?ine sahiptir, ancak neredeyse yok tarama ve site denetim yetene?i.
Bu nedenle, örne?in Editörlerin Seçimi araçlar?ndan birini veya bir hedef arama motoru sonuç sayfas?n? (SERP) belirlemek ve içeri?inizin s?ralamas? için ideal yeri belirlemek için KWFinder.com gibi anahtar kelimeye özgü bir ürünü kulland?ysan?z, Sayfa dökümü olu?turmak ve sitenizin o sayfan?n s?ralamas? için iyile?tirmesi ve çözmesi gereken belirli SEO sorunlar?n? belirlemek için sitenizin mimarisinin bir DeepCrawl taramas?.
Ayn?s?, içeri?inizin neden AWR Cloud (Geli?mi? Web S?ralamas?nda Ayda 49.00) gibi bir izleme arac?nda izlendi?i gibi arama s?ralamas?nda yer kaybetti?ini bulmak veya sitenize neden bir Google aramas?yla vuruldu?una dair baz? temel neden analizleri yapmak için de geçerlidir.
ceza ve nas?l kurtulabilece?iniz.
Er ya da geç, bir SEO stratejisi her zaman kendi sitenizi denetlemeye geri döner.
Bu DeepCrawl'?n tek ve tek i?idir.
Fiyatland?rma ve Planlar
Belirtildi?i gibi, DeepCrawl, 100.000 aktif URL, be? aktif proje ve ayr?ca tam uygulama programlama arayüzü (API) eri?imi ile birlikte gelen Ba?lang?ç ??plan? için y?ll?k olarak faturaland?r?lan (ayl?k 89 $) ayl?k 81.50 $ 'dan ba?l?yor.
Ço?u SEO arac?, kurumsal katmanlar için API eri?imini ay?r?r; bu, kurumsal fiyat etiketi olmadan daha derin özelle?tirme isteyen DeepCrawl kullan?c?lar? için kesin bir art?d?r.
Arac? son incelememizden bu yana gerçekle?en bir di?er de?i?iklik, ?irketin di?er fiyatland?rma planlar?n? ortadan kald?rmas?d?r.
Hizmete çevrimiçi kaydolmak isteyenler için ba?lang?ç ??plan? var ve hepsi bu.
Daha geli?mi? özellikler ve art?r?lm?? hizmet seçeneklerinin tümü art?k yaln?zca bir ba?ka plan türünde mevcuttur: Kurumsal Plan.
Burada, "Ismarlama" fiyatland?rman?n yan? s?ra, bir ?irket temsilcisinin ihtiyaçlar?n?za göre bir hizmet ve fiyatland?rma plan? haz?rlayabilmeleri için bir telefon görü?mesi anlam?na geldi?ini varsayd???m?z çok fazla ayr?nt? yoktur.
Web Sitesi Taramas?
DeepCrawl'daki site tarama süreci, dört ad?ml? h?zl? bir kurulumla ba?lar.
Herhangi bir taramaya be? adede kadar kaynak, site haritas?, web sitesi, analiz, geri ba?lant? ve URL listesi ekleyebilirsiniz.
Buradaki fikir, Orphaned Pages gibi di?er tarama araçlar?nda bulamayaca??n?z belirli ölçümlerle site mimarinizdeki bo?luklar? belirlemeyi kolayla?t?rmakt?r.
DeepCrawl, SEO görünürlü?ünü art?rmak ve organik trafi?i gelire dönü?türmek için eyleme geçirilebilir veriler ve bilgilerle, kullan?c?lara web sitelerinin teknik sa?l??? hakk?nda eksiksiz bir genel bak?? sa?lamak için tasarlanm??t?r.
Ücretsiz bir DeepCrawl denemesine kaydoldu?unuzda, arayüz önce sizi proje panosuna götürür.
Daxdi Test projemi kurmak için birincil alan ad? olarak Daxdi.com'a girdim.
?kinci ad?m, tarama için web sitesinin kendisini, Daxdi'in site haritalar?n? ve etkin bir Google Analytics hesab?yla eri?ebilece?iniz analizleri içeren veri kaynaklar?n? seçmektir.
Ayr?ca, belirli geri ba?lant?lar?n veya URL listelerinin CSV dosyalar?n? yükleyerek etki alan? içinde belirli geri ba?lant? ve URL hedef parametreleri ekleyebilirsiniz (örne?in, bir anahtar kelime ara?t?rma arac?nda hedef sayfalar? tan?mlad?ysan?z).
Ayr?ca, DeepCrawl projelerinin ve taramalar?n?n nas?l ayarlanaca??na ili?kin bir video e?itimini izlemek için sayfan?n alt?nda bir aç?l?r kutu da vard?r.
Üçüncü ad?m, taraman?n kendisi için parametreleri ayarlaman?za izin verir.
Tarama h?z?n? saniyede bir URL'den 50 URL'ye herhangi bir yere de?i?tirebildim.
Oradan, taraman?n Daxdi ana sayfas?ndan kaç "tarama düzeyi" derinli?ine gidece?ini ve taraman?n durmas? gereken maksimum URL say?s?n? belirleme seçene?im vard?.
Ücretsiz denemem Ba?lang?ç ??plan? içindi, bu nedenle URL'lerim 100.000 ile s?n?rland?r?ld?.
Son ad?m, bunun tek seferlik mi yoksa yinelenen bir tarama m? olaca??n? belirlemektir; bu, taraman?n ba?lang?ç ??ve biti? zamanlar?n? ayarlama seçene?iyle birlikte saatlik, günlük, haftal?k, iki haftal?k, ayl?k veya üç ayl?k olabilir.
Bu, düzenli site denetimlerine ihtiyac?n?z varsa ayarlaman?z gereken önemli bir özelliktir, ancak seçti?iniz plana ba?l? olarak URL s?n?rlar?n?za dikkat edin.
Daha derin tarama k?s?tlamalar?, hariç tutulan URL'ler, URL yeniden yazma ve API geri aramalar? için daha geli?mi? ayarlar da vard?r, ancak teknik olmayan bir SEO kullan?c?s?n?n bunlara girmesi gerekmeyecektir.
Oradan Taramay? Ba?lat'? t?klad?m ve birkaç dakika sonra tarama tamamland???nda bir e-posta ald?m.
Tamamlanan tarama kontrol panelinde, hemen bir bilgi duvar?yla kar??la??rs?n?z.
Ne arad???n?z? biliyorsan?z, belirli bir URL'yi bulmak veya site mimarisinin belirli bir alan?yla ilgili raporu bulmak için en üstte ikili arama çubuklar? vard?r; bu, vücut içeri?i ve sosyal etiketlerden ba?ar?s?z URL'lere ve web sitesi yönlendirmelerine kadar her ?ey olabilir.
DeepCrawl toplamda URL'lerim üzerinde 175 rapor çal??t?rd? - ücretsiz denemede 10.000'in biraz üzerinde s?n?rlanm??t? - ve 30 site sorunu ke?fetti ve ana sayfan?n alt? "düzey" ini veya ba?lant?s?n? tarad?.
Ana gösterge tablosu sayfas?, DeepCrawl'?n yinelenen içerik, bozuk sayfalar, fazla ba?lant?lar veya ba?l?klar?, aç?klamalar? olan sayfalar gibi sayfa hatalar?n? vurgulayaca?? belirli URL'lere gidebilece?iniz tüm mevcut site sorunlar?n?n bir liste dökümünü sa?lar.
SEO iyile?tirmesine ihtiyaç duyan meta veriler.
Bu listenin yan?nda, taranan 10.000'den fazla sayfa aras?nda en yayg?n sorunlar?n etkile?imli bir pasta grafik sayfas? dökümünü buldum.
DeepCrawl, ilk incelememizden bu yana kullan?c? arayüzünü (UI) de güncelledi, platformun di?er bölümlerine gitmeyi kolayla?t?rmak için her sayfaya ekmek k?r?nt?lar? ekledi ve tüm çal??an taramalar? tek bir yerde de?erlendirmek için bir gösterge panosu bölümü ekledi.
Etki alan?m için, sayfalar?m?n yüzde 49'unda (ço?u "birincil" sayfalarda) önemli bir sorun olmamas?na ra?men, yüzeyin alt?ndaki sayfalar?m?n yüzde 30'unun 5xx sunucu hatalar?yla u?ra?t???n?, sayfalar?n yüzde be?inin ba?ar?s?z URL'ler ve sayfalar?n yüzde 16's? "dizine eklenemez".
DeepCrawl'a göre, 5xx hatalar? büyük olas?l?kla Daxdi sitesi taraman?n yönlerini engellemesinden veya sunucunun i?leyemeyece?i kadar h?zl? gezinmesinden kaynaklan?yordu.
DeepCrawl ayr?ca, birincil olarak i?aretlenen sayfalar?n mutlaka sorunsuz olmad???n? ve eksik sayfalar? içerecek, dü?ük de?erli sayfalar? hariç tutacak ve sayfa içi SEO önerileriyle aç?klanacak ?ekilde gözden geçirilebilece?ini aç?klad?.
Ahrefs (Ayda 82.00, FS.com'da Y?ll?k Faturaland?r?l?r) ve Majestic (Ayda 49.99, Majestic.com'da Üç Ayl?k Faturaland?r?l?r) dahil olmak üzere test etti?im di?er tarama araçlar?ndan baz?lar? da size temel site sorunlar? da dahil olmak üzere bu tür bir döküm veriyor ve geri ba?lant? indeksleme, yani di?er sitelerden sizinkine gelen köprüler.
Di?erlerinin tam olarak yapmad??? ?ey, DeepCrawl'?n yapt??? noktay?, özellikle HTTP'nin aksine daha güvenli HTTPS protokolü ile güvence alt?na al?nan sayfalar gibi ar?zalarda, Google algoritmas?n?n sayfalar? s?ralarken dikkate ald??? bir ?eyi daha derinlemesine ara?t?rmakt?r.
DeepCrawl ayr?ca size ak?ll? Sayfa Gruplamalar? (bir tarama ayarlarken Geli?mi? Ayarlar'da bulabilece?iniz) sa?lar, yani örneklemenizin bir say?dan ziyade sayfalar?n yüzdesine dayand??? anlam?na gelir.
Sayfalar? bu ?ekilde gruplamak, taramalar aras?nda tutarl? bir örnekleme sa?lamas? aç?s?ndan önemlidir.
Bunu bilimsel bir deney gibi dü?ünün: Bir e-ticaret web sitesiyseniz, ürün sayfalar?n?z?n yüzde 20'sini tar?yorsan?z, a?a??daki taramada Deepcrawl, içinde eklenen, kald?r?lan, eksik veya de?i?tirilen sayfalar için ayn? yüzde 20'yi tarayacakt?r.
her rapor.
Bu ayr?ca, taraman?z? ilgilendi?iniz belirli sayfa alt kümesine hedefledi?iniz için tarama süresini ve maliyetini de azalt?r.
Benzer ?ekilde, DeepCrawl'?n Özel Ekstraksiyonlar?, seçti?iniz parametreleri dahil etmek veya hariç tutmak için kullan?labilir.
Bu, odak alanlar?n?za odaklanmak için daha özel bir tarama için tasarlanm?? daha geli?mi? bir özelliktir.
?irket ayr?ca ekledi Özel ç?kar?mlar yazmak normal ifade dili (Regex) bilgisi gerektirdi?inden, teknik olmayan kullan?c?lar için önceden belirlenmi? Özel Ay?klamalar.
Geli?mi? Raporlama
GSC entegrasyonunun yan? s?ra, DeepCrawl'daki en önemli iyile?tirmeler, DeepCrawl'?n geçen y?l 75 yeni rapor eklemi? oldu?u raporlama yetenekleridir.
Temellerden öte- raporlar? payla?ma ve d??a aktarma veya bu rapor için bir görev ekleme-yapabilirsin Bu raporun payla??labilir bir ba?lant?s?n? almak için Payla? dü?mesini t?klay?n.
Daha sonra raporu istedi?iniz say?da al?c?ya e-postayla gönderebilirsiniz.
Raporu ayr?ca bir CSV dosyas? veya XML site haritas? olarak indirebilir ve raporlar? özel markalama ile özelle?tirebilirsiniz.
Göreve dayal? özellik özellikle kullan??l?d?r.
DeepCrawl, belirli raporlar için bir görev eklememe izin verdi - bu durumda, 5xx sunucu hatalar? listesi - söz konusu SEO güvenlik aç???yla ilgili i?lem yapmam için.
DeepCrawl, yaln?zca taramalar? planlaman?za ve özelle?tirmenize de?il, ayn? zamanda Görev Yöneticisini kullanarak ilerlemeyi takip edebilir ve sorunu ve son tarih i? ak??lar?n? yönetebilirsiniz.?yi bir arac?n i?areti ...








