DeepCrawl hat seinen Preis etwas erhöht, seit wir ihn uns zum ersten Mal angesehen haben.
Das Tool beginnt jetzt bei 89 US-Dollar pro Monat und wird von Monat zu Monat in Rechnung gestellt.
81,50 USD bei jährlicher Abrechnung).
Das sind ungefähr 10 US-Dollar mehr als bisher, daher sollte es für die meisten Kunden von Suchmaschinenoptimierungstools (SEO) kein Problem sein.
Was Sie jedoch möglicherweise stören könnte, ist der Designfokus: Dieses Tool ist nur für eine Sache gedacht: das Crawlen von Websites von innen nach außen und von oben nach unten.
SEO-Tools können im Allgemeinen in drei Hauptkategorien eingeteilt werden.
Zunächst gibt es eine Ad-hoc-Keyword-Recherche, mit deren Hilfe Sie die am besten geeigneten Suchseiten für Ihre Inhalte finden können, um einen höheren Rang zu erreichen.
Als nächstes gibt es eine fortlaufende Positionsüberwachung, mit der Sie Ihre Suchpositionen verfolgen, um festzustellen, wo Sie an Boden gewinnen und verlieren.
Schließlich gibt es ein Crawlen, bei dem Web-Bots entweder eine einzelne Website analysieren oder das gesamte Internet systematisch crawlen und indizieren.
DeepCrawl führt keine internetweiten Crawls durch, bietet Ihrer Website jedoch einen so umfassenden SEO-Ganzkörper-Scan wie möglich.
Diese Art des tiefen Site-Crawls ist für Unternehmen in vielerlei Hinsicht nützlich.
DeepCrawl ist ein Tool für Anfänger, die Site-Probleme hervorheben möchten, oder für fortgeschrittene Benutzer, die ihre Crawls anpassen, jedoch ohne Einschränkungen beim Datenzugriff.
Durch das Crawlen wird auch die Überwachung des Site-Zustands sowohl in Echtzeit als auch im historischen Kontext vereinfacht, sodass Unternehmen die Möglichkeit haben, Crawls Jahr für Jahr zu vergleichen und verschiedene Trends und Berichtstypen zu analysieren.
Im Allgemeinen müssen Sie eine Kombination aus mehreren Tools in den drei Kategorien von SEO verwenden, um die effektivste Strategie zu erzielen.
Mit Website-Crawlern können Sie die Stärken und Schwächen Ihrer eigenen Website und Zielseiten identifizieren.
SEO-Tools von Editors 'Choice Moz Pro (79,00 pro Monat, jährlich bei Moz abgerechnet), SpyFu (33,00 pro Monat, jährlich bei SpyFu abgerechnet) und AWR Cloud bieten eine weitaus größere Tiefe der Keyword- und Positionsüberwachung, jedoch nicht annähernd die Crawling- und Site-Audit-Funktion.
Wenn Sie beispielsweise eines der Editors 'Choice-Tools oder ein schlüsselwortspezifisches Produkt wie KWFinder.com verwendet haben, um eine Zielsuchmaschinen-Ergebnisseite (SERP) zu identifizieren und den für Ihre Inhalte idealen Platz zu finden, werden Sie ausgeführt Ein DeepCrawl-Scan der Architektur Ihrer Website, um Seitenaufschlüsselungen zu generieren und die spezifischen SEO-Probleme zu identifizieren, die Ihre Website verbessern und lösen muss, damit diese Seite einen Rang erhält.
Gleiches gilt für die Ermittlung, warum Ihre Inhalte in Suchrankings an Boden verlieren, wie dies in einem Überwachungstool wie AWR Cloud (49,00 pro Monat bei Advanced Web Ranking) erfasst wird, oder für die Durchführung einer Ursachenanalyse, warum Ihre Website von einer Google-Suche betroffen war Strafe und wie Sie sich erholen können.
Früher oder später kommt eine SEO-Strategie immer wieder auf die Prüfung Ihrer eigenen Website zurück.
Das ist DeepCrawls einziger Job.
Preise und Pläne
Wie bereits erwähnt, beginnt DeepCrawl bei 81,50 USD pro Monat und wird jährlich (89 USD von Monat zu Monat) für seinen Starter-Plan in Rechnung gestellt, der 100.000 aktive URLs, fünf aktive Projekte sowie vollständigen API-Zugriff (Application Programming Interface) enthält.
Die meisten SEO-Tools reservieren den API-Zugriff für Unternehmensebenen.
Dies ist ein klares Plus für DeepCrawl-Benutzer, die eine tiefere Anpassung ohne das Unternehmenspreisschild wünschen.
Eine weitere Änderung, die seit der letzten Überprüfung des Tools vorgenommen wurde, besteht darin, dass das Unternehmen seine anderen Preispläne abgeschafft hat.
Für diejenigen, die sich online für den Service anmelden möchten, gibt es den Starterplan und das wars.
Erweiterte Funktionen und erweiterte Serviceoptionen sind jetzt nur noch in einem anderen Plan verfügbar: dem Unternehmensplan.
Abgesehen von der "maßgeschneiderten" Preisgestaltung gibt es hier nicht viele Details.
Wir gehen davon aus, dass dies einen Anruf bei einem Unternehmensvertreter bedeutet, damit dieser einen Service- und Preisplan an Ihre Bedürfnisse anpassen kann.
Website-Crawlen
Der Site-Crawling-Prozess in DeepCrawl beginnt mit einer schnellen Einrichtung in vier Schritten.
In jedem Crawl können Sie bis zu fünf Quellen, Sitemaps, Websites, Analysen, Backlinks und URL-Listen einschließen.
Die Idee ist, es einfach zu machen, Lücken in Ihrer Site-Architektur zu identifizieren, mit bestimmten Metriken, die Sie in anderen Crawling-Tools wie verwaisten Seiten, die den Datenverkehr fördern, nicht finden.
DeepCrawl wurde entwickelt, um Benutzern einen vollständigen Überblick über den technischen Zustand ihrer Website zu geben, mit verwertbaren Daten und Erkenntnissen, um die SEO-Sichtbarkeit zu erhöhen und organischen Traffic in Umsatz umzuwandeln.
Wenn Sie sich für eine kostenlose DeepCrawl-Testversion anmelden, gelangen Sie über die Benutzeroberfläche zunächst zum Projekt-Dashboard.
Um mein Daxdi-Testprojekt einzurichten, habe ich Daxdi.com als primäre Domain eingegeben.
Schritt zwei besteht darin, Datenquellen für das Crawlen auszuwählen, darunter die Website selbst, die Sitemaps von Daxdi und Analysen, auf die Sie mit einem aktiven Google Analytics-Konto zugreifen können.
Sie können auch bestimmte Backlink- und URL-Zielparameter innerhalb der Domain hinzufügen (z.
B.
wenn Sie Zielseiten in einem Keyword-Recherche-Tool identifiziert haben), indem Sie CSV-Dateien mit bestimmten Backlinks oder URL-Listen hochladen.
Am unteren Rand der Seite befindet sich außerdem ein Popup-Fenster, in dem Sie ein Video-Tutorial zum Einrichten von DeepCrawl-Projekten und -Crawls ansehen können.
In Schritt drei können Sie die Parameter für das Crawlen selbst einrichten.
Ich konnte die Crawling-Geschwindigkeit von einer URL auf 50 URLs pro Sekunde umschalten.
Von dort aus hatte ich die Möglichkeit festzulegen, wie viele "Crawling-Ebenen" der Scan von der Daxdi-Homepage entfernt sein soll, und die maximale Anzahl von URLs festzulegen, bei denen das Crawlen gestoppt werden soll.
Meine kostenlose Testversion war für den Starter-Plan, daher waren meine URLs auf 100.000 begrenzt.
Der letzte Schritt besteht darin, festzulegen, ob es sich um eine einmalige oder eine wiederkehrende Durchforstung handelt, die stündlich, täglich, wöchentlich, zweiwöchentlich, monatlich oder vierteljährlich erfolgen kann.
Sie können auch die Start- und Endzeiten für die Durchforstung festlegen.
Dies ist eine wichtige Funktion, die Sie festlegen müssen, wenn Sie regelmäßige Site-Audits benötigen.
Achten Sie jedoch auf Ihre URL-Grenzwerte, je nachdem, welchen Plan Sie auswählen.
Es gibt auch erweiterte Einstellungen für tiefere Crawling-Einschränkungen, ausgeschlossene URLs, URL-Umschreibungen und API-Rückrufe, aber ein nicht-technischer SEO-Benutzer muss nicht unbedingt darauf zugreifen.
Von dort aus klickte ich auf Crawl starten und erhielt einige Minuten später eine E-Mail, als der Crawl abgeschlossen war.
Im fertigen Crawl-Dashboard werden Sie sofort mit einer Informationswand konfrontiert.
Wenn Sie wissen, wonach Sie suchen, finden Sie oben zwei Suchleisten, mit denen Sie eine bestimmte URL oder den Bericht zu einem bestimmten Bereich der Site-Architektur finden können.
Dies kann alles sein, von Körperinhalten und sozialen Tags bis hin zu fehlgeschlagenen URLs und Website-Weiterleitungen.
Insgesamt führte DeepCrawl 175 Berichte über meine URLs aus, die sich in der kostenlosen Testversion auf etwas mehr als 10.000 beschränkten.
Dabei wurden 30 Site-Probleme festgestellt und sechs "Ebenen" oder Links tief von der Startseite gecrawlt.
Die Haupt-Dashboard-Seite enthält eine Auflistung aller aktuellen Site-Probleme, von der aus Sie einen Drilldown zu den spezifischen URLs durchführen können, unter denen DeepCrawl Seitenfehler wie doppelten Inhalt, fehlerhafte Seiten, überschüssige Links oder Seiten mit Titeln, Beschreibung und Metadaten, die einer SEO-Verbesserung bedürfen.
Neben dieser Liste fand ich eine interaktive Aufschlüsselung der Tortendiagrammseiten der häufigsten Probleme unter den über 10.000 gecrawlten Seiten.
DeepCrawl hat seit unserer ersten Überprüfung auch die Benutzeroberfläche aktualisiert.
Auf jeder Seite wurden Breadcrumbs hinzugefügt, um die Navigation zu anderen Teilen der Plattform zu vereinfachen, und ein Dashboard-Abschnitt hinzugefügt, um alle laufenden Crawls an einem Ort zu bewerten.
Bei meiner Domain stellte ich fest, dass 49 Prozent meiner Seiten (die meisten davon "primäre" Seiten) keine größeren Probleme aufwiesen, 30 Prozent meiner Seiten unter der Oberfläche jedoch 5xx Serverfehler aufwiesen, fünf Prozent der Seiten Fehlgeschlagene URLs und 16 Prozent der Seiten waren "nicht indizierbar".
Laut DeepCrawl sind die 5xx-Fehler wahrscheinlich darauf zurückzuführen, dass die Daxdi-Site Aspekte des Crawls blockiert oder dass das Crawlen zu schnell ist, als dass der Server es verarbeiten könnte.
DeepCrawl hat außerdem klargestellt, dass als primär gekennzeichnete Seiten nicht unbedingt problemlos sind und dennoch überprüft werden können, um fehlende Seiten einzuschließen, Seiten mit geringem Wert auszuschließen und mit On-Page-SEO-Empfehlungen versehen zu werden.
Einige der anderen von mir getesteten Crawling-Tools, darunter Ahrefs (82,00 pro Monat, jährlich bei FS.com abgerechnet) und Majestic (49,99 pro Monat, vierteljährlich bei Majestic.com abgerechnet), bieten Ihnen diese Art der Aufschlüsselung, einschließlich grundlegender Probleme mit der Website sowie Backlink-Indizierung, dh die eingehenden Hyperlinks von anderen Websites zu Ihren.
Was die anderen nicht ganz tun, ist, tiefer in den Punkt einzutauchen, den DeepCrawl tut, insbesondere bei Ausfällen wie den Seiten, die mit dem sichereren HTTPS-Protokoll im Gegensatz zu HTTP gesichert sind, was der Google-Algorithmus beim Ranking von Seiten berücksichtigt.
DeepCrawl bietet Ihnen auch intelligente Seitengruppierungen (die Sie beim Einrichten eines Crawls in den erweiterten Einstellungen finden), was bedeutet, dass Ihre Stichprobe auf einem Prozentsatz von Seiten und nicht auf einer Zahl basiert.
Das Gruppieren von Seiten auf diese Weise ist wichtig, damit Sie eine konsistente Stichprobe über Crawls hinweg erhalten.
Stellen Sie sich das wie ein wissenschaftliches Experiment vor: Wenn Sie als E-Commerce-Website 20 Prozent Ihrer Produktseiten crawlen, scannt Deepcrawl beim folgenden Crawlen dieselben 20 Prozent nach Seiten, die hinzugefügt, entfernt, fehlen oder geändert wurden jeder Bericht.
Dies reduziert auch die Zeit und die Kosten für das Crawlen, da Sie das Crawlen auf die bestimmte Teilmenge der Seiten ausrichten, an denen Sie interessiert sind.
Ebenso können die benutzerdefinierten Extraktionen von DeepCrawl verwendet werden, um die Parameter Ihrer Wahl ein- oder auszuschließen.
Dies ist eine erweiterte Funktion, die für ein spezialisierteres Crawlen entwickelt wurde, um Ihre Fokusbereiche zu verbessern.
Das Unternehmen hat auch hinzugefügt Voreingestellte benutzerdefinierte Extraktionen für nicht technische Benutzer, da für das Schreiben benutzerdefinierter Extraktionen Kenntnisse der Sprache für reguläre Ausdrücke (Regex) erforderlich sind.
Erweiterte Berichterstellung
Abgesehen von der GSC-Integration sind die wichtigsten Verbesserungen von DeepCrawl die Berichtsfunktionen, für die DeepCrawl im vergangenen Jahr 75 neue Berichte hinzugefügt hat.
Über die Grundlagen hinausgehend- Teilen und Exportieren von Berichten oder Hinzufügen einer Aufgabe für diesen Bericht-Sie können Klicken Sie auf die Schaltfläche Freigeben, um einen gemeinsam nutzbaren Link zu diesem Bericht zu erhalten.
Sie können den Bericht dann per E-Mail an eine beliebige Anzahl von Empfängern senden.
Sie können den Bericht auch als CSV-Datei oder XML-Sitemap herunterladen und Berichte mit benutzerdefiniertem Branding anpassen.
Die aufgabenbasierte Funktion ist besonders nützlich.
Mit DeepCrawl konnte ich eine Aufgabe für bestimmte Berichte hinzufügen - in diesem Fall die Liste der 5xx-Serverfehler -, um Maßnahmen gegen diese SEO-Sicherheitsanfälligkeit zu ergreifen.
Mit DeepCrawl können Sie nicht nur Crawls planen und anpassen, sondern mit dem Task-Manager auch den Fortschritt verfolgen und Problem- und Termin-Workflows verwalten.
Das Kennzeichen eines guten Tools ...








