DeepCrawl a légèrement augmenté son prix depuis que nous l'avons examiné pour la première fois.
L'outil commence maintenant à 89 $ par mois, facturé mois après mois; 81,50 $ lorsque facturé annuellement).
C'est environ 10 $ de plus que ce qu'il en coûtait auparavant, donc cela ne devrait pas être un problème pour la plupart des clients des outils d'optimisation des moteurs de recherche (SEO).
Ce qui pourrait vous déranger, cependant, c'est son objectif de conception: cet outil est destiné à une chose et une seule: l'exploration de sites Web de haut en bas.
Les outils de référencement peuvent généralement être regroupés en trois catégories principales.
Il y a d'abord la recherche de mots clés ad hoc, qui vous aide à trouver les pages de recherche les plus opportunes pour que votre contenu soit mieux classé.
Ensuite, il y a une surveillance continue de la position, qui vous permet de suivre vos positions de recherche pour identifier où vous gagnez et perdez du terrain.
Enfin, il y a l'exploration, dans laquelle les robots Web analysent un seul site Web ou explorent et indexent systématiquement l'intégralité d'Internet.
DeepCrawl ne fait pas de crawl à travers Internet, mais il donnera à votre site Web un "scan complet du corps" SEO aussi complet que possible.
Ce type d'exploration de site en profondeur est utile pour les entreprises de plusieurs manières.
DeepCrawl est un outil pour les utilisateurs novices qui cherchent à mettre en évidence les problèmes du site ou les utilisateurs avancés personnalisant leurs explorations, mais sans aucune restriction d'accès aux données.
L'exploration facilite également la surveillance de la santé du site avec un contexte en temps réel et historique, donnant aux entreprises la possibilité de comparer les analyses d'une année sur l'autre et d'explorer diverses tendances et types de rapports.
Vous devez généralement utiliser une combinaison de plusieurs outils dans les trois catégories de référencement pour la stratégie la plus efficace, et les robots d'exploration de site vous permettent d'identifier les forces et les faiblesses de votre propre site Web et de vos pages de destination.
Les outils SEO du choix des rédacteurs Moz Pro (79,00 par mois, facturé annuellement chez Moz), SpyFu (33,00 par mois, facturé annuellement chez SpyFu) et AWR Cloud ont une bien plus grande profondeur de surveillance des mots-clés et de la position, mais n'en ont pas presque la capacité d'exploration et d'audit du site.
Ainsi, par exemple, si vous avez utilisé l'un des outils de choix des éditeurs ou un produit spécifique à un mot-clé tel que KWFinder.com pour identifier une page de résultats de moteur de recherche cible (SERP) et trouver l'endroit idéal pour le classement de votre contenu, vous exécuteriez alors une analyse DeepCrawl de l'architecture de votre site pour générer des ventilations de page et identifier les problèmes de référencement spécifiques que votre site doit améliorer et résoudre pour que cette page soit classée.
Il en va de même pour déterminer pourquoi votre contenu perd du terrain dans les classements de recherche, tel que suivi dans un outil de surveillance tel que AWR Cloud (49,00 par mois au classement Web avancé) ou pour effectuer une analyse des causes profondes des raisons pour lesquelles votre site a été touché par une recherche Google.
pénalité et comment vous pouvez récupérer.
Tôt ou tard, une stratégie de référencement revient toujours à auditer votre propre site.
C'est le seul et unique travail de DeepCrawl.
Tarifs et plans
Comme indiqué, DeepCrawl commence à 81,50 $ par mois, facturé annuellement (89 $ par mois) pour son plan Starter, qui comprend 100000 URL actives, cinq projets actifs et un accès complet à l'interface de programmation d'application (API).
La plupart des outils de référencement réservent l'accès aux API pour les niveaux d'entreprise, ce qui est un avantage certain pour les utilisateurs de DeepCrawl qui souhaitent une personnalisation plus approfondie sans le prix de l'entreprise.
Un autre changement qui s'est produit depuis la dernière révision de l'outil est que la société a supprimé ses autres plans de tarification.
Pour ceux qui souhaitent s'inscrire en ligne au service, il y a le plan de démarrage et c'est tout.
Des fonctionnalités plus avancées et des options de service accrues sont désormais toutes disponibles dans un seul autre type de plan: le plan d'entreprise.
Il n'y a pas beaucoup de détails ici, mis à part la tarification sur mesure, qui, selon nous, signifie un appel à un représentant de l'entreprise afin qu'il puisse adapter un service et un plan de tarification à vos besoins.
Exploration du site Web
Le processus d'exploration du site dans DeepCrawl commence par une configuration rapide en quatre étapes.
Dans une analyse, vous pouvez inclure jusqu'à cinq sources, plans de site, sites Web, analyses, backlinks et listes d'URL.
L'idée est de faciliter l'identification des lacunes dans l'architecture de votre site, avec des mesures spécifiques que vous ne trouverez pas dans d'autres outils d'exploration tels que les pages orphelines qui génèrent du trafic.
DeepCrawl est conçu pour donner aux utilisateurs un aperçu complet de la santé technique de leur site Web, avec des données et des informations exploitables pour augmenter la visibilité du référencement et transformer le trafic organique en revenus.
Lorsque vous vous inscrivez pour un essai gratuit de DeepCrawl, l'interface vous amène d'abord au tableau de bord du projet.
Pour configurer mon projet de test Daxdi, j'ai entré Daxdi.com comme domaine principal.
La deuxième étape consiste à choisir les sources de données pour l'exploration, qui incluent le site Web lui-même, les plans de site de Daxdi et les analyses auxquelles vous pouvez accéder avec un compte Google Analytics actif.
Vous pouvez également ajouter des paramètres de backlink et de cible d'URL spécifiques dans le domaine (par exemple, si vous avez identifié des pages cibles dans un outil de recherche de mots clés) en téléchargeant des fichiers CSV de backlinks ou de listes d'URL spécifiques.
Il existe également une boîte de dialogue en bas de la page pour regarder un didacticiel vidéo expliquant comment configurer des projets et des analyses DeepCrawl.
La troisième étape vous permet de configurer les paramètres de l'analyse elle-même.
J'ai pu basculer la vitesse d'exploration à n'importe quel endroit d'une URL à 50 URL par seconde.
À partir de là, j'ai eu la possibilité de définir le nombre de "niveaux d'analyse" profonds que l'analyse devrait aller à partir de la page d'accueil de Daxdi, et de définir le nombre maximum d'URL auxquels l'analyse doit s'arrêter.
Mon essai gratuit concernait le plan Starter, mes URL étaient donc limitées à 100 000.
La dernière étape consiste à définir s'il s'agit d'une analyse ponctuelle ou récurrente, qui peut être toutes les heures, tous les jours, toutes les semaines, toutes les deux semaines, tous les mois ou tous les trimestres, avec la possibilité de définir les heures de début et de fin de l'analyse.
Il s'agit d'une fonctionnalité importante à définir si vous avez besoin d'audits de site réguliers, mais soyez prudent avec vos limites d'URL en fonction du plan que vous choisissez.
Il existe également des paramètres plus avancés pour les restrictions d'exploration plus profondes, les URL exclues, la réécriture d'URL et les rappels d'API, mais un utilisateur SEO non technique n'aura pas nécessairement besoin d'entrer dans ceux-ci.
À partir de là, j'ai cliqué sur Démarrer l'exploration et j'ai reçu un e-mail quelques minutes plus tard lorsque l'exploration était terminée.
Dans le tableau de bord d'analyse terminé, vous êtes immédiatement confronté à un mur d'informations.
Si vous savez ce que vous recherchez, il y a deux barres de recherche en haut pour trouver une URL spécifique ou trouver le rapport sur une zone particulière de l'architecture du site; cela peut être n'importe quoi, du contenu du corps et des balises sociales aux URL ayant échoué et aux redirections de sites Web.
En tout, DeepCrawl a produit 175 rapports sur mes URL - qui dans l'essai gratuit se sont avérés plafonnés à un peu plus de 10 000 - et a découvert 30 problèmes de site et a exploré six niveaux ou liens au plus profond de la page d'accueil.
La page principale du tableau de bord fournit une liste de tous les problèmes actuels du site, à partir de laquelle vous pouvez accéder aux URL spécifiques où DeepCrawl mettra en évidence les erreurs de page telles que le contenu en double, les pages rompues, les liens en excès ou les pages avec des titres, une description et métadonnées nécessitant une amélioration du référencement.
À côté de cette liste, j'ai trouvé une page de graphique à secteurs interactive des problèmes les plus courants parmi les plus de 10000 pages explorées.
DeepCrawl a également mis à jour son interface utilisateur (UI) depuis notre examen initial, en ajoutant un fil d'Ariane sur chaque page pour faciliter la navigation vers d'autres parties de la plate-forme et en ajoutant une section de tableau de bord pour évaluer toutes les analyses en cours en un seul endroit.
Pour mon domaine, j'ai constaté que, même s'il n'y avait pas de problèmes majeurs avec 49% de mes pages (la plupart étant des pages primaires), 30% de mes pages sous la surface traitaient des erreurs de serveur 5xx, 5% des pages ont les URL ont échoué et 16% des pages étaient non indexables.
Selon DeepCrawl, les erreurs 5xx sont probablement survenues en raison des aspects de blocage du site Daxdi de l'exploration ou en raison d'une exploration trop rapide pour que le serveur puisse les gérer.
DeepCrawl a également précisé que les pages marquées comme principales ne sont pas nécessairement sans problème et peuvent toujours être examinées pour inclure les pages manquantes, exclure les pages de faible valeur et annotées avec des recommandations de référencement sur la page.
Certains des autres outils d'exploration que j'ai testés, notamment Ahrefs (82,00 par mois, facturé annuellement sur FS.com) et Majestic (49,99 par mois, facturé trimestriellement sur Majestic.com), vous donnent également ce type de ventilation, y compris les problèmes de base du site ainsi que l'indexation des backlinks, c'est-à-dire les hyperliens entrants d'autres sites vers le vôtre.
Ce que les autres ne font pas tout à fait, c'est aller plus loin au point que DeepCrawl le fait, en particulier avec des pannes telles que les pages sécurisées avec le protocole HTTPS plus sécurisé par opposition à HTTP, ce que l'algorithme de Google prend en compte lors du classement des pages.
DeepCrawl vous donne également des regroupements de pages intelligents (que vous pouvez trouver dans les paramètres avancés lors de la configuration d'une analyse), ce qui signifie que votre échantillonnage est basé sur un pourcentage de pages plutôt qu'un nombre.
Regrouper les pages de cette manière est important dans la mesure où cela vous donne un échantillonnage cohérent entre les analyses.
Pensez-y comme une expérience scientifique: si vous êtes un site Web de commerce électronique, explorez 20% de vos pages de produits, dans l'analyse suivante, Deepcrawl analysera les mêmes 20% pour les pages qui ont été ajoutées, supprimées, manquantes ou modifiées dans chaque rapport.
Cela réduit également le temps et le coût de l'exploration, car vous ciblez votre exploration sur le sous-ensemble spécifique de pages qui vous intéresse.
De même, les extractions personnalisées de DeepCrawl peuvent être utilisées pour inclure ou exclure les paramètres de votre choix.
Il s'agit d'une fonctionnalité plus avancée conçue pour une analyse plus spécialisée afin de se concentrer sur vos domaines d'intervention.
La société a également ajouté Extractions personnalisées prédéfinies pour les utilisateurs non techniques, car l'écriture d'extractions personnalisées nécessite la connaissance du langage d'expression régulière (Regex).
Rapports avancés
Outre l'intégration de GSC, les améliorations les plus importantes apportées à DeepCrawl résident dans ses capacités de création de rapports, pour lesquelles DeepCrawl a ajouté 75 nouveaux rapports l'année dernière.
Au-delà des bases: Partage et exportation de rapports, ou ajout d'une tâche pour ce rapport-tu peux cliquez sur le bouton Partager pour obtenir un lien partageable vers ce rapport.
Vous pouvez ensuite envoyer le rapport par e-mail à un nombre illimité de destinataires.
Vous pouvez également télécharger le rapport sous forme de fichier CSV ou de plan de site XML et personnaliser les rapports avec une image de marque personnalisée.
La fonction basée sur les tâches est particulièrement utile.
DeepCrawl m'a permis d'ajouter une tâche pour des rapports spécifiques - dans ce cas, la liste des erreurs de serveur 5xx - pour agir sur cette vulnérabilité SEO.
DeepCrawl vous permet non seulement de planifier et de personnaliser les analyses, mais en utilisant le gestionnaire de tâches, vous pouvez suivre la progression et gérer les flux de travail des problèmes et des délais.








