Daxdi now accepts payments with Bitcoin

Granskning av DeepCrawl | Daxdi

DeepCrawl har höjt sitt pris lite sedan vi först tittade på det.

Verktyget börjar nu på $ 89 per månad, faktureras månad till månad; $ 81,50 vid fakturering årligen).

Det är ungefär $ 10 mer än vad det kostade tidigare, så det borde inte vara ett problem för de flesta sökmotoroptimeringskunder (SEO).

Vad som kan kasta dig är emellertid dess designfokus: det här verktyget är avsett för en sak och en sak: inifrån och ut, topp-till-botten webbplatsgenomsökning.

SEO-verktyg kan vanligtvis grupperas i tre huvudkategorier.

Först finns det ad hoc-sökordsforskning, som hjälper dig att hitta de mest lämpliga söksidorna för att ditt innehåll ska rankas högre.

Därefter pågår positionsövervakning, vilket är hur du håller reda på dina sökpositioner för att identifiera var du vinner och tappar mark.

Slutligen finns det genomsökning, där webbbots analyserar antingen en enda webbplats eller systematiskt genomsöker och indexerar hela internet.

DeepCrawl gör inte genomsökningar över hela världen men det kommer att ge din webbplats ungefär så omfattande en SEO "helkroppssökning" som du kan få.

Denna typ av djupgående genomsökning är användbar för företag på ett antal sätt.

DeepCrawl är ett verktyg för både nybörjare som vill markera webbplatsproblem eller avancerade användare som anpassar sina genomsökningar, men utan några begränsningar för datatillgång.

Genomsökning gör det också lättare att övervaka webbplatsens hälsa med både realtids- och historiskt sammanhang, vilket ger företag möjlighet att jämföra genomsökningar jämfört med året innan och gå igenom olika trender och rapporttyper.

Du behöver i allmänhet använda en kombination av flera verktyg i de tre kategorierna SEO för den mest effektiva strategin, och webbplatsrobotar är hur du identifierar styrkor och svagheter på din egen webbplats och målsidor.

Editors Choice SEO-verktyg Moz Pro (79,00 per månad, faktureras årligen på Moz), SpyFu (33,00 per månad, faktureras årligen på SpyFu) och AWR Cloud har ett mycket större djup av nyckelord och positionsövervakning, men har inte nästan kapacitet för genomsökning och webbplatsgranskning.

Så om du till exempel använde ett av Editors 'Choice-verktyg eller en nyckelordsspecifik produkt som KWFinder.com för att identifiera en målsökresultatsida (SERP) och hitta perfekt för ditt innehåll att ranka, skulle du sedan köra en DeepCrawl-genomsökning av webbplatsens arkitektur för att generera sidfördelningar och identifiera de specifika SEO-frågor som din webbplats behöver för att förbättra och lösa för att sidan ska rankas.

Detsamma gäller för att ta reda på varför ditt innehåll tappar mark i sökrankningar som spåras i ett övervakningsverktyg som AWR Cloud (49,00 per månad vid Advanced Web Ranking) eller genomföra en grundläggande analys av varför din webbplats träffades med en Google-sökning straff och hur du kan återhämta dig.

Förr eller senare kommer en SEO-strategi alltid tillbaka till att granska din egen webbplats.

Det är DeepCrawls enda jobb.

Prissättning och planer

Som nämnts börjar DeepCrawl på $ 81,50 per månad, faktureras årligen ($ 89 månad till månad) för sin startplan, som kommer med 100 000 aktiva webbadresser, fem aktiva projekt plus fullständig API-åtkomst (Application Programming Interface).

De flesta SEO-verktyg reserverar API-åtkomst för företagsnivåer, vilket är ett definitivt plus för DeepCrawl-användare som vill ha djupare anpassning utan företagets prislapp.

En annan förändring som har hänt sedan vi senast granskade verktyget är att företaget har gjort bort sina andra prissättningsplaner.

För dem som vill registrera sig online för tjänsten finns startplanen och det är det.

Mer avancerade funktioner och ökade servicealternativ finns nu bara tillgängliga i en annan plantyp: Företagsplanen.

Det finns inte mycket detaljer här, förutom "Skräddarsydd" prissättning, vilket vi antar betyder ett samtal till en företagsrepresentant så att de kan skräddarsy en service- och prissättningsplan efter dina behov.

Webbplatsgenomsökning

Webbplatsens genomsökningsprocess i DeepCrawl börjar med en snabb installation i fyra steg.

I varje genomsökning kan du inkludera upp till fem källor, webbplatskartor, webbplatser, analyser, bakåtlänkar och URL-listor.

Tanken är att göra det enkelt att identifiera luckor i din webbplatsarkitektur, med specifika mätvärden som du inte hittar i andra genomsökningsverktyg som Orphaned Pages Driving Traffic.

DeepCrawl är utformat för att ge användarna en fullständig överblick över deras webbplats tekniska hälsa, med användbar data och insikter för att öka SEO-synligheten och förvandla organisk trafik till intäkter.

När du registrerar dig för en gratis DeepCrawl-testversion tar gränssnittet dig först till projektets instrumentpanel.

För att ställa in mitt Daxdi-testprojekt angav jag Daxdi.com som den primära domänen.

Steg två är att välja datakällor för genomsökningen, som inkluderar själva webbplatsen, PCMags webbplatskartor och analys som du kan komma åt med ett aktivt Google Analytics-konto.

Du kan också lägga till specifika parametrar för bakåtlänk och URL-mål inom domänen (till exempel om du har identifierat målsidor i ett sökordsverktyg) genom att ladda upp CSV-filer med specifika bakåtlänkar eller URL-listor.

Det finns också en popup-ruta längst ner på sidan för att titta på en videohandledning för hur du ställer in DeepCrawl-projekt och genomsökningar.

Steg tre låter dig ställa in parametrarna för själva genomsökningen.

Jag kunde växla genomsökningshastigheten till var som helst från en webbadress till 50 webbadresser per sekund.

Därifrån hade jag möjlighet att ställa in hur många "genomsökningsnivåer" djupt genomsökningen skulle gå från Daxdi-hemsidan och ställa in det maximala antalet webbadresser som genomsökningen skulle stoppa.

Min gratis provperiod var för startplanen, så mina webbadresser var begränsade till 100 000.

Det sista steget är att ställa in om detta kommer att vara en engångs- eller en återkommande genomsökning, som kan vara timme, dagligen, veckovis, två veckor, månadsvis eller kvartalsvis, med möjlighet att ställa in start- och sluttider för genomsökningen.

Detta är en viktig funktion att ställa in om du behöver regelbundna webbplatsgranskningar men var försiktig med dina webbadressgränser beroende på vilken plan du väljer.

Det finns också mer avancerade inställningar för djupare genomsökningsbegränsningar, uteslutna webbadresser, URL-omskrivning och API-återuppringningar, men en icke-teknisk SEO-användare behöver inte nödvändigtvis komma in i dem.

Därifrån klickade jag på Starta genomsökning och fick ett e-postmeddelande några minuter senare när genomsökningen var klar.

I den färdiga genomsökningspanelen står du omedelbart inför en informationsvägg.

Om du vet vad du letar efter finns det dubbla sökfält högst upp för att hitta en specifik URL eller hitta rapporten om ett visst område i webbplatsarkitekturen; det kan vara allt från kroppsinnehåll och sociala taggar till misslyckade webbadresser och omdirigeringar av webbplatser.

Sammantaget körde DeepCrawl 175 rapporter på mina webbadresser - som i den kostnadsfria testperioden visade sig vara begränsade till drygt 10 000 - och upptäckte 30 webbplatsproblem och genomsökte sex "nivåer" eller länkar djupt från hemsidan.

Huvudsidan för instrumentpanelen ger en lista över alla aktuella webbplatsproblem, där du kan gå ner till de specifika webbadresserna där DeepCrawl kommer att markera sidfel som duplicerat innehåll, trasiga sidor, överflödiga länkar eller sidor med titlar, beskrivning och metadata som behöver SEO-förbättring.

Bredvid listan hittade jag en interaktiv cirkeldiagramfördelning av de vanligaste problemen bland de 10 000+ genomsökta sidorna.

DeepCrawl har också uppdaterat sitt användargränssnitt (UI) sedan vår första granskning, genom att lägga till brödsmulor över varje sida för att göra det lättare att navigera till andra delar av plattformen och lägga till en instrumentpanelsektion för att bedöma alla löpande genomsökningar på ett ställe.

För min domän fann jag att även om det inte fanns några större problem med 49 procent av mina sidor (de flesta av dem "primära" sidor) hade 30 procent av mina sidor under ytan 5xx-serverfel, fem procent av sidorna har misslyckade webbadresser och 16 procent av sidorna var "icke-indexerbara." Enligt DeepCrawl inträffade 5xx-felen troligtvis på grund av att Daxdi-webbplatsen blockerade aspekter av genomsökningen eller på grund av krypning för snabbt för att servern skulle kunna hantera.

DeepCrawl har också förtydligat att sidor som flaggats som primära inte nödvändigtvis är problemfria och fortfarande kan granskas för att inkludera sidor som saknas, utesluta sidor med lågt värde och kommenteras med SEO-rekommendationer på sidan.

Några av de andra genomsökningsverktygen jag testade, inklusive Ahrefs (82,00 per månad, faktureras årligen på FS.com) och Majestic (49,99 per månad, faktureras kvartalsvis på Majestic.com), ger dig också denna typ av uppdelning, inklusive grundläggande webbplatsproblem samt indexering av bakåtlänkar, vilket betyder inkommande hyperlänkar från andra webbplatser till din.

Vad de andra inte riktigt gör är att gräva djupare till den punkt som DeepCrawl gör, särskilt med uppdelningar som sidorna som är säkrade med det säkrare HTTPS-protokollet i motsats till HTTP, något som Google-algoritmen tar hänsyn till när de rankar sidor.

DeepCrawl ger dig också intelligenta sidgrupperingar (som du hittar i avancerade inställningar när du ställer in en genomsökning), vilket innebär att ditt urval baseras på en procentandel av sidor snarare än ett nummer.

Att gruppera sidor på det här sättet är viktigt eftersom det ger dig ett konsekvent urval över genomsökningar.

Tänk på det som ett vetenskapligt experiment: om du är en e-handelswebbplats genomsöker 20 procent av dina produktsidor, i följande genomsökning kommer Deepcrawl att skanna samma 20 procent för sidor som har lagts till, tagits bort, saknas eller ändrats inom varje rapport.

Detta minskar också genomsökningstid och -kostnad, eftersom du riktar genomsökningen till den specifika delmängden av sidor som du är intresserad av.

På samma sätt kan DeepCrawls anpassade extraktioner användas för att inkludera eller utesluta de parametrar du väljer.

Detta är en mer avancerad funktion utformad för mer specialiserad genomsökning för att finslipa dina fokusområden.

Företaget har också lagt till Förinställda anpassade extraktioner för icke-tekniska användare, eftersom skrivning av anpassade extraktioner kräver kunskap om reguljära uttrycksspråk (Regex).

Avancerad rapportering

Bortsett från GSC-integrationen finns de mest framstående förbättringarna av DeepCrawl i dess rapporteringsfunktioner, för vilka DeepCrawl har lagt till 75 nya rapporter under det senaste året.

Utöver grunderna—Dela och exportera rapporter, eller lägga till en uppgift för den rapporten-du kan klicka på knappen Dela för att få en delbar länk till den rapporten.

Du kan sedan skicka rapporten till valfritt antal mottagare.

Du kan också ladda ner rapporten som en CSV-fil eller en XML-webbplatskarta och anpassa rapporter med anpassat varumärke.

Den uppgiftsbaserade funktionen är särskilt användbar.

DeepCrawl tillät mig att lägga till en uppgift för specifika rapporter - i det här fallet listan över 5xx-serverfel - för att vidta åtgärder mot den SEO-sårbarheten.

Med DeepCrawl kan du inte bara schemalägga och anpassa genomsökningar, utan med hjälp av Aktivitetshanteraren kan du spåra framsteg och hantera problem och deadline-arbetsflöden.

Märket för ett bra verktyg ...

DeepCrawl har höjt sitt pris lite sedan vi först tittade på det.

Verktyget börjar nu på $ 89 per månad, faktureras månad till månad; $ 81,50 vid fakturering årligen).

Det är ungefär $ 10 mer än vad det kostade tidigare, så det borde inte vara ett problem för de flesta sökmotoroptimeringskunder (SEO).

Vad som kan kasta dig är emellertid dess designfokus: det här verktyget är avsett för en sak och en sak: inifrån och ut, topp-till-botten webbplatsgenomsökning.

SEO-verktyg kan vanligtvis grupperas i tre huvudkategorier.

Först finns det ad hoc-sökordsforskning, som hjälper dig att hitta de mest lämpliga söksidorna för att ditt innehåll ska rankas högre.

Därefter pågår positionsövervakning, vilket är hur du håller reda på dina sökpositioner för att identifiera var du vinner och tappar mark.

Slutligen finns det genomsökning, där webbbots analyserar antingen en enda webbplats eller systematiskt genomsöker och indexerar hela internet.

DeepCrawl gör inte genomsökningar över hela världen men det kommer att ge din webbplats ungefär så omfattande en SEO "helkroppssökning" som du kan få.

Denna typ av djupgående genomsökning är användbar för företag på ett antal sätt.

DeepCrawl är ett verktyg för både nybörjare som vill markera webbplatsproblem eller avancerade användare som anpassar sina genomsökningar, men utan några begränsningar för datatillgång.

Genomsökning gör det också lättare att övervaka webbplatsens hälsa med både realtids- och historiskt sammanhang, vilket ger företag möjlighet att jämföra genomsökningar jämfört med året innan och gå igenom olika trender och rapporttyper.

Du behöver i allmänhet använda en kombination av flera verktyg i de tre kategorierna SEO för den mest effektiva strategin, och webbplatsrobotar är hur du identifierar styrkor och svagheter på din egen webbplats och målsidor.

Editors Choice SEO-verktyg Moz Pro (79,00 per månad, faktureras årligen på Moz), SpyFu (33,00 per månad, faktureras årligen på SpyFu) och AWR Cloud har ett mycket större djup av nyckelord och positionsövervakning, men har inte nästan kapacitet för genomsökning och webbplatsgranskning.

Så om du till exempel använde ett av Editors 'Choice-verktyg eller en nyckelordsspecifik produkt som KWFinder.com för att identifiera en målsökresultatsida (SERP) och hitta perfekt för ditt innehåll att ranka, skulle du sedan köra en DeepCrawl-genomsökning av webbplatsens arkitektur för att generera sidfördelningar och identifiera de specifika SEO-frågor som din webbplats behöver för att förbättra och lösa för att sidan ska rankas.

Detsamma gäller för att ta reda på varför ditt innehåll tappar mark i sökrankningar som spåras i ett övervakningsverktyg som AWR Cloud (49,00 per månad vid Advanced Web Ranking) eller genomföra en grundläggande analys av varför din webbplats träffades med en Google-sökning straff och hur du kan återhämta dig.

Förr eller senare kommer en SEO-strategi alltid tillbaka till att granska din egen webbplats.

Det är DeepCrawls enda jobb.

Prissättning och planer

Som nämnts börjar DeepCrawl på $ 81,50 per månad, faktureras årligen ($ 89 månad till månad) för sin startplan, som kommer med 100 000 aktiva webbadresser, fem aktiva projekt plus fullständig API-åtkomst (Application Programming Interface).

De flesta SEO-verktyg reserverar API-åtkomst för företagsnivåer, vilket är ett definitivt plus för DeepCrawl-användare som vill ha djupare anpassning utan företagets prislapp.

En annan förändring som har hänt sedan vi senast granskade verktyget är att företaget har gjort bort sina andra prissättningsplaner.

För dem som vill registrera sig online för tjänsten finns startplanen och det är det.

Mer avancerade funktioner och ökade servicealternativ finns nu bara tillgängliga i en annan plantyp: Företagsplanen.

Det finns inte mycket detaljer här, förutom "Skräddarsydd" prissättning, vilket vi antar betyder ett samtal till en företagsrepresentant så att de kan skräddarsy en service- och prissättningsplan efter dina behov.

Webbplatsgenomsökning

Webbplatsens genomsökningsprocess i DeepCrawl börjar med en snabb installation i fyra steg.

I varje genomsökning kan du inkludera upp till fem källor, webbplatskartor, webbplatser, analyser, bakåtlänkar och URL-listor.

Tanken är att göra det enkelt att identifiera luckor i din webbplatsarkitektur, med specifika mätvärden som du inte hittar i andra genomsökningsverktyg som Orphaned Pages Driving Traffic.

DeepCrawl är utformat för att ge användarna en fullständig överblick över deras webbplats tekniska hälsa, med användbar data och insikter för att öka SEO-synligheten och förvandla organisk trafik till intäkter.

När du registrerar dig för en gratis DeepCrawl-testversion tar gränssnittet dig först till projektets instrumentpanel.

För att ställa in mitt Daxdi-testprojekt angav jag Daxdi.com som den primära domänen.

Steg två är att välja datakällor för genomsökningen, som inkluderar själva webbplatsen, PCMags webbplatskartor och analys som du kan komma åt med ett aktivt Google Analytics-konto.

Du kan också lägga till specifika parametrar för bakåtlänk och URL-mål inom domänen (till exempel om du har identifierat målsidor i ett sökordsverktyg) genom att ladda upp CSV-filer med specifika bakåtlänkar eller URL-listor.

Det finns också en popup-ruta längst ner på sidan för att titta på en videohandledning för hur du ställer in DeepCrawl-projekt och genomsökningar.

Steg tre låter dig ställa in parametrarna för själva genomsökningen.

Jag kunde växla genomsökningshastigheten till var som helst från en webbadress till 50 webbadresser per sekund.

Därifrån hade jag möjlighet att ställa in hur många "genomsökningsnivåer" djupt genomsökningen skulle gå från Daxdi-hemsidan och ställa in det maximala antalet webbadresser som genomsökningen skulle stoppa.

Min gratis provperiod var för startplanen, så mina webbadresser var begränsade till 100 000.

Det sista steget är att ställa in om detta kommer att vara en engångs- eller en återkommande genomsökning, som kan vara timme, dagligen, veckovis, två veckor, månadsvis eller kvartalsvis, med möjlighet att ställa in start- och sluttider för genomsökningen.

Detta är en viktig funktion att ställa in om du behöver regelbundna webbplatsgranskningar men var försiktig med dina webbadressgränser beroende på vilken plan du väljer.

Det finns också mer avancerade inställningar för djupare genomsökningsbegränsningar, uteslutna webbadresser, URL-omskrivning och API-återuppringningar, men en icke-teknisk SEO-användare behöver inte nödvändigtvis komma in i dem.

Därifrån klickade jag på Starta genomsökning och fick ett e-postmeddelande några minuter senare när genomsökningen var klar.

I den färdiga genomsökningspanelen står du omedelbart inför en informationsvägg.

Om du vet vad du letar efter finns det dubbla sökfält högst upp för att hitta en specifik URL eller hitta rapporten om ett visst område i webbplatsarkitekturen; det kan vara allt från kroppsinnehåll och sociala taggar till misslyckade webbadresser och omdirigeringar av webbplatser.

Sammantaget körde DeepCrawl 175 rapporter på mina webbadresser - som i den kostnadsfria testperioden visade sig vara begränsade till drygt 10 000 - och upptäckte 30 webbplatsproblem och genomsökte sex "nivåer" eller länkar djupt från hemsidan.

Huvudsidan för instrumentpanelen ger en lista över alla aktuella webbplatsproblem, där du kan gå ner till de specifika webbadresserna där DeepCrawl kommer att markera sidfel som duplicerat innehåll, trasiga sidor, överflödiga länkar eller sidor med titlar, beskrivning och metadata som behöver SEO-förbättring.

Bredvid listan hittade jag en interaktiv cirkeldiagramfördelning av de vanligaste problemen bland de 10 000+ genomsökta sidorna.

DeepCrawl har också uppdaterat sitt användargränssnitt (UI) sedan vår första granskning, genom att lägga till brödsmulor över varje sida för att göra det lättare att navigera till andra delar av plattformen och lägga till en instrumentpanelsektion för att bedöma alla löpande genomsökningar på ett ställe.

För min domän fann jag att även om det inte fanns några större problem med 49 procent av mina sidor (de flesta av dem "primära" sidor) hade 30 procent av mina sidor under ytan 5xx-serverfel, fem procent av sidorna har misslyckade webbadresser och 16 procent av sidorna var "icke-indexerbara." Enligt DeepCrawl inträffade 5xx-felen troligtvis på grund av att Daxdi-webbplatsen blockerade aspekter av genomsökningen eller på grund av krypning för snabbt för att servern skulle kunna hantera.

DeepCrawl har också förtydligat att sidor som flaggats som primära inte nödvändigtvis är problemfria och fortfarande kan granskas för att inkludera sidor som saknas, utesluta sidor med lågt värde och kommenteras med SEO-rekommendationer på sidan.

Några av de andra genomsökningsverktygen jag testade, inklusive Ahrefs (82,00 per månad, faktureras årligen på FS.com) och Majestic (49,99 per månad, faktureras kvartalsvis på Majestic.com), ger dig också denna typ av uppdelning, inklusive grundläggande webbplatsproblem samt indexering av bakåtlänkar, vilket betyder inkommande hyperlänkar från andra webbplatser till din.

Vad de andra inte riktigt gör är att gräva djupare till den punkt som DeepCrawl gör, särskilt med uppdelningar som sidorna som är säkrade med det säkrare HTTPS-protokollet i motsats till HTTP, något som Google-algoritmen tar hänsyn till när de rankar sidor.

DeepCrawl ger dig också intelligenta sidgrupperingar (som du hittar i avancerade inställningar när du ställer in en genomsökning), vilket innebär att ditt urval baseras på en procentandel av sidor snarare än ett nummer.

Att gruppera sidor på det här sättet är viktigt eftersom det ger dig ett konsekvent urval över genomsökningar.

Tänk på det som ett vetenskapligt experiment: om du är en e-handelswebbplats genomsöker 20 procent av dina produktsidor, i följande genomsökning kommer Deepcrawl att skanna samma 20 procent för sidor som har lagts till, tagits bort, saknas eller ändrats inom varje rapport.

Detta minskar också genomsökningstid och -kostnad, eftersom du riktar genomsökningen till den specifika delmängden av sidor som du är intresserad av.

På samma sätt kan DeepCrawls anpassade extraktioner användas för att inkludera eller utesluta de parametrar du väljer.

Detta är en mer avancerad funktion utformad för mer specialiserad genomsökning för att finslipa dina fokusområden.

Företaget har också lagt till Förinställda anpassade extraktioner för icke-tekniska användare, eftersom skrivning av anpassade extraktioner kräver kunskap om reguljära uttrycksspråk (Regex).

Avancerad rapportering

Bortsett från GSC-integrationen finns de mest framstående förbättringarna av DeepCrawl i dess rapporteringsfunktioner, för vilka DeepCrawl har lagt till 75 nya rapporter under det senaste året.

Utöver grunderna—Dela och exportera rapporter, eller lägga till en uppgift för den rapporten-du kan klicka på knappen Dela för att få en delbar länk till den rapporten.

Du kan sedan skicka rapporten till valfritt antal mottagare.

Du kan också ladda ner rapporten som en CSV-fil eller en XML-webbplatskarta och anpassa rapporter med anpassat varumärke.

Den uppgiftsbaserade funktionen är särskilt användbar.

DeepCrawl tillät mig att lägga till en uppgift för specifika rapporter - i det här fallet listan över 5xx-serverfel - för att vidta åtgärder mot den SEO-sårbarheten.

Med DeepCrawl kan du inte bara schemalägga och anpassa genomsökningar, utan med hjälp av Aktivitetshanteraren kan du spåra framsteg och hantera problem och deadline-arbetsflöden.

Märket för ett bra verktyg ...

PakaPuka

pakapuka.com Cookies

På pakapuka.com använder vi cookies (tekniska och profilkakor, både våra egna och tredje part) för att ge dig en bättre online-upplevelse och för att skicka dig personliga kommersiella meddelanden online enligt dina önskemål. Om du väljer fortsätt eller kommer åt något innehåll på vår webbplats utan att anpassa dina val godkänner du användningen av cookies.

För mer information om vår policy för cookies och hur du avvisar cookies

tillgång här.

Inställningar

Fortsätta