SEO-forum.se har sålts, viktig info
Resultat 1 till 10 av 10

Site Crawler, nytt verktyg av Domainstats

  1. #1
    Jim Westergrens avatar
    Jim Westergren Jim Westergren är inte uppkopplad SEO-proffs: utökad profil
    Administratör
    Reg.datum
    feb 2006
    Ort
    Täby
    Inlägg
    2 725
    Efter flera månader har Stefan och jag nu äntligen blivit klara och lanserat Site Crawler: https://domainstats.com/tools/site-crawler

    Den konkurrerar med Screaming Frog men ska ge en bättre överblick utan att behöva klicka runt så mycket som man ofta behöver göra i Screaming Frog. Den är även online så man behöver inte ladda ner både java och ett desktop program.

    Tacksam för feedback!
    Bor nu i Marbella, Spanien
    Kolla in mitt SEO verktyg Domainstats

  2. #2
    Axel Hanssons avatar
    Axel Hansson Axel Hansson är inte uppkopplad SEO-proffs
    Reg.datum
    apr 2017
    Ort
    Hela världen
    Inlägg
    39
    Citat Ursprungligen postat av Jim Westergren Visa inlägg
    Efter flera månader har Stefan och jag nu äntligen blivit klara och lanserat Site Crawler: https://domainstats.com/tools/site-crawler

    Den konkurrerar med Screaming Frog men ska ge en bättre överblick utan att behöva klicka runt så mycket som man ofta behöver göra i Screaming Frog. Den är även online så man behöver inte ladda ner både java och ett desktop program.

    Tacksam för feedback!
    Snyggt. Mina korta kommentarer:

    • Priset för högt. Skulle jag vilja crawla en hemsida med 100 000 undersidor så skulle jag behöva betala 10k SEK vilket är overkill. :-) (Kanske dock bara gäller utloggade besökare!)
    • Ingen kontroll över inställningarna. Vill jag t.ex. crawla en utvecklingshemsida som blockerar via Robots.txt så skulle detta verktyg inte fungera.
    • Går ej att sortera på URL.
    • Skulle vilja kunna filtrera på allt enl Overview tabben högst upp (t.ex. se alla 301or).
    • Time to download känns felaktig. Vissa URLer är 0.09s medans andra är 1.6s.
    • Finns inget sätt att exportera datan vilket gör verktyget oanvändbart för t.ex. vår del.
    • Undrar lite över prestandan i webbläsaren sedan när man börjar crawla väldigt stora hemsidor.

  3. #3
    Jim Westergrens avatar
    Jim Westergren Jim Westergren är inte uppkopplad SEO-proffs: utökad profil
    Administratör
    Reg.datum
    feb 2006
    Ort
    Täby
    Inlägg
    2 725
    Hej Axel,

    Tack för feedback!

    Citat Ursprungligen postat av Axel Hansson Visa inlägg
    Priset för högt. Skulle jag vilja crawla en hemsida med 100 000 undersidor så skulle jag behöva betala 10k SEK vilket är overkill. :-) (Kanske dock bara gäller utloggade besökare!)
    Vet inte hur du räknade ut detta? Kanske något som är otydligt? Vi har en maxgräns just nu på 1000 URLer och det kostar 20 krediter vilket även ett gratiskonto kan utföra. Jag är tveksam till att tillåta mer än 1000 URLer eftersom det kan då användas som en form av överbelastning för att angripa en sajt och Domainstats kommer få skulden (jämfört med screaming frog då det är din egen dators IP).

    Citat Ursprungligen postat av Axel Hansson Visa inlägg
    Ingen kontroll över inställningarna. Vill jag t.ex. crawla en utvecklingshemsida som blockerar via Robots.txt så skulle detta verktyg inte fungera.
    Sant, det tänkte jag inte på. Det ska vi fixa.
    Citat Ursprungligen postat av Axel Hansson Visa inlägg
    Går ej att sortera på URL.
    Vi fixar.
    Citat Ursprungligen postat av Axel Hansson Visa inlägg
    Skulle vilja kunna filtrera på allt enl Overview tabben högst upp (t.ex. se alla 301or).
    Det är svårt att lösa detta. Men du kan istället filtrera genom att skriva 301 i filterrutan.
    Citat Ursprungligen postat av Axel Hansson Visa inlägg
    Time to download känns felaktig. Vissa URLer är 0.09s medans andra är 1.6s.
    Det måste betyda att din server köar upp förfrågningarna av vår crawler. Eller att de som var 0.09s var cachade och inte de andra?
    Citat Ursprungligen postat av Axel Hansson Visa inlägg
    Finns inget sätt att exportera datan vilket gör verktyget oanvändbart för t.ex. vår del.
    Tack, vi fixar.
    Citat Ursprungligen postat av Axel Hansson Visa inlägg
    Undrar lite över prestandan i webbläsaren sedan när man börjar crawla väldigt stora hemsidor.
    1000 URLer är inga problem i alla fall inte på min något kraftfulla laptop i chrome.

    Jag kommer skicka Stefan som programmerat det mesta av detta verktyg till tråden.
    Bor nu i Marbella, Spanien
    Kolla in mitt SEO verktyg Domainstats

  4. #4
    Axel Hanssons avatar
    Axel Hansson Axel Hansson är inte uppkopplad SEO-proffs
    Reg.datum
    apr 2017
    Ort
    Hela världen
    Inlägg
    39
    Citat Ursprungligen postat av Jim Westergren Visa inlägg
    Hej Axel,

    Tack för feedback!


    Vet inte hur du räknade ut detta? Kanske något som är otydligt? Vi har en maxgräns just nu på 1000 URLer och det kostar 20 krediter vilket även ett gratiskonto kan utföra. Jag är tveksam till att tillåta mer än 1000 URLer eftersom det kan då användas som en form av överbelastning för att angripa en sajt och Domainstats kommer få skulden (jämfört med screaming frog då det är din egen dators IP).


    Sant, det tänkte jag inte på. Det ska vi fixa.

    Vi fixar.

    Det är svårt att lösa detta. Men du kan istället filtrera genom att skriva 301 i filterrutan.

    Det måste betyda att din server köar upp förfrågningarna av vår crawler. Eller att de som var 0.09s var cachade och inte de andra?

    Tack, vi fixar.

    1000 URLer är inga problem i alla fall inte på min något kraftfulla laptop i chrome.

    Jag kommer skicka Stefan som programmerat det mesta av detta verktyg till tråden.
    Hej!

    Ser nu att priset är fel. Det är 10 000 credits (inte kr) det handlar om. :-) Ska ta en titt sedan igen och se om jag har fler kommentarer. Däremot så står det 50 URLs for 5 credits dvs 10 URLer per credit kontra det du skrev ovan med 1000 / 20 = 50 URLer per credit.

  5. #5
    Stefan Sjönnebrings avatar
    Stefan Sjönnebring Stefan Sjönnebring är inte uppkopplad Väntar på att admin ska godkänna min titel
    Reg.datum
    maj 2019
    Ort
    Knivsta
    Inlägg
    3
    Citat Ursprungligen postat av Axel Hansson Visa inlägg
    Hej!

    Ser nu att priset är fel. Det är 10 000 credits (inte kr) det handlar om. :-) Ska ta en titt sedan igen och se om jag har fler kommentarer. Däremot så står det 50 URLs for 5 credits dvs 10 URLer per credit kontra det du skrev ovan med 1000 / 20 = 50 URLer per credit.
    Hej Axel och tack för din feedback!

    Priset för att använda verktyget varierar utifrån antalet URL'er du väljer att analysera (Med ett maxtak på 1000 URLs).

    50 URLs - 5 credits (5 URLs/credit)
    300 URLs - 10 credits (30 URLs/credit)
    1000 URLs - 20 credits (50 URLs/credit)

    Ang. prestandan så kan den påverkas vid många URL'er. Resultatet presenteras med hjälp av DataTables jQuery-bibliotek, och det kan bli lite tungrott för "slöare" maskiner när filter-funktionerna är aktiverade (Detta är något jag vill hitta en lösning på).

    Export till excel-format kommer inom kort!

    Har du mer feedback på lager framöver så dela gärna med dig

  6. #6
    shads avatar
    shad shad är inte uppkopplad Lär mig SEO
    Reg.datum
    okt 2010
    Ort
    Uppsala
    Inlägg
    11
    Citat Ursprungligen postat av Stefan Sjönnebring Visa inlägg
    Ang. prestandan så kan den påverkas vid många URL'er. Resultatet presenteras med hjälp av DataTables jQuery-bibliotek, och det kan bli lite tungrott för "slöare" maskiner när filter-funktionerna är aktiverade (Detta är något jag vill hitta en lösning på).
    Har inte kollat så noga på hur ni använder DataTables, men det kan bli sjukt segt om man har ett par tusen rader som man låter DataTables läsa av från DOM. Använder ni DOM eller en Javascript-array för att mata DataTables med data?
    Senast redigerat av shad den 2019-05-09 klockan 22:25.

  7. #7
    Stefan Sjönnebrings avatar
    Stefan Sjönnebring Stefan Sjönnebring är inte uppkopplad Väntar på att admin ska godkänna min titel
    Reg.datum
    maj 2019
    Ort
    Knivsta
    Inlägg
    3
    Citat Ursprungligen postat av shad Visa inlägg
    Har inte kollat så noga på hur ni använder DataTables, men det kan bli sjukt segt om man har ett par tusen rader som man låter DataTables läsa av från DOM. Använder ni DOM eller en Javascript-array för att mata DataTables med data?
    Vi kommer max presentera 1000 rader i dagsläget, men vi läser av datan från DOM. Så jag får ta en kik på array-lösningen, tack för tipset!

  8. #8
    shads avatar
    shad shad är inte uppkopplad Lär mig SEO
    Reg.datum
    okt 2010
    Ort
    Uppsala
    Inlägg
    11
    Citat Ursprungligen postat av Stefan Sjönnebring Visa inlägg
    Vi kommer max presentera 1000 rader i dagsläget, men vi läser av datan från DOM. Så jag får ta en kik på array-lösningen, tack för tipset!
    Ja gör det, jag kan verkligen rekommendera att använda en Javascript-array istället för DOM. Som referens använder jag DataTables här på en tabell med 40k+ rader: https://domaining.se/frislappta-lediga-domaner

  9. #9
    Seokillens avatar
    Seokillen Seokillen är inte uppkopplad Lär mig SEO
    Reg.datum
    nov 2012
    Inlägg
    74
    Hej

    Är ganska ny inom seo.
    Varför behöver man crawla sin hemsida? När man kan endast göra fetch på google search console? Samt skicka in en sitemap som gör allt detta automatiskt?

    Eller har jag missat något?

  10. #10
    Stefan Sjönnebrings avatar
    Stefan Sjönnebring Stefan Sjönnebring är inte uppkopplad Väntar på att admin ska godkänna min titel
    Reg.datum
    maj 2019
    Ort
    Knivsta
    Inlägg
    3
    Citat Ursprungligen postat av Seokillen Visa inlägg
    Hej

    Är ganska ny inom seo.
    Varför behöver man crawla sin hemsida? När man kan endast göra fetch på google search console? Samt skicka in en sitemap som gör allt detta automatiskt?

    Eller har jag missat något?
    Syftet med vårat verktyg att man enkelt ska få en överblick över vilka tekniska aspekter (längd på titel, uteblivna meta-taggar etc..), på den angivna domänen, som potentiellt kan åtgärdas - och som i sin tur kan förbättra dina förutsättningar när google indexerar din domän.

    Tanken är alltså att verktyget ska underlätta för er SEO-experter som arbetar on-page på ett snabbt och enkelt sätt.

    Testa gärna verktyget, förslagsvis på en av dina egna domäner/URL'er, så kanske du får en bättre bild av syftet med verktyget.

Ämnesinformation

Användare som tittar på det här ämnet

Det är för närvarande 1 användare som tittar på det här ämnet. (0 medlemmar och 1 gäster)

Liknande ämnen

  1. Nytt SEO-verktyg: Cuutio
    Av sarahenriks i forum SEO-verktyg
    Svar: 0
    Senaste inlägg: 2012-08-09, 20:41
  2. Nytt verktyg: Seo-Tips
    Av mfagerlund i forum SEO-verktyg
    Svar: 9
    Senaste inlägg: 2011-12-14, 08:29
  3. nytt verktyg
    Av LaoWang i forum SEO-verktyg
    Svar: 1
    Senaste inlägg: 2009-06-29, 18:18
  4. Nytt verktyg jag kom över
    Av Jim Westergren i forum PageRank
    Svar: 4
    Senaste inlägg: 2006-10-03, 11:53
  5. Nytt SEO-verktyg
    Av Simon Sunden i forum SEO-verktyg
    Svar: 9
    Senaste inlägg: 2006-05-09, 14:10