@MuSa
MyBoerse.bz Pro Member
Screaming Frog Log File Analyser 5.0 macOS
Der Screaming Frog SEO Log File Analyzer ermöglicht es Ihnen, Ihre Log-Dateien hochzuladen, gecrawlte URLs zu identifizieren und Suchbot-Daten und -Verhalten zu analysieren, um unschätzbare SEO-Einblicke zu erhalten.
Gecrawlt identifizieren
Sehen und analysieren Sie genau, welche URLs Googlebot & andere Suchbots wann und wie oft crawlen können.
Entdecken Sie die Crawl-Frequenz
Erhalten Sie einen Einblick, welche Such-Bots am häufigsten crawlen, wie viele URLs jeden Tag gecrawlt werden und wie viele Bot-Ereignisse insgesamt aufgetreten sind.
Defekte Links und Fehler finden
Entdecken Sie alle Antwortcodes, defekten Links und Fehler, auf die Suchbots beim Crawlen Ihrer Website gestoßen sind.
Weiterleitungen prüfen
Finden Sie temporäre und permanente Weiterleitungen, auf die Suchbots stoßen, die sich möglicherweise von denen in einem Browser oder einem simulierten Crawl unterscheiden.
Verbessern Sie das Crawl-Budget
Analysieren Sie Ihre am häufigsten und am wenigsten gecrawlten URLs und Verzeichnisse der Website, um Verschwendung zu identifizieren und die Crawl-Effizienz zu verbessern.
Identifizieren Sie große und langsame Seiten
Überprüfen Sie die durchschnittlich verbrauchten und genommenen Bytes, um große Seiten oder Leistungsprobleme zu identifizieren.
Finden Sie ungecrawlte und verwaiste Seiten
Importieren Sie eine Liste mit URLs und gleichen Sie sie mit Protokolldateidaten ab, um verwaiste oder unbekannte Seiten oder URLs zu identifizieren, die der Googlebot nicht gecrawlt hat.
Kombinieren und vergleichen Sie beliebige Daten
Importieren und gleichen Sie beliebige Daten mit einer „URLs“-Spalte mit Protokolldateidaten ab. Importieren Sie also Crawls, Direktiven oder externe Linkdaten für erweiterte Analysen.
Platform: Intel|Apple Silicon
System: 10.10+
Format: .dmg|.pkg
Paket: .rar|.zip
Größe: 165 MB
Version: 5.0
Sprache: English
Passwort:
Update: 23052022
Der Screaming Frog SEO Log File Analyzer ermöglicht es Ihnen, Ihre Log-Dateien hochzuladen, gecrawlte URLs zu identifizieren und Suchbot-Daten und -Verhalten zu analysieren, um unschätzbare SEO-Einblicke zu erhalten.
Gecrawlt identifizieren
Sehen und analysieren Sie genau, welche URLs Googlebot & andere Suchbots wann und wie oft crawlen können.
Entdecken Sie die Crawl-Frequenz
Erhalten Sie einen Einblick, welche Such-Bots am häufigsten crawlen, wie viele URLs jeden Tag gecrawlt werden und wie viele Bot-Ereignisse insgesamt aufgetreten sind.
Defekte Links und Fehler finden
Entdecken Sie alle Antwortcodes, defekten Links und Fehler, auf die Suchbots beim Crawlen Ihrer Website gestoßen sind.
Weiterleitungen prüfen
Finden Sie temporäre und permanente Weiterleitungen, auf die Suchbots stoßen, die sich möglicherweise von denen in einem Browser oder einem simulierten Crawl unterscheiden.
Verbessern Sie das Crawl-Budget
Analysieren Sie Ihre am häufigsten und am wenigsten gecrawlten URLs und Verzeichnisse der Website, um Verschwendung zu identifizieren und die Crawl-Effizienz zu verbessern.
Identifizieren Sie große und langsame Seiten
Überprüfen Sie die durchschnittlich verbrauchten und genommenen Bytes, um große Seiten oder Leistungsprobleme zu identifizieren.
Finden Sie ungecrawlte und verwaiste Seiten
Importieren Sie eine Liste mit URLs und gleichen Sie sie mit Protokolldateidaten ab, um verwaiste oder unbekannte Seiten oder URLs zu identifizieren, die der Googlebot nicht gecrawlt hat.
Kombinieren und vergleichen Sie beliebige Daten
Importieren und gleichen Sie beliebige Daten mit einer „URLs“-Spalte mit Protokolldateidaten ab. Importieren Sie also Crawls, Direktiven oder externe Linkdaten für erweiterte Analysen.
Platform: Intel|Apple Silicon
System: 10.10+
Format: .dmg|.pkg
Paket: .rar|.zip
Größe: 165 MB
Version: 5.0
Sprache: English
Passwort:
Update: 23052022