Icon

Website Boosting 72

Import Segmentierung Indexierbare Seiten mit 2021 in der Description Gruppieren nach Seitentyp und URLs zählen Visualisieren Seiten mit einem Status Code > 200 Wie starten?- Um den Workflow zu nutzen brauchst du einen Export eines Screaming Frog Crawls als CSV-Datei (Tab "internal" ->"Export" ->"internal all")- Anschließend öffnest du die CSV Datei mit der Node "CSV Reader" ("Screaming Frog Exportimportieren"- In Bereich "Segmentieren" musst du die Regel der Rule Engine Node anpassen, sodass sie fürdeine URL-Struktur passt- Anschließend kannst du den Workflow ausfürhren (grüne Pfeile oben in der Menü-Leiste FAQWie kann ich eine Node konfigurieren? Dooppelklick auf die Node oder Rechtsklick und "Configure"Wie kann ich eine Node ausführen?Rechtsklick auf die Node und dann "Execute". Alle vorherigen Nodes werden dann auchausgeführt. Wie kann ich sehen was die Node produziert hat?Rechtsklick auf die Node und den untersten Menüpunkt (Tabelle mit der Lupe) auswählen. BeiVisualierungen (die blauen Nodes) ist es: Rechtsklick -> Interactive ViewWie kann ich eine neue Node hinzufügen?Links unten im Node Repository nach einer Node suchen und diese auf die Arbeitsfläche ziehen.Dann die Node mit einer exisiteirenden Node verbinden (von Dreieck zu Dreieck) damit die Datenübertragen werden können. Screaming Frog Export importierenSpalte mit Seitentyp hinzufügen Muss manuell konfiguriert werden:Dazu den pinken Teil nach MATCHESdurch einen regulären Ausdruckersetzen, der zur eigenen URL-Strukturpasst. Beispiele gibt's unter:https://online-metrics.com/regular-expressions/2021 in derDescriptionNur Spalten Address + SeitentypGruppieren nach Seitentypund zählen der URLsNode 14Ausschließen: Status Code > 200Node 16Node 17Nur NotwendigeSpaltemNur Indexierbare URLsCSV Reader Rule Engine Row Filter Column Filter GroupBy Bar Chart Row Filter Table View Table View Column Filter Row Filter Import Segmentierung Indexierbare Seiten mit 2021 in der Description Gruppieren nach Seitentyp und URLs zählen Visualisieren Seiten mit einem Status Code > 200 Wie starten?- Um den Workflow zu nutzen brauchst du einen Export eines Screaming Frog Crawls als CSV-Datei (Tab "internal" ->"Export" ->"internal all")- Anschließend öffnest du die CSV Datei mit der Node "CSV Reader" ("Screaming Frog Exportimportieren"- In Bereich "Segmentieren" musst du die Regel der Rule Engine Node anpassen, sodass sie fürdeine URL-Struktur passt- Anschließend kannst du den Workflow ausfürhren (grüne Pfeile oben in der Menü-Leiste FAQWie kann ich eine Node konfigurieren? Dooppelklick auf die Node oder Rechtsklick und "Configure"Wie kann ich eine Node ausführen?Rechtsklick auf die Node und dann "Execute". Alle vorherigen Nodes werden dann auchausgeführt. Wie kann ich sehen was die Node produziert hat?Rechtsklick auf die Node und den untersten Menüpunkt (Tabelle mit der Lupe) auswählen. BeiVisualierungen (die blauen Nodes) ist es: Rechtsklick -> Interactive ViewWie kann ich eine neue Node hinzufügen?Links unten im Node Repository nach einer Node suchen und diese auf die Arbeitsfläche ziehen.Dann die Node mit einer exisiteirenden Node verbinden (von Dreieck zu Dreieck) damit die Datenübertragen werden können. Screaming Frog Export importierenSpalte mit Seitentyp hinzufügen Muss manuell konfiguriert werden:Dazu den pinken Teil nach MATCHESdurch einen regulären Ausdruckersetzen, der zur eigenen URL-Strukturpasst. Beispiele gibt's unter:https://online-metrics.com/regular-expressions/2021 in derDescriptionNur Spalten Address + SeitentypGruppieren nach Seitentypund zählen der URLsNode 14Ausschließen: Status Code > 200Node 16Node 17Nur NotwendigeSpaltemNur Indexierbare URLsCSV Reader Rule Engine Row Filter Column Filter GroupBy Bar Chart Row Filter Table View Table View Column Filter Row Filter

Nodes

Extensions

Links