Alle Artikel mit dem Schlagwort: technisches seo

E-Book-Deals

E-Book-Deal im September: It’s Online-Marketing

Wenn Busse und Bahnen gleichmäßig mit Kostüm- und SchlipsträgerInnen, mit Hipsterbärten und Jutebeuteln sowie mit Jeans-und-Hoodie-Freunden bevölkert sind, dann befindet Ihr Euch nicht (zwingend) in Berlin-Mitte. Ebenso möglich ist: Es ist Herbst, Ihr seid in Köln oder Hamburg und auf dem Weg zur dmexco oder NEXT. So unterschiedlich die beiden Events nämlich sind, es eint sie, dass sie einen – nämlich alle Menschen, die was mit dem Internet machen. (Und versuchen, damit Geld zu verdienen.) Auch wenn dabei gelegentlich Welten aufeinander prallen (nicht nur, was die Kleidungsfrage betrifft), so drehen sie sich um die digitale Welt, im Kleinen wie im Großen: Wie schafft man Vertrauen im Netz? Welche Tools eignen sich am besten zur Suchmaschinenoptimierung? Was kostet die digitale Transformation eines Unternehmens, und was kostet eine Google-Adwords-Anzeige?  Einige dieser Antworten müssen wir uns alle gemeinsam erarbeiten. Einige andere können wir Euch liefern. Und das zum Sonderpreis :-) Weil nämlich September nicht nur der Monat ist, in dem sich Onliner an Rhein und Elbe (und anderswo) zum Austausch treffen, sondern auch der Monat, an dessen Ende unsere Neuerscheinungen „Der …

Technisches SEO – Crawling- & Indexierungssteuerung

Bei der Suche aus der Masse herausstechen, bessere Umsatzpotentiale generieren und so Wettbewerbsvorteile schaffen – schon kleine Anpassungen der Website-Konfiguration können große Verbesserungen im Suchmaschinen-Ranking bewirken. Das Zauberwort dafür: Technisches SEO. Dies ist ein Auszug aus dem Buch Technisches SEO – Mit nachhaltiger Suchmaschinenoptimierung zum Erfolg Crawling- & Indexierungssteuerung Als Crawling wird die automatische Analyse von URLs durch sogenannte Crawler, Spider oder Robots von Suchmaschinen bezeichnet. Das Crawling ist ein notwendiger Vorgang, damit ein Dokument überhaupt über Suchmaschinen gefunden werden kann. Es steht Ihnen als Webmaster frei, einzelne URLs, Verzeichnisse oder den gesamten Hostnamen von der Analyse durch Suchmaschinen auszuschließen. Als Instrument steht Ihnen dazu die Datei robots.txt zur Verfügung. Die Gründe, einen (Teil-)Ausschluss von Dokumenten zu vollziehen, können vielfältig sein und sind abhängig von der jeweiligen Website. Zum Beispiel kann es sein, dass auf einer Webseite vorhandene persönliche Informationen nicht über Suchmaschinen gefunden oder (interne oder externe) Duplikate unsichtbar gemacht werden sollen. Sie können aber nicht nur das Crawling beeinflussen, sondern auch Dokumente von der Indexierung ausschließen. Mit einer solchen, beispielsweise über die Meta-Robots-Angaben definierbaren Konfiguration können …