Jens Fauldrath im Interview zum Thema search-engine-friendly Design auf der SMX 2018

Jens Fauldrath ist ein echter SEO-Nerd. Die Bezeichnung wählt er sogar selbst, wenn er über sich und seine Mitarbeiter bei get:traction spricht. Auf der SMX 2018 ging es in seiner Session um search-engine-friendly Design. Was das ist und wie ihr eure Website oder euren Online-Shop search-engine- oder auch user-friendly macht, erklärt er im Interview.

Hallo Jens, magst du dich kurz vorstellen? Wer bist du, was machst du?

Ja gerne. Meine Name ist Jens Fauldrath. Ich bin geschäftsführender Gesellschafter von get:traction. Vorher war ich bei T-Online, daher kennt man mich auch noch. Ich war lange Zeit berühmt als DER Inhouse-SEO. Das bin ich jetzt schon seit vielen Jahren nicht mehr, sondern habe mein eigenes kleines, feines Beratungsunternehmen. Wir sind ein kleines, nerdiges Team und machen einfach lustigen Scheiß.

Hört sich auf jeden Fall sehr spannend an. Du hast gestern über search-engine-friendly Design gesprochen. Was ist das für dich? Was bedeutet das für dich?

Im Großen und Ganzen ist das jetzt das Szenewort. Diesen Vortrag gibt es ja jedes Jahr. Es ist ein feststehendes Topic, das gibt es jedes Jahr. Ich hatte den Talk schon dreimal. Vor zehn Jahren war mein erster und jetzt wieder.

Es geht eigentlich um Informationsarchitektur. Es geht darum: Wie funktioniert eine Website und wie kann der Nutzer diese verstehen?Und natürlich: Wie kann Google diese verstehen? Es geht sehr stark aus einer Nutzerperspektive heraus, denn Google versucht ja im Grunde, uns zu evaluieren. Deswegen: wenn es der Nutzer versteht, dann wird es mit sehr großer Wahrscheinlichkeit auch Google verstehen.

Es gibt da ein paar technische Fehler, die man dabei machen kann. Im Großen und Ganzen geht es aber erstmal darum, verständliche Strukturen aufzubauen, damit ich mich auf einer Website zurechtfinde. Google ist salopp gesagt einfach ein dümmerer Mensch. Also wenn alles verständlich ist, kommt auch beim Ranking etwas Gutes dabei heraus.

Du hast gerade schon gesagt, dass man auch so ein paar technische Fehler dabei machen kann. Kannst du mir vielleicht einen technischen Fehler nennen, der einfach oft gemacht wird und der vermieden werden sollte?

Lustigerweise gibt es diesen einen großen Fehler, denn bei jedem einzelnen Kunden sehen wir Dinge zum allerersten Mal und denken: “Man kann die Sachen also auch so falsch machen, toll.” Man hört einfach nicht auf zu lernen. Die verschiedenen Arten von Fehlern hören nicht auf. Wir hatten letztens jemanden, bei dem im schema.org URLs referenziert waren, die es nicht gab. Das hat dann 500er erzeugt. Nicht mal 404-Fehler, denn der Server hat gesagt: “Äh, 500.” Dann ist wiederum das Scroll Mat runtergegangen, weil Google gesagt hat, die Maschine ist lahm. Das war nicht der Fall. Da musst du erstmal drauf kommen. So etwas habe ich vorher auch noch nicht gesehen, dass man komplett falsche Sachen referenziert. Das hat alles auch gar keinen Sinn ergeben und es wusste auch keiner, warum das so war. Es war einfach irgendwie so passiert.

„Sei schnell, verständlich und einfach!“

Die wirklich wichtigen Sachen fangen schon bei der Geschwindigkeit an. Sei halt schnell, verständlich und einfach. Die meisten Sachen, die passieren, weil die Navigation immer aus einer Innensicht gestaltet wird. Gerade im B2B-Bereich, da sind alle Websites gleich: “Über uns”, “Produkte”, “Blog”… Ob da nun Schrauben Waschmittel oder Schrauben verkauft werden, es sieht immer gleich aus. Das heißt auch, es ist immer austauschbar. Es ist schon spannend sich zu überlegen, wie man seine Kategorien benennen kann.

Was auch sehr oft falsch gemacht wird sind die Basics. Mein Vortrag ist auch ein Basic-Vortrag. Mit den Basics gewinnt oder verliert man das Spiel. Wir können hier auf solchen Konferenzen “rumcoolen”, wie wir wollen. Das macht auch Spaß, aber damit gewinnst du halt leider kein Spiel. Es fängt schon an, wenn du schlechte Titles und Descriptions hast. Schlecht heißt langweilig, mechanisch. Viele sagen, sie wollen mit der Description den Inhalt beschreiben. Ich finde, dass eine Description eher sagen soll, warum der User gerade dort klicken soll.

Wenn jetzt also jemand nach roten Sneakern sucht. Dann bekommt derjenige 10 verschiedene URLs mit roten Sneakern. Das gilt für jedes andere Thema auch. Die Frage lautet immer: Warum ist meine Quelle diejenige, die der Nutzer anklicken soll. Ich sage immer ganz gerne: “Geht mal in die SEA-Abteilung. Die wissen, wie man auf Zeile einen Werbetext schreibt.” Warum können das so wenig SEOs? Die Description ist quasi mein Werbeplatz, um mich zu beschreiben. Da denken auch einfach viele falsch drüber, finde ich.

Du hast es eigentlich schon angesprochen. Dieses “Search-Engine-friendly”, das ist eigentlich auch “User-friendly”, oder?

Ja, immer. Es war schon immer dasselbe. Ich könnte heute meinen Vortrag von vor zehn Jahren halten und er wäre noch immer richtig gewesen. Es ging schon immer um dasselbe, nur wird Google halt immer besser darin. Wie gesagt, Google möchte, dass sie uns irgendwann einmal genau das Ergebnis liefern, das wird brauchen.

Ich habe schon öfter darüber gesprochen, was eigentlich Relevanz ist. Es wird ja oft über Relevanz geredet. Das Problem dabei ist: wichtiger ist eigentlich Pertinenz. Pertinenz bedeutet: kann ich denn damit etwas anfangen? Wenn ich zum Beispiel eine Information bekomme, die ich schon kenne, dann ist sie zwar relevant für die Frage, aber für mich uninteressant, denn ich wusste das schon. Oder ich bekomme eine Antwort in einer Form, in der ich sie nicht verstehe, wie einen Riesen-Fachaufsatz von irgendeinem Maschinenbauer, aber ich habe keine Ahnung und verstehe kein Wort. Dann ist es zwar absolut relevant und richtig, aber ich kann sie nicht interpretieren.

Die Frage ist immer, mit welchem Vorwissen Leute loslaufen. Das kann Google nicht mehr messen, zumindest nicht dadurch, dass sich Google nur die Dokumente anschaut. Deswegen geht ja Google immer mehr dahin zu sagen: “Was weiß ich denn über den Nutzer?”

Rank Brain ist ja zum Beispiel der falscheste Begriff, den es je gab. Es handelt sich hier ja um ein Query Brain. Was kann ich also aus der Query lernen? Welche Queries meinen eigentlich dasselbe, obwohl es verschiedene Wörter sind?

„Man sollte sich darüber Gedanken machen, dass Google eben nicht mehr DIE Top 10 Ergebnisse liefert.“

Dann noch das Thema Lokalisierung, also den Kontext mit einbeziehen. Wenn ich an den Web Index die Frage stelle: “Wo ist die nächste Burger Bude?” Dann muss Google ja wissen, wo ich bin, sonst werden mir zwar trotzdem viele Ergebnisse zu Burger Buden geliefert, nur leider sind die vielleicht 800 Kilometer weit weg. Damit kann ich dann auch nichts anfangen.

Und als dritten Punkt: Personalisierung. Man sollte sich einfach darüber Gedanken machen, dass Google eben nicht mehr DIE Top 10 Ergebnisse liefert, weil die genannten Faktoren immer mehr mit einbezogen werden.

Es ist manchmal spaßig, wenn man mal in seine Search Console rein geht und sieht, dass man auf Platz 1 steht, aber nur 300 Impressions hat. Wenn du dann im Keyword Planner nachschaust, dann hat das Ding 30.000 Suchanfragen und du denkst dir: “Hä?” Dann heißt das, dass du wahrscheinlich nur in irgendeinem Ort damit auf Platz 1 landest und im Rest nicht.

„Mein wichtigster Tipp: Macht euch immer klar, wo Google hin will.“

Darüber machen sich einfach auch einige nicht so viele Gedanken. Man sollte sich also in seiner Search Console anschauen, ob die Impressions-Werte mit meinem vermuteten Suchvolumen übereinstimmen, also habe ich diese Position immer oder nur teilweise?

Letztlich bekommst du es ja nicht ganz heraus. Lokal geht noch, da gibt es diverse Anbieter, die lokal checken können, in welchen Städten du in der Suche auftauchst, aber in Sachen Personalisierung gibt es natürlich nichts. Wer will das machen?

Aber es geht dort hin. Die Frage lautete ja, wohin Google geht. Mein wirklich größter Tipp ist: Macht euch klar, wo Google hin will. Die entwickeln sich ja weiter und das Ziel ist schlicht und ergreifend, den Content so zu verstehen, wie wir ihn verstehen, damit sie uns die richtige Antwort geben können. Wenn ich aus der Perspektive heraus mein SEO betreibe, dann ist es nachhaltig. Wenn ich auf irgendwelche Lücken optimiere, dann ist es nicht nachhaltig, denn Google wird diese Lücken immer irgendwann schließen. Wenn ich ein Modell habe, dass ich immer wieder relativ schnell hoch und wieder herunter skalieren kann, dann kann natürlich trotzdem funktionieren. Für die meisten Unternehmen ist es jedoch keine valide Strategie.

Du hast die Search Console angesprochen. Beim Interface der Search Console hat sich ja einiges getan. Wie bewertest du denn das neue Interface?

Nummer 1 der Sachen, die mich nerven ist, dass Google alle neuen Interfaces mit so einem Mobile First Gedanken erstellt. Ich arbeite halt am Desktop und habe jetzt ganz viel Weißraum for nothing. Ich denke mir dann: “Kinners, ich mache hier Datenanalyse. Ich habe hier extra große Monitore für alle, aber warum ist das alles hier so klein?” Da frage ich mich ernsthaft, was das soll. Man kann ja eine mobile und eine Desktop-Version bauen, aber vielleicht lernen die das auch mal irgendwann.

Mobile scheint halt gerade ganz hip zu sein bei denen. Dann haben sie so ein paar kleine Bugs drin, die echt nervig sind. Wenn du zum Beispiel 28 Tage mit den letzten 28 Tagen vergleichst, dann vergleicht er in Wirklichkeit 28 Tage mit 26, weil er eben auf das heutige Datum geht, aber da gibt es ja noch keine Werte, denn es dauert ja immer 2 Tage.

Da siehst du dann immer die Summe und egal womit du das vergleichst, du bist immer schlechter, weil dir 2 Tage fehlen. Das ist besonders beim Vergleich von 7-Tage-Zeiträumen doof, weil du dann immer 5:7 und ein Riesen-Delay hast. Wenn du unten hinschaust, siehst du das auch, aber wenn du erstmal nur oben die Zahl siehst, wird das nicht klar. Ich denke mir dabei immer: “Wir alle wissen, dass es immer 3 Tage Delay gibt. Könntet ihr das bei euren Filtern dann nicht auch gleich so einstellen?” Google weiß ja auch, dass noch nichts da ist. Wer hat denn das wieder gebaut? Welcher arme Azubi musste denn diesen Scheiß-Filter bauen?

„Wir bauen Segmente auf, je nachdem, was der Kunde ist.“

Ansonsten ziehen wir halt die Daten heraus. ich habe mit dem Interface tatsächlich relativ wenig zu tun, weil wir alles über die API holen. Es gibt für die neue jedoch noch keine API. Ich muss Keyworddaten immer noch herunterladen und sichern, weil ich noch immer nur die letzten drei Monate und noch nicht das ganze Bild bekomme. Wenn jetzt so einen kleinen Blog oder Shop habe, dann kann ich mit der Search Console gut arbeiten. Viele unsere Kunden haben halt eher etwas komplexere, große Seiten. Wir sind alle Informationswissenschaftler. Da kommt auch unsere Stärke ins Spiel, weil das halt eben können. Da musst du halt Sachen durch segmentieren und das machen wir wirklich sehr gerne.

Google Search Console

Die Oberfläche ist deutlich aufgeräumter und dadurch übersichtlicher. / Foto: Screenshot Google

Wir segmentieren den Traffic immer nach 2 Arten. Einmal nach Suchanfragen, zum Beispiel: alle Markenbegriffe des Shops kommen in ein Segment. Jahreszahlen sind immer ganz spannend. Ich habe dann ein Segment mit 2017, 2018, 2019, 2020… Die 80 deutschen Städte kommen wieder in ein Segment – einfach, um zu schauen, ob es denn lokalen Traffic gibt oder nicht. So bauen wir mehrere Segmente auf, je nachdem, was der Kunde ist.

Ein Bekannter von mir betreibt zum Beispiel serienjunkies.de. Cooler Typ übrigens, hallo Mariano. Da ist es ja total sinnvoll, die Schauspieler in eine Ecke zu packen und Seriennamen in eine andere, um zu sagen, wie denn so der Traffic ist. Das Gleiche machen wir dann für URLs.

Bei ihm sind manche URLs halt für Episoden-Guides, andere für News etc. Dann sage ich: “Ich nehme hier drüben diesen Traffic, also diesen Cluster, und schaue, auf welchen Seitentypen der rauskommt.” Bei allen Städtenamen kannst du so halt prüfen, ob die auch auf den Städteseiten herauskommen oder ob sie dummerweise schon bei einem konkreten Angebot landen. Dann wären sie ja schon mal falsch. Es ist also sehr wichtig, dass der Traffic auf dem gewünschten Seitentyp herauskommt. Wenn nicht, dann ist meine Informationsarchitektur für Google nämlich unverständlich. Dann ist sie wiederum meist auch für den Nutzer nicht verständlich.

„Ihr könnt SEO für Rankings machen, aber es geht eigentlich nicht um Rankings.“

Auf diese Weise siehst du sowas und kannst sowas messen. Wir arbeiten sehr häufig gar nicht dafür, dass wir mehr Traffic erzeugen. Wenn eine Seite auch nur halbwegs optimiert ist, dann steht sie bei Google bereits sehr stark für ein bestimmtes Thema.

Das heißt, du bekommst relativ schwer Traffic aus anderen Themen. Das ist höllisch schwer geworden, weil Google hier Autoritäten für Themenbereiche zuordnet und die Seiten da sehr schwer heraus lässt. Dafür bist du in diesem Themenbereich immer sau geil platziert.

Da kommt wieder die Frage: Kommt der Traffic auf die richtigen Seiten? Wenn du hier etwas austauscht, dann siehst du wie auf einmal deine Conversionrate hoch geht. Du holst einfach mehr Geld aus dem gleichen Traffic heraus. Das ist mir auch besonders wichtig.

Ihr könnt SEO für Rankings machen, aber es geht eigentlich nicht um Rankings. Es geht letztlich immer darum, was ich am Ende verdient habe. Damit treffe ich ja genau die Nutzer, die mit meiner Seite zufrieden waren. Die, die nicht einkaufen oder einen Lead abschicken, die waren unter Umständen nicht zufrieden. Dann bin ich für die vielleicht die falsche Quelle.

Ich bin der Meinung, dass wir alle einen riesengroßen Denkfehler machen. Wir arbeiten mit so Sachen wie Search Console oder Rank Tracking, mit denen wir sagen: “Query-Impression-Click. Query-Impression-Click”.

Nutzer klicken aber oft mehrere Sachen. Ich kann es nur nicht sehen, denn der User kommt ja auf meine Seite und wenn er zurückgeht, ist es eine neue Query. Man denkt immer: hinter einer Query sitzt ein Mensch. Nein! Acht Queries sind ein Mensch. Wir haben halt keine Search Session. Die kriegen wir nirgends her.

Ich hatte die mal, als ich noch bei T-Online war. Da hatten wir ja auch die T-Online-Suche. Da hatten wir wirklich die Möglichkeit. Wir haben nicht hardcore Sessions mit getrackt, das ging aus Datenschutzgründen, also aus sehr guten Gründen, nicht. Wir hatten aber “Ergebnisse im neuen Tab geöffnet”. Das heißt, ich konnte durchaus sehen, was für eine CTR ich auf einer Suchergebnisseite habe. Die ist definitiv immer über 1 – eher so 2,3 oder 4. Also Leute schauen sich 3 bis 4 Ergebnisse an. Wenn du dir das bewusst machst, dann brauchst du nicht um Position 1 in den SERPs kämpfen.

Das ist wirklich spannend, wenn man darüber nachdenkt. Das relativiert auf jeden Fall so einiges. Was du natürlich auch sagen kannst, wenn du dir eine SERP anschaust ist, ob du jetzt zum Beispiel der einzige Ratgeber auf der Seite bist zwischen lauter Shops. Das bedeutet: Alle, die einen Ratgeber brauchen und nicht einkaufen wollen, werden bei dir landen. Dabei ist es egal, an welcher Position du stehst, denn du bist in dem Moment der einzige deiner Art.

Genauso ist es, wenn du ein Shop für zum Beispiel Handys bist und über deinem Ergebnis landen chip, heise und ähnliche und du bist auf Platz 7. Hier bekommst du alle Leute, die vorhaben, etwas zu kaufen. Alle anderen wollten sowieso nicht zu dir, weil sie nicht kaufen wollten. In dem Moment wärst du eh der Falsche gewesen. Es geht nicht um Traffic, sondern um Menschen. Es geht darum, Bedürfnisse zu befriedigen und manchmal bin ich einfach nicht derjenige, der das kann. Dann kann ich die User auch nicht zwingen, auf meine Website zu klicken.

Philipp ist Social Media Ninja im E-Team und kümmert sich (fürsorglich) um den Content auf unserem Blog und unsere anderen sozialen Kanälen. Zudem bringt er als passionierter Schlagzeuger einer Countryband nebenbei ein wenig Redneck-Vibes ins Büro – yeeeehaaaaww!

Wie ist deine Meinung?

Bekannt aus: