Tumgik
torusverlaggmbh · 2 years
Text
Google Ads: Das Ende der ETAs – und jetzt? [Search Camp 231]
Zum 30. Juni 2022 werden die beliebten ETAs in Google-Ads-Kampagnen abgeschaltet. Da muss ich unseren Head of SEA Martin Röttgerding fragen: Ist das schlimm? Was kommt danach? Was ist jetzt nicht mehr möglich?
  Keine Ausgabe unserer Podcasts mehr verpassen? Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:
Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.
  Die wichtigsten Podcast-Links:
Alle Episoden von Search Camp als RSS-Feed
Search Camp bei iTunes
Alle Folgen: www.searchcamp.de
Auf Twitter folgen: @bloonatic (Markus Hövener)
Einsteigertipps: So “empfangen” Sie Search Camp!
Themenvorschläge? Immer her damit…
  from Bloofusion Blog https://ift.tt/LmVg9E0 via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
SEO „hängt davon ab“. Aber wovon eigentlich? [Alles auf Start 62]
Wenn man einen SEO fragt, erhält man oft die Antwort: „Das hängt davon ab“. Das stimmt in der Regel auch, denn in Bezug auf Suchmaschinenoptimierung ist nur wenig in Stein gemeißelt. In dieser Episode schauen wir daher auf acht Bereiche, von denen es wirklich oft abhängt – von Qualität bis Frequenz.
  Keine Ausgabe unserer Podcasts mehr verpassen? Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:
Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.
  Die wichtigsten Podcast-Links:
Alle Episoden von Alles auf Start als RSS-Feed
Alles auf Start bei iTunes
Alle Folgen: www.allesaufstart.de
Auf Twitter folgen: @bloonatic (Markus Hövener)
Einsteigertipps: So “empfangen” Sie Alles auf Start!
Themenvorschläge? Immer her damit…
  SEO „hängt davon ab“. Aber wovon eigentlich?
Schön, dass ihr wieder dabei seid und dass ich wieder ein neues SEO-Thema für euch habe. Und zwar eigentlich ein ganz lustiges Thema, finde ich. Ich habe einen Freund, der ist Rechtsanwalt und es gibt halt einen wichtigen Satz bei Rechtsanwälten und der ist immer: “Hängt davon ab.” Also wenn einer was fragt, muss man immer sagen, “Hängt davon ab.” Und das stimmt auch.
Und die SEOs, die sagen das auch immer, “Hängt davon ab.” Was natürlich eine etwas unbefriedigende Antwort ist und ich möchte euch heute mal ein bisschen Einblick geben, wovon es denn eigentlich abhängt. Also warum sagen die SEOs das? Natürlich sagen die SEOs das vielleicht auch manchmal, ja, um dann in der Folge Beratung zu verkaufen oder so. Okay, ja, mag sein. Aber faktisch muss man wirklich sagen, es hängt oft davon ab. Und dafür habe ich jetzt acht verschiedene “Davon hängt es ab.” mitgebracht.
  #1: Es hängt vom Umfang ab
Also Fragestellung zum Beispiel: Jemand kommt zu mir und sagt, “Du, ich habe hier einen schlechten Link.”, ich habe einen schlechten Link, der ist vielleicht gekauft oder jemand anderes hat den auf mich gesetzt mit einem Anchor-Text-Link. Also ein Link, der eigentlich gegen Google-Richtlinien verstößt. So und jetzt ist die Frage, soll ich den jetzt abbauen? Soll ich mir da groß Gedanken machen, ja oder nein?
Und da muss man sagen, es hängt für mich immer ein bisschen vom Umfang ab. Also wenn es wirklich ein schlechter Link ist und du hast 1000 gute, dann wäre das für mich nicht relevant. Oder du hast einen Text, eine Seite, da hast du Text vom Hersteller kopiert. Bei allen anderen nicht. Wäre mir auch egal. Oder auch über PDF Rankings haben wir hier schon mal gesprochen. Wenn das jetzt 0,1 % deines Traffics ausmacht, würde ich sagen, ist auch egal. Also immer gucken, wie groß ist dieses, was euch da stört im Vergleich zum Gesamtvolumen.
  #2: Qualität
Qualität ist ein großes Thema. Das hat sich über die Jahre immer mehr gesteigert. Damals gab es das Panda Update für Content-Qualität und das Penguin Update für Linkqualität. Und auch wer die Quality Rater Guidelines mehrere Mal gelesen hat, der wird das Wort Qualität hinreichend oft darin lesen und vor allem steckt es schon im Namen. Es sind ja die Quality Rater Guidelines, also es hängt oft von der Qualität ab.
Und eine Frage, wo ich eben das als Antwort gebe, nämlich, “Hängt davon ab.”, ist zum Beispiel, ob Produktbewertungen gut oder schlecht sind. Das hängt nämlich wirklich von der Qualität ab, weil man wirklich sagen kann: Produktbewertungen an sich können gut oder schlecht sein. Wenn da sinnvolle Texte drinstehen, dann kann das die Produktdetailseite ordentlich aufwerten. Wenn da aber nur “Blabla” drinsteht und “Schnell geliefert” oder “Alles okay” als Text, dann hilft das deiner Seite natürlich nicht, die Qualität zu steigern.
  #3: Deine Strategie
Auch da ist sehr oft so eine Frage, also eines meiner Lieblingsthemen ist ja International SEO. Naja, und jetzt ist die Frage zum Beispiel, du hast jetzt eine neue Website aufgemacht für ein neues Unternehmen. Was soll ich denn jetzt nehmen? Eine .de-Domain oder eine .com-Domain? Da muss ich sagen, hängt davon ab.
Es hängt nämlich davon ab, in wie vielen Ländern du das irgendwann mal anbieten möchtest. Wenn du sagst, du, ich bin sowieso nur Friseur in Berlin und ich werde immer nur Friseur in Berlin sein, dann ist eine .de-Domain gut. Aber wenn du heute schon weißt, dass du im nächsten Jahr noch in vier Länder expandieren möchtest, dann wäre eine .de-Domain das schlechtere und eine .com-Domain das deutlich bessere. Also gerade in Bezug auf Domain-Strategie ist das Thema Gesamtstrategie des Unternehmens, also wo wollen wir hin, ein wichtiges Thema.
  #4: Frequenz
Ein Beispiel, was ich auch gar nicht so selten habe, ist: Jemand veröffentlicht Stellenanzeigen auf der Website und da ist jetzt die Frage, da hätten wir gerne Job Posting Markup rein, um in Google Jobs aufzutauchen. Das ist ja eine zwingende Voraussetzung dafür. Und ja, deswegen die Frage, sollen wir uns das programmieren lassen, dass da dieses richtige Markup eingebaut wird und so, oder nicht? Und auch das hängt eben davon ab, nämlich, wie oft nutzen wir das denn?
Wenn wir nur eine Stellenanzeige in zwei Jahren raushauen, würde ich sagen, Nee, das ist jetzt wahrscheinlich die – wird das die Investition, also das, was es kostet, das zu programmieren, wird das nicht wieder reinspielen können in der Laufzeit dieser Website. Und deswegen ist natürlich schon eine Frage eben Frequenz, also wie oft nutzen wir sowas eigentlich. Wie oft tritt dieser Fall auf?
  #5: Perfektion oder Pragmatismus
Angenommen, du hast Seiten, auf denen fehlt ein Canonical Tag. Ist gar nicht mal so selten, kann passieren. Und Best Practice ist natürlich, dass jede Seite ein Canonical Tag hat. Und jetzt hast du Seiten, die haben eben keins. Was müssen wir jetzt machen? Und da muss ich sagen, hängt davon ab.
Es hängt davon ab, wie du so drauf bist. Wenn du es perfekt haben willst, wenn du, ja, wenn du die Best Practices vollständig erfüllen möchtest, dann muss das eben da rein und ansonsten eben nicht.
Die gleiche Frage ist auch so ein bisschen bei hreflang-Tags. Das braucht man ja für internationale Websites. Und auch da ist die Frage, es gibt viele Fälle, angenommen, du hast eine Website mit einem deutschen Sprachraum und einem englischen Sprachraum, also /de, da sind dann die ganzen deutschsprachigen Inhalte drin und /en für die ganzen englischsprachigen Inhalte. So, und jetzt braucht man eigentlich theoretisch hreflang nicht, weil Google kann das anhand der Sprache, anhand der Content-Sprache und der Suchsprache eigentlich perfekt auseinanderhalten. Best Practice wäre es trotzdem, hreflang zu haben.
Also noch mal die Frage: Was willst du? Willst du Perfektion? Oder willst du Pragmatismus? Und da muss ich natürlich sagen, ja, hängt wirklich davon ab. Habe ich schon alles erlebt. Und ja, auch viele schätzen dann so meine Ehrlichkeit, wenn ich sage, ja, ihr könnt das machen, aber es wird euch überhaupt nichts bringen. Und ja, manche wollen es dann eben trotzdem machen. Das ist aber eher selten.
  #6: Deine Branche
Es gibt ja so Themen wie EAT: Expertise, Authoritativeness und Trustworthiness. Das heißt, es ist ein Anspruch, den Google an dein Unternehmen hat, dass du eben, ja, vertrauenswürdig bist, Experte bist, Autorität bist. Und zwar sowohl als Unternehmen als auch als Person. Also der, der einen Beitrag – der oder die, der/die einen Beitrag geschrieben hat. So, und jetzt gibt es eben dieses Thema EAT.
Ist bei manchen Themen wichtiger als bei anderen Themen. Da gibt es ja diesen Themenbereich “Your Money or your Life”. Das ist hauptsächlich Medizin, Jura und Finanzen. Da ist das alles sehr, sehr wichtig. Und wenn du jetzt allerdings eher, weiß nicht, bei Onlineshops bist oder im B2B, dann ist das eher nicht so wichtig.
Und es gibt natürlich manche Google Features, zum Beispiel, wenn du ein lokales Unternehmen bist, dann ist die lokale Suche für dich sehr wichtig. Wenn du sowieso irgendwie europaweit aktiv bist und dieses Lokalthema für dich überhaupt keine Relevanz hat, dann ist es natürlich, ja, eher nicht so wichtig. Also es hängt immer auch von deiner Branche ab. Ja.
  #7: Deine Konkurrenz
Ist ja völlig logisch, denn vor allem beim Thema Linkaufbau oder bei insgesamt Off Page Signalen zählt eben vor allem die Konkurrenz. Und da zählt eben vor allem zum Beispiel bei der Frage, wie viele Backlinks brauche ich eigentlich – da ist natürlich schon die Frage, ja, kann ich nicht sagen. Habe ich auch schon einen Podcast zu gemacht, nämlich es hängt davon ab, wie viel deine Konkurrenz hat. Wenn deine Konkurrenten alle fünf Backlinks haben, dann musst du nicht 100 Links aufbauen.
Und dann gibt es aber leider Fälle, wo das alles ganz anders aussieht, weil du zum Beispiel starke Konzerne gegen dich hast, die wahnsinnig bekannt, wahnsinnig etabliert sind, dann sieht das Spiel ganz anders aus. Und natürlich auch nicht nur die Konkurrenzfrage, sondern auch, was hast du denn schon? Also klar, das war jetzt so implizit da mit drin, nämlich, wie viele Backlinks zum Beispiel hast du denn schon? Und da gibt es ein paar Fälle, wo ich sagen muss, so Backlinkaufbau ist einfach nicht euer Thema. Ihr seid groß bekannt, ihr werdet von jedem in der Branche verlinkt. Müssen wir jetzt echt nicht drüber sprechen. Und andere, vor allem Start-ups, die müssen halt richtig Gas geben.
  #8: Wie gut willst du eigentlich schlafen können?
Das klingt jetzt nach einer saublöden Frage, oder? Na ja, gar nicht so unbedingt. Es gibt nämlich die Frage: Wie wichtig ist dir die Einhaltung der Webmaster-Richtlinien?
Es gibt von Google niedergeschrieben seit 20 Jahren oder vielleicht sogar ein bisschen mehr, gibt es die Webmaster-Richtlinien. Da steht genau drin, was du darfst, respektive steht eigentlich mehr drin, was du nicht darfst. Und wenn du dagegen verstößt, dann kannst du eben eine Abstrafung durch Google bekommen, wirst dann entweder aus dem Index entfernt oder es droht dir irgendwie eine Verringerung deines Traffics oder ganz bestimmte Features werden dir genommen.
Es sind übrigens nicht nur die Webmaster-Richtlinien, sondern es gibt an verschiedenen anderen Stellen gibt es auch noch einzelne Richtlinien, zum Beispiel für jedes Markup gibt es noch eigene Richtlinien. Halten wir es jetzt ein bisschen kurz. Es gibt Richtlinien.
Und die Frage ist: Willst du nach den Regeln spielen oder willst du nicht nach den Regeln spielen? Und das hat auch ein bisschen was mit Konkurrenz zu tun, denn es gibt so ein paar Bereiche. Also was ich zum Beispiel mir gerne angucke, wenn ich mir so grenzwertige Sachen aussuche, zum Beispiel für Konferenzvorträge, gucke ich mir gerne die plastisch-ästhetischen Chirurgen an, neudeutsch Schönheitschirurgen. Die verstoßen total gerne gegen Richtlinien. Das mag aber vor allem daran liegen, so, wenn mal einer dagegen verstößt, dann ist natürlich die Frage, ja, was willst du denn jetzt? Willst du in Schönheit sterben? Das ist natürlich jetzt hier gerade ein bisschen ungünstig formuliert. Also willst du dich an die Regeln halten, aber dann hast du einen Nachteil gegenüber den anderen? Oder spielst du eben das Spiel mit, weil alle anderen spielen das Spiel? Zum Glück nicht alle. Es gibt auch ein paar Vernünftige.
Und ja, gerade so Sachen, zum Beispiel beim Markup wird da viel ein bisschen kreativ ausgelegt. Manche Websites haben dann so Sternchen in den Suchergebnissen, die man so eigentlich gar nicht mehr haben kann. Aber sie haben halt das Richtige – oder das Richtige nicht, aber sie haben halt fälschlicherweise verwendetes Markup eingebaut, was dann dazu führt, dass sie Sternchen kriegen. Wenn Google das ganze aufhält, sind die Sternchen weg und es gibt halt eine Abstrafung dafür. Und ja, da ist eben wirklich die Frage, was willst du eigentlich?
Und ich habe schon viele getroffen in der Vergangenheit, die dann einfach sagen, “Nö. Mir ist schon wichtig, dass wir uns an die Regeln halten, selbst wenn die anderen das nicht tun. Wenn die dann irgendwann dafür abgestraft werden, dann ist das okay für uns. Dieses Risiko wollen wir nicht eingehen.” Man muss natürlich ganz ehrlich dabei sagen, Google ist natürlich schon sehr scharf an vielen Stellen, haben vor allem in den letzten beiden Jahrzehnten natürlich viel gelernt von den ganzen SEOs, was die so schlimmes Zeugs machen.
Aber es gibt eben doch Bereiche, wo Google jetzt nicht so wahnsinnig schnell da hinterher ist. Also es kann durchaus sein, dass man zum Beispiel mit diesen Sternchen in den Suchergebnissen für zwei, drei, vier Jahre perfekt durchkommt. Und auch das ist natürlich eine Frage. Also du hast zwei, drei, vier Jahre lang hast du einen Vorteil in den Suchergebnissen und dann, wenn es jemandem auffällt, wirst du dafür abgestraft und hast vielleicht zwei Wochen einen kleinen Nachteil und behebst das dann und hast dann auch keine Sternchen mehr. Aber du hattest sie eben zwei, drei, vier Jahre lang und naja, manche da draußen sehen dieses Thema einfach anders als andere, ein bisschen großzügiger. Manche haben wirklich einen sehr guten Schlaf und manche einen sehr leichten Schlaf.
Und deswegen muss man natürlich immer auch ein bisschen, gerade als SEO mit dem Kunden in den Dialog gehen und mal rausfinden, wie ticken die denn so? Und ja, ich persönlich bin immer ein Freund davon, dass wir die Google-Richtlinien einhalten, weil langfristig funktioniert das alles natürlich nicht. Aber ich sage auch immer, solange der Kunde weiß, worauf er sich einlässt, ist das für mich okay. Es ist nur eben eine Frage der Aufklärung.
Ich habe auch schon viele Fälle erlebt, wo Kunden das gar nicht wussten, dass sie da gegen Richtlinien verstoßen. Sie sind dann aus allen Wolken gefallen. Also da gibt es sehr, sehr viele verschiedene Fälle. Das vielleicht auch nur noch mal so für euch da draußen, ist nicht immer alles nur schwarz und weiß. Manchmal muss man einfach auch ein bisschen drüber sprechen.
Das gleiche übrigens auch beim Thema Backlink-Aufbau. Auch da gibt es natürlich nicht nur schwarz und weiß, sondern die Skala ist natürlich schon ein bisschen verschiedene Grautöne, die es da noch gibt. Und auch da muss man natürlich immer gucken, was will ich, welches Risiko will ich eingehen und welches Risiko muss ich vielleicht auch eingehen, weil ich eben vielleicht in einer Branche bin, wo alle halt sich nicht an die Regeln halten.
  Finale
Okay. Das waren meine acht “Hängt davon ab.” Ich hoffe, ihr konntet was mitnehmen. Und wenn ihr das nächste Mal ein SEO fragen oder respektive antworten hört, “Ja, hängt davon ab.”, habt ihr vielleicht ein bisschen mehr Verständnis für die SEOs und ja, seid einfach offener dafür, dass eben nicht alles so ganz, so einfach und immer so binär ist, sondern manchmal muss man eben wirklich die Erfahrung herauskramen und manchmal muss man auch wirklich drüber nachdenken, ja, wo stehst du? Was hast du? Welches Risiko willst du eingehen? Wie ist deine Konkurrenz aufgestellt? Und deswegen muss man eben immer sagen, es hängt davon ab.
from Bloofusion Blog https://ift.tt/zXp35rF via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
Consent Mode und Enhanced Conversions – So schließt du deine Datenlücken
Die meisten Werbetreibenden stehen vor dem Problem, eine unzureichende Datenbasis für effektive Marketing-Entscheidungen zur Verfügung zu haben. Im Blogpost erfahrt ihr, was ihr nun tun könnt, um euer Tracking-Setup zukunftsfähig auszubauen.
Warum sind die meisten Daten eigentlich unzureichend? Die DSGVO und die daraus resultierenden eingeschränkten Möglichkeiten in der Datenerfassung haben in den letzten Jahren vielen Werbetreibenden ordentlich die Laune vermiest. Zum einen gehen Daten dadurch verloren, dass Nutzer*innen über das Cookie-Banner dem Tracking widersprechen, zum anderen haben aber auch die meisten Browser Intelligent Tracking Preventions (ITP) eingeführt, die die Datenerfassung erschweren. So hat bspw. Safari bereits 2019 seine ITP weiter verschärft, sodass die Laufzeit von Cookies auf bis zu 24 Stunden reduziert wird – je nach Einstellung der Nutzer*innen. Für Chrome hat Google angekündigt, etwa ab Ende 2023 auf Tracking-Cookies zu verzichten, was die Datenqualität weiter verschlechtern könnte.
Consent Mode
Der Consent Mode, auch Einwilligungsmodus genannt, ändert das Verhalten der Google Tracking Tags je nach Einwilligungsstatus der Nutzer*innen.
So funktioniert’s
Wenn Nutzer*innen das Cookie-Banner akzeptieren, arbeiten die Tracking Tags wie gewohnt und erfassen die zugeordneten Conversions und Klick-Informationen. Im Falle der Cookie-Verweigerung sendet der Consent-Mode lediglich eine Ping-Information. Die sogenannten Pings funktionieren ohne Cookies. Sie können Informationen wie den Zeitstempel und die Verweis-URL enthalten. Es werden aber laut Google keine personenidentifizierbaren Informationen gespeichert. Zusätzlich kann der Consent Mode durch die Pings die Opt-in den Opt-out-Raten gegenüberstellen. Mit dieser Information werden dann Conversions von Nutzer*innen, die das Cookie-Banner abgelehnt haben, modelliert.
Kommen bspw. 100 Nutzer*innen auf eine Website, von denen 80 das Cookie-Banner akzeptieren, senden 20 Nutzer*innen lediglich Pings. Für diese 20 Nutzer*innen werden dann Conversions modelliert. Dabei ist wichtig zu wissen, dass die modellierten Conversions eher konservativ gerechnet werden, da davon auszugehen ist, dass Nutzer*innen, die Cookies akzeptieren, eine höhere Conversion-Wahrscheinlichkeit aufweisen. Die modellierte Conversion-Rate sollte somit i. d. R. etwas schlechter ausfallen als die nicht-modellierte Conversion-Rate. Derzeit ist es in den Google Ads-Berichten leider noch nicht möglich, die modellierten Conversions separat auszuwerten. Wir hoffen, dass Google hier noch transparenter wird.
Voraussetzungen
Der Consent Mode kann sowohl für das Google Ads Tag als auch für Google Analytics genutzt werden. Wichtig ist, dass es nur mit dem gtag, also der neueren Generation der Tracking Tags, funktioniert. Für eine einfache Implementierung empfehlen wir idealerweise den Google Tag Manager. Bei der Daten-Analyse ist zu beachten, dass man von einer Lernphase von bis zu 75 Tagen ausgehen kann. Je mehr Daten einfließen, desto effektiver ist die Lernphase.
Um den Consent Mode zu nutzen, ist eine genaue Abstimmung mit den eigenen Datenschutzbeauftragten notwendig. Der Dienst sollte bei Einsatz in jedem Fall in der Datenschutzerklärung aufgeführt werden.
Enhanced Conversions
Gleiches gilt für die Enhanced Conversions. Steht der Einsatz aber erstmal auf rechtlich sicheren Füßen, sollen sich etwa 5 % der verlorenen Conversions rekonstruieren lassen. Die Enhanced oder auch erweiterten Conversions lassen sich direkt in den Einstellungen des Google Ads Tags aktivieren. Zusätzlich sind einige Anpassungen im Google Tag Manager bzw. bei nativ verbauten Ads Tags im Quellcode notwendig.
So funktioniert’s
Bei den Enhanced Conversions wird das Google Ads Tracking um eigens erfasste Daten von Nutzer*innen erweitert. Das können Daten wie die E-Mail-Adresse, der Name oder die Telefonnummer sein. Die Daten werden durch Hashwerte verschlüsselt an Google gesendet, um den Datenschutz zu gewährleisten.
Diese Technologie ermöglicht eine nachträgliche Zuordnung von Anzeigeninteraktionen zu Conversions, falls Cookies aufgrund von ITPs bereits gelöscht wurden. Voraussetzung ist aber, dass die Conversion-Session normal erfasst werden konnte, das Cookie-Banner also akzeptiert wurde. Wird dem Ads Tag dann die E-Mail-Adresse übermittelt, kann Google die gehashte Adresse mit allen anderen gehashten Adressen abgleichen, um zu rekonstruieren, ob innerhalb des eingestellten Conversion-Zeitfensters Anzeigenklicks über eben diese E-Mail-Adresse erfolgt sind.
Voraussetzungen
Enhanced Conversions können nur für Google Ads Tags aktiviert werden. Falls Zielvorhaben oder Conversions aus Google Analytics in Google Ads genutzt werden, sollte man überlegen, auf das Ads-Tracking umzusteigen, um von den Enhanced Conversions profitieren zu können. Des Weiteren lassen sie sich derzeit nur für die Kategorien Käufe und Leads verwenden, da mit der Conversion ja Daten von Nutzer*innen für den Abgleich erfasst werden müssen.
Fazit
Eine möglichst große Datenbasis gewährleistet effektive Marketing-Entscheidungen. Fehlen die Daten aufgrund von Tracking-Restriktionen, kann es schwierig werden, Budgets im Marketing-Mix sinnvoll zuzuordnen. Des Weiteren läuft man Gefahr, Google Ads-Kampagnen künstlich klein zu halten, denn je weniger Daten zur Verfügung stehen, desto weniger erfolgversprechend sieht die Leistung der Kampagnen aus. Googles Smart Bidding-Algorithmen „glauben“ dann, die vorgegebenen Ziele nicht zu erreichen, und regulieren die Kampagnen herunter. Das kann in einer Abwärtsspirale resultieren.
Aus diesem Grund scheinen die neuen Ansätze von Google sehr vielversprechend zu sein. Ob die Technologien für das eigene Unternehmen sinnvoll sind, hängt zum einen von den Empfehlungen der Datenschutzbeauftragten ab und zum anderen von der aktuellen Datengrundlage. Wenn die Opt-in-Rate des Cookie-Banners schon nahezu 100 % (sehr unwahrscheinlich) beträgt, ist der Consent Mode zum Beispiel nicht zwingend notwendig. Erfüllt man aber die oben genannten Voraussetzungen und leidet aktuell unter Datenverlust, kann es sich lohnen, die Thematik mit den Datenschutzbeauftragten zu besprechen und die neuen Features einzurichten.
from Bloofusion Blog https://ift.tt/uMz0vFR via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
SEO-Monatsrückblick Mai 2022: Search Console, Page Speed + mehr [Search Camp 230]
Im SEO-Monatsrückblick für den Mai 2022 stelle ich 18 aktuelle SEO-relevante Themen vor: Was hat sich in der Search Console geändert? Welche Neuigkeiten gibt es in Bezug auf Page Speed? Das und viel mehr gibt’s hier in komprimierter Form.
  Keine Ausgabe unserer Podcasts mehr verpassen? Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:
Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.
  Die wichtigsten Podcast-Links:
Alle Episoden von Search Camp als RSS-Feed
Search Camp bei iTunes
Alle Folgen: www.searchcamp.de
Auf Twitter folgen: @bloonatic (Markus Hövener)
Einsteigertipps: So “empfangen” Sie Search Camp!
Themenvorschläge? Immer her damit…
  Suchergebnisse
#1 https://www.seo-suedwest.de/8136-google-deutlicher-anstieg-von-suchergebnisseiten-mit-faq-rich-results.html
Es gab wieder eine Änderung bzgl. der FAQ-Snippets. Seit dem 20. Mai werden diese wohl wieder häufiger ausgespielt.
#2 https://searchengineland.com/google-multisearch-to-gain-near-me-support-385104
Ein spannendes Potenzial für die nahe Zukunft: Mit Google Multisearch (Kombination aus visueller und textlicher Suche) kann man nun gezielt nach Produkten suchen, die in der Nähe verfügbar sind.
#3 https://twitter.com/sistrixDE/status/1528627604340760576
Laut SISTRIX hat sich in den Suchergebnissen mit „Ähnliche Fragen“ (PAA) etwas geändert: Diese ersetzen keine Suchergebnis mehr, sodass es jetzt bei einer Einbindung dieses Blocks 10 Suchergebnisse geben kann. SISTRIX weist darauf hin, dass sich in der Folge Sichtbarkeiten/Rankings ändern können.
#4 https://www.seo-suedwest.de/8117-about-this-source-google-zeigt-informationen-ueber-webseiten-bei-deren-besuch-an.html
Die „About this Result“-Informationen werden zukünftig wohl nicht mehr nur in den Suchergebnissen, sondern auch beim Besuch der jeweiligen Website. Man sollte also in jedem Fall sicherstellen, dass diese Informationen korrekt sind.
  Page Speed
#5 https://www.seroundtable.com/google-core-web-vitals-fid-with-inp-33429.html
Google denkt darüber nach, die Metrik FID (First Input Delay) aus den Core Web Vitals durch die neue Metrik INP (Interaction to Next Paint) zu ersetzen: „INP is a full-page lifecycle metric, just like Cumulative Layout Shift. That means it measures all interactions, not just the first.“
#6 https://web.dev/api-for-fast-beautiful-web-fonts/
Wer Google Fonts nachlädt, hat viele Möglichkeiten, das optimiert zu machen. Dieser Artikel liefert einen guten Überblick über die aktuellen Möglichkeiten.
  Google Search Console
#7 https://searchengineland.com/google-search-console-to-release-new-video-page-indexing-report-385153
Schon bald wird es wahrscheinlich einen neuen Report in der Google Search Console geben, der Seiten mit Videos auflistet. Darüber kann man dann z. B. Seiten erfassen, bei denen ein eingebettetes Video nicht indexiert wurde.
#8 https://www.seroundtable.com/google-search-console-translated-results-33411.html
In der Search Console gibt es im Report „Leistung“ wohl einen neuen Filter „Translated Results“, um automatisiert übersetzte Suchergebnisse zu identifizieren. Derzeit kann das aber wohl nur bei englischen Inhalten passieren.
#9 https://www.seroundtable.com/google-search-console-stop-collecting-data-33402.html
Hinweis: Laut Google kann es passieren, dass keine Daten mehr für die Search Console bereitgestellt werden, wenn man den Account lange nicht nutzt.
  Code
#10 https://developers.google.com/search/blog/2022/05/spring-cleaning-sitemap-extensions
Einige Attribute in Bild- und Video-Sitemaps werden von Google nicht mehr unterstützt. Idealerweise sollten diese also entfernt werden.
#11 https://www.seroundtable.com/google-troubleshooting-title-links-valid-page-metadata-help-docs-33392.html
Es gab einiges Ergänzungen von Google in Bezug auf Title Link und H1, die man als Beleg dafür sehen könnte, dass Google pro Seite eine einzige H1 fordert.
  Linkaufbau/Backlinks
#12 https://searchengineland.com/least-favorite-part-seo-385159
SEOs sagen: Die unbeliebteste SEO-Tätigkeit („What is your least favorite part of SEO?“) ist definitiv Linkaufbau.
#13 https://moz.com/blog/link-earning-stack
… und vielleicht ein Mittel dagegen: Eine gute Zusammenfassung kann hoffentlich die Begeisterung für Link Earning wecken. Also: starke Inhalte, die so gut sind, dass sie (fast von selber) verlinkt werden.
  Fallstudien, Analysen + sonstiges
#14 https://searchengineland.com/dmca-request-removes-moz-from-google-search-index-384943
Ein interessanter Fall: Die Startseite von Moz wurde aus den Suchergebnissen entfernt, weil eine gültige DMCA-Anfrage bei Google vorlag. Offensichtlich prüft Google diese nicht auf Korrektheit. Nach einigen Tagen wurde Moz allerdings wieder freigeschaltet.
#15 https://www.seroundtable.com/google-drops-word-count-keyword-density-slide-33399.html
Damit hat sich Google keinen Gefallen getan: Es gibt ein Zertifizierungsprogramm, bei dem man sich auch als SEO zertifizieren lassen kann. Dort gab es nur leider konkrete Empfehlungen zum Wortumfang, was definitiv nicht Googles Position wiedergibt.
#16 https://zyppy.com/seo/internal-links/seo-study/
Noch eine spannende Analyse von Cyrus Shepard (Zyppy), bei der die internen Links auf 1.800 Websites untersucht wurden. Ein interessantes Ergebnis: Je mehr Ankertext-Variationen eine Seite hat, desto mehr organischen Traffic erhält sie.
#17 https://moz.com/blog/5-surprising-seo-test-results
Einige interessante Ergebnisse aus SEO-A/B-Tests: So hat die Verwendung von data-nosnippet zu -3% organischem Traffic geführt, das Hinzufügen von Preisen zum Seitentitel zu 15% weniger Traffic.
#18 https://searchengineland.com/lucid-visibility-how-a-publisher-broke-into-google-discover-in-less-than-30-days-from-launch-case-study-385234
Interessante Fallstudie: Eine Website hat es mit starken Inhalten innerhalb von 30 Tagen in Google Discover geschafft, signifikanten Traffic aufzubauen: „Search is increasing, but Discover is 86% of Google traffic as of now“
from Bloofusion Blog https://ift.tt/iu6b3lN via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
Webinar-Ankündigung: Die perfekte Anzeige für SEA, Display, YouTube und Social Media Ads
Weißt du, wie die perfekte Anzeige aussehen sollte? Wenn nicht, solltest du dir unser kostenloses Webinar „Die perfekte Anzeige für SEA, Display, YouTube und Social Media Ads“ auf jeden Fall ansehen! Unsere beiden SEA-Pros Gina Gilsing und Helen Gietmann erklären dir am 24.06.2022 ab 10 Uhr, was es alles zu beachten gibt! Los, los, los … wir warten auf deine Anmeldung.
Zum Inhalt
Obwohl sich vieles im Bereich Online-Werbung zunehmend vereinfacht und automatisiert lösen lässt, hat wohl gerade das Jahr 2021 gezeigt, dass erfolgreiches Performance Marketing durchaus kein Selbstläufer ist. Höchste Zeit also, den Fokus noch mehr auf die passende Anzeige zu setzen! In der Session zeigen dir Gina und Helen, wie du mit kreativen und eindrucksvollen Ansätzen richtig großartige Inhalte für die fast perfekte SEA, Display, YouTube und Social Media Ad erstellst.
4 gute Gründe dabei zu sein
Du lernst die Besonderheiten eines jeden Anzeigenformates kennen!
Best Practices, Tipps und Tricks für die Umsetzung deiner perfekten Anzeige!
Du bekommst Input zu den wichtigsten Tools, die dir bei der Umsetzung deiner Anzeige helfen!
Du erhältst einen Rundumblick über die kanalspezifische Anzeigenerstellung!
Hier geht’s zum kostenlosen Wissens-Update!
Praktisches Wissen für …
Unternehmen und Agenturen, die einen guten Überblick über die wichtigsten Anzeigen-Grundlagen und Best Practices erhalten möchten.
Das lernen die Teilnehmer:innen
Was eine annährend perfekte Anzeige wirklich ausmacht,
welche kreativen Ansätze du nutzen kannst, um richtig coole Anzeigen zu erstellen
und welche Tricks sowie Tools es gibt, die dir bei der Umsetzung helfen.
Unsere Bloofusion-Expertinnen
Gina Gilsing ist Online-Marketing-Managerin bei der Online-Performance-Agentur Bloofusion. Im Bloofusion-Blog berichtet sie über Google Ads und andere SEA-Themen. 
Helen Gietmann ist Online-Marketing-Managerin (SEA und Social Media) bei Bloofusion. Dort betreut sie Kunden verschiedenster Branchen und Größenordnungen. Im Bloofusion-Blog befasst sie sich zudem mit unterschiedlichen SEA- und Social-Media-Themen.
Wissen vorab
Hier kannst du dich schon einmal mit dem Thema befassen:
https://blog.bloofusion.de/webinar-ankuendigung-das-sea-playbook-die-passenden-anzeigenformate-im-richtigen-moment/
https://blog.bloofusion.de/mit-video-ads-kunden-gewinnen-5-tipps/
https://blog.bloofusion.de/ios-update-social-media-ads/
Direkt für den 26. Juni registrieren!
from Bloofusion Blog https://ift.tt/oW4e8ru via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
5 wichtige SEO-Fragen, die der Screaming Frog SEO Spider beantworten kann! [Search Camp 229]
Der Screaming Frog SEO Spider ist sicherlich ein Schweizer Taschenmesser für die SEOs. Man muss aber auch wissen, was man damit machen möchte. Und deswegen in dieser Episode: Ich stelle fünf große Themen vor, die man gut mit dem Tool beantworten kann.
  Keine Ausgabe unserer Podcasts mehr verpassen? Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:
Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.
  Die wichtigsten Podcast-Links:
Alle Episoden von Search Camp als RSS-Feed
Search Camp bei iTunes
Alle Folgen: www.searchcamp.de
Auf Twitter folgen: @bloonatic (Markus Hövener)
Einsteigertipps: So “empfangen” Sie Search Camp!
Themenvorschläge? Immer her damit…
  Shownotes
Hier geht’s lang zu meinen Frog-Seminaren:
Screaming Frog SEO Spider für Einsteiger
Screaming Frog SEO Spider für Fortgeschrittene
SEO-Audits mit dem Screaming Frog SEO Spider
  from Bloofusion Blog https://ift.tt/b90lOns via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
SEO + Noindex: 10 wichtige Fakten! [Alles auf Start 61]
Die Noindex-Anweisung ist aus dem modernen SEO gar nicht wegzudenken. Aber wozu braucht man die Anweisung eigentlich genau? Wie passen Noindex und robots.txt zusammen? Kann man damit Duplicate Content verhindern? Fragen über Fragen, die in dieser Episode geklärt werden …
  Keine Ausgabe unserer Podcasts mehr verpassen? Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:
Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.
  Die wichtigsten Podcast-Links:
Alle Episoden von Alles auf Start als RSS-Feed
Alles auf Start bei iTunes
Alle Folgen: www.allesaufstart.de
Auf Twitter folgen: @bloonatic (Markus Hövener)
Einsteigertipps: So “empfangen” Sie Alles auf Start!
Themenvorschläge? Immer her damit…
  SEO + Noindex: 10 wichtige Fakten!
Heute ein wichtiges Thema für einige Websites, nämlich Noindex. Ja, ich habe euch insgesamt zehn Fakten mitgebracht. Wenn ihr mal auf eine SEO-Party geht, dann könnt ihr halt auch ein bisschen zeigen, was ihr draufhabt. Vieles davon ist, ja, ich finde Hintergrundwissen. Das sollte man draufhaben, wenn man sich ernsthaft mit SEO auseinandersetzt.
  Was ist Noindex?
Klassisch ist das Bestreben von Google ja, was immer sie im Netz finden an Seiten, in den Index aufzunehmen. Das ist das Standardverhalten. Und dieses Standardverhalten kann man aushebeln, indem man sagt, Hey, ich habe hier vielleicht ein paar Seiten, die will ich gar nicht, dass sie in den Index aufgenommen werden. Das heißt, wenn sie nicht im Index sind, können sie in der Folge auch in der Suche nicht auftauchen. Also angenommen, ich habe eine Seite, da sind super geheime Passwortinformationen drauf – wäre jetzt ziemlich ungeschickt, das Ganze einfach so öffentlich ins Netz zu stellen – angenommen, ich hätte die, dann wäre es nicht total ungeschickt, die auf Noindex zu setzen.
  Wann braucht man Noindex eigentlich wirklich?
Also, Punkt eins: Seiten, die garantiert nicht gefunden werden sollen. Das könnte zum Beispiel die Login Seite sein für ein Intranet oder so etwas. Das hängt von euren Spezialfällen ab. Ich habe so was immer wieder. Manchmal gibt es auch Seiten, die ja, rechtlich diskutable Inhalte haben oder so, also da gibt es viele Fälle.
Der deutlich häufigere Fall ist der, dass man eine inhaltlich schwache Seite hat, die, wenn Google sie indexieren würde und auch in Massen indexieren würde, die das Gesamtbild einer Website mindern würden. Also wenn man sich vorstellt, dass Google alle Seiten einer Website nebeneinander liegt und ich habe vielleicht so 100 starke Seiten mit richtig guten Inhalten und dann habe ich aber noch 1000, einfach nur wo Blupp draufsteht, dann wäre es besser, die 1000 Blupp-Seiten auf Noindex zu setzen.
  Die Pipeline
So, jetzt habe ich euch gleich zehn Fakten mitgebracht. Vorher noch eine Sache: Ich weiß, viele von euch wissen das, aber es ist wichtig, sich immer diese Pipeline anzugucken, wie landet etwas eigentlich im Index? Und da gibt es zwei Schritte, die nacheinander passieren. Das ist erstens das Crawling. Das heißt, Google lädt etwas runter, eine HTML-Seite, ein Bild, ein PDF, was auch immer. Irgendwas wird von eurem Server heruntergeladen.
Dann passiert noch ein bisschen Magie und dann, im nächsten Schritt passiert die Indexierung. Also erst Crawling, dann Indexierung.
  Fakt #1: Es gibt zwei Stellen, wo sich das Noindex-Tag befinden kann
Primär wird man es im HTML-Code finden, dann steht so was wie <meta name=”robots” content=”noindex>”. Da steht im HTML-Code für alle lesbar.
Es gibt Fälle, wo man das nicht dort platzieren kann oder will. Und dann geht es auch noch im sogenannten HTTP Header. Das braucht man zum Beispiel dann, wenn man etwas auf Noindex setzen möchte, was keine HTML-Seite ist. Also angenommen, du möchtest eine PDF-Datei auf Noindex setzen, dann kannst du da ja nicht <meta name=”robots”> reinschreiben, weil das ist ein HTML-Befehl, der hat in einem PDF gar nix zu suchen. Da würde Google sagen, Habe ich gar nicht gesehen, das Ding. Und deswegen kann man es theoretisch auch noch im HTTP-Header platzieren.
Nicht in der robots.txt. Das ging mal so ein bisschen, aber war eigentlich nie Standard. Nicht in der XML-Sitemap. Sondern wirklich nur primär im HTML-Code und dann zweite Möglichkeit im HTTP-Header. Wenn da Noindex nicht drinsteht, dann gilt erstmal, ich sage mal, die Unschuldsvermutung. Nämlich, dann wird standardmäßig indexiert, dann steht die Seite also implizit auf Index. Man könnte das auch explizit reinschreiben, nämlich meta name=”robots” content=”index”. Das muss man aber nicht, weil das ist so das implizite Verhalten.
  Fakt #2: Noindex ist eine Direktive
Heißt, Google muss sich daran halten. Es gibt ein paar andere Sachen, die sind keine Direktive, sondern ja, so eine Art Empfehlung, ein Hinweis, wo Google sich oft dran hält, aber nicht muss. Noindex ist unterschiedlich. Noindex ist eine Direktive, ähnlich so wie es ein paar andere Direktiven gibt, so wie Noarchive gibt es zum Beispiel. Da muss Google sich einfach dran halten. Das heißt, ihr könnt davon ausgehen, dass wenn ihr alles richtig gemacht habt und nicht gleich Fakt Nummer drei missachtet habt, dann wird die Seite garantiert nicht in den Suchergebnissen erscheinen.
  Fakt #3: Noindex und robots.txt schließen sich aus
Also, man kann Seiten auf zwei Wegen sperren. Das eine ist Noindex, da haben wir eben drüber gesprochen. Die zweite Möglichkeit ist robots.txt. So eine Datei liegt auf deinem Server und damit kannst du eben auch Sachen sperren. So. Die robots.txt, die begrenzt das Crawling. Noindex begrenzt die Indexierung.
Jetzt habe ich eben gesagt, erst wird gecrawlt, dann wird indexiert. Das heißt, wenn eine Seite per robots.txt gesperrt ist, wird sie nicht heruntergeladen. Und in der Folge könnte Google das Noindex auch nicht sehen. Das heißt, ich kann nicht eine Seite gleichzeitig per robots.txt oder Noindex sperren. Darauf muss man achten, denn wenn ich wirklich möchte, dass eine Seite nicht in den Suchergebnissen erscheint, dann muss Google ja das Noindex sehen können und das können sie nur, wenn ich sie nicht per robots.txt sperre. Ich habe gesagt, mit der robots.txt kann ich Sachen sperren, aber sie können dann trotzdem als so leere Einträge in den Suchergebnissen auftauchen. Das heißt nochmal, wenn ich will, dass etwas garantiert nicht erscheint, nur Noindex.
  Fakt #4: Index und Noindex in einer Seite ergeben keinen Sinn
Ja, man kann so was reinschreiben. Man kann reinschreiben meta name=”robots” content=”index”, “noindex”. Also so Anweisungen kann man per Komma trennen. Man kann auch zwei Robots-Meta Tags untereinanderschreiben, das geht auch.
Aber wenn ich jetzt wirklich schreibe, diese Seite ist auf Index und Noindex gesetzt, dann ist die Frage, was macht Google eigentlich damit? Und da gibt es eine sehr einfache Antwort drauf: Es zählt immer das Restriktivere, also in Anführungsstrichen, das, was mehr kaputt macht. Das heißt, wenn Google so etwas sieht, dann wird Google immer das Noindex gelten lassen und sich nicht darauf beruhen, dass da ja auch ein Index steht. Die Reihenfolge dessen ist egal. Ihr könnt es auch doppelt und dreifach reinschreiben. Vollkommen egal. Sobald Google ein Noindex sieht, gilt Noindex. Und alles andere wird überschrieben.
  Fakt #5: Noindex und Canonical Tags sind keine guten Freunde
Also, was heißt das? Es gibt ja Canonical Tags und Canonical Tags sorgen dafür, dass die Effekte, die negativen Effekte von Duplicate Content behoben werden. Also angenommen, ich habe drei verschiedene Seiten auf meiner Website und die haben alle das exakt gleiche Canonical Tag, dann werden intern im Index aus diesen drei Seiten wird eine Seite gemacht. Das heißt, Google clustert das Ganze, zieht diese Seiten zusammen, macht daraus eine.
So. Jetzt kann der Fall auftreten und da muss man gar nicht so lange nach suchen, nach so einem Fall. Ich habe eine Seite, die steht auf Noindex und hat einen Canonical Tag, was auf eine andere Seite zeigt. Die steht aber auf Index. Für alle, die in diesen Gedankenspielen nicht so drin sind und das tagtäglich machen, mag das jetzt ein bisschen verwirrend sein. Also noch mal: Ich habe zwei Seiten, eine steht auf Noindex, eine steht auf Index und beide haben das gleiche Canonical Tag. So, das heißt, Google zieht jetzt diese beiden Seiten zusammen. Ja, und dann stehen sie so ein bisschen vor so einem relativ blöden Problem. Nämlich jetzt ist die Frage: Was mache ich denn daraus? Also: Da ist ein Cluster an Seiten und eine Seite steht auf Index, eine steht auf Noindex. Was mache ich denn jetzt damit?
Und dann kann es durchaus passieren – ich habe es in der Praxis ehrlich gesagt noch nicht erlebt, aber Google sagt, dass das passieren kann – dass Google sich dann entscheidet, das Cluster auf Noindex zu setzen. Das heißt, obwohl ich eine Seite da drin habe, die auf Index steht, schmeißt Google dann das komplette Cluster weg. Damit das nicht passiert, gilt eigentlich immer die Regel, eine Seite, die auf Noindex steht, sollte keinen Canonical Tag haben, damit solche blöden Effekte einfach nie passieren können.
  Fakt #6: Noindex gleich Nofollow
Ich fürchte, das muss ich erklären. So. Also, es gibt theoretisch noch zwei Meta Tags oder zwei Robots Meta Tags, die heißen Follow und Nofollow. So. Was heißt das jetzt?
Wenn eine Seite – oder ich habe eine Seite und die hat dieses Meta Robots Tag Nofollow, dann wird Google Links, die er auf dieser Seite findet, nicht followen. Das heißt, sie werden quasi dem Crawling nicht zugeführt. Ansonsten ist Google ja immer so, dass sie sagen, Hey, wenn ich irgendwo neue Links finde, dann folge ich denen auch. Dann geht der Crawler da als nächstes oder morgen oder so mal drauf. Okay, so weit, so gut. Und wenn ich eben eine Seite auf Nofollow setze, dann passiert eben genau das nicht. So, jetzt hat Google Folgendes gesagt: Noindex, das heißt eigentlich für uns, dass wir die Seite, ja, wegschmeißen. Also sehr platt ausgedrückt. Und in der Folge werden wir Links, die auf diesen Seiten sind, auch nicht sehen können.
Das heißt, eine Seite, die auf Noindex steht, ist quasi immer so eine Dead End Street. Das ist immer implizit auf Nofollow. Ist das relevant? Es ist leider an einigen Stellen relevant, denn manchmal gibt es Fälle, da sind Seiten auf Noindex, zum Beispiel paginierte Seiten. Das ist ein ganz typisches Problem. Ich habe so eine Kategorieseite. Und dann gibt es, weil ich mehr Produkte habe, als ich auf einer Seite darstellen kann, gibt es so Unterseiten, P=2, P=3, P=4, kennen wir alle. Da ist unten so eine Navigation, 1, 2, 3, 4, 5. Und die Seiten 2, 3, 4, 5, bis zum Ende, die stehen alle auf Noindex, weil man nicht möchte, dass diese ganzen paginierten Seiten, von denen es durchaus einige geben kann, dass die auch alle in den Index kommen. Hat man mal so gemacht, bin ich nicht unbedingt ein Freund dieser Denke, aber ist auch egal. So.
Was passiert jetzt? Die P=2-, P=3-Seiten, die verlinken ja vielleicht auf spannende Produkte und Google erschließt sich eine Website ja primär über Links. Wenn diese Seiten aber auf Noindex stehen, wird Google die Links auf diesen Seiten nicht mehr sehen können. Und dann kann es eben passieren, dass weil ich solche paginierten Seiten auf Noindex gesetzt habe, kann es passieren, dass Google dann eben andere Seiten, die darüber verlinkt sind, gar nicht mehr findet und eben auch nicht crawlt und auch nicht indexiert. Ist ein kompliziertes Thema. Ich hoffe, ich habe euch da jetzt nicht abgehängt an diesem Punkt. Aber grundsätzlich mit diesem Noindex muss man eben immer auch ein bisschen vorsichtig sein.
  Fakt #7: Noindex frisst Crawl Budget
Ja, über das Thema Crawl Budget haben wir sicherlich schon ein paar Mal gesprochen, sowohl in diesem Podcast als auch bei Search Camp. Und ja, was heißt denn das? Also Crawl Budget heißt ja, Google crawlt natürlich meine Website, lädt Seiten davon runter. Aber es gibt ein gewisses Limit. Das heißt, Google wird nicht einfach 1 Million Mal am Tag vorbeikommen, sondern Google weist mir ein gewisses Budget zu pro Tag, pro Zeiteinheit. Und da möchte man natürlich – oder ja, in der Praxis ist das für viele Websites nicht wirklich ein Problem, aber das Problem ist, diese Noindex Seiten, die müssen trotzdem heruntergeladen werden, denn ich habe ja gesagt, erst Crawling, dann Indexierung. Also: Damit Google das Noindex sehen kann, muss die Seite erst mal heruntergeladen werden und frisst Crawl Budget.
Jetzt könnte man ja sagen, Ja, ist doch egal. Dann lädt Google die Seite einmal runter, sieht, Oh, die steht auf Noindex und wird sie nie wieder herunterladen. So funktioniert es aber leider nicht, weil Google regelmäßig – irgendwann hört das dann auf – aber relativ lange noch diese Seiten trotzdem crawlt und deswegen fressen sie natürlich schon Crawl Budget auf.
Das heißt, wenn ich zum Beispiel ganz, ganz, ganz, ganz, ganz viele Filter-Seiten habe und Millionen davon, die stehen alle auf Noindex. Also wir sind safe, das landet alles nicht im Index, das wollen wir ja vielleicht auch gar nicht, aber es frisst alles enorme Mengen Crawl Budget auf und es erzeugt natürlich auch Serverlast, weil Google natürlich diese ganzen Seiten auch herunterlädt und mein Server dadurch natürlich auch ausgelastet ist.
Das Thema Crawl Budget möchte ich sonst an dieser Stelle einfach ein bisschen links liegen lassen, auch weil ich es an anderer Stelle hier schon gemacht habe. Aber grundsätzlich muss man wissen, Noindex, gerade wenn ich es auf einer sehr, sehr großen Skala einsetze, wird dazu führen, dass Google diese Noindex-Seiten relativ lange und sehr massiv eben auch crawlen wird, gerade wenn ich so viele davon habe.
  Fakt #8: Noindex ist nichts für Duplicate Content
Duplicate Content, da gibt es ja durchaus Fälle, wo ich – weiß nicht, ich habe zum Beispiel ein Produkt, ist bei mir in fünf Kategorien einsortiert im Shop. Und weil die Kategorie in der URL drin vorkommt, gibt es für dieses Produkt einfach dann fünf verschiedene URLs. Jetzt ist die Frage, wie geht man damit eigentlich um?
Da könnte ich doch vier davon auf Noindex setzen. Und genau das ist es eben eigentlich nicht. Die Grundregel: Für Duplicate Content nehme ich ein Canonical Tag. Für alles andere nehme ich das Noindex.
Warum ist das so? Ich habe eben schon ein bisschen über Canonical Tag gesprochen. Canonical Tag heißt, die Signale werden addiert. Das heißt, ich habe zum Beispiel diese fünf Produkte und die – oder diese fünf Produktseiten und die kriegen ja Signale. Also jemand verlinkt zum Beispiel von extern auf so ein Produkt. Wenn ich das auf Noindex setze, dann ist dieses Signal, dieser Link, der wird einfach – den sieht Google nicht mehr, weil die Seite steht ja auf Noindex. Und dann habe ich eventuell sogar einen Link verballert. Und viel besser wäre es eben deswegen, immer Canonical Tags zu nutzen.
Ich sage das nur, weil manche Leute kommen immer auf komische Ideen. Viel davon landet auch bei mir hier auf dem Tisch, zum Beispiel in der SEO-Sprechstunde. Deswegen, ich weise immer darauf hin, also die Grundregel ist, für Duplicate Content nimmt man einen Canonical Tag. Für das Sperren von Inhalten, die nicht im Index auftauchen sollen, weil sie zum Beispiel nicht gefunden werden sollen oder minderwertig sind, nimmt man Noindex.
  Fakt #9: Noindex betrifft immer eine ganze Seite
Es kommt manchmal die Frage, ob man Noindex auch nur für Teile einer Seite machen kann. Also angenommen, ich habe eine Seite und in der oberen Hälfte ist ein individueller Anteil, weiß nicht, eine Produkt-Detail-Seite zum Beispiel, und im unteren Teil habe ich einen ganz langen Text, der auf allen Seiten vorkommt. Da haben halt viele Angst, Hey, das ist ja Duplicate Content und so, wäre doch schön, wenn ich diesen Textblock quasi “Noindexen” könnte, dass ich sagen könnte, der soll bitte nicht im Index erscheinen. Das funktioniert leider wirklich nicht. Das ist schade.
Es gibt zwar so eine Nosnippet Anweisung, damit kann ich Textblöcke quasi ausblenden, damit sie nicht in Snippets erscheinen. Das hat aber nichts mit dem Index zu tun. Das heißt, wenn ich so etwas habe, muss ich ganz andere Lösungen finden. Oder ich lebe eben einfach damit. Aber ich kann nicht nur Teile einer Seite auf Noindex setzen. Das ist schade. Ich glaube, es gab ganz früher mal, als es noch mehr Suchmaschinen gab, da hat Yahoo mal so einen Tag gebaut, mit dem man das konnte. Ich fände es auch praktisch, das zu haben. Ich fände es aus vielen Gründen praktisch, das zu haben. Aber Google macht das eben nicht und dann geht das eben auch nicht.
  Fakt #10: Noindex ist immer seitenweise
Manchmal kommt die Frage auf, kann ich eigentlich eine komplette Domain auf Noindex setzen? Ja, kann ich machen, aber das kann ich nur dadurch machen, dass ich jede Seite einzeln auf Noindex setze. Es gibt zum Beispiel bei WordPress gibt es so einen schönen Haken, den kann ich einfach setzen und dann macht WordPress das einfach automatisch in alle Seiten rein. Aber noch mal: Es ist eigentlich immer etwas, was trotzdem in allen Seiten drinsteht.
Und ich kann nicht irgendwie der Domain beibringen, so alles, was hier auf der Website drauf ist, alles das, setze bitte auf Noindex. Das geht nicht. Wie gesagt, das muss immer pro URL sein. Ich habe immer oft über Seiten gesprochen. Das stimmt natürlich nur sehr begrenzt, weil nochmal, PDF-Dateien, da kann man es genauso reinpacken. Dann aber eben in den HTTP-Header.
  Finale
Gut, das waren eigentlich zehn Fakten und wie gesagt, das war alles ein bisschen technisch. Das sind aber leider alles Themen, mit denen sich Leute beschäftigen den ganzen Tag. Und ja, wenn ich ein paar Leute davon abhalten kann, auch in manche dieser Abenteuer wahnsinnig viel Energie reinzustecken, dann ist sicherlich schon einiges gewonnen.
Noch mal: Noindex ist ein wichtiges Werkzeug, um die Indexierung zu modellieren. Ich will im Index wirklich nur das haben, was so relevant ist, das, was wertvoll ist, das, was starker Content ist. Den Rest auf Noindex. Das heißt, wenn ich zum Beispiel 10.000 PDF-Anleitungen habe und ich weiß, Boah, das interessiert sowieso keinen oder dafür will ich gar nicht gefunden werden, also dann setze ich die auf Noindex. Oder ich habe 1.000 Kontaktformulare bei mir auf der Website, was man durchaus mal finden kann da draußen, dann ist das kein wertvoller Content. Dann setze ich das auf Noindex. Wenn ich Login-Seiten habe auf meiner Website, setze ich das auf Noindex.
from Bloofusion Blog https://ift.tt/QW81nwv via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
Verschwendest Du Crawl Budget? Zwei Reports sagen es Dir! [Search Camp 228]
Das Crawl Budget, das Google Websites spendiert, ist begrenzt. Zwei Reports in der Search Console helfen Dir dabei, das Ausmaß der Verschwendung zu bewerten – und dann natürlich auch Gegenmaßnahmen einzuleiten.
  Keine Ausgabe unserer Podcasts mehr verpassen? Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:
Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.
  Die wichtigsten Podcast-Links:
Alle Episoden von Search Camp als RSS-Feed
Search Camp bei iTunes
Alle Folgen: www.searchcamp.de
Auf Twitter folgen: @bloonatic (Markus Hövener)
Einsteigertipps: So “empfangen” Sie Search Camp!
Themenvorschläge? Immer her damit…
  Verschwendest Du Crawl Budget? Zwei Reports sagen es Dir!
Es geht ums Thema Crawl Budget und ich weiß, dass viele sich damit beschäftigen. Ich kriege zumindest viele Fragen dazu in Seminaren, in der SEO-Sprechstunde. Ja, und deswegen habe ich heute eine Folge gemacht zum Thema “Verschwendest du Crawl Budget? – Zwei Reports sagen es dir.” Und zum Schluss gehe ich natürlich auch noch auf die Lösungen ein.
Also wenn du es verschwendest, dann ja, gibt es da durchaus Lösungen für. Vorab muss man sagen, ideal ist das, was ich gleich erzähle, eigentlich nicht, denn ideal wäre es eigentlich, eine Log File-Analyse zu machen. Also wirklich zu gucken, womit genau beschäftigt sich jetzt mein Server, das heißt, welche Anfragen stellt Google Bot. Und ja, eine Log File-Analyse würde das gut aufdecken können. Da gibt es auch entsprechende Tools. Ist manchmal einfach alles ein bisschen sperrig und ehrlich gesagt sind die auch relativ teuer für wahrscheinlich – ja, für einige Unternehmen macht das Sinn, für den Großteil da draußen überhaupt nicht. Und deswegen springe ich da heute mal drüber. Also noch mal: Idealerweise macht man eine Log File-Analyse. Würde ich, wie gesagt, hier bei euch jetzt nicht empfehlen.
  Was meint „indexierbar“?
Bevor ich dazu komme, welche Reports es gibt, muss ich noch mal einen Begriff erklären und der heißt “indexierbar”. Indexierbar heißt, da ist eine Seite, eine URL, die genau so in den Suchmaschinen erscheinen könnte. Das heißt, sie liefert erst mal einen HTTP Code 200, das heißt, der Server sagt, Jo, und diese URL, respektive die Seite, gibt es. Die Seite ist nicht für Suchmaschinen gesperrt, weder per Noindex noch per Robots.txt. Und entweder hat sie kein Canonical Tag oder einen Canonical Tag auf sich selbst. Das heißt noch mal, diese URL kann genau so in Suchergebnissen erscheinen. Das heißt indexierbar. Das brauchen wir gleich an einigen Stellen, das heißt, wenn du den Begriff noch nicht so richtig inhaliert hast, dann mach es jetzt noch mal!
  Report #1: Abdeckung (Google Search Console)
Ich habe versprochen, es gibt zwei Reports. Report Nummer eins, der liegt in der Google Search Console und heißt Abdeckung. Und ich kriege das echt immer mit, dass sich viele damit sehr, sehr, sehr, sehr schwertun, was da alles steht.
Um die Frage zu beantworten, gibt es eine Voraussetzung allerdings, und zwar brauchst du XML-Sitemaps. Diese müssen vollständig sein, also alle deine Seiten beinhalten und dürfen auch nur indexierbare URLs beinhalten. Ansonsten ist das, was als Ergebnis rauskommt, Grütze. Also auf jeden Fall darauf achten, dass die Sitemaps tagesaktuell sind und dass sie korrekt erzeugt werden. Die meisten Content Management Systeme, die meisten Shop Systeme können das problemlos.
So. Wenn du in der Search Console bist und im Report “Abdeckung”, dann wirst du sehen, dass oben links so ein Filter ist. Den übersehen viele. Und da gibt es die beiden Filter “eingereichte Seiten” und “bekannte Seiten“.
Wenn du nur mal filterst “eingereichte Seiten“, das sind alle URLs, die du in der XML-Sitemap mitgeliefert hast. Das heißt nochmal, wenn deine XML-Sitemaps vollständig und korrekt sind, dann kriegst du hier genau ein Bild für das, was du eigentlich im Index haben möchtest.
Und dann gibt es den zweiten Filter, der heißt “Bekannte Seiten“. Und das sind eben alle URLs, mit denen Google sich so beschäftigt. Vielleicht, weil sie die auf der Website gefunden haben. Das sind vor allem auch nicht indexierbare Seiten, dazu komme ich noch gleich. Das können auch uralte Seiten sein, die irgendwo von außen noch verlinkt werden. Und ja, Google beschäftigt sich leider mit relativ viel Unsinn.
Wenn du diesen Report noch nie benutzt hast, bitte setz oben alle vier Haken, nämlich „Fehler“, „gültige Seiten mit Warnungen“, „gültig“ und „ausgeschlossen“. Und dann wirst du unten sehen, dass da schön viele Fehlerkategorien erscheinen und daneben jeweils die Anzahl, wie viele Seiten davon betroffen sind. So und jetzt gehst du mal hin und setzt einmal den Filter auf “eingereichte Seiten”. Und angenommen, da steht jetzt, ja, in Summe aller dieser vier Zahlen, die du da siehst, steht da 3500, das heißt, du hast 3500 Seiten über die Sitemap eingereicht und möglichst viele davon sollten gültig sein. Gültig heißt nämlich nichts anderes als „ist im Index gelandet“. Also Beispiel: 3500 Seiten.
Und jetzt änderst du den Filter oben mal auf bekannt. Und dann siehst du halt, womit sich Google so insgesamt beschäftigt. Und Beispiel könnte sein – und ist jetzt nicht so fürchterlich unrealistisch – da steht 50.000. Das heißt, diese Differenz, 46.500, sind eigentlich URLs, mit denen sich der Googlebot beschäftigt, die er herunterlädt, die eigentlich am Ende des Tages zu nichts führen.
Das heißt, wir müssen jetzt mal gucken, wo kommen eigentlich die Differenzen aus diesen beiden Mengen her? Also es gibt die eingereichten noch mal, das ist so mein Nucleus, das, was mir wichtig ist. Und dann gibt es die bekannten. Und wenn man sich die mal anguckt, also man setzt den Filter oben auf bekannte Seiten, dann wird man sehen, da sind viele nicht indexierbare URLs dabei, zum Beispiel Seiten, die auf Noindex stehen. Aber das kann ja durchaus absichtlich sein. Also das muss kein Fehler sein, sondern in der Regel ist das gewollt. Oder es gibt auch viele Meldungen zum Thema Canonical Tag. Bei einigen hält Google sich an das Canonical Tag, bei anderen nicht. Es kann geben Seiten mit Weiterleitungen. Kann zum Beispiel wirklich passieren, wenn ein externer Link auf eine alte URL verweist und du auf deiner Webseite leitest um, dann taucht die auf unter “Seite mit Weiterleitungen”. Und dann gibt es natürlich noch durch Robots.txt blockiert. Das sind eben Seiten, die für den Crawler gesperrt sind. Oder es gibt so Meldungen wie Soft 404 oder noch diverse andere. Das steht alles in dem Hilfetext drin. Also wenn du wirklich sagst, Google Search Console, den Report Abdeckung, den will ich verstehen, dann arbeite bitte einmal diese Hilfeseite durch. Die ist nämlich wirklich gar nicht mal so schlecht.
Und, ja, man sieht natürlich auch – ich bin eben hauptsächlich so auf Fehlermeldungen eingegangen – es gibt da unten dann auch eine Kategorie an URLs, die heißt „gesendet und indexiert“. Und das ist eigentlich genau das, was du haben möchtest. Also gesendet heißt: die waren in der XML-Sitemap. Indexiert heißt: ja, sind im Index gelandet. Prima.
Und dann gibt es eben noch eine zweite Meldung, die heißt „indexiert, nicht in Sitemap gesendet“. Hmm. Und da muss man dann eben genauer hingucken. Also heißt, Google hat eine URL gefunden, fand die irgendwie schön, und indexierungswert, aber in der Sitemap stand die gar nicht drin.
Und da muss man sich ja mal angucken, warum ist denn das so? Es kann zum Beispiel sein, habe ich schon erlebt, eine Website, die hatte 100.000 PDF-Dateien, die indexiert Google, also die stehen dann in indexiert, nicht in Sitemap gesendet. Die fehlen einfach nur in der Sitemap. Oder Filterseiten oder Kontaktformulare, da gibt es so viele Möglichkeiten. Und diese Kategorie würde ich mir auf jeden Fall angucken, denn die Frage ist ja, Was willst du jetzt eigentlich?
Also wenn diese Seiten wirklich indexiert werden sollen, dann müssen sie auch in die Sitemap rein, denn noch mal, die soll vollständig sein. Und wenn diese Seiten nicht indexiert werden sollen, dann muss man sie halt für Suchmaschinen sperren. Dazu komme ich zum Schluss natürlich noch mal. Das war der eine Report. Und Abdeckung, noch mal, tun sich sehr viele sehr schwer mit, weil da stehen viele Fehlermeldungen und wenn man so ein bisschen mit dem ganzen Thema auf Kriegsfuß steht, wird das manchmal ein bisschen schwierig.
  Report #2: Crawler-Statistiken
Es gibt noch einen zweiten Report und den findet man etwas unglücklich positioniert. Ich weise immer gerne darauf hin. Also auch in der Search Console unter Einstellungen und da gibt es die Crawler-Statistik.
Und da sehe ich halt zum Beispiel die Crawling-Anfragen pro Tag. Also wie viele Sachen lädt Google eigentlich so runter? Also der Google-Bot. Und das kann ich mir zum Beispiel aufschlüsseln lassen nach Dateityp. Da steht dann eben zum Beispiel 60% HTML. Da steht dann aber zum Beispiel auch 20% PDF. Und auch dann kann ich mir das wieder angucken und kann eben sagen, Okay, der Crawler beschäftigt sich in 20% der Fälle mit PDF-Dateien, die will ich aber eigentlich gar nicht im Index haben.
Oder es gibt noch andere Reports, hätte ich fast gesagt, das sind eher so Filter, wenn man so möchte. Es gibt aber noch „Nach Antwort“. Damit ist der HTTP-Code gemeint. Da sollte natürlich der Code 200 dominieren. Das heißt, 200 heißt eben, das was Google haben wollte, wurde auch gefunden. Da könnte aber auch stehen, zum Beispiel 12% 301. Das heißt, der Google-Bot hat sich in zwölf Prozent der Fälle – ist der auf eine Umleitung gestoßen. Ist in der Regel das, was man möchte. Aber auch das kann man sich angucken. Also draufklicken und dann gucken, was wird denn da eigentlich weitergeleitet?
  Und nun?
Ja. Das sind so die beiden Reports. Und jetzt ist die Frage, also angenommen, du stellst fest, ich verschwende Crawl Budget. Und wenn wir noch mal zu dem Beispiel zurückgehen aus Report Nummer eins: Du hast 3.500 Seiten indexiert und mit 50.000 beschäftigt sich der Google-Bot, dann verschwendest du Crawl Budget, weil eben 46.500 URLs heruntergeladen werden, die eigentlich ja, die man wahrscheinlich – ja, die einfach Crawl Budget verschwenden. Punkt.
Das muss aber nicht schlimm sein. Ich will dich da noch mal auf Search Camp Episode 88 verweisen. Die ist schon ein bisschen, also wenn wir jetzt sehen, wir sind bei 228, dann ist das schon ein bisschen ältere Episode, stimmt aber immer noch genauso alles, was ich da gesagt habe.
Also man muss immer Crawling und Indexierung unterscheiden. Das Crawl Budget ist begrenzt. Das heißt, Google wird pro Tag ungefähr eine bestimmte Menge oder einen bestimmten Korridor an Ressourcen von deiner Website laden. Und das wird sich sehr wahrscheinlich auch nicht ändern. Und was jetzt eben passieren kann, ist, dass der Google-Bot sich mit URLs beschäftigt, die eben nicht indexierbar sind und das ist ja irgendwie unsinnig. Kann total passieren. Und was in der Folge passieren kann ist, dass der Google-Bot, weil eben das Crawl Budget begrenzt ist, relevante neue Seiten später indexiert. Er ist einfach gerade mit anderen Sachen beschäftigt. Das ist so die große Gefahr, ehrlich gesagt.
Insgesamt muss ich sagen, mein Eindruck ist, dass Google recht gut darin geworden ist, irrelevantes Crawling zu begrenzen. Das heißt, so schlimm ist das alles in der Regel nicht unbedingt. Man muss natürlich ein bisschen gucken, das heißt, ein Effekt kann eben sein, dass relevante neue Seiten später in den Index reinrutschen, kann passieren. Was auch natürlich passieren kann, ist, all das geht ja zulasten deiner Server Last. Das heißt, wenn Google da irgendwie an einem Tag 100.000 Seiten unsinnigerweise herunterlädt, dann ist auf deinem Server viel Last passiert, über das Netz wurden 100.000 Seiten transferiert. Das heißt, du hast natürlich in irgendeiner Weise Energie verschwendet, du hast in irgendeiner Weise – vielleicht brauchtest du einen zweiten Server, weil es so viele Anfragen waren. In der Regel eher nicht, aber ja, kann passieren, oder es kann sein, dass du etwas geringere Ladezeiten hast, weil dein Server eben so ausgelastet ist durch die irrelevanten Sachen. In der Regel sehe ich das nicht so, es gibt gutes Caching mittlerweile. Ist jetzt gar nicht so ein großes Thema.
Das heißt nochmal, Crawl-Budget-Verschwendung hat in der Regel bezogen auf den Index keinen negativen Effekt, außer dass eben eventuell es passieren kann, dass neue Seiten später reinrutschen, weil der Crawler eben gerade mit anderen Sachen beschäftigt ist.
  Index Bloat
Man muss jetzt aber das Ganze von einem Thema abgrenzen und das ist das Thema Index Bloat. Das heißt, das, was der Crawler macht, das ist das eine Thema, der lädt einfach Seiten herunter. So, und dann ist die Frage, was davon landet denn jetzt im Index? Und da muss man eigentlich wirklich aufpassen. Da ist die Crux. Index Bloat heißt: Ich mülle den Index zu mit irrelevanten Seiten.
Das heißt, wenn ich es geschafft habe, indexierbare Seiten, die nicht relevant sind, in den Index zu bekommen, dann kann das negativ sein für meine Website. Also für meine gesamten Rankings, weil natürlich, es kann passieren, dass eben die Gesamtheit aller Seiten betrachtet wird und da ist jetzt viel Müll dabei oder so oder Seiten, die irgendwie immer alle das Gleiche sind und so und dann kann es durchaus passieren, dass deine Website herabgestuft wird, aber nicht, weil du Crawl Budget verschwendest, sondern weil du Index Bloat hast. Das heißt, das muss alles – das sind zwei Themen, die natürlich eine gewisse Überschneidung haben, aber auch nur eine gewisse. Am Ende des Tages ist eigentlich für mich primär wichtig: Was landet im Index?
Und da hast du vor allem die Möglichkeiten, einen noindex zu benutzen, um irrelevante Seiten auszuschließen. Und du hast die Möglichkeit, einen Canonical Tag zu benutzen, um Dubletten, also zum Beispiel so Parameter URLs auf – ja, zusammenzufassen. Das ist das eine Werkzeug, was du hast.
  Die Lösung gegen Crawl-Budget-Verschwendung: die robots.txt
Aber wenn du jetzt wirklich sagst, ich verschwende Crawl Budget und ich will nicht, dass das passiert. Kann ja sein. Habe ich auch schon gehabt, da hat – ich weiß nicht genau, was die Zahl war – hat der Google Bot sich in, weiß nicht, 25% der Zeit hat er sich an einem Verzeichnis bedient, was es seit Jahren schon nicht mehr gab, hat er Unmengen an URLs gecrawlt, immer kam ein 404 Fehler, komplett unsinnig.
Und dann ist das schärfste Schwert was du hast, die robots.txt, denn nur die robots.txt kann das Crawling beschränken. Das heißt, wenn du zum Beispiel so einen bestimmten Ordner hast, dann kannst du diesen Ordner eben für Suchmaschinen sperren. Angenommen du hattest mal so ein Newsletterverzeichnis und das gibt es schon seit Jahren nicht mehr, aber Google crawlt das immer noch, dann gibt es so eine Zeile wie „Disallow: /Newsletter/“ zum Beispiel. Also: robots.txt ist die schärfste Waffe, die du hast und ehrlich gesagt auch so ziemlich die einzige für Crawl Budget Verschwendung.
Und natürlich, was helfen kann, ist, wenn du XML-Sitemaps hast, quasi als Fokus. Das heißt, du sagst Google, Okay, Google, du kannst dich mit diesen 50.000 Seiten beschäftigen.Aber diese 3.500, die sind mir wichtig und da möchte ich gerne, dass die im Index drin sind. Und da gibt es eine Möglichkeit, da ein Attribut reinzupacken, das heißt „lastmod“. Nämlich wann wurde diese Seite eigentlich das letzte Mal geändert, so dass rein theoretisch, angenommen, du hast 3.500 Seiten und nur zwei haben sich geändert, dann kann Google das erkennen und sehr zielgerichtet sein Crawler losschicken. Also ganz klare Empfehlung, das Attribut „lastmod“ in der XML-Sitemap zu benutzen, wenn dein Content Management oder Shop System das eben kann. Das können nicht alle.
  Ausblick
Jo, dieses ganze Thema Effizienz von Crawling, glaube ich, wird in 2022 noch ein größeres werden. Also Indexierung ist sowieso schon ein Thema. Es gab ein paar Anzeichen in einem Podcast von Google, wo sie gesagt haben, “Da müssen wir wahrscheinlich noch was machen”, weil dieses ganze Thema Effizienz ist natürlich schon wichtig und vor allem, wenn man sich wirklich mal anguckt in so einer Log File Analyse, mit welchen unsinnigen URLs sich Google alles so beschäftigt, dann schlage ich persönlich oft die Hände über dem Kopf zusammen und denke so, Wo ist eigentlich diese ganze KI, wenn man sie dann mal braucht? Weil da könnte man sie vielleicht gut brauchen.
Und da gibt’s manche Fälle wirklich, wo Google einen Schrott herunterlädt, den es seit Jahren nicht mehr gibt und – naja, aber noch mal, du weißt, was du dagegen tun musst, nämlich robots.txt. Du weißt, wie du Google helfen kannst, nämlich Sitemap mit Last Mod. Und du weißt, welche beiden Reports dir helfen, nämlich einmal natürlich der Report Abdeckung und dann die Crawler Statistiken.
from Bloofusion Blog https://ift.tt/v8Fun2m via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
Webinar-Ankündigung: Ask the Pros – Wir beantworten deine Social-Media-Ads-Fragen
In diesem Jahr kannst du dich auch endlich über ein Ask the Pros Social-Media-Ads-Webinar freuen. Am 9. Juni 2022 um 16 Uhr beantwortet Social-Media-Expertin Julia Leutloff alle deine offenen Social-Media-Ads-Fragen. Am besten erstellst du 1. gleich eine Liste mit allen Fragen, die dir unter den Nägeln brennen, und registrierst dich 2. ganz schnell kostenlos.
Zum Inhalt
In diesem Webinar kannst du deine offenen Fragen zu Facebook- und Instagram-Werbung stellen. Was ist eine gute Kampagnenstruktur und wie baue ich mein Setup effizient auf? Wie viel Budget muss ich investieren? Wie sieht eine gute Anzeige aus? Wie lange dauert es, bis ich erste Ergebnisse sehen kann?
Nutze die Gelegenheit und löchere Julia Leutloff, Head of Social Media bei Bloofusion. Die Fragen können allgemeiner Natur sein oder sich konkret auf deine Kampagnen beziehen.
Natürlich kannst du auch an der Session teilnehmen, wenn du keine Fragen hast. Auch von den Fragen der anderen Teilnehmenden kannst du jede Menge lernen!
4 gute Gründe dabei zu sein
Deine Fragen werden direkt von Experten beantwortet.
Du erfährst, was sich ein Jahr nach iOS 14.5 für Advertiser geändert hat.
Du erhältst alle wichtigen Updates im Bereich Meta Ads.
Du bekommst praktische Tipps, wie du die Performance deiner Kampagnen verbessern kannst.
Hier geht’s zum kostenlosen Wissens-Update!
Wie läuft das „Ask the Pros“ ab?
Wir nutzen die Plattform Slido, in die du während der Fragestunde deine Fragen eintippen kannst. Leider ist es nicht möglich, vorab Fragen einzureichen.
Während der Fragestunde können die anderen Teilnehmenden die gestellten Fragen „nach oben voten“, sodass die Fragen zuerst beantwortet werden, die auf das größte Interesse stoßen.
Praktisches Wissen für …
alle Social-Media-Interessierten!
Unsere Bloofusion-Expertin
Julia Leutloff ist Head of Social Media bei der Online-Performance-Agentur Bloofusion und unterstützt dort vor allem Kunden aus dem E-Commerce im Bereich Social-Media-Marketing. Ihr Schwerpunkt liegt dabei vor allem in der Konzeption und Umsetzung performance-getriebener Social-Media-Ad-Kampagnen auf Facebook und Instagram. Darüber hinaus gibt sie ihr Wissen als Rednerin, Autorin und Dozentin auf Konferenzen, in Fachmagazinen und Seminaren weiter. 
Wissen vorab
iOS14.5 kann bestimmt keiner mehr hören, trotzdem hat es die Branche ziemlich ins Wanken gebracht. Du willst schon einmal die wichtigsten Learnings aus der Post-iOS-14.5 wissen? Dann höre dir den Podcast mit Julia hierzu an:  https://blog.bloofusion.de/ios-update-social-media-ads/
Direkt für den 9. Juni registrieren!
from Bloofusion Blog https://ift.tt/XpPig08 via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
Alles Richtung GA4? Fragen wir die Experten! [Search Camp 227]
In dieser Episode geht es um das Ende von Universal Analytics und den Fokus auf GA4. Was genau bedeutet der Wechsel für Unternehmen? Wie groß ist der Aufwand für die Umstellung? Da sprechen wir drüber – mit den beiden Analytics-Profis Stefanie Entrup und Andreas Engelhardt.
  Keine Ausgabe unserer Podcasts mehr verpassen? Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:
Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.
  Die wichtigsten Podcast-Links:
Alle Episoden von Search Camp als RSS-Feed
Search Camp bei iTunes
Alle Folgen: www.searchcamp.de
Auf Twitter folgen: @bloonatic (Markus Hövener)
Einsteigertipps: So “empfangen” Sie Search Camp!
Themenvorschläge? Immer her damit…
  Alles Richtung GA4? Fragen wir die Experten!
Markus Hövener: Moin und herzlich Willkommen zu Search Camp, dem Online Marketing Podcast mit wichtigen Insights rund um SEO, SEA und co. Mein Name ist Markus Hövener und jetzt geht’s auch direkt los. Viel Spaß. Ja, Moin, herzlich willkommen wieder bei Search Camp. Heute gar nicht so mit einem Search Thema, sondern mit einem Analytics Thema. Aber ja, natürlich aus gutem Grund. Es ist nämlich ein bisschen was passiert. Und auch aus gutem Grund bin ich deswegen nicht allein, weil da haben wir genug Spezialisten für. Ich habe einmal die Stefanie Entrup in der Leitung. Hallo Steffi.
Stefanie Entrup: Hi.
Markus Hövener: Und den Andreas Engelhard, für mich Andi.
Andreas Engelhardt: Hallihallo.
Markus Hövener: Ja. Beide aus unserem Webanalyse-Team und die da sicherlich deutlich mehr drüber wissen als ich. Ja, vielleicht können wir ja kurz mal machen, was bisher geschah. Ich glaube, wir alle kennen das aus bekannten Serien und hier muss man vielleicht auch einfach mal kurz zurück gucken. Also Mitte März diesen Jahres gab es in meinen Augen relativ unerwartet eine Ankündigung von Google, dass sie gesagt haben, das, was wir jetzt an Analyse-Tool nutzen, also Universal Analytics, das machen wir zu, zum 1. Juli 2023. Und tja, da wollen wir heute insgesamt drüber reden. Aber vor allem jetzt natürlich, jetzt haben wir Mitte Mai, also zwei Monate sind seit der Ankündigung vergangen. Vielleicht die Frage an euch beide: Wie haben unsere Kunden das Ganze aufgenommen oder überhaupt Unternehmen, mit denen ihr da draußen gesprochen habt?
Andreas Engelhardt: Ja, da war einiges los. Ging ja dann auch so Social Media mäßig relativ gut ab, so diese News. Für unsere Kunden, die haben wir natürlich erst mal informiert. Ja, kam natürlich immer die Frage, “Was sollen wir jetzt eigentlich tun?” Und war natürlich dann auch ein hohes Interesse tatsächlich da, diesen Switch dann relativ zeitnah zu machen. Und ja, auch die ein oder andere Neukundenanfrage hat uns erreicht. Also das scheint auf jeden Fall in der Onlinemarketingwelt da draußen auf ein großes Echo gestoßen zu sein.
Markus Hövener: Ja, und das ganze wäre ja eigentlich überhaupt kein Problem, weil man würde sagen, wir hatten vorher jetzt, sagen wir mal, Analytics 3. Jetzt haben wir Analytics 4. Also ein kleines Update installieren wir einfach und alles ist gut. Aber so ist es ja nicht. Also Frage: Was ist Google Analytics 4?
Stefanie Entrup: Ja, genau. Leider können wir hier nicht einfach nur auf Update klicken und alles ist wunderbar. Es sind tatsächlich eigenständige Tools, die auch ein unterschiedliches Tracking System zugrunde liegen haben, was dazu führt, dass wir auch unsere Daten nicht mitnehmen können aus GA3 oder aus Universal Analytics, sondern dass wir einfach mit GA4 komplett von vorne neu starten. Und ja, das führt halt eben dazu, dass – ja, dass es nicht einfach nur so ein Update im Sinne von, “Ja, ich nehme teil.” ist, sondern dass man es halt wirklich komplett neu aufsetzen muss, bei null anfängt. Und ja. Da entsprechend jetzt loslegen muss.
Andreas Engelhardt: Genau. So ein bisschen konnte man das vielleicht sogar erahnen, wenn man damals so zwischen den Zeilen gelesen hat. Google Analytics 4 ist ja so seit dem 14.10.2020 schon live und benutzbar und damals gab es eigentlich relativ schnell die Empfehlung – ich glaube eigentlich von Anfang an von Google – dass man eben eigentlich so ein Parallelsetup tatsächlich aufbauen soll. Was jetzt für alle uns doch dann irgendwie aber überraschend kam, war dann wirklich diese Nachricht, dass gesagt wurde, okay, es läuft halt tatsächlich dann irgendwann aus. Ich glaube, da hat jetzt eigentlich so direkt eigentlich keiner mit gerechnet, dass das so final und so schnell kommt, eigentlich.
Markus Hövener: Dann lass uns nochmal über – ich meine, es kommt ja offensichtlich eine neue Version, da würde man erst mal erwarten, neue Version, alles ist besser. Also was sind die Vorteile von Google Analytics 4?
Stefanie Entrup: Ja, was halt cool ist an Google Analytics 4 oder was halt eigentlich das große Versprechen ist, dass es einfach zeitgemäßer wird. Ich meine, jeder kennt das. Mal ist man über den PC unterwegs, mal über das Smartphone, mal über das Tablet. GA4 verspricht halt eigentlich eben geräteübergreifend und nutzerzentriert zu tracken. Also ein riesengroßer Vorteil einfach für das Zeitalter, in dem wir uns ja jetzt befinden. Und auch viele neue Machine Learning Gadgets, neue Kennzahlen, dass man Prognosen erstellen kann, Umsatzprognosen. Es soll einfach alles zukunftssicherer und zeitgemäßer sein. Aber die Frage ist halt, sind wir da schon in der Form, wie es jetzt aus der Betaversion rausgeschmissen wurde.
Andreas Engelhardt: So ein bisschen ist das Ganze auch – damals in der Beta quasi hatten sie dieses GA4 noch gar nicht GA4 genannt, sondern es hieß eigentlich immer die “App und Web Property”. Da kann man schon so ein bisschen erahnen, dass da eben so dieses Tracking unterschiedlicher Plattformen dann quasi vereint wird. Das könnte man da so schon aus dem Namen quasi herauslesen. Das soll eben auch so der große Vorteil sein. Ja. Ein weiterer Vorteil soll eigentlich noch perspektivisch sein, dass es dann eben auch tatsächlich komplett Cookieless läuft. Dieses Thema Cookies, ja, ist so ein aussterbendes Thema. Aktuell werden sie halt eben noch gesetzt, werden Sie auch tatsächlich von GA4 gesetzt. Aber perspektivisch verspricht Google eben an der Stelle, dass das auch eben komplett eine Cookieless Lösung sein wird und das ja auch einer der Vorteile dann eben von GA4 sein soll.
Markus Hövener: Weil wir jetzt über Vorteile gesprochen haben; manchmal gibt es auch Nachteile im Leben. Haben wir hier welche?
Stefanie Entrup: Ja, definitiv. Wir haben es ja schon mal angedeutet. Es kam recht überraschend aus der Beta raus. Und ja, es ist tatsächlich leider noch fehlerhaft manchmal. Es fehlen auch noch Funktionen. Manchmal – also es kommen immer wieder neue Features. Es ist jetzt noch nicht das fertige Tool, mit dem wir eigentlich neu starten möchten, sondern man muss da noch Kompromisse eingehen. Und der Knaller ist ja natürlich einfach, dass das GA3, wenn man so will, ja komplett abgestellt wird und dass wir auch irgendwann keine Möglichkeit mehr haben, auf unsere historischen Daten zuzugreifen. Das heißt da – ja, das hat, glaube ich, allen Onlinemarketern sehr die Laune verdorben, als das jetzt rauskam.
Andreas Engelhardt: Man merkt so ein bisschen natürlich die Entwicklung. Man kennt das vielleicht auch von anderen Google Tools, damals die Google Search Console, die dann auch released wurde, man da ja auch teilweise noch auf alte Berichte zugreifen konnte. So schlimm ist es jetzt bei GA4 nicht, dass man da irgendwie nochmal die Oberfläche wechselt, aber dennoch zeigen sich einfach hier und da noch so Schwachstellen in dem Tool, auch irgendwo in der Datenerfassung und es wird eine Menge gefixt. Erst kürzlich beispielsweise wurde dieses ganze Thema UTM Tracking gefixt, kann man sagen, und tatsächlich sogar auch noch erweitert. Also da gibt es dann auch noch zusätzliche Optionen, um eben dieses UTM-Tracking dann an der Stelle noch ein bisschen granularer zu gestalten. Aber auf jeden Fall sind da noch Dinge, sind da auch noch irgendwo Anforderungen, Wünsche, die die Onlinemarketer haben. Und da hoffen alle, dass Google dann an der Stelle dann auch nochmal nachzieht. Gerade so im Hinblick auf den 1. Juli dann, vielleicht sogar diesen Jahres, damit man dann Jahresvergleiche etc. dann auch möglichst sinnvoll anstreben kann.
Markus Hövener: Ja, das wäre überhaupt ein spannendes Thema, nämlich Verfügbarkeit von Daten. Manche haben in ihrem Account ja Historie hinreichend lange drin. Ist natürlich auch immer so ein von Datenschutz Thema, aber – ich glaube, ich kenne die Antwort, ich stelle sie trotzdem: Kann ich meine Daten migrieren von Universal Analytics in Google Analytics 4?
Stefanie Entrup: Leider nein. Also das ist halt einfach die Antwort. Nein.
Markus Hövener: Okay, es gäbe ja jetzt kein – ich meine, irgendjemand kommt ja immer auf irgendwie blöde Ideen und denkt sich, “Okay, ich überleg mir irgend so ein Konverter, der irgendwas umschreibt und vielleicht ein paar Annahmen tätigt, aber -” – geht einfach nicht. Punkt.
Stefanie Entrup: Ja, also Stand jetzt, wir hoffen natürlich alle, dass jemand Smartes vorbeikommt und da noch eine Lösung darbietet. Aber ja. Also zumindest aus dem normalen Universal Analytics Tool aktuell gibt es da keine, ich sage mal Export-Funktion, mit Ausnahme natürlich der normalen Berichte, die man sich immer exportieren kann. Aber mit denen hat man ja natürlich nicht die Möglichkeit, bestimmte Segmente zu bilden und Ähnliches. Und gerade, wenn wir von einer riesen Datenbasis wie fünf, zehn, wie viele Jahre auch immer wir da angehäuft haben sprechen, das alles manuell herunterzuladen ohne Sampling ist natürlich schwierig.
Andreas Engelhardt: Nichtsdestotrotz vielleicht ja, was wir auch so eigentlich so an Setups uns halt tagtäglich anschauen, sind halt eben gerade diese Setups, die schon seit Jahren laufen. Häufig natürlich auch mit einer etwas schlechteren Datenqualität einfach verbunden. Und bei manchen Kunden, muss ich ganz offen sagen, ist es vielleicht gar nicht so schlecht, mal von vorne anzufangen, das Thema Webanalyse vielleicht noch einmal durchzukonzeptionieren, zu sagen, “Mensch, mit den Daten, die wir bislang erhoben haben, können wir da eigentlich nicht so wirklich viel anfangen.” Und deswegen ist dieses Thema jetzt auch eigentlich eine Riesenchance aus unserer Sicht, da wirklich einfach mal das Tracking zu erneuern, sich da auf was Neues einzulassen, von der Datenqualität her vielleicht von Beginn an nicht die Fehler zu machen, die man vielleicht in der Vergangenheit gemacht hat und dann einfach von vorne anfangen, weil das muss man ohnehin und ist einfach eine gute Chance für einen Neustart.
Markus Hövener: Jetzt haben wir eben schon gelernt, die Daten kann ich nicht 1:1 übertragen, wahrscheinlich nicht mal 1:0,5, sondern die sind einfach weg. Kann ich denn mein Setup 1:1 übertragen? Also Stichwort wären so Daten, Ansichten, Filter. Kann ich das mit rüber retten?
Stefanie Entrup: Jein. Es gibt halt diesen Upgrade Assistenten, möchte ich ihn mal nennen, der ein paar Einstellungen mit rüber zieht. Wären aber eher so Kontoeinstellungen wie in welcher Branche und welcher Zeitzone etc. bin ich unterwegs. Es gibt tatsächlich viele Features aus GA3, die es in GA4 in der Form gar nicht mehr gibt. Sprich Datenansichten, denn die gibt es tatsächlich nicht mehr. Wir haben nur noch die Property und ja, Datenansichten sind dann tatsächlich nur noch in der Bezahlversion vorhanden. Und Filter gibt es tatsächlich Stand jetzt glaube ich auch nur zwei verschiedene, also diese sehr komplizierten Setups mit zahlreichen Datenansichten, unterschiedlichen Filtern wird es da Stand jetzt nicht mehr geben. Ist vielleicht auch hinsichtlich Fehlerquellen, was Andi gerade schon angesprochen hatte, gar nicht so, so schlimm. Wir haben ja trotzdem über neue Berichts-Tabs, die es dann gibt, die Möglichkeit, uns die Daten so zusammenzustellen, wie wir sie auch für die Analyse brauchen.
Markus Hövener: Jetzt hattest du gerade Bezahlversion gesagt. Was hat es damit auf sich und was kostet es? Weiß man das schon?
Stefanie Entrup: Also es gibt halt auch von Universal Analytics eine Bezahlversion, also Google Analytics 360. Kann man mal spaßeshalber reinschauen. Wenn man aber nicht, ich möchte fast sagen, im Jahr im sechsstelligen Bereich was ausgeben möchte, braucht man sich da auch nicht weiter mit zu befassen.
Markus Hövener: Okay, da kaufen andere Leute ein Eigenheim für und du holst dir das –
Stefanie Entrup: Ja.
Markus Hövener: Okay. Die Frage wäre natürlich auch noch der Code. Also irgendwie muss ja dieser Tracking Code in die Website rein. Was wäre da so der Best Practice, das zu machen? Also Tech Manager oder wie geht man vor?
Andreas Engelhardt: Genau. Also grundsätzlich müsste man es eben über das gTech quasi machen. Und unsere Empfehlung ist eigentlich tatsächlich natürlich, das Ganze über den Google Tech Manager zu realisieren. Der bringt einfach das Setup mit, um möglichst flexibel sein Tracking halt anzupassen, zu konfigurieren. Dort gibt es natürlich auch entsprechend vorgefertigte Tags. Da gibt es einmal das Konfiguration Tech. Da muss im Prinzip dann einfach nur eine ID reinkopiert werden, die dann eben aus dem Google Analytics kommt. In Google Analytics läuft das Ganze quasi so, dass es einen Datenstream gibt. Den konfiguriert man dann zum Beispiel für eine Webeinstellung. Und genau, alternativ wäre halt eben, dass man das halt für eine App, eine iOS App oder eben eine Android App konfiguriert. Und genau, über diese Mess-ID kann dann eben die Zuordnung erfolgen aus einem Google Tech Manager heraus. Muss man eigentlich nur noch einen Trigger setzen, dass die Konfiguration quasi auf allen Seiten erfolgt und somit eigentlich einem Page View, also einem Seitenaufruf dann entspricht, so dass dieses Event dann tatsächlich so das erste Event quasi ist, was dann Richtung Google Analytics 4 dann gespielt wird. Und genau, der Tech Manager hilft dann natürlich darüber hinaus, diese ganzen Events, die wir eben beispielsweise im Bereich eCommerce dann noch brauchen, auch entsprechend zu konfigurieren. Und ja, dass das Wählen beispielsweise der Trigger, die man dann eventuell schon für einen Universal Setup hat, kann man natürlich dann auch weitestgehend zumindest übernehmen. Ja, insofern ist dieser Tech Manager dann auch eine gute Unterstützung, wenn man eben den Switch machen will oder Parallel-Tracking machen will, eben aktuell von Universal auf G A4.
Markus Hövener: Jetzt ist es ja grundsätzlich so, wir als Agentur helfen Unternehmen dabei, all das zu machen. Schafft das auch der kleine Handwerker um die Ecke? Schafft das alles auch der Zahnarzt um die Ecke mit seiner Website?
Andreas Engelhardt: Ja, das ist natürlich immer eine extrem schwierige Frage, wie versiert er da eigentlich ist. Ich unterstelle einfach mal, wenn das quasi für Universal nicht geklappt hat, dann wird das eigentlich auch so im Bereich GA4 ein bisschen schwieriger. Gerade so von den Berufsgruppen, die du jetzt gerade genannt hast, weil die werden einfach andere Dinge zu tun haben und sind einfach Experte auf einem anderen Gebiet. Da ist schon ein bisschen technisches Verständnis unserer Ansicht nach erforderlich, wenn man da auch einen entsprechenden Nutzen eben daraus ziehen will und wie gesagt, einfach so fernab der Seitenaufrufe etc. ein bisschen mehr in Erfahrung bringen möchte.
Markus Hövener: Ist wahrscheinlich so, dass die gleichen, die immer noch ein Google+ Logo unten drauf haben, dass die dann auch den Universal Analytics Code noch drin haben werden.
Andreas Engelhardt: Auf jeden Fall, ja, die könnte man auf jeden Fall anschreiben. Ja.
Markus Hövener: Okay. Ja, lass uns doch mal – ich habe noch so ein paar Detailfragen aufgeschrieben, zum Beispiel benutzerdefinierte Dimensionen und Metriken. Wird es das weiterhin geben?
Stefanie Entrup: Ja, also gibt es tatsächlich weiterhin. Gibt es auch jetzt schon. Kann man also auch anlegen. In den Detaileinstellungen gibt es da jetzt noch ein paar Unterschiede, die man beachten muss. Zum Beispiel ist der Scope in GA4 nicht mehr so relevant. Scope, also Umfang. Man hatte verschiedene Scopes in Universal Analytics; Nutzerscope, Sitzungsscope und Hit Scope, denen dann die bestimmten Interaktionen auf der Seite zugeordnet wurden. In GA4 ist das halt eben nicht mehr so relevant, weil alles über Events passiert, sodass man da in Teilen anders konfigurieren muss. Aber an sich gibt es die weiterhin.
Markus Hövener: Was ist mit diesen UTM-Parametern, die man ja gerne zum Campaign Tracking nutzt, gibt es das auch noch?
Stefanie Entrup: Ja, genau. Also es funktioniert weiterhin mit UTM-Parametern. Ich glaube, Andy hatte vorhin auch schon angesprochen, dass es jetzt tatsächlich sogar noch drei neue gibt. Das war sehr aufregend, weil sich bei den UTM-Parametern seit 20 Jahren nichts getan hatte. Aber ja, also funktioniert weiterhin wie zuvor. Was in GA4 ein bisschen cooler ist oder sogar sehr viel cooler, die Standard-Channelgruppierung ist jetzt sehr viel weiter gefasst. Es gibt sehr viel mehr Kanäle, die wir standardmäßig in unseren Berichten drin haben. Also vorher hatten wir vielleicht Organic Search, Page, Search Direct und Referrals als Beispiel. Und das GA4 versteht oder kategorisiert sehr viel verschiedene weitere Quelle- und Mediuminformationen ein, sodass wir jetzt auch sowas wie Paid Social einrichten können. Müssten wir halt nur einmal nachvollziehen bei der neuen Standard Channelgruppierung, wie die entsprechenden Definitionen sind. Also was muss ich bei meinem UTM-Medium-Parameter eintragen, um halt eben sicherzustellen, dass der Traffic dann in den entsprechenden Kanal einläuft?
Markus Hövener: Ich vermute natürlich auch, dass weil beides aus dem Hause Google kommt, dass Google Ads und GA4 prima miteinander zusammenarbeiten. Also wird sich da irgendwas ändern? Es gibt ja auch diesen GCLID-Parameter und dieses Auto Tagging. Ändert sich da irgendwas?
Stefanie Entrup: Nein, das ist tatsächlich – funktioniert weiter über das Auto Tagging, was wir in Ads einstellen. Also da wird weiterhin die ID mit übergeben und dann kann das auch korrekt einsortiert werden. Man kann auch weiterhin, wenn man die Konten miteinander verknüpft, Conversions importieren. Also bzw. in GA3 hieß es Zielvorhaben, in GA4 heißt es jetzt Conversions. Und auch Zielgruppen kann man weiterhin teilen, das heißt, das funktioniert super. Und es gibt sogar noch einen weiteren Parameter, den man jetzt – oder ein weiteres Auto Tagging, was man einstellen kann im Merchant Center für die Google Shopping Anzeigen bzw. für die kostenlosen Product Listings, die wir da abrufen. Das ist dann ähnlich wie die Google Click ID, funktioniert das, das heißt dann Result ID wird auch automatisiert rüber gespielt und verarbeitet und dann haben wir auch so was wie Organic Shopping als Kanal.
Markus Hövener: Wie ist es sonst so überhaupt –
Andreas Engelhardt: (Produktverknüpfung? 21:28) ist ein ganz gutes Stichwort für die Hörer von Search Camp, weil mittlerweile kann man tatsächlich auch die Google Search Console mit GA4 verknüpfen.
Markus Hövener: Ja. Ich wollte gerade fragen, ja.
Andreas Engelhardt: Ja, genau. Ja, du kennst das ja selbst. Man muss die Search Console ja im Prinzip immer für eine Domain bzw. Subdomain konfigurieren. Und da ist so ein bisschen natürlich die Hoffnung quasi gewesen, wenn dieses Feature so spät kommt, dass man da eventuell dann auch mehrere Verknüpfungen quasi tätigen kann, also mit mehreren Search Consoles das Ganze verknüpfen kann. Das ist leider noch nicht der Fall, aber die Hoffnung stirbt ja bekanntlich zuletzt.
Markus Hövener: In dem Tempo, in dem Google an der Search Console arbeitet, glaube ich, werden wir das nicht mehr erleben dürfen. Ja –
Andreas Engelhardt: Wir hoffen.
Markus Hövener: Wir hoffen. Genau. Sonst noch Verbindungen mit anderen Tools? Also Search Console hatten wir jetzt. Aber kann ich da noch mehr Sachen dran pflantschen?
Andreas Engelhardt: Ja, ein mega cooles Feature ist eigentlich tatsächlich so dieses ganze Thema Big Query, also das Datenbank-Tool aus dem Hause Google, was ich jetzt auch noch eben mit dran pflantschen kann. Das ging bislang tatsächlich auch schon, allerdings eben nur für die 360 Version von Universal, dass man eben Daten aus einem Google Analytics in eine Datenbank exportieren kann. Das ist jetzt quasi ein Standard-Feature, dass man eben tatsächlich dann einen bestimmten Rhythmus, einen Export quasi vornehmen kann, also sein komplettes Analytics auch nochmal in einer Big Query Datenbank sichern kann, von da die Daten eben auch weiterverarbeiten kann, Ergänzungen machen kann, das eben ja ein bisschen weiter noch nutzen kann für Reports etc. Das ist auf jeden Fall ein ganz, ganz großer Schritt und ein ganz, ganz cooles Feature.
Markus Hövener: Ja, wir hatten ja am Anfang schon mal das Thema Datenschutz. Da gibt es ja immer so schöne Nachrichten, dass Analytics jetzt wieder verboten ist irgendwo, was dann ja immer isolierte Fälle sind. Aber egal. Du hattest schon gesagt, Cookieless wird irgendwann kommen. Also daraus höre ich natürlich erst mal, im Moment ist noch nicht Cookieless. Aber wie ist das insgesamt mit dem Thema Datenschutz? Datenschutzerklärung könnte ja ein Thema sein. Cookie Consent. Was gibt es da zu sagen?
Andreas Engelhardt: Ja, aktuell auf jeden Fall muss man eben den Cookie Consent natürlich berücksichtigen, darf also nicht ohne Einwilligung der Nutzer das Ganze tracken, weil eben tatsächlich aktuell eben auch noch Cookies gesetzt werden. Also da ändert sich eigentlich so von dem Setup her gar nichts. Ein bisschen arbeitet Google aktuell daran, wo diese Daten landen. Bislang ist es ja immer so gewesen, dass das Ganze wahrscheinlich irgendwo auf amerikanischen Servern gespeichert wird. Und genau, es gibt mittlerweile Meldungen, die einfach so ein bisschen hoffen lassen, dass sich das Ganze wirklich dann auf – ja, auch irgendwo auf europäischen Servern dann tatsächlich abspielt. Das lässt auf jeden Fall hoffen. Und das könnte auch einer der Gründe sein, warum dann eben irgendwann die Daten tatsächlich von den Universal Properties eben nicht mehr einsehbar sind bzw. dann irgendwo auch an einer Stelle einfach wahrscheinlich gelöscht werden. Das könnte eine Erklärung vielleicht dafür sein, dass die Daten dann irgendwann verschwinden werden.
Markus Hövener: Ja, wir hatten eben schon über Tools gesprochen. Wie sieht es denn mit dem Data Studio aus? Das nutzen wir ja auch ganz gerne in Kombination.
Andreas Engelhardt: Genau. Ja, das Data Studio ist ja eigentlich so ein bisschen nachgelagert an Google Analytics, dass man eben die Daten dann noch mal in schönerer Form auch visualisieren kann, für Reports verwenden kann. Und auch da hat sich eine ganze Menge tatsächlich getan. Gerade so Anfang des Jahres sind unglaublich viele Dimensionen und Metriken dann eben auch abrufbar geworden im Google Data Studio. Also auch da wird nachgezogen, dass man eben dieses Tool dann auch entsprechend, ja, benutzen kann. Man muss sich allerdings, ja, ein bisschen da wieder rein fuchsen, würde ich einfach mal sagen, weil man einfach nicht so wirklich wahnsinnig viel von seinen Reports eins zu eins übernehmen kann. Also man kann jetzt nicht hingehen und sagen, Okay, ich tausche mal eben die Datenquelle aus. Das wäre zu schön, um wahr zu sein. Das wird nicht so wirklich funktionieren. Natürlich kann man gewisse Diagrammtypen etc. dann anpassen und sich die Reports wieder ungefähr so herstellen, wie man sie vielleicht dann haben will. Aber auch an der Stelle macht es einfach Sinn, so gerade Richtung Events gedacht, sich seine Reports vielleicht doch noch mal anzuschauen und so ein bisschen auch diese neue Methodik des Event Trackings dann auch in seinen Reports mit zu berücksichtigen.
Markus Hövener: Ja. Was haben wir noch? Ich gucke gerade nochmal meinen Spickzettel durch. Das Thema Attribution haben wir noch nicht gehabt. Nämlich – ist natürlich schon wichtig zu gucken, wie war denn so die Journey und welcher Touchpoint hatte jetzt welchen Anteil. Wie sieht es da in Google Analytics 4 aus?
Stefanie Entrup: Genau. Da dürfen wir uns tatsächlich auf Besserung freuen.
Markus Hövener: Wow!
Stefanie Entrup: Denn – also in Universal Analytics war es ja tatsächlich so, da war in allen Berichten die Last Non-Direct Click Attribution, das heißt, man hat immer nur beispielsweise Umsätze oder Conversions dem letzten Touchpoint zugesprochen, was ja nicht wirklich die tatsächliche Customer Journey abbildet und lediglich über die Multi-Channel Berichte hatte man die Möglichkeit, noch mal andere Vergleiche oder andere Attributionsmodelle zu visualisieren, aber halt eben nicht zu übertragen auf die anderen Berichtsdaten. Und mit GA4 wird es jetzt tatsächlich so sein, dass die Daten getriebene Attribution standardmäßig in den Berichten greift oder funktioniert. Und da wird dann eben Machine Learning angewandt, um halt eben so prozentuale Verteilungen zu machen, in denen Google, ja, evaluiert oder prognostiziert, welcher Kanal hatte denn ungefähr wie viel Anteil oder welcher Touchpoint hatte wie viel Anteil an einer Conversion oder an einer Transaktion, sodass GA4 tatsächlich die Realität irgendwo besser abbilden sollte, als die GA3 es konnte.
Markus Hövener: Ja, und vielleicht so, ja, schon mal abschließend fast die Frage, ja, vielleicht an alle da draußen ist, glaube ich, klar geworden, an Google Analytics 4 kommt man nicht vorbei. Wenn man da jetzt noch Wissensbedarf hat und das nicht an eine freundliche Agentur wie uns abgeben möchte, wo kann man sich da weiterbilden? Gibt es da von Google was? Oder gibt es noch andere gute Angebote?
Stefanie Entrup: Ja, also man findet da sicherlich was. Also Google hat auch solche – also erst mal natürlich die Google Analytics Hilfe. Da wird man eigentlich, sobald man das googelt, also “Google Analytics” bzw. “GA4 Hilfe” plus irgendein Stichwort, die haben da eigentlich alle Berichte gescreenshottet und Definitionen und Hintergrundinfos. Ist natürlich ein bisschen mühselig, sich das da zusammenklauben, aber ansonsten habe ich schon auch das Gefühl, dass aktuell sehr, sehr viel an Webinaren und so weiter also immer wieder mehr auf den Markt kommt. Gerade jetzt vor dem Hintergrund dieser Deadline wird es da viel geben und ich glaube, da muss man die Augen offenhalten, Googlen und dann findet man schon was.
Markus Hövener: Ja, und wir selbst werden ja interessanterweise auch noch ein Weiterbildungsangebot dazu anbieten bei oncampus.de. Also da – also es ist noch nicht live, aber es wird kommen und da bitte einfach die Augen offenhalten dann im vierten Quartal, wenn ich jetzt nicht vollkommen falsch liege, werden wir das anbieten können. Ja, vielleicht vorletzte Frage, weil jetzt ist man ja eigentlich an einem ganz interessanten Punkt, nämlich alles, was man bislang hatte mit Universal Analytics wird eigentlich in die Tonne getreten und man fängt mit einem neuen System an. Könnte man nicht eigentlich jetzt direkt wechseln? Also merkt ihr das am Markt, dass die Leute jetzt sagen, Okay, wenn, dann können wir es jetzt eben auch einmal mit einer anderen, Nicht-Google-Alternative neu machen?
Andreas Engelhardt: t einer Nicht-Google-Alternative? Ja, auch die Gedanken sind natürlich da bei Kunden. Ich muss aber sagen, dass sich eigentlich relativ viele tatsächlich zu einem GA4-Setup dann tatsächlich an der Stelle entscheiden. Beispielsweise gerade die Leute, die jetzt irgendwie noch einen Relaunch vorhaben, die sagen, Okay, ich möchte eh so viel an meiner Seite gerade neu machen, jetzt nutze ich diese Chance und führe dann eben tatsächlich auch ein neues Tracking-System mit ein. Und die Entscheidung liegt dann eben tatsächlich sehr, sehr häufig auch wirklich bei GA4. Wir glauben oder bedenken, dass es eben auch wirklich ein zukunftsträchtiges System ist. Gerade so auch diese Aspekte Richtung Cookieless Tracking etc., da wird auf jeden Fall Google eine zukunftssichere Lösung bieten. Wenn sich so diese ganzen Datenthemen dann auch irgendwann mal auflösen, hoffen wir, hat man da auf jeden Fall eine gute Lösung und kann damit sehr gut arbeiten.
Stefanie Entrup: Vielleicht auch dazu noch mal, was viele vielleicht in letzter Instanz dann doch von einem anderen Anbieter abschrecken lässt, zum einen ist es natürlich erst mal kostenfrei, das Tool. Das muss man erst mal dann auch bei einem anderen Anbieter finden in dem Umfang. Zum anderen bewegen wir uns ja aber, wie wir es vorhin schon mehrfach erwähnt hatten, im Google Kosmos. Wir haben die Verknüpfungen zu Google Ads und so weiter. Und gerade vielleicht größere Unternehmen, die halt auch viel werben mit Google Ads, es ist einfach so bequem, die Möglichkeit direkt das Analyse Tool mit andocken zu können und auch von den Zielgruppen, die wir sammeln und erstellen, profitieren zu können, dass es, glaube ich, schon eine Hürde ist, sich davon zu lösen.
Markus Hövener: Ja, dann die finale Frage an euch beide: Haben wir noch irgendwas vergessen? Fällt euch noch irgendwas ein, worüber wir noch kurz sprechen müssen? Was ihr den Leuten da draußen noch sagen wollt?
Andreas Engelhardt: Ja, ich glaube, wir haben eigentlich die ganzen Vorteile von GA4 und alles, was ihr so zur Umstellung wissen müsst, euch eigentlich mitgegeben. Wie gesagt, unsere Empfehlung ist einfach, dass ihr bis zum Juli diesen Jahres euch intensiv mit dem mit dem Switch auseinandersetzt, idealerweise den halt auch schon vornehmt, sodass ihr auf jeden Fall eine GA4 Property dann laufen habt, damit ihr dann in einem Jahr quasi auf jeden Fall irgendwo Daten habt, auf die ihr zurückgreifen könnt. Bis dahin seid ihr dann auch schon vertraut mit dem System, wisst, wie ihr damit analysieren könnt. Und das Ganze hat auf jeden Fall eine Dringlichkeit aus unserer Sicht. Insofern macht das Sinn, da eigentlich gleich morgen mit loszulegen bzw. vielleicht sogar einfach nur weiterzumachen. Ja, das Tracking auf sichere Füße zu stellen, gerne mit dem Gedanken, auch einen Google Tech Manager dann zu implementieren, falls das noch nicht geschehen ist. Und ja, die ganze Webanalyse dann einfach noch mal anzugehen, falls das bislang brach lag.
Stefanie Entrup: Ja, dem kann ich mich nur anschließen. Also vor Juli wäre schon super, wenn man auf dieses ganze Jahr an Daten kommt, bevor es tatsächlich Zeit wird, um zu switchen.
Markus Hövener: Okay. Ja, cool. Dann sage ich erstmal euch beiden vielen Dank und möchte natürlich noch darauf hinweisen, dass wir in diesem Jahr auch wieder eine – oder ne, nicht wieder, sondern wir werden eine Google – ne, eine Webanalyse-Sprechstunde anbieten. Mann, jetzt habe ich es endlich. Also wir bieten ja sowieso im Rahmen unserer Webinare mehrere Sprechstunden pro Jahr an, zweimal SEO, zweimal SEA und in diesem Jahr auch erstmalig eine Webanalyse-Sprechstunde. Ehrlich gesagt, ich weiß den Termin nicht. Ich kann’s nachgucken. Findet ihr auf jeden Fall immer unter Bloofusion.de/Veranstaltungen. Da findet ihr das ganze Line-up für dieses Jahr. Guckt da gerne mal rein. Wenn ihr Fragen habt, dann könnt ihr mit Steffi und Andi natürlich in dem Rahmen dann auch noch mal sprechen. Jo, das solls gewesen sein. Wie gesagt, euch beiden noch mal vielen Dank. Schön, dass ihr dabei wart. Wäre natürlich geiler gewesen, wenn wir wirklich an so einem runden Tisch gesessen hätten. So guckt jeder in seinen Monitor. Aber ja, irgendwann können wir auch das wieder.
Stefanie Entrup: Ja, vielen Dank für die Einladung.
Andreas Engelhardt: Vielen Dank. Hat Spaß gemacht!
Markus Hövener: Sehr gerne, genau. Nächstes Mal mit Keksen und so, aber gucken wir mal! Also euch da draußen, wie gesagt, bleibt gesund. Viel Spaß mit der Webanalyse. Viel Spaß bei der Umstellung. Und wenn ihr dabei Hilfe braucht, wisst ihr, wo wir sind. Bloofusion.de und da kriegt ihr das mit Sicherheit super hin, uns zu kontaktieren und wir helfen euch gerne dabei. In diesem Sinne Euch eine gute Zeit. Bis dann. Ciao.
Stefanie Entrup: Tschüss!
Andreas Engelhardt: Ciao, ciao.
from Bloofusion Blog https://ift.tt/6T4JL1i via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
Mit den richtigen Zielgruppen zum Unternehmenserfolg
Du kennst deine potenziellen Kund:innen noch nicht bzw. stehst ganz am Anfang? Wie du mit Google Ads deine Zielgruppe kennenlernst, Buyer Personas erstellst und Neukund:innen gewinnst, erfährst du in diesem Blogbeitrag.
In unserem Blogbeitrag aus dem Oktober 2021 findest du bereits erste Informationen zur Definition und Erstellung von (Remarketing-)Zielgruppen.
Wo liegt der Unterschied zwischen einer Zielgruppe und einer Buyer Persona?
Eine Zielgruppe ist eine Teilmenge des Marktes und besteht aus Nutzer:innen, für die ein Produkt oder eine Dienstleistung interessant ist. Charakteristische Merkmale einer Zielgruppe können sich zum Beispiel in der Demografie (Geschlecht und Altersgruppen), Wohnort, Einkommen, politische Ausrichtung und den individuellen Präferenzen niederschlagen. Online-Marketing-Aktivitäten sollten sich daher auf diesen relevanten Personenkreis konzentrieren, um die Bekanntheit und die Umsätze rentabel zu steigern. 
Besonders häufig kennen KMUs oder Start-ups, die neu in den Markt eindringen möchten, ihre Zielgruppe noch nicht. Auch können erste Marktanalysen keine 100%-ige Sicherheit bieten, die richtigen Personen zu erreichen. Um langfristig potenzielle Kund:innen möglichst präzise ansprechen zu können, hilft aus diesem Grund die Erstellung von Buyer Personas. Hierbei handelt es sich um eine fiktive Person, die deinen Kund:innen entspricht. Google Ads ermöglicht es, deine Zielgruppe genau kennenzulernen und entsprechende Buyer Personas abzuleiten. Wir können Rückschlüsse auf die Herkunft, das Geschlecht, Alter, Elternstatus, die Affinität für Endgeräte (Desktop-Computer, Tablets, Smartphones) und die Interessen sowie ihre Position im Funnel (kaufbereit und Nutzerverhalten) schließen.
Mit Google Ads zur Buyer Persona
Um Einblicke gewinnen zu können, müssen Werbetreibende zunächst mit der Bewerbung der Produkte und Dienstleistungen starten. Bereits nach drei Monaten lassen sich Erkenntnisse über das Nutzer:innenverhalten gewinnen, sodass wir genau analysieren können, wer wann ein Produkt gekauft bzw. eine Dienstleistung angefragt hat.
Was genau heißt das für uns?
In der Google Ads-Zielgruppenverwaltung unseres Beispielkunden, eines Onlineshops für Elektrobedarf, ist Folgendes einzusehen:
Demografie
Hier zeigt sich, dass die konvertierenden Nutzer:innen bei 70 % der Käufe männlich und zwischen 25–54 Jahre alt sind.
Standorte
Kaufkräftig sind vor allem die Großstädter in München, Hamburg, Berlin, Frankfurt und Köln.
Geräte
Bevorzugt kaufen die Nutzer:innen via Desktop-PC.
Interessen & Nutzersignale
In den Nutzersignalen und Interessen ist deutlich eine Zielgruppe zu erkennen, welche bei dem angebotenen Produktportfolio (Elektrobedarf) des analysierten Kunden wenig überrascht, da eine Präferenz zum Heimwerken sichtbar wird.
Wie könnte aufgrund dieser Daten eine Buyer Persona aussehen?
Person 1
Alexander ist 30 Jahre alt und baut aktuell ein Eigenheim. Er hat noch keine Kinder und wohnt in Hamburg. Er ist berufstätig und arbeitet in der Unternehmensberatung. Heimwerken ist sein Hobby, besonders für angenehme Lichtkonzepte interessiert er sich. In seiner Mittagspause recherchiert er bevorzugt auf dem Smartphone und schließt Käufe dienstags oder mittwochs abends zwischen 20 und 22 Uhr ab. Alexander ist bis 20 Uhr beruflich eingespannt und kann keinen Baumarkt innerhalb der Öffnungszeiten aufsuchen, möchte jedoch für seine freie Zeit am Wochenende gut ausgerüstet sein.
Person 2
Otto ist 53 Jahre alt und wohnt in einem Vorort von Stuttgart. Als typischer Schwabe ist er ein Sparfuchs und kauft daher seinen Heimwerkerbedarf gerne online über seinen Desktop-Computer. Sein Hobby ist Gärtnern und er ist handwerklich begabt. Nach 30 Jahren im Eigenheim ist eine Renovierung nötig. Die Installationen und Wände müssen instandgesetzt sowie der Kamin an die aktuellen Normen angepasst werden.
Anhand dieser Personas kann die Werbung gezielt ausgesteuert, können Inhalte und ggf. das Produktportfolio auf die Bedürfnisse angepasst werden.
Online-Werbung für Neukund:innen
Die Neukundenakquise ist für jedes Unternehmen essenziell, um langfristig den Unternehmenserfolg zu sichern. Bestandskund:innen, die das Produktportfolio kennen und schätzen, finden den Weg leichter zurück auf die Website des Werbetreibenden, ohne noch einmal mit Werbeanzeigen überzeugt werden zu müssen, sodass Werbekosten eingespart werden können.
Da viele Markte umkämpft sind und der Wettbewerb umtriebig ist, ist die Nutzung von Google Ads zur Neukundengewinnung ein wichtiger Kanal. Um Werbetreibenden die Generierung von potenziellen Neukund:innen zu vereinfachen, bietet Google Ads die Möglichkeit, Anzeigen für diese präferiert auszusteuern, die Käufe von diesen höher zu bewerten oder zukünftig gänzlich auf diese Zielgruppe auszurichten.
Erhöhung der Gebote in Smart-Shopping Kampagnen
Neue Kund:innen erreichen mit Performance Max
In der vergangenen Woche kündigte Google an, dass mithilfe von Performance Max-Kampagnen Werbetreibende zukünftig die Möglichkeit haben, Kampagnen so zu optimieren, dass ausschließlich Neukund:innen-Gebote abgegeben werden. Es können folgende Marketingziele erreicht werden:
Steigerung des Gesamtumsatzes
Erhöhung des Marktanteils mit einem dedizierten Budget für die Kundenakquise, indem entweder die Anzahl der Neukundenkonvertierungen mit Kundenakquisitionskosten maximiert oder die Einnahmen aus Neukunden maximiert werden, um eine kurzfristige Kapitalrendite zu erreichen.
Wo hingegen bei Smart-Shopping-Kampagnen noch auf automatisch erstellte Zielgruppenlisten (basierend auf den Kampagnenaktivitäten und erfassten Käufen der letzten 390 Tage) oder ein Conversion-Tracking für Neukunden mithilfe von Tags zurückgegriffen werden kann, wird für die Performance Max-Kampagne der Upload einer bestehenden Kund:innenliste über den Bereich Customer Match notwendig.
Bisher konnten wir diese Funktion noch nicht in unseren Google Ads-Konten entdecken. Es bleibt also spannend.
Fazit
Wenn du unternehmerisch erfolgreich agieren möchtest, solltest du zwingend deine Zielgruppe und im Idealfall sogar deine Buyer Persona kennen. Google Ads bietet eine hervorragende Möglichkeit, seine Kund:innen kennenzulernen und die Werbung sowie das Produktportfolio dahingehend anzupassen, um maximale Gewinne zu erwirtschaften. Auch für die Neukundenakquise, die ein langfristiges Wachstum sichert, ist Google Ads ein idealer Werbekanal.
from Bloofusion Blog https://ift.tt/lNjkzVO via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
Das große URL-SEO-FAQ: 15 häufige (und wichtige) Fragen! [Alles auf Start 60]
Internet ohne URLs – das geht nicht. Aber wie wichtig sind sie für SEO? Müssen Keywords in Domain und URL-Pfad rein? Können URLs auch zu lang sein? Was ist Groß-Schreibung? In dieser Episode gibt es daher 15 wichtige Einsteigerfragen rund um URLs.
  Keine Ausgabe unserer Podcasts mehr verpassen? Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:
Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.
  Die wichtigsten Podcast-Links:
Alle Episoden von Alles auf Start als RSS-Feed
Alles auf Start bei iTunes
Alle Folgen: www.allesaufstart.de
Auf Twitter folgen: @bloonatic (Markus Hövener)
Einsteigertipps: So “empfangen” Sie Alles auf Start!
Themenvorschläge? Immer her damit…
  Das große URL-SEO-FAQ: 15 häufige (und wichtige) Fragen!
Hallo, da seid ihr wieder bei Alles auf Start. Folge 60 heute und ich habe – ja, ich möchte heute über URLs reden. Bisschen Klugscheißerwissen heute, gebe ich zu. So richtig dramatisch oft braucht man das gar nicht. Aber trotzdem. Ich glaube, ihr könnt hier was mitnehmen heute. Ich habe nämlich 15 häufige Fragen rund um URLs mitgebracht.
Und worauf ich – wir waren gerade schon bei Klugscheißer – worauf ich verzichte, es gibt eigentlich – in Abgrenzung gibt es noch die URIs und die URNs. So kompliziert möchte ich es gar nicht machen. Wir reden heute über URLs. Das ist das, was oben in der Browserzeile steht und mit http oder in der Regel https, :// beginnt.
Und die URL ist natürlich deswegen wichtig, weil sie ein Schlüssel ist. Es ist eine Adresse für etwas. Und nur wer diesen Schlüssel kennt, wer die Adresse kennt, kann eben auch was finden. Und Google nutzt halt auch solche Schlüssel, um Seiten abzuspeichern. Und genau deswegen ist es eben auch so wichtig, dass diese URLs möglichst konstant bleiben. Wenn sie das nicht bleiben, nutzt man 301-Umleitung, aber darüber haben wir schon in Alles auf Start Episode 56 gesprochen.
  #1 Wie ist eine URL aufgebaut?
Also, zuerst kommt immer das Scheme. Das ist http oder https. Es gibt noch ein paar andere wie mailto, FTP und noch einen ganzen Stapel davon. Aber typischerweise steht da HTTPS. Dann kommt Doppelpunkt, Doppel-Slash.
Dann kommt die Domain oder der Host oder der Fully Qualified Domain Name (FQDN). Da gibt es verschiedene Sachen, wie man das nennen kann. Das ist einfach die Adresse des Servers, auf dem das Ganze liegt.
Danach kommt der Pfad, der beginnt mit einem Slash. So was wie /seite.html. Ja. Wenn es dann noch gut läuft, fängt noch was anderes an, nämlich dann kommt noch ein Fragezeichen irgendwann. Danach kommen sogenannte URL-Parameter, da gehe ich gleich noch mal drauf ein.
Und dann kann hintendran noch das sogenannte Fragment stehen. Das fängt nämlich mit einem Hash-Zeichen an, mit so einer Raute. Und die ist technisch gesehen nicht Bestandteil der URL, steckt da trotzdem manchmal drin. Deswegen ist das so ein bisschen so ein Zwitter, gehe ich jetzt heute auch nicht so in der Tiefe drauf ein.
  #2 Muss ich eigentlich „www.“ in der Domain nutzen?
Ich glaube, das haben wir alle schon gesehen. Es gibt viele Websites, die haben das „www.“, manche haben es nicht. Also ja, das ist so das, was man unter Konvention abspeichert, das ist – eine Zeit lang hat man das so gemacht, überhaupt wie der Begriff des World Wide Web oder des Surfens noch ein bisschen beliebter war.
Also brauchen tut man das für SEO vor allem nicht. Es kann da drin sein, es muss aber nicht da drin sein. Also es gibt keinen Vorteil, es gibt keinen Nachteil. Wichtig ist halt nur, dass man es konsistent benutzt. Also entweder mit und dann immer mit oder ohne und dann immer ohne.
  #3 Sind alle Domains gleich?
Nee, eigentlich nicht. Und zwar, es gibt eigentlich nur zwei Welten von Domains, nämlich es gibt die Länderdomains und es gibt die generischen Domains. Länderdomains heißen auch ccTLD, für country code top level domain. Und die generischen Domains, die heißen gTLD für generic top level domain.
So, das heißt, Länderdomains, das kennen wir alle. Das sind eben Domains, die an ein Land gebunden sind, .de, .at, .ch, .fr, .it. Gibt es einen ganzen Stapel davon, weil es eben auch einen ganzen Stapel Länder gibt. Und alles, was nicht eine Länderdomain ist – und das ist wichtig, tun sich viele schwer damit – alles, was nicht eine Länderdomain ist, ist eine generische Domain.
Das stimmt im Allgemeinen. Im Speziellen stimmt es natürlich wieder nicht. Es gibt nämlich ein paar Domains, die Google trotzdem anders behandelt. Dazu komme ich gleich. Also es gibt zum Beispiel die Domain für .tv. Das ist eine Insel. Ich weiß ehrlich gesagt gar nicht, wo sie ist. Das ist die Insel Tuvalu. Und ja, die machen einen nicht unwesentlichen Teil ihrer Staatseinnahmen über diese Domain. Und Google hat jetzt gelernt, Ah, eigentlich ist das eine Länder Domain. Aber weil sie eigentlich kaum als Länderdomain genutzt wird, betrachten wir sie trotzdem als generische Domain. Nochmal, da gibt es ein paar Ausnahmen, aber haltet euch nicht damit auf.
Im Allgemeinen müsst ihr wissen, es gibt Länderdomains und alles, was nicht Länderdomain ist, ist eine generische Domain. Warum ist das Ganze wichtig? Es ist deswegen wichtig, weil Länderdomains, die haben einen, man nennt das Boost für das jeweilige, für das eine Land. Das heißt, eine .de Domain ist auf Deutschland ausgerichtet und funktioniert in Suchmaschinen einfach in Deutschland einen Tacken besser. Das ist super, wenn du nur in Deutschland aktiv bist. Wenn du überregional aktiv bist, also auch über die Grenzen von Deutschland hinweg und vor allem unterschiedliche Sprachen auf der Website hast, dann ist grundsätzlich immer eine generische Domain deutlich besser.
  #4 Was ist mit Domains wie .Museum oder .Berlin? Haben die Vorteile?
Nee. Erstmal gucken wir mal, ob wir das von eben gelernte Wissen noch mal abrufen können. Was sind das für Domains? Es sind keine Länderdomains, also sind es generischer Domains. So.
Habe ich als Museum einen Vorteil, wenn dahinten .Museum dransteht? Nein. SEO technisch, nein. Habe ich als Unternehmen in Berlin einen Vorteil, wenn ich eine .Berlin-Domain habe? Nein, hast du nicht. Also, du kannst sie benutzen. Du hast dadurch auch keinen Nachteil. Es wird quasi wie eine normale generische Domain betrachtet aus Suchmaschinensicht. Das heißt, egal ob das Ding jetzt .com, .net, .museum oder .berlin heißt, werden alle gleich behandelt.
  #5 Helfen mir Keywords in der Domain?
Früher gab’s das ja relativ stark. Dann haben halt Leute Keyword.de gehabt. Also wandern.de zum Beispiel. Das waren sogenannte Exact Match Domains. Dann gab es noch welche, die das Keyword einfach nur drin hatten, wie wandern-günstig.de und solche Sachen.
Heutzutage ist, glaube ich übereinstimmend gelernt worden, dass das keinen Vorteil mehr hat. Also es hat keinen Vorteil, wenn ich das Keyword da drin habe. Es kann natürlich einen Vorteil haben, wenn jemand in den Suchergebnissen die Domain sieht und er sieht, Wow, das ist wandern.de und sagt so, “Wow, wandern.de muss aber richtig relevant sein für Wandern!” Dann kann es natürlich sein, dass du eine etwas höhere Klickrate dadurch kriegst. Ja, das kann sein. Aber erst mal fürs Ranking an sich bringt es dir erst mal gar nichts.
  #6 Was ist denn mit Keywords im Pfad?
Ja, ist auch ein seltsames Thema. Im Allgemeinen geht man davon aus – jetzt einmal die die schöne Umschreibung – also, Keywords im Pfad, das heißt, ich habe vielleicht eine Seite über Blechbüchsen und meine URL heißt dann /blechbuechsen/, zum Beispiel. Ist das von Vorteil?
Im Allgemeinen geht man davon aus, dass es bestenfalls einen geringen Vorteil hat. Google guckt sich ja nicht nur die URL an, sondern guckt sich eben vor allem den Content der Seite an, guckt sich den Kontext der gesamten Website an und solche Sachen. Das heißt, es ist nicht unbedingt kriegsentscheidend, ob man die Keywords in dem Pad auch drin hat oder nicht.
Ich würde es natürlich immer empfehlen, weil es auch an verschiedenen Stellen ausgespielt wird und dann vielleicht noch mal vom Benutzer als relevanter angesehen wird. Aber nur weil man jetzt das Keyword vielleicht nicht im Pfad hat, heißt das glaube ich nicht wirklich, dass man deswegen schlechter rankt.
  #7 Sollte meine URL möglichst kompakt sein?
Also angenommen, du hast einen Onlineshop, dann hast du ja verschiedene Möglichkeiten, deine URLs aufzubauen. Also, du hast zwei Kategorienebenen, Kategorie eins und Kategorie zwei. Und wie sieht jetzt die URL dieser Seite aus oder der Pfad? Heißt der /Kategorie1/Kategorie2? Oder heißt er nur /Kategorie2? Also erst mal gilt das, was eben schon gesagt wurde. Ob das Keyword jetzt in der Domain vorkommt oder so, ist gar nicht so entscheidend. Man kann beides machen.
Ich würde es ehrlich gesagt von der Länge abhängig machen. Das heißt, es gibt natürlich Shops – oder ich hatte mal einen Shop, der hatte sieben Kategorieebenen und die waren noch relativ umfangreich betitelt. Und dann hast du natürlich so richtige Monster von URLs. Und dann würde ich sagen, Nee, dann machst du das mal lieber nicht. Wenn du ohnehin nur zwei oder drei Kategorieebenen hast, die du in der URL abbilden möchtest, dann kannst du das absolut problemlos machen.
Es hat nämlich Vorteile. Nicht für SEO, aber Vorteile für die Messbarkeit. Weil du kannst dann wirklich in Tools wie Search Console oder SISTRIX kannst du dann sehen quasi, welchen Wertbeitrag dir bestimmte Ordner liefern. Und wenn Ordner eben quasi meint, das ist eben auch eine Struktur innerhalb meiner Website, dann kannst du natürlich relativ einfach dann verschiedene Bereiche deiner Website schnell bewerten.
Grundsätzlich sagt man so, die URL sollte 100 Zeichen nicht überschreiten. Das stimmt natürlich überhaupt nicht. Es gibt ein hartes Limit, das ist aber vierstellig und das wirst du grundsätzlich nicht überschreiten können, denke ich. Also theoretisch gibt es da ein Limit. Ich habe aber noch nie jemanden gesehen, der das wirklich überschritten hätte. Und dann muss man auch noch sagen, es gibt nicht das Limit, weil verschiedene Browser das anders sehen und Server und so, also streichen wir das Ganze. Bitte überschreite nicht 100 Zeichen in der Länge, aber jetzt nicht, weil dann das Internet zusammenbricht und nichts mehr funktioniert, sondern weil so eine URL ja immer auch noch irgendwie vielleicht von einem Menschen angeguckt wird und überschaut werden muss in der Länge. Und deswegen, 100 Zeichen kann man durchaus als Grenze sehen. Wenn es 105 sind, geschenkt, da müssen wir nicht drüber sprechen. Wenn es 200 sind, dann kürzen.
  #8 Was ist denn mit Umlauten oder Sonderzeichen in der Domain? Was hältst du denn davon?
Ja, gab es früher ja nicht. Früher gab es wirklich – oder als Standard für das Domain Name System gab es eigentlich nur, ich sage mal die Standardzeichen von A bis Z, dann gab es die Zahlen von 0 bis 9 und noch ein paar andere Zeichen, aber das war’s. Mehr passte da nicht rein. Also gerade unsere beliebten Umlaute in Deutschland, die gingen einfach nicht.
Dann kam aber das Interesse dafür auf, dass man das macht. Aber keiner hatte Lust, das DNS neu zu schreiben, also hat man sich darauf geeinigt, Du, das machen wir ganz pragmatisch, wenn du eine Domain eingibst mit Umlaut wie Hövener.de, also mein Nachname, dann übersetzen wir das einfach in etwas, was dem alten Standard genügt. Und dafür hat man eine Übersetzung gefunden, die heißt Punycode und aus Hövener.de wird xn--hvener-wxa.de, maschinenlesbar. Das heißt, wenn ich das oben in den Browser eintippe, dann sagt der Browser so nach dem Motto, Ah ja, ich verstehe, du willst eine Umlautdomain haben. So hinter den Kulissen übersetze ich das einfach mal für dich und schick – ich baue das mal kurz um. Für dich sieht das so aus, als wäre das Hövener.de. Aber eigentlich spreche ich mit dem Domain Name System über die abgespeckte Version.
Also grundsätzlich ja, das geht. Umlaute gehen, Sonderzeichen gehen. Ich persönlich bin trotzdem kein Freund davon. Ich habe an einigen Stellen mal gesehen, dass es an manchen Ecken und Enden nicht so besonders gut funktioniert hat. Das waren eher so Grenzfälle. Aber trotzdem kann es ja immer mal passieren. Und deswegen, ich persönlich bin da gerne etwas vorsichtig und wenn du irgendwie die Wahl hast, würde ich mir immer eine Domain wählen, die nicht Umlaute und/oder Sonderzeichen drin hat. Aber noch mal, funktionieren tut das.
  #9 Was ist mit Endungen wie .html?
Da sieht man ja schon mal, da hat eine URL – heißt hinten irgendwie /Vorteile.html. Und dann kommt manchmal die Frage auf, Ja, ist das gut? Ist das schlecht? Braucht man das? Kann das weg? Gerade bei so Relaunchprojekten habe ich das manchmal. Brauchen wir das?
Man muss ein bisschen verstehen, wo das herkommt. Das kommt nämlich noch von früher. Früher war es nämlich so, also wenn ihr eine Datei abspeichert bei euch auf dem Laptop oder so, dann hat die ja in der Regel eine Endung, eine Extension, zum Beispiel .docx für eine Worddatei, für eine aktuelle Worddatei. So. Und anhand dieser Endung weiß Windows dann eben zum Beispiel, ah ja, das ist ja eine Worddatei und öffnet das entsprechende Programm. Dafür ist diese Extension.
Ja und früher war es halt auch so, HTML-Seiten hatten eine Extension, nämlich .html. Und warum brauchte man die? Weil die Seiten, die Webseiten lagen wirklich noch als physische Dateien auf dem Server rum. Das ist heute unvorstellbar, weil heute kommt irgendwie alles aus einer Datenbank und wird zur Laufzeit generiert. Da liegt keine Datei mehr rum. Ab und zu vielleicht mal, aber im Großen und Ganzen ist das alles in der Datenbank.
Und da kommt das noch her, hat aber überhaupt keinen Vorteil, hat überhaupt keinen Nachteil. Also wenn ihr .html haben wollt oder .htm gab’s dann natürlich auch, wenn ihr das haben wollt, macht ihr das und sonst macht ihr es eben nicht.
  #10 Ist Groß-/Kleinschreibung in der URL relevant?
Muss man sagen, hängt davon ab. Deswegen hatten wir eben die Frage Nummer eins, “Aus was besteht eigentlich so eine URL?”
Da muss man sagen, Groß-/Kleinschreibung ist nicht relevant für die ersten beiden Bestandteile, nämlich für das Scheme und für die Domain. Kannst du mal ausprobieren, kannst du einfach mal großschreiben oder klein, vollkommen egal, interessiert nicht.
Anders ist es beim Pfad. Anders ist es bei den URL-Parametern oder beim Fragment. Da ist es durchaus relevant. Und deswegen gibt es viele SEO-Tools, die sich beschweren, wenn du Großschreibung nutzt in der URL, weil das eben auf ein Problem hinweisen kann. Es gab nämlich vor allem damals mal so ein recht beliebtes Shopsystem und der hat einfach alle URLs mal in klein, mal in groß gemacht und für Google waren das unterschiedliche URLs und dann gab es die gleiche Seite einfach in drei oder vier, fünf, sechs, sieben Groß- und Kleinschreibweisen, weil ja auch noch zwischendurch alles auch noch gemischt war.
Heute, also mit normalen Content Management oder Shopsystem ist das heute nicht mehr wirklich ein relevantes Thema. Und trotzdem, die Empfehlung ist eigentlich immer, mach bitte alles in Kleinschreibung, dann kann das Problem gar nicht erst auftreten. Aber noch mal, ein reales Problem sehe ich da ehrlich gesagt nicht.
  #11 Wie ist es denn mit Umlauten im Pad?
Also wir haben eben schon über Umlaute in der Domain gesprochen, aber was ist im Pfad? Ja, das passiert relativ oft als Problem. Irgendjemand hat vielleicht eine PDF-Datei erstellt, die heißt – hat jemand einfach quasi von seinem Laptop kopiert und da heißt sie “Urlaub Österreich.pdf“. Legt die auf den Server, lädt die hoch und der Server oder das Content Management System behält diesen Umlaut bei.
Und dann ist ein Umlaut in der URL, aber eigentlich darf kein Umlaut drin sein. Da dürfen eben auch nur so ASCII-Zeichen drin sein, also A bis Z, 0 bis 9 und so. Ist total spannend, Google kommt da prima mit zurecht. Also man sollte es vermeiden, weil es tendenziell zu Problemen führen kann.
Die SEO-Tools werden sich auch brav beschweren, wenn du solche URLs hast, und wird dich darauf hinweisen, Umlaute in URLs bitte nicht. Und trotzdem merkt man, dass Google da hervorragend mit zurechtkommt. Ist also in der Praxis kein Problem. Wenn man es vermeiden kann, sollte man es tun. Also sprich, beim Hochladen einmal gucken, ob das Ö durch ein OE ersetzt wird. Das wäre natürlich schon eine schöne Sache, aber trotzdem, in der Regel ist es den Aufwand nicht wert.
  #12 Wenn man im Pfad Wörter trennen möchte, soll man einen Bindestrich oder einen Unterstrich als Trennzeichen nehmen?
Also Vorteile-Lebensversicherung oder Vorteile_Lebensversicherung? In der Praxis zeigt sich, dass der Bindestrich nach wie vor Vorteile hat. Also wenn man ein Trennzeichen nutzen sollte, sollte es immer ein Bindestrich sein.
  #13 Dürfen Leerzeichen in der URL vorkommen?
Eigentlich auch nicht. Ich hatte eben das Beispiel, du hast eine PDF-Datei, die heißt ��Urlaub Österreich.pdf”, lädst sie auf den Server hoch und schon ist ein Leerzeichen in der URL mit drin. Auch da gibt es wieder Mechanismen, dass das Leerzeichen durch %20 ersetzt wird oder durch ein Pluszeichen.
Wenn man es vermeiden kann, sollte man es vermeiden. Auch da, einige SEO-Tools werden sich darüber beschweren, wenn das so ist, auch eigentlich vollkommen zurecht. Aber trotzdem, die gängigen Systeme kommen damit vollkommen klar und deswegen sollte man da auch keine große Show draus machen.
  #14 Sind URL-Parameter schlimm?
Ich habe ja gesagt, URL-Parameter, das ist das, das hängt hinten dran. Fragezeichen und dann kommt so was wie „Variable1=Wert1&Variable2=Wert2“ und so weiter.
Früher war das schlimm. Früher hat sich Google häufig verweigert, wenn URL-Parameter drin waren. Und mit früher meine ich wirklich so, als ich angefangen habe, 2001, 2002, da haben wir einen großen Onlineshop betreut in den USA und die hatten irgendwie so ganz kaputte URLs mit ganz vielen Parametern hintendran, die hat Google einfach nicht gecrawlt und das war natürlich irgendwie tödlich. Das war einfach nur blöd.
So ist es heutzutage nicht mehr. Natürlich, wenn du 17 Parameter dranhängst, sagt Google irgendwann vielleicht so, hmm, ist vielleicht doch ein bisschen viel. Aber solche Parameter sind ja sinnvoll, zum Beispiel zum Sortieren von Seiten, für die Paginierung zum Beispiel. Das kann man auch anders machen. Das muss man nicht über URL-Parameter machen. Aber viele Systeme machen das dann eben doch.
Warum hat Google da eigentlich so ein Problem mit oder hatte mal? Naja, das Problem ist, diese Parameter erzeugen erst mal ganz viele URLs. Und angenommen du hast eine Kategorie und du hast zum Beispiel oben so eine Möglichkeit, die zu sortieren, die Produkte, die da drauf sind und du hast sechs verschiedene Sortiermethoden. Und dieser Sortierparameter, der wird als URL-Parameter abgelegt. Also ?sortieren=Preisaufsteigend, zum Beispiel, könnte da oben drinstehen. Und dann hast du aber auch noch eine Paginierung. Das heißt, weil nicht alle Produkte auf die Kategorie passen, hast du auch noch Seiten wie p=1, p=2, p=3.
So, und die hast du dann auch noch mal alle durchsortiert. Das heißt, du hast irgendwie sechs Mal Sortiermodus, dann hast du 20-mal paginieren, hast du in Summe 120, ja, unsinnige URLs.
Und Google crawlt erst mal alles, was sie da vorfinden. Und es gibt durchaus Fälle, wo durch solche oder ähnliche Mechanismen eine gewaltig hohe Anzahl an Seiten generiert wird. Das nennt man dann einen Infinite Space, also einen unendlichen Raum, wo einfach immer mehr URLs erzeugt werden. Und wie gesagt, Google crawlt das erst mal alles. Wird zum Glück ein bisschen selektiver in den letzten Jahren, aber damit kann man erst mal den Google Index wahnsinnig gut zumüllen.
Die fressen viel Crawl Budget auf, blasen den Index mit unnötigen Seiten voll. Und deswegen sind URL-Parameter an sich nicht schlimm, weil nochmal, viele Systeme nutzen das und auch vollkommen zurecht. Es gibt aber einige Fälle, wo dadurch viele unsinnige Seiten erzeugt werden oder nicht relevante Seiten oder wo eben solche Mengen entstehen, wo auf einmal Millionen von Variationen entstehen. Und dann sind die sicherlich nicht so gut. Aber grundsätzlich noch mal URL-Parameter sind nicht schlimm, das war mal so.
  #15 Kann man das Fragment zur Optimierung benutzen?
Also Fragment habe ich ja gesagt, ist eigentlich nicht Bestandteil der URL, zumindest nicht so, wie sie beim Server angefragt wird. Was heißt denn das? Also angenommen, du hast irgendwo einen Link und der heißt /Seite.html#unten. Was sagt das dem Browser?
Dem Browser sagt das: Gehe auf diese Seite, also auf Seite.html, und spring dann nach unten auf die Seite. Da ist so eine Sprungmarke dann eingebaut. Dafür ist dieses Fragment, um quasi in der Seite nochmal irgendwo hin zu springen.
Kann man das für irgendwas nutzen? Naja, ehrlich gesagt nicht so richtig. Es gibt die Empfehlung, dass wenn du lange Artikel schreibst, dass du oben ein Inhaltsverzeichnis hinbaust, ein sogenanntes TOC, ein Table of Contents mit Sprungmarken zum Beispiel auf die ganzen Zwischenüberschriften. Nochmal, langer Artikel und du hast oben ein Inhaltsverzeichnis, klickst vielleicht auf die dritte Überschrift und springst dann auf der Seite direkt zu der dritten Überschrift.
In der Vergangenheit hat das dazu geführt, dass Google das ab und zu mal übernommen hat. Und daraus hat man geschlussfolgert, dass es Google beim Verständnis der Struktur einer Seite helfen kann, wenn es solche Sprungmarken gibt. Das ist immer ein bisschen fakultativ. Vor allem, ob das Ganze jetzt heute noch irgendetwas bringt, ist eigentlich völlig unklar.
Sieh es also eher als eine Sache für den Nutzer. Also das heißt, wenn du lange Beiträge hast, dann sorgt gerne dafür, dass oben ein Inhaltsverzeichnis steht mit den Sprungmarken, also mit diesen Fragmenten. Da gibt es zum Beispiel für WordPress gibt es da auch fertige Plugins, die machen dir das und ja, funktioniert. Erwarte aber in Bezug auf SEO nichts davon. Denn noch mal, das Fragment an sich ist eigentlich nicht Bestandteil der URL, zumindest nicht so, wie sie quasi für Google für den Index relevant ist. Google schneidet quasi an diesem Hashtag einfach ab. Und was immer dahintersteht, wird von Google eigentlich nicht honoriert. Das Thema ist ein bisschen komplexer als das, aber so wollen wir es jetzt mal zurecht rühren.
  Finale
So, jetzt habe ich wahnsinnig viel erzählt. Was bleibt davon denn jetzt für dich?
Also erstmal, die ganzen Domainthemen habe ich, glaube ich zusammengefasst, wenn es geht, kein Umlaut drin. Das funktioniert zwar. Ich finde es trotzdem irgendwie nicht schön. Also das ist immer irgendwie, ja, ein Behelf, oder – mir gefällt es einfach nicht. Kannst du trotzdem machen, funktioniert. Ich würde es eher nicht machen.
Keywords in der Domain bringt keinen Vorteil mehr. Keywords in der URL bringt vielleicht einen Vorteil.
Und ansonsten hängt eben alles eigentlich so vom Content Management System ab, wie die denn die URLs aufbauen. Oder auch wenn du was hochlädst, ein Bild oder eine PDF-Datei. Jetzt angenommen, da ist ein Umlaut drin oder ein Leerzeichen, was macht das System daraus? Und da reagiert leider jedes System anders, manche einfach unglaublich stumpf und übernehmen einfach genau das, was du hochgeladen hast. Und dann gibt es andere, die sind ein bisschen schlauer.
In der Praxis aber noch mal ist es so, dass Google eigentlich mit allem sehr, sehr gut zurechtkommt, auch wenn einiges definitiv gegen den Standard ist. Und was den Aufbau von URLs angeht, also hast du nur /UntereKategorie oder hast du /ObereKategorie/UntereKategorie, solche Sachen kannst du im Endeffekt machen, wie du möchtest.
Einzige Ausnahme: Wenn es zu lang wird, dann würde ich es dann doch eher kompakt halten. Und da kannst du 100 Zeichen mal erstmal als Grenze setzen, die sowieso kaum jemand sinnvoll überschreiten kann.
from Bloofusion Blog https://ift.tt/3hoB6xa via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
SEO-Monatsrückblick April 2022: Multisearch, neue Featured Snippets + mehr [Search Camp 226]
Im SEO-Monatsrückblick für den April 2022 stelle ich 15 aktuelle SEO-relevante Themen vor: Wie funktioniert das neue Multisearch? Wie sehen die neuen Featured Snippets – und was folgt daraus? Das und viel mehr gibt’s hier in komprimierter Form.
  Keine Ausgabe unserer Podcasts mehr verpassen? Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:
Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.
  Die wichtigsten Podcast-Links:
Alle Episoden von Search Camp als RSS-Feed
Search Camp bei iTunes
Alle Folgen: www.searchcamp.de
Auf Twitter folgen: @bloonatic (Markus Hövener)
Einsteigertipps: So “empfangen” Sie Search Camp!
Themenvorschläge? Immer her damit…
  Tools
#1 https://www.seroundtable.com/google-my-business-app-going-away-33198.html und https://www.seroundtable.com/google-business-profile-manager-going-away-early-2022-33317.html
Die Änderungen hinsichtlich der Google Unternehmensprofile (ehemals Google My Business) werden umgesetzt: Die Google My Business App gibt es nicht mehr (Ersatz: Google Maps oder Google Suche).
Auch das Nachfolge-Web-Frontend von Google My Business soll abgeschaltet werden – funktioniert in DE aber derzeit noch.
#2 https://www.seroundtable.com/google-search-console-notices-for-intrusive-interstitials-33271.html
Eigentlich gibt es von Google kein Reporting in Bezug auf Intrusive Interstitials. Anscheinend werden von Google jetzt aber Nachrichten an betroffene Websites verschickt.
#3 https://www.hannahrampton.co.uk/v2-search-console-explorer-studio/
Das Search Console Explorer Studio (für Data Studio) gibt es jetzt in V2. Wer seine Search-Console-Daten also hübsch und kostenlos aufbereiten möchte, kann das ganz einfach machen.
  E-Commerce
#4 https://www.youtube.com/watch?v=ay6RKzh3QSg&list=PLKoqnv2vTMUP5dlrZc7jhZt_ixAA2hH8q
Google hat eine neue Video-Reihe („Ecommerce Essentials“) begonnen, bei der es um häufige Probleme mit E-Commerce-Websites geht.
#5 https://www.seroundtable.com/google-trusted-store-badge-live-33230.html
Der neue Google Trusted Store Badge ist jetzt live (basierend auf der Shopping Experience Scorecard). Leider erstmal nur auf US beschränkt.
  Content
#6 https://www.seo-suedwest.de/8069-google-formuliert-empfehlungen-zu-automatisch-erstellten-inhalten.html
Google hat die Webmaster Richtlinien ergänzt: Automatisch generierte Inhalte sind demnach OK, wenn es nicht darum geht, damit SEO-Effekte zu erzeugen. Also bleibt für die SEOs alles beim alten: automatisch generierte Inhalte sind nach wie vor kritisch zu sehen.
#7 https://www.sistrix.de/news/google-schreibt-jetzt-eigene-knowledge-panels/
Google geht jetzt dazu über, einige Texte für das Knowledge Panel selbst zu schreiben (bzw. eine KI schreiben zu lassen).
  Features
#8 https://blog.google/products/search/multisearch/ und https://www.seo-suedwest.de/8097-google-wie-sich-multisearch-und-google-lens-auf-seo-auswirken.html
Mit Multisearch gibt es jetzt eine nette neue Funktion: Mit Google Lens kann man jetzt anhand eines Bildes suchen und zusätzlich eine Suche angeben. Beispiel: Man fotografiert ein gelbes Kleid und sucht nach „grün“, um das in grüner Farbe zu erhalten.
#9 https://searchengineland.com/google-featured-snnippet-test-from-the-web-other-sites-say-383702
Google testet neue Arten von Featured Snippets, bei denen aus verschiedenen Quellen Daten zusammengestellt werden (kurze Statements von 2-3 Websites).
  Google spricht
#10 https://www.seo-suedwest.de/8060-google-was-bei-der-verwendung-einer-chatfunktion-auf-websites-zu-beachten-ist.html
Die Nutzung einer Chat-Funktion auf der eigenen Website kann folgende Probleme verursachen: geringerer Page Speed, Interstitials (unwahrscheinlich), Änderungen am Seitentitel.
#11 https://www.seo-suedwest.de/8051-google-noch-keine-direkten-rankingvorteile-durch-barrierefreiheit.html
Ist Barrierefreiheit wichtig für SEO? Auch wenn das Thema in den Webmaster Guidelines (https://developers.google.com/search/docs/advanced/guidelines/webmaster-guidelines?hl=de) genannt wird: derzeit nicht. Zukünftig könnte es aber in den Faktor Page Experience einzahlen.
#12 https://www.seo-suedwest.de/8066-google-es-gibt-keine-obergrenze-fuer-die-laenge-des-alt-texts-von-bildern.html
Das Alt-Attribut ist hinsichtlich der Länge nicht begrenzt. Es werden laut Google also nicht nur die ersten 16 Wörter verwendet. Das bedeutet aber nicht, dass man das Alt-Attribut nicht trotzdem konzis halten sollte.
#13 https://www.seroundtable.com/google-old-redirected-urls-sitemaps-files-temporarily-33172.html
In XML-Sitemaps sollen sich nur indexierbare URLs befinden. Ausnahme: Nach einem Relaunch kann man dort noch die alten URLs ablegen, damit die Umleitungen schneller erfasst werden. Nach ca. 3 Monaten sollten diese dann aber auch entfernt werden.
  Off-Topic
#14 https://www.rfc-editor.org/rfc/rfc9116
Ähnlich wie die robots.txt gibt es nun die security.txt, in der man sicherheitsrelevante Informationen (z. B. Kontaktinformationen) hinterlegen kann. Für SEO nicht relevant – trotzdem nett.
#15 https://blog.google/products/search/new-options-for-removing-your-personally-identifiable-information-from-search/
In Google ist es nun möglich, Seiten mit persönlichen Daten (also z. B. Telefonnummern) aus dem Index entfernen zu lassen.
Siehe https://support.google.com/websearch/answer/9673730: Es muss aber Drohungen/Missbrauch geben, damit Google hier tätig wird.
from Bloofusion Blog https://ift.tt/5WeulwO via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
Webinar-Ankündigung: Content für Shops: Was man von den großen Shops lernen kann!
Was kannst du eigentlich aus den Inhalten der großen Shops lernen? Mit welchen Themen und Formaten kannst du punkten, damit dann auch wirklich „Content is King“ gilt? All das und noch viel mehr, erfährst du in unserem kostenlosen Webinar „Content für Shops: Was man von den großen Shops lernen kann!“ am 20.05.2022 um 10 Uhr. Ein ganz heißer Tipp von uns: Melde dich gleich an und lerne von unserem Pro Markus Hövener!
Zum Inhalt
Für Shop-Betreiber ist die Erstellung von redaktionellen Beiträgen für Blog/Magazin/Ratgeber/… ein oft unterschätztes SEO-Potenzial – z. B. um direkte Rankings zu erreichen und um Backlinks aufzubauen. Dabei geht es aber eigentlich niemals um Quantität, sondern immer um die richtige Themenauswahl und die optimale Umsetzung. In diesem Webinar stellt unser Bloofusion-Experte Markus Hövener stellt daher seine Analysen großer Onlineshops vor.
4 gute Gründe dabei zu sein
Schluss mit den alten Content-Mythen: In diesem Webinar wird vorgestellt, was wirklich für Shops funktioniert!
Frischer Wind für Deine Content-Sektion.
Theorie oder Praxis? Praxis!
Ein starker Impuls-Vortrag – und am Schluss noch genug Zeit für deine Fragen!
Hier geht’s zum kostenlosen Wissens-Update!
Praktisches Wissen für …
Shop-Betreiber, die mit den richtigen Inhalten wertvolle Neukundenkontakte herstellen wollen.
Das lernen die Teilnehmer:innen
Warum ist Content überhaupt ein wichtiger SEO-Hebel für Onlineshops?
Was musst du strategisch beachten, wenn du Inhalte erstellen (lassen) möchtest?
Welche Inhalte/Formate versprechen den größten Erfolg?
Wann?
20.05.2022, 10 Uhr
Unser Bloofusion-Experte
Markus Hövener ist Gründer und SEO Advocate bei der auf SEO und SEA spezialisierten Online-Performance-Agentur Bloofusion. Er optimiert seit mehr als 15 Jahren Websites (vor allem Onlineshops), betreut Relaunch-Projekte und berät Unternehmen in Bereichen wie Content-Marketing und Online-Strategie. Markus ist außerdem verantwortlich für das suchradar und Blogger im Bloofusion-Blog. Außerdem ist er Autor einiger Bücher und vieler Artikel rund um SEO, spricht auf vielen Online-Marketing-Konferenzen und ist im Beirat der SMX München.
Wissen vorab
Unter anderem geht es in dem Webinar ja darum, Inhalte vorzustellen, die auch Backlinks generiert haben. Hier gibt es vorab schon mal fünf Beispiele für gute Inhalte, die extern verlinkt werden:
https://veganz.de/blog/veganz-ernaehrungsstudie-2020/ (tolle Studie)
https://blog.viking.de/studie-mobbing-am-arbeitsplatz/ (auch eine gute Studie)
https://www.josera.de/ratgeber/ratgeber-hunde/gassi-gehen.html (ein einfacher Ratgeber, der aber auch wertvolle Backlinks generiert hat)
https://www.kurbelix.de/blog/anleitungen/ketten/kettenverschleiss-einer-fahrradkette-messen (wird gerne aus Foren verlinkt)
https://www.elektrofahrrad24.de/blog/elektrofahrraeder-unsere-rettung (interessante Daten, die zu einigen guten Links geführt haben)
Noch mehr gibt es dann im Webinar …
Direkt kostenlos anmelden.
from Bloofusion Blog https://ift.tt/YiRatn9 via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
Musst Du Technik können, um SEO zu sein? [Search Camp 225]
Technikthemen gibt’s genug: Cookies, URL, HTTP-Header, Status Codes, DNS, HTML-Code, JavaScript, CSS. Muss man das wirklich ALLES draufhaben, um sich SEO nennen zu dürfen? Und was sollte man MINDESTENS können?
  Keine Ausgabe unserer Podcasts mehr verpassen? Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:
Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.
  Die wichtigsten Podcast-Links:
Alle Episoden von Search Camp als RSS-Feed
Search Camp bei iTunes
Alle Folgen: www.searchcamp.de
Auf Twitter folgen: @bloonatic (Markus Hövener)
Einsteigertipps: So “empfangen” Sie Search Camp!
Themenvorschläge? Immer her damit…
  Musst Du Technik können, um SEO zu sein?
Ich habe heute ein Thema mitgebracht, auch wieder basierend auf Input von euch. Eine Frage, die letztens wieder in einem Seminar kam. Und ja, die Frage ist, “Musst du Technik können, um ein guter SEO zu sein?” Und die Frage ist natürlich nicht so ganz einfach zu beantworten, aber ich möchte dir heute schon wichtige Punkte mitliefern, ob du dich da tiefer reinwühlen sollst in das Thema oder eben nicht.
  Warum Technik und SEO?
Ja, ich fange mal vorne an. Erst mal insgesamt glaube ich ja, das Thema SEO wird nach wie vor häufig zu technisch gesehen. Das hat vielleicht auch einen Grund. Das hat zum Beispiel den Grund, dass viele der, ich sage mal, klassischen SEOs, die kommen vielleicht auch eher aus der Programmier-Ecke.
Das schließt mich zum Beispiel ein, ich komme eigentlich eher so aus dem Informatikbereich. Ich kann programmieren, ich verstehe das auch alles und deswegen kann es auch sein, dass diese klassischen SEOs da draußen natürlich immer noch das Thema etwas dominieren.
Und es ist natürlich auch so, dass es durchaus Websites gibt, die von Technical SEO durchaus profitieren können. Ja, insgesamt muss man natürlich sagen, manchmal gibt es technische Probleme, die eine Indexierung behindern oder verhindern. Und manchmal gibt es aber auch technische Potenziale, die Rankings verbessern. Und manchmal gibt es auch zum Beispiel technische Sachen, die definitiv gegen Best Practices sind, aber Google frisst das trotzdem perfekt.
Eines meiner Lieblingsbeispiele ist die Existenz von Umlauten in URLs, die darf es eigentlich gar nicht geben. Also im Domainnamen schon. Aber in dem URL Pfad dahinter, da hat ein Umlaut oder auch andere Sonderzeichen eigentlich nichts zu suchen. Und was passiert? Google kommt da prima mit zurecht. Kann man einfach mal suchen. Tippe mal in Google da oben ein „inurl:ä“ und du wirst URLs finden, in denen Ä vorkommt, obwohl das eigentlich noch mal gegen jeden Standard ist. Sollte man nicht machen. Jedes SEO-Tool wird laut aufschreien, wenn das passiert und es funktioniert trotzdem. Das heißt, dieses technische Thema ist auch nicht immer ganz leicht zu greifen, weil es eben Sachen gibt, um die muss man sich kümmern. Es gibt Sachen, um die kann man sich kümmern und es gibt ehrlich gesagt auch Sachen, die kann man perfekt links liegen lassen.
  Welche technischen Themen gibt es denn so?
Insgesamt haben wir natürlich viele technische Themen. Also wenn du wirklich alles verstehen willst, dann solltest du eigentlich diesen ganzen Stack beherrschen, also Cookies, wie funktionieren URLs? Was ist ein http Header? Was steht da drin im http Header? Was sind eigentlich Status Codes? Wie funktioniert das mit dem DNS? Vor allem natürlich: Wie sieht HTML Code aus? Wie funktioniert JavaScript? CSS? Das Nachladen von Bildern?
Da gibt es so viele Themen, aber auch serverseitig, also Scriptsprache wie PHP, Datenbanksysteme über SQL, CDNs, um Dateien schnell irgendwo abzulegen. Gibt so viele Themen und ich merke natürlich, völlig klar, dass nicht alle – und das ist noch schöner Euphemismus – nicht alle sind wirklich in all diesen Themen fit.
  Und das muss ich alles können?
Da muss man natürlich primär sagen, es hängt von deinem Einsatzgebiet ab. Wenn du Redakteur bist oder du bist im Produktmanagement, dann, in meinen Augen, musst du das nicht können. Wenn du in einer SEO-Agentur arbeitest, ja. Wenn du bei einer Werbeagentur arbeitest und da vielleicht SEO machst, natürlich auch. Also es hängt einfach davon ab.
Ich glaube, es gibt nicht so diesen SEO First Grade und Second Grade, sondern es hängt einfach davon ab. Ich glaube, du kannst SEO machen, ohne auch nur einmal irgendwas mit Technik zu tun gehabt haben. Das heißt, du kannst auch Informatik studieren, ohne zu programmieren. Das geht. Ich finde es natürlich grundsätzlich hilfreich, wenn man das alles beherrscht.
  Was sind denn die Mindestanforderungen?
Ich habe mir Gedanken dazu gemacht, was sind eigentlich die Themen, die man wirklich draufhaben sollte, wenn man alles andere mal links liegen lässt? Also was ist eigentlich so, wenn man sagt, Ja, ich möchte, aber technical SEO, da möchte ich zumindest das gesunde Partywissen haben, was sollte man sich eigentlich drauf schaffen? Und da habe ich jetzt eine Liste mit sechs Punkten.
Punkt Nummer eins: Status Codes. Status Code sind extrem wichtig, also eine Seite, die existiert, die liefert einen Status Code 200 zurück. 404, wenn es sie nicht mehr gibt und solche Sachen. Und das sollte man schon draufhaben, einfach weil es sehr entscheidend ist für alles, was später hinten heraus passiert.
Das zweite Basic, was man schon draufhaben sollte, ist die Grundlagen von HTML Code. Ich finde es grundsätzlich hilfreich, wenn man mal in den Code gucken muss, dass man sich zumindest so ein bisschen zurechtfindet. Also die Grundstruktur HTML, Head, Body, wie sieht ein Link aus, das glaube ich, sollte man mal gesehen haben.
Das dritte, die grundlegende Pipeline zu verstehen, nämlich dass vier Sachen hintereinander passieren müssen, damit etwas im Index landet. Nämlich Discovery, also die URL muss gefunden werden. Crawling, sie wird heruntergeladen. Rendering, sie wird eben inklusive aller Ressourcen einmal angeguckt oder es wird ein Abbild der Seite gemacht. Und dann der vierte Schritt Indexierung. Und an all diesen Schritten können Sachen passieren. Und deswegen ist es nach wie vor wichtig, dass man überhaupt erst mal versteht, dass es diese Abfolge von Schritten gibt.
Das vierte, was man draufhaben sollte in meinen Augen, ist das Thema Markup. Also wie kontrolliere ich Markup? Zum Beispiel mit dem Test-Tool für Rich-Suchergebnisse. Aber auch, dass man in der Google Search Console Warnungen und Fehler auseinanderhalten kann und überhaupt sich der Konsequenzen dessen bewusst ist.
Das fünfte ist grundlegende Maßnahmen zur Kontrolle von Indexierung und Crawling und das umfasst primär vier Sachen, nämlich noindex, robots.txt, Canonical Tag und XML-Sitemaps. Da sollte man grundsätzlich verstehen, wie das ineinandergreift. Zum Beispiel, dass noindex und robots.txt gleichzeitig wenig Sinn ergibt. Aber auch zum Beispiel noindex und Canonical Tag gehören nicht zusammen. In die XML-Sitemap gehören nur indexierbare URLs. Das sollte man alles mal gesehen haben.
Und dann gibt es den sechsten Punkt, nämlich wenn Internationalisierung für dich wichtig ist, dann solltest du auch die grundsätzlichen Regeln für International SEO kennen. Weil auch da gibt es technische Themen, nämlich vor allem die Hreflang Tags.
  Mehr brauche ich nicht?
So, das wäre so das, was man sich drauf schaffen sollte, diese sechs Themenbereiche. Da gibt es auch ein Seminar von mir dafür, “Technical SEO für Einsteiger”, da ist das alles mit drin.
Ich sehe natürlich ein Grundproblem – und das hat jetzt nichts mit SEO zu tun, sondern mit Menschen – nämlich “If you don’t use it, you lose it.” Also ich kann mir das Wissen einmal drauf schaffen. Aber wenn ich das extrem selten brauche, vielleicht nur alle drei Jahre mal, dann habe ich es bis dahin wahrscheinlich schon wieder vergessen. Dann sollte man sich es auch gar nicht erst drauf schaffen. Also wenn man dieses Wissen hat, dann sollte man es auch zur Anwendung bringen oder regelmäßig zumindest mal auffrischen.
  Wie wahrscheinlich sind technische Probleme?
So, das erst mal so zu den wichtigsten Basics. Ich habe noch ein paar Fragen mitgebracht, nämlich meine Einschätzung dazu: Wie wahrscheinlich ist es eigentlich, dass deine Website oder dass eine Website, für die du verantwortlich bist, technische Probleme hat? Also irgendetwas, was Indexierung verhindert oder behindert? Oder dass der Index mit irrelevanten Seiten zugemüllt wird.
Und da muss ich sagen, ja, das kann passieren. Aber die Frage war ja, wie wahrscheinlich ist das? Und ich denke, die Wahrscheinlichkeit ist relativ gering. Hängt aber vor allem vom Einzelfall ab. Also gerade, wenn du eine größere, komplexere Webseite hast, vielleicht sogar eine Individualprogrammierung, dann würde ich sagen, sind die Chancen durchaus höher. Wenn du jetzt ein normales Content Management – und normal bitte in Anführungsstrichen – Content Management System oder Shop System hast, also einfach eine Shopware 5 oder 6 von der Stange oder du holst dir WordPress, dann ist es extrem unwahrscheinlich, dass du da irgendwas hast, was die vorgenannten Kriterien erfüllt.
Dann haben wir auch noch das Problem oder den Vorteil, selbst wenn du ein technisches Problem hast, wird Google vieles auch selbst korrigieren oder in irgendeiner Weise verzeihen. Also der Klassiker, du hast keinen Canonical Tag, vollkommen egal, Google kanonisiert auch ohne das, das kriegen die hin.
Jetzt ist natürlich meine Sichtweise und auch glaube ich, die Sichtweise vieler anderer SEOs häufig ein bisschen eingenebelt, weil ich zum Beispiel kriege häufig so ganz harte, schwere Fälle auf den Tisch und dann könnte ich natürlich schnell den Schluss ziehen, dass viele Websites technische Probleme haben. Aber ich kriege ja nur eine ganz bestimmte Auswahl an Fällen. Und nochmal, das, was da standardmäßig rauskommt, wenn man sich eine Webseite machen lässt, hat häufig kein technisches Problem.
  Wie wahrscheinlich sind technische Potenziale?
Die andere Frage ist natürlich, wie wahrscheinlich ist es, dass deine Website Potenziale auf technischer Ebene hat. Also dass du etwas technisch machen kannst, was deine Rankings verbessern kann.
Und da sehe ich natürlich vor allem so Themen wie Markup und Page Speed. Deswegen gerade Markup sollte man natürlich wirklich draufhaben. Das ist auch für ganz viele Stellen, finde ich, ein relevantes Thema. Page Speed ist natürlich ein anderes Thema. Wer nicht so hundertprozentig technisch fit ist, der sollte sich mit Page Speed eigentlich nicht wirklich rumärgern. Natürlich gibt es so Sachen, weiß nicht, dass du mega Bilder hast oder irgendwas, aber andere Themen wie Preload oder Preconnect oder überhaupt Code Coverage Themen zum Beispiel, also dass deine CSS-Dateien oder JavaScript-Dateien zum Beispiel einfach zu voll sind und einiges davon könnte gestrichen werden, das sind leider relativ komplexe Themen.
Und da bin ich eher dafür, dass man sich dann für solche Themen eben Spezialisten sucht. Die können das schneller, die können das effizienter, die können das zielsicherer machen, als dass du dich da irgendwie so ein bisschen reinfuchst, weil nochmal, gerade Page Speed Optimierung ist halt echt ein Thema für sich, wo man schon echt den ganzen Stack kennen sollte und wo man wirklich wissen sollte, ja, welche Möglichkeiten man da eigentlich wirklich hat. Und ohne technisches Wissen wird das echt eine harte Nummer werden. Macht überhaupt keinen Sinn.
  Wenn es nicht Technik ist: Was dann?
Ja, kommen wir eigentlich, glaube ich, zum Abschluss mit einer wichtigen Zusammenstellung, also noch nicht abschalten, bitte. Nämlich – ich habe es an vielen Stellen schon mal gesagt – ich glaube, das SEO-Thema gewinnen wir in der Regel nicht mit Technik. Und dann ist da die Frage, wenn wir es damit nicht gewinnen, womit gewinnen wir es dann? Jetzt sag doch mal!
Ich glaube, dass es die großen Themen sind. Einmal Content. Und dann das große Thema Off Page Signale, was viele auf Linkaufbau reduzieren, was ich definitiv nicht so sehe.
Wenn ich SEO wäre, also angenommen ich würde jetzt irgendwo heute raus plumpsen und ich würde sagen, ich will SEO werden, womit sollte ich mich denn jetzt mal wirklich beschäftigen? Dann wären es eben diese beiden Themen und vor allem mit Content. Also dass du Sachen beherrscht wie Themenrecherche, also vor allem Keyword Recherche natürlich.
Und dann natürlich Erstellung neuer Inhalte, Optimierung bestehender Inhalte. Wie geht man da ran? Wie kann man das selbst machen? Wie kann man Briefings schreiben, damit andere Leute das richtig machen? Insgesamt das ganze Thema Customer Journey. Also nicht zu gucken, diesen Inhalt mache ich jetzt, weil er ein so Volumen hat von Tausend. Sondern, wie wird mir dieser Inhalt helfen, wenn ich dafür ranke, um damit Geld zu verdienen? Weil das ist die einzig relevante Frage am Ende des Tages.
Ansonsten noch beim Thema Content bleibend, zum Beispiel Kannibalisierung wäre noch ein Thema, was man natürlich draufhaben sollte. Featured Snippets, auch weil sie an immer mehr Stellen ausgespielt werden und sicherlich über Jahre noch relevant sein werden.
Aber auch Themen wie Audio und Video, also zum Beispiel YouTube. Was kann ich da machen? Podcast ist eher nicht so ein richtiges Content-Thema. Ich weiß nicht, ob es das jemals unbedingt werden wird. Bildersuche ist natürlich auch hier ein Thema. Auch das hat viel mit Content zu tun.
Und natürlich eines meiner Lieblingsthemen, nämlich Content für Backlink-Generierung. Und nochmal, das hat alles mit Technik jetzt überhaupt nichts zu tun. Da gehe ich einfach davon aus, dass das, was ich da an Systemen hingelegt kriege, dass das schon passen wird. Dass da Canonical Tags drin sind, dass die HTTP Codes stimmen und so. Nochmal, mit einer gewissen Wahrscheinlichkeit ist das leider nicht so. Aber das würde ich vielleicht eher anderen Leuten überlassen, wie gesagt, bis auf die Basics, die ich einmal oben erklärt habe, die sechs Basics, die man natürlich trotzdem draufhaben sollte. Und wenn es nur als Partywissen ist oder dass man, wenn man mal mit Hardcore SEOs zusammensteht, zumindest halbwegs versteht, wovon die eigentlich sprechen.
from Bloofusion Blog https://ift.tt/Sy85PE3 via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
Automatische Anzeigenerweiterungen – Fluch oder Segen?
Automatisierung klingt erstmal nach einer super Sache und nach einer Arbeitserleichterung. Man möchte, dass zum Zeitpunkt X das Licht im Wohnzimmer angeht? Kein Problem! Mit einer Automatisierung lässt sich das leicht regeln und ist zuverlässig. Aber trifft das auch auf das Automatisierungsangebot von Google zu? Und wie sieht das im Speziellen bei den automatischen Anzeigenerweiterungen aus? Sind diese ein Segen Googles oder der absolute Fluch, wogegen nur noch ein Kruzifix und Weihwasser helfen können?
Exkurs: Anzeigenerweiterungen
Wahrscheinlich sind sie dir schon in deinem Google Ads-Konto über den Bildschirm gelaufen: die Anzeigenerweiterungen. Erweiterungen sind eine gute Möglichkeit, um deinen Anzeigen noch mehr Informationen anzuhängen. Die Anzeigenerweiterungen reichen von Sitelinks über Bilder bis hin zu Telefonnummern. Zudem plustern die Anzeigenerweiterungen deine Anzeigen auf und nehmen so in der Google-Suche mehr Platz ein als die Anzeigen der Konkurrenz.  Sie stechen dem oder der Nutzer*in direkt ins Auge und machen einen Klick auf die Anzeige wahrscheinlicher.
Bei den Anzeigenerweiterungen haben wir auch noch einiges in der eigenen Hand. Klar, die Auswertung gestaltet sich hier ein bisschen schwierig und Google lässt sich auch nicht in die Karten gucken, nach welchen Kriterien die Erweiterungen ausgespielt werden. Aber wir können bestimmen, welche Informationen in den Erweiterungen stehen sollen. Anders ist das bei den automatischen Anzeigenerweiterungen.
Wo finde ich die automatischen Anzeigenerweiterungen?
Bevor wir uns die einzelnen automatischen Anzeigenerweiterungen im Detail ansehen, zeige ich dir einmal, wo du diese findest.
In deiner Google Ads-Oberfläche klickst du in der zweiten linken Spalte auf Anzeigen und Erweiterungen > Erweiterungen. Dann öffnet sich die Seite der Standard-Anzeigenerweiterungen. Die Erweiterungen sind für jeden Anzeigentyp geeignet. Einige davon werden allerdings nur auf dem Desktop oder Laptop ausgespielt. Solltest du noch keine im Konto hinterlegt haben, kannst du dies mit einem Klick auf das blaue Plus nachholen. Jetzt scrollst du ganz nach unten, denn da verstecken sich die automatischen Anzeigenerweiterungen.
Hier findest du die automatischen Anzeigenerweiterungen.
Mit Klick auf die automatischen Erweiterungen kommst du dann auf die Detailansicht. Eventuell findest du hier auch schon ein paar dieser Erweiterungen. Das liegt daran, dass Google einige dieser, wie das Wort schon sagt, automatisch aktiviert hat, auch wenn du diese noch nicht aktiv abgewählt hast. Dann würde das Ganze so aussehen:
Übersicht der aktivierten automatischen Anzeigenerweiterungen
Woher nimmt Google die Informationen für die automatischen Anzeigenerweiterungen?
Um die automatischen Anzeigenerweiterungen mit Inhalten zu füllen, greift Google auf die im Konto hinterlegte URL zurück und zieht sich hier die Informationen. Die gefilterten Informationen werden dann in das jeweilige Erweiterungs-Format gebracht und auf Kampagnen- oder Anzeigengruppenebene eingebettet.
Wie aktiviere/deaktiviere ich die automatischen Anzeigenerweiterungen?
Wenn du die Erweiterungen an- oder abwählen möchtest, musst du oben links auf „Mehr“ (die drei Punkte) > Erweiterte Einstellungen klicken.
Klickweg, um die automatischen Anzeigenerweiterungen bearbeiten zu können
Dann siehst du die Übersicht aller zur Verfügung stehenden automatischen Erweiterungen und kannst diese hier aktivieren oder deaktivieren.
Übersicht der zur Verfügung stehenden automatischen Anzeigenerweiterungen
Mit einem Klick auf die jeweilige Erweiterung kannst du den Status ändern.
Status der automatischen Anzeigenerweiterung
Wie du hier siehst, sind das die einzigen Optionen, die dir zur Verfügung stehen. Mehr gibst du Google nicht an die Hand. Wie du in dem Screenshot siehst, wird „An“ empfohlen. Generell gilt, dass du alles kritisch hinterfragen solltest, seien es die Google-Empfehlungen wie auch hier die automatischen Erweiterungen. Aus diesem Grund sehen wir uns die automatischen Erweiterungen im Detail an.
Welche Anzeigenerweiterungen sind ein Fluch oder ein Segen?
Im Folgenden werde ich aufführen, was hinter den jeweiligen automatischen Erweiterungen steckt, und bewerten, welche von diesen Fluch oder Segen sind. Diese Bewertung ist objektiv zu sehen und basiert auf unseren Erfahrungen. Dies wird keine All-for-one-Lösung, sondern eine Empfehlung, die im individuellen Fall hinterfragt und neu bewertet werden darf und soll.
Automatische Anzeigenerweiterungen: Fluch oder Segen
Fazit
Ich hoffe, ich konnte dir die automatischen Anzeigenerweiterungen ein bisschen näherbringen. Wie in der Tabelle zu sehen ist, sind nicht alle automatischen Erweiterungen ein Fluch, sondern einige auch ein Segen. Falls automatische Anzeigenerweiterungen für dich infrage kommen, betrachte diese ruhig kritisch und bewerte, wie sie die Anzeigen deines Unternehmens bereichern können. Das gilt für alle automatischen Empfehlungen von Google. Habe zudem bei den automatischen Anzeigenerweiterungen im Hinterkopf, dass sich diese nur beschränkt auswerten lassen und du nicht siehst, was ausgespielt wird.  Versuche dem Algorithmus hier zu vertrauen.
from Bloofusion Blog https://ift.tt/9OQo15S via IFTTT
0 notes
torusverlaggmbh · 2 years
Text
Wie lange braucht SEO, um zu wirken? [Alles auf Start 59]
Eine ganz alte Frage: Wie lange braucht SEO, um seine Wirkung zu entfalten? So verständlich diese Frage ist, so schwer ist sie leider auch zu beantworten. Es hängt von einigen Faktoren ab – die wir uns in dieser Episode von „Alles auf Start“ genau anschauen.
  Keine Ausgabe unserer Podcasts mehr verpassen? Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:
Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.
  Die wichtigsten Podcast-Links:
Alle Episoden von Search Camp als RSS-Feed
Search Camp bei iTunes
Alle Folgen: www.searchcamp.de
Auf Twitter folgen: @bloonatic (Markus Hövener)
Einsteigertipps: So “empfangen” Sie Search Camp!
Themenvorschläge? Immer her damit…
  Wie lange braucht SEO, um zu wirken?
Ich habe euch heute wieder ein Thema mitgebracht, ja, wo ich eigentlich froh bin, dass ich diesen Podcast habe, weil manchmal stellt jemand in einem Seminar oder Webinar eine Frage und dann denke ich so: Hmm, jetzt hätte ich eigentlich so – bräuchte ich zehn Minuten, um dir diese Antwort zu geben. Die haben wir jetzt leider gerade nicht. Also ich habe die Frage dann natürlich trotzdem kurz beantwortet. Die Frage ist nämlich: Wie lange braucht SEO, um zu wirken?
Also jetzt mache ich irgendwas und ja, wann schlägt es denn jetzt endlich mal durch? Und natürlich wollen das manche machen, die vielleicht sehen, hey, meine Website rankt gerade gar nicht und jetzt mache ich was und dann muss es aber irgendwann, weil ich auch Geld reinstecke, auch Erfolge bringen.
Also diese Frage ist natürlich vollkommen gerechtfertigt. Ja, und der SEO muss natürlich das antworten, was die SEOs leider immer sagen, nämlich: Hängt davon ab.
Das stimmt leider. Das ist die fairste Antwort, die ich geben kann. Aber man kann ja zumindest sagen: Wovon hängt es denn eigentlich ab? Also man muss ein bisschen hinter die Kulissen gucken und schauen: Warum brauchen eigentlich manche Sachen, um zu wirken? Und es hängt eben davon ab, was genau man eigentlich macht und auf welchem Level man vorher schon war. Und das möchte ich jetzt gerne einmal mit euch durch kaspern.
Eine Einschränkung vorab noch: Es geht natürlich hier um den normalen Google Index. Es mag sein, dass es in einigen anderen Bereichen wie News und so anders funktioniert, aber reden wir jetzt mal ganz normal – auch die Bildersuche funktioniert ein Tacken anders – reden wir über den ganz normalen Google Index.
So, jetzt müssen wir noch mal kurz gucken. Wir haben gesagt, wir machen irgendwas SEO-Technisches, um dann zu gucken, was es bewirkt. Und was umfasst denn SEO so typischerweise? Das ist natürlich einmal alles, was man On Page macht. Also zum Beispiel das Hinzufügen neuer Seiten, das Optimieren bestehender Seiten. Es können technische Maßnahmen sein oder es können auch strukturelle Maßnahmen sein. Das ist typischerweise das, was man macht. Und dann gibt es natürlich noch Off Page, und das wird häufig mit dem Thema Backlinks gleichgesetzt. Das sehe ich nicht ganz so, aber für heute, sagen wir mal, es geht um Backlinks.
Noch eine Sache ist vorab wichtig: Damit etwas wirken kann bei Google, ist eine Sache Voraussetzung – oder eigentlich zwei, nämlich Crawling und Indexierung. Das heißt, egal was ich bei mir auf der Website mache, vollkommen egal, ich habe den mega Content geschrieben, interessiert aber überhaupt nicht, denn es ist nur die Frage, hat Google das schon in seinem Index? Also hat Google es gecrawlt und dann indexiert? Das muss einem auch noch mal klar sein, weil es da eben auch eine Verzögerung gibt. Und weil es natürlich auch sein kann, dass Google meine Seite crawlt, sie gar nicht so gut findet wie ich und einfach wieder wegschmeißt.
  Bestehende oder neue Seiten?
Es gibt durchaus einige SEO-Maßnahmen, die schon beim nächsten Crawl einer bestimmten Seite durchschlagen. Vor allem ist das bei bestehenden Seiten, denn bestehende Seiten werden nach wie vor von Google gecrawlt, um zu gucken, A, ob es sie noch gibt. B, ob sie sich geändert haben.
Und wenn ich jetzt zum Beispiel den Seitentitel ändere oder die Meta Description oder den Content einer Seite, einer bestehenden Seite, dann kann das Ganze eigentlich sofort durchschlagen. Der Seitentitel wird nach Crawling und Indexierung direkt übernommen. Alles tipptopp. Bei bestehenden Seiten. Bei neuen Seiten muss das so nicht sein, da kann es schon deutlich länger dauern, also so ein bis drei Monate vielleicht, weil Google noch keine Erfahrung mit dieser neuen Seite hatte.
Und vor allem natürlich, wenn es vielleicht ein konkurrenzstarkes Thema ist. Das heißt, für diesen Suchbegriff gibt es vielleicht schon 20 gute Seiten. Da muss Google ja irgendwie erst mal verstehen, dass diese Seite hier vielleicht besser ist als die zwanzig. Das kann in Einzelfällen anders sein, wenn Google meiner Webseite vielleicht 100% vertraut oder ich megamäßige andere Signale habe, wie auch immer, das kann alles passieren. Aber typischerweise, eine neue Seite muss sich im Google, ich sage mal in Anführungsstrichen, erst ein bisschen setzen, ein bisschen ankommen und kann dann wirklich auch irgendwann mal Früchte tragen.
  Backlinks
Wir haben ja schon darüber gesprochen, es braucht erst mal Zeit, bis man Backlinks aufbaut. Das heißt, wenn man das macht, was ein paar Leute daraus machen, die sprechen einfach mal 50 Blogger an und sagen, “Hallo!”, wedeln ein bisschen mit dem Geld und sagen, “Hey, ich habe hier ein bisschen Geld. Wollt ihr nicht was über mich schreiben und ein Backlink dann aufbauen?”
Die meisten Sachen passieren nicht in der gleichen Sekunde, wo ich mein Geld raushole. Das ist einfach so. Der Blogger sagt vielleicht, “Du, Superidee, aber in diesem Monat habe ich schon genug Geld. Nächsten Monat können wir drüber sprechen!” oder “Ich bin gerade im Urlaub.” oder “Ich mache aber gerade schon so viele andere Sachen,” und “Du, irgendwann, aber nicht jetzt.”
Das heißt: Backlinks ist eigentlich immer eine Sache, die Zeit braucht. Da kam letztens auch mal bei einem anderen Seminar die Frage, kann man eigentlich zu schnell Backlinks aufbauen? Da muss ich sagen, theoretisch ja, in der Praxis eigentlich nicht, weil es funktioniert eben einfach so nicht.
Und selbst wenn die Backlinks dann mal da sind, nach ein bis zwei Monaten, weil irgendjemand jetzt es geschafft hat, einen Blogbeitrag zu schreiben und einen Backlink einzubauen und wir haben dann vielleicht mal gegenseitig abgestimmt, ob uns das so gefällt und dann erst wurde das Ding live gestellt, dann muss Google ihn erst mal finden, dann müssen sie ihn auch noch bewerten. Ja und da sind aber auch schon ein paar Tage sind ins Land gegangen.
  Noch ein Problem mit Backlinks: die Konkurrenzsituation
Und das andere, erst mal, dieser Backlink braucht Zeit, um zu entstehen und dann auch bewertet zu werden. Ja, aber noch viel schlimmer ist natürlich, es gibt einfach Fälle, wo ich das mache und es bringt überhaupt nichts. Warum?
Naja, meine Konkurrenten, die haben zum Beispiel 100 gute Backlinks und ich habe nur drei. Jetzt gehe ich hin und baue zwei tolle, starke Links auf. Dann habe ich fünf. Mein Konkurrent hat aber immer noch 100 gute. Das heißt, wenn man die beiden mal nebeneinanderstellt, habe ich zwar mehr und prozentual gesehen ist das gar keine schlechte Steigerung, aber absolut gesehen hat sich das Spiel ja gar nicht geändert. Und deswegen ist Konkurrenz natürlich immer ein Thema.
Und gerade, wenn ich zum Beispiel jetzt ein Startup bin, ich bin mit null Backlinks angefangen und alle meine Konkurrenten haben 100 Links oder 50 was auch immer, dann ist das ein steiniger Weg, weil ich eben nicht sagen kann, Oh, ich habe jetzt fünf Links aufgebaut, also kriege ich schon mal ein Zehntel der Rankings, als wenn ich 50 Backlinks hätte. Das ist nicht so eine lineare Funktion, sondern es gibt einen Schwellenwert, den ich erst mal überschreiten muss, um dann irgendwann mal mitzuspielen. Und das ist natürlich ein saublödes Spiel, weil ich erst mal sehr lange rein buttern muss, bevor das Ganze irgendwas bringt. Natürlich ist es nicht dann so, dass erst ab dem 50. Backlink was passiert, aber ich sage mal, nach dem ersten jetzt auch nicht so wahnsinnig viel. Also linear ist das Ganze auf gar keinen Fall und irgendeine Schwelle ist da eigentlich immer drin.
  Qualität & Co.
Und dann gibt es noch Sachen, die dauern vielleicht noch länger, nämlich das, was Google sehr wahrscheinlich auch macht, ist nämlich die Qualität meiner gesamten Website zu bewerten. Ich veranschauliche das immer so, dass man sagt, wir drucken mal alle Seiten deiner Website aus und legen sie mal nebeneinander. Und jetzt gucken wir uns das mal in Summe an. Also aus 30.000 Fuß Höhe gucken wir jetzt da mal drauf und sagen mal, wie gut ist denn diese Webseite so insgesamt? Geht es da um das gleiche Thema? Sind alle Beiträge umfassend? Sind alle Beiträge hochwertig? Habe ich viele Rechtschreibfehler gemacht? Habe ich Backlinks eingebaut? Und so weiter und so fort. Wie Google auch immer das Ganze macht.
Aber das machen sie halt nicht täglich. Also sie machen das jetzt nicht so, ich habe jetzt einen neuen Beitrag geschrieben und schon wird die ganze Website neu auf den Prüfstand gestellt. Das glaube ich, wird so nicht ganz passieren.
  Technische Maßnahmen mit Verzögerung
Und dann gibt es auch ein paar technische Maßnahmen, die noch lange brauchen, um zu wirken. Zum Beispiel beim sogenannten Hreflang Tag. Beim Hreflang Tag ist es nämlich so, damit kann ich internationale Seiten miteinander verbinden. Ich kann also sagen, diese Produktseite oder diese Eventseite hier, die gibt es auf Deutsch, Englisch und Spanisch. Und das Problem ist, dass Google erst alle dieser Varianten gecrawlt haben muss, um diese ganzen Verbindungen dann zu erkennen. Und das kann im Zweifel dann eben doch gerne auch mal ein paar Monate oder mindestens Wochen dauern, bis das einmal durchgelaufen ist.
Aber bei alledem ist natürlich immer das drin, wir wissen es nicht. Wir wissen nicht, wie lange der Crawler braucht. Manchmal gibt es so Zeiten, wo die Crawler gerade einen Bug haben oder wo meine Webseite vielleicht herabgestuft wurde für das Crawling, weil sie zu langsam ist oder was auch immer. Man kann einfach nie sagen, das dauert jetzt 36 Tage und dann sind wir endlich durch.
Aber wichtig trotzdem noch mal zu verstehen, es gibt ein paar Maßnahmen, die schlagen sofort durch und es gibt ein paar Maßnahmen, die brauchen einfach sehr lange. Und es hängt eben wirklich davon ab, wo ich stehe. Und vor allem eben bei so Themen wie Linkaufbau, wo einfach mir ein Link nicht so wahnsinnig viel bringt.
  Wann bin ich fertig? NIE!
Eine Sache: Man ist eigentlich nie fertig mit SEO. Also was ich nie machen würde ist sowas, wir machen jetzt mal drei Monate irgendwas und dann gucken wir uns das Ergebnis an und bewerten das und dann sind wir durch. Das funktioniert einfach in der Praxis so nicht, weil manche Sachen brauchen eben noch länger oder ich muss eben erst über ganz bestimmte Schwellenwerte kommen. Das ist einfach, ja, im Großen und Ganzen wird das nicht funktionieren.
Es kann natürlich sein, ich habe eine Website, ich weiß nicht, ich habe irgendeinen Heilberuf und meine Webseite besteht nur aus zehn Seiten und mehr Seiten kann ich auch gar nicht machen, basierend auf meiner Keyword Recherche, das ist es einfach, weil so viel Fußpfleger in Emsdetten gibt es jetzt einfach nicht.
Okay, dann kann so was passieren, dass man wirklich sagen kann, ich habe jetzt meine Seiten angelegt, bin fertig. Im Allgemeinen und für größere Websites gilt in meinen Augen: Man ist niemals fertig. Also dieses, wir machen das jetzt eine Zeit lang und dann können wir definitiv den Erfolg bewerten, da glaube ich persönlich sehr, sehr, sehr wenig dran. Ich verstehe, wo das herkommt, weil man natürlich irgendwo deterministisch arbeiten möchte oder irgendwo wissen will, wann zahlt sich das eigentlich aus, was wir da jetzt reingesteckt haben. Aber das weißt du bei SEO sowieso nie. Also es kann durchaus sein, dass du da alles richtig machst und alles reinsteckst. Und in der gleichen Zeit, wo du arbeitest, haben deine Wettbewerber noch mal eine mega Schippe draufgelegt und du guckst trotzdem dann dämlich in die Röhre. Das kann passieren, rein theoretisch. In der Praxis sehr selten.
  Was bringt mir denn SEO-Erfolg?
Und dann noch, ich glaube, du wirst nie an einen Punkt kommen – zumindest so mit ganz typischen Maßnahmen – dass du sagen kannst: Etwas ganz Bestimmtes hat dir diesen und jenen Erfolg gebracht. Es wäre natürlich schön, wenn du sagen kannst, ich mache jetzt diese und jene technische Programmierung und das kostet mich zwei Manntage und dann will ich aber am Ende sagen können, diese zwei Manntage, was haben mir die eigentlich gebracht? Und das wirst du in der Regel nicht machen können, weil es eben auch ganz normale Schwankungen der Rankings gibt. Und rein theoretisch kann es passieren, dass du diese technische Maßnahme umsetzt und gleichzeitig gehen deine Rankings tierisch nach oben. Das ist aber rein idiopathisch, also hat damit überhaupt nichts zu tun. Und ja, solche Effekte können passieren.
Deswegen ist diese Attribution bei SEO immer ein bisschen schwierig. Bei manchen Maßnahmen ist das natürlich nicht so. Wenn du jetzt sagst, ich habe zum Beispiel jetzt zehn neue Blogbeiträge geschrieben, dann kann man wirklich dran schreiben, ah ja, der Traffic, der auf diesen zehn Seiten war, der war es jetzt. Also den habe ich ja vorhin nicht gehabt. Und wenn ich da jetzt 10.000 Besucher habe auf den zehn Beiträgen, dann muss das ja dadurch gekommen sein, dass ich diese zehn Beiträge geschrieben habe. Dann ist das so.
Aber gerade so eine Frage wie, ich habe jetzt fünf Backlinks aufgebaut, reicht das jetzt schon? Wie viel besser ist mein Traffic denn jetzt durch diese fünf Backlinks? Das ist etwas, das wirst du leider nie sagen können. Bestenfalls, bestenfalls in der Näherung. Aber typischerweise auch das nicht.
SEO ist eigentlich wirklich so eine Reise, wo du sagst: Okay, ich mach das, ich vertraue darauf, dass das funktioniert. Natürlich gibt es Heuristiken oder einfach Erfahrungswerte, wo du sagen kannst, das und das ist für die Katz. Und davon und davon verspreche ich mir sehr viel. Ja, alles richtig. Das gibt es.
Aber nie einfach mit dieser an Sicherheit grenzenden Wahrscheinlichkeit, dass du wirklich sagen kannst, diese fünf Backlinks haben jetzt 10000 Besucher mehr im Monat gebracht und deswegen waren sie das Geld wert. Schon weil du einfach nie sagen kannst, auch wann diese 5 Backlinks jetzt eigentlich gewirkt haben.
  Finale
Das war ja auch gerade das Thema der Episode heute und damit soll sich jetzt eigentlich ehrlich gesagt der Kreis schließen. Ich hoffe, ich habe dich natürlich jetzt nicht komplett verunsichert, denn die Ideen hinter diesen Fragen, die sind natürlich vollkommen legitim und richtig und wichtig. Aber in der Praxis ist das Ganze hinreichend schwierig und man muss halt wirklich SEO-mäßig immer einen sehr langen Atem haben und bei manchen Sachen auch wirklich entweder darauf vertrauen oder das gefestigte Wissen haben auf Basis meiner Erfahrung, dass das Ganze dann auch was bringen wird.
from Bloofusion Blog https://ift.tt/bwHTzrg via IFTTT
0 notes