Willkommen zum SEO-Leitfaden von The Complete Idiot.

Beginnen wir mit der Beantwortung Ihrer ersten Frage: Ja, ursprünglich wollten wir diesen Leitfaden SEO für Dummies nennen.

Würden Sie es aber nicht wissen, dieser Name wurde bereits von Peter Kent übernommen. Wenn Sie keine Lust haben, 13 Seiten Dokumentation zu lesen, können Sie stattdessen einfach seinen Udemy-Kurs belegen. Keine harten Gefühle, wenn Sie dies tun. Wir wissen, dass man britischen Akzenten nur schwer widerstehen kann.

Immer noch hier? Gut. Lass uns anfangen.

Einführung

Suchmaschinenoptimierung, auch bekannt als SEO, ist der Prozess der Optimierung von Websites, um ihre Leistung in beliebten Suchmaschinen wie Google zu verbessern. SEO ist ein Teilbereich der breiteren Palette von Karrierefähigkeiten, die als digitales Marketing bekannt sind.

SEO beschäftigt sich mit dem „organischen Traffic“, der durch „organische Suchergebnisse“ entsteht. Organisch bedeutet jeder Verkehr, der auf natürliche Weise entsteht, wenn ein Benutzer eine Suchanfrage in eine Suchmaschine eingibt und auf einen der Einträge klickt, die als Ergebnis entstehen, und nicht auf eine bezahlte Anzeige.

Zur Verdeutlichung: Wenn ein Benutzer ein bestimmtes Schlüsselwort eingibt, sagen Sie „beste 4k-Fernseher“, werden die ersten Ergebnisse, die er sieht, normalerweise als bezahlte Werbung aufgeführt, die als Anzeigen gekennzeichnet ist. Organische Ergebnisse sind alles, was sie unter den Anzeigen sehen. Organischer Traffic bezieht sich auf alle eingehenden Zugriffe auf eine Website, die von Benutzern stammen, die auf diese Suchergebnisse klicken.

Die frühe Geschichte von SEO und wie Suchmaschinen funktionieren

Website-Eigentümer begannen Mitte der 1990er Jahre damit, Websites absichtlich in Suchmaschinen höher zu ranken, aber der Begriff SEO selbst wurde erst 1997 geprägt.

Ein Websitebesitzer oder Webmaster übermittelt die URL seiner Website an eine Suchmaschine. Die Suchmaschine sendet dann ein automatisiertes Programm namens Webcrawler oder Bot, um die Website zu besuchen und zu erfahren, was sich darauf befindet, oder sie zu crawlen.

Der Bot extrahiert Informationen über die Links, die zu und von der Website führen, und sendet sie dann an die Suchmaschine zurück, um sie auf einem Server zu speichern, der als Indexer bezeichnet wird.

Der Bot bewegt sich dann von Link zu Link und von Website zu Website, katalogisiert die Informationen, die er findet, und fügt sie zusammen, um das zu erstellen, was im Wesentlichen die riesige Karte von allem im Internet ist.

Der Indexer verwendet dann die Wörter auf jeder Seite, um zu verstehen, worum es bei einer Website geht. Es wird untersucht, welche Wörter sich auf einer Webseite befinden, wo sie auf einer Webseite erscheinen und wie häufig und prominent sie auf jeder Seite erscheinen.

Die Wörter, die dies bestimmen, werden als Schlüsselwörter bezeichnet.

Diese Schlüsselwörter werden mit der gegebenen Suchanfrage eines Benutzers abgeglichen. Die entsprechenden Websites, die durch diese Schlüsselwörter ausgelöst werden, werden in der Reihenfolge ihrer Relevanz aufgelistet, wenn ein Benutzer sie in eine Suchmaschine eingibt.

So funktioniert in seiner einfachsten Form eine Suchmaschine.

So fingen die Dinge an, aber es dauerte nicht lange, bis Menschen mit mehr Köpfchen als Skrupeln herausfanden, wie man mit diesem Verfahren das Internet in eine riesige Gelddruckmaschine verwandelte.

Darauf gehen wir später noch ein.

Google, PageRank und die Bedeutung von Links

Google ist mit 82 % Marktanteil in der Suchmaschinenbranche die mit Abstand beliebteste Suchmaschine der Welt, gefolgt von seinem Konkurrenten Bing mit 6 % und dann von Yahoo, Baidu, Yandex und Duck Duck Go.

Es ist eine bekannte und beliebte Tatsache, dass Google allsehende, allwissende, allwissende, wohlwollende Cybergötter sind, die die besten digitalen Produkte der Welt herstellen und besser wären als Jesus, wenn er größer und schicker gekleidet wäre.

Wenn Sie mit der obigen Aussage nicht einverstanden sind, dann herzlichen Glückwunsch. Die NSA ist bereits auf dem Weg zu Ihrem Haus.

Larry Page und Sergey Brin, die Mitbegründer von Google, schufen eine Suchmaschine, die ein System oder einen Algorithmus nutzte, um Webseiten anhand der Suchanfrage eines Benutzers nach Wichtigkeit zu ordnen.

Dieser Algorithmus bewertete Webseiten anhand der Anzahl und Stärke von Hyperlinks, kurz Links, die auf eine bestimmte Webseite verweisen. Dieser Algorithmus wird als PageRank bezeichnet.

Ein Link ist ein Wort, ein Satz oder ein Bild, das von einer Webseite zu einer anderen Webseite oder von einer Website zu einer anderen führt. In HTML hat es das Format <a href={{Adresse der Webseite}}>IHR ANKERTEXT HIER</a>.

Beim PageRank-Algorithmus fungiert ein Link als Bestätigung oder Abstimmung für eine Website durch eine andere Website. Der PageRank betrachtet die Links, die von externen Domains auf eine Website verweisen, oder externe Links, um die relative Bedeutung einer Website zu bewerten.

Es prüft, ob externe Links von einer Website stammen, die es als maßgeblich und vertrauenswürdig erachtet, und markiert alle Links, die von Websites stammen, die es als Spam oder anderweitig illegitim erachtet, als weniger wertvoll.

Hier ist ein Beispiel. Nehmen wir an, es gibt zwei Geschäfte in deiner Heimatstadt Beach City: Fish Stew Pizza und Beach Citywalk Fries. Sie haben jeweils eine eigene Website.

Fish Stew Pizza hat möglicherweise eine Webseite, auf der die lokalen Unternehmen aufgelistet sind, mit denen es zusammenarbeitet, und auf dieser Webseite gibt es einen Link, der zur Website von Beach Citywalk Fries führt.

Das ist im Wesentlichen so, als würde der Besitzer von Fish Stew Pizza sagen: „Oh ja, Beach Citywalk Fries ist großartig. Ihre Bratenstücke sind echt, wir sind beide Mitglieder der Handelskammer von Beach City, und ich schicke dem Besitzer Mr. Fryman jedes Jahr eine Weihnachtskarte. Solange er nicht anfängt, Pizza und Aufschnitt aus meinem Geschäft zu machen, unterstütze ich ihn, seine Website und sein Geschäft. Ihr solltet ihn mal überprüfen.“

Kapiert? Knirpse, nicht Totes? Egal.

Fazit : Links sind wirklich wichtig. Mehr davon zu bekommen und sicherzustellen, dass die Links von maßgeblichen Websites in Ihrer Nische stammen, ist der beste Weg, um Ihre Website bei Google besser abschneiden zu lassen.
Ohne sie haben Sie keine Chance, für irgendetwas zu ranken.

On- und Offpage-SEO

Google hat über 200 Ranking-Faktoren und aktualisiert seinen Kernalgorithmus über 500 bis 600 Mal pro Jahr.

Google hält die meisten Ranking-Faktoren, die sein Algorithmus verwendet, für ein gut gehütetes Geheimnis.

Sie entscheiden sich dafür, uns bestimmte Dinge in ihren Google Webmaster-Richtlinien, Google Search Liason auf Twitter und verschiedenen Marketing-, Technologie- und Webentwicklungskonferenzen mitzuteilen. Abgesehen davon ist das meiste, was wir darüber wissen, wie Suchergebnisse sortiert und priorisiert werden, das Ergebnis von Vermutungen, die sich aus jahrzehntelangen strengen Tests und Experimenten ergeben.

Grob gesagt kann SEO in zwei verschiedene Kategorien eingeteilt werden: Onpage- und Offpage-SEO.

On-Page-SEO bezieht sich auf alle Ranking-Faktoren, über die ein Website-Eigentümer direkte Kontrolle hat. Zu diesen Faktoren gehören die Keyword-Optimierung (welche Keywords hat und wie häufig sie erscheinen), technisches SEO (Indexierbarkeit, Kanonisierung, URL-Struktur, Metadaten, Bildoptimierung, Website-Geschwindigkeit usw.) und die Site-Struktur (die Art und Weise, wie eine Website organisiert ist).

Off-Page-SEO hingegen bezieht sich auf jeden Ranking-Faktor für eine Website, auf den der Eigentümer keine direkte Kontrolle hat. Dazu gehören die Anzahl und Autorität der Backlinks einer Website sowie Benutzermetriken wie Klickrate und Absprungrate.

Auch hier spielt der Ankertext eine Rolle. Beim Erstellen von Links funktioniert relevanter Ankertext am besten, aber es ist wichtig, nicht zu viel zu optimieren. Allgemeiner Ankertext ist eine sicherere Option, aber Sie können die Relevanz sicherstellen, indem Sie Ihre Schlüsselwörter in denselben Satz aufnehmen (dies wird als Co-Citation bezeichnet), und die Taktik basiert auf einem Google-Patent.

Als Nebenbemerkung: Wenn Sie verstehen möchten, was Google tut, sind Patente äußerst nützlich.

Keyword-Optimierung (Keyword-Dichte)

In den frühen Tagen von SEO drehte sich alles um Keywords. Antizipieren, welche Schlüsselwörter Ihr idealer Benutzer (d. h. Ihr Kunde) in Google eingibt und wie Sie diese Schlüsselwörter effektiv in der Kopie Ihrer Website verwenden können.

Erstaunlicherweise bestehen einige Leute in der SEO-Welt immer noch auf dem Konzept der Keyword-Dichte als relevantem Konzept zur Optimierung von Websites. Diese Leute liegen falsch, und wenn Sie sie finden, ist die richtige Reaktion, mit dem Finger auf sie zu zeigen, Ihr Gesicht vor Wut zu verziehen und sie lautstark als die schmutzigen, schrecklichen Lügner anzuprangern, die sie sind.

Die Wahrheit ist, dass, obwohl die Keyword-Optimierung auf der Seite immer noch wichtig ist, Ihre Zeit viel besser genutzt wird, wenn Sie die Keywords in Ihrer Kopie einfach so verschachteln, dass sie natürlich fließen, sich logisch lesen und für den Leser sinnvoll sind, als ob Sie es wären werde sie trotzdem einschließen.

Mit anderen Worten, schreiben Sie den Text Ihrer Website für Menschen, nicht für Suchmaschinen . Eine gute Faustregel ist, Ihr Fokus-Keyword etwa dreimal alle 500 Wörter oder so zu verwenden. Aber wie gesagt, lass dich nicht zu sehr darauf ein.

Der Punkt ist, dass viele SEOs immer noch den Fehler machen, Websites in erster Linie zu entwerfen und zu optimieren, um die Google-Götter glücklich zu machen. Am besten konzentrieren Sie sich stattdessen darauf, Ihrem idealen Benutzer ein besseres Erlebnis zu bieten.

Takeaway : Dies ist immer die erste und wichtigste Regel von SEO sowie allen Formen des digitalen Marketings: Immer. Erinnern. Der Benutzer.

Indexierbarkeit

Wenn eine Website oder Webseite indiziert ist, bedeutet dies, dass sie von Suchmaschinen auffindbar und für Benutzer über diese Suchmaschine zugänglich ist. Eine Website indexierbar zu machen bedeutet daher, die Leichtigkeit zu verbessern, mit der Suchmaschinen-Webcrawler sie katalogisieren können.

Es gibt auch eine Reihe von Gründen, warum Sie möchten, dass eine Suchmaschine bestimmte Seiten und Dateitypen auf Ihrer Website nicht indexiert, um zu verhindern, dass sie in den Suchergebnissen auftauchen.

Dies könnte so etwas wie das Sperren von E-Commerce-zentrierten Webseiten wie Warenkörben und Checkout-Seiten sein, um eine logischere Benutzerführung zu ermöglichen, oder es könnte der Versuch Ihres Unternehmens sein, das schmutzige Geld zu verschleiern, das es auf zweifelhaften Offshore-Bankkonten auf den Seychellen hortet, um Steuern zu vermeiden .

Um Ihre Website indexierbar zu machen, müssen Sie auf jeden Fall zwei Dinge an Google Webmaster übermitteln: die XML-Sitemap Ihrer Website und eine robots.txt-Datei.

Eine XML-Sitemap ist im Wesentlichen eine Karte Ihrer Website. Es teilt Google und anderen Suchmaschinen mit, wo sich alles auf Ihrer Website befindet und wie ihre URLs lauten. Dadurch wird Ihre Website über Google leichter zugänglich.

Das Erstellen und Einreichen einer XML-Sitemap ist ein schneller und einfacher Vorgang, der mit der Google Search Console und einem Tool namens Screaming Frog 5 Minuten dauert. Wie Sie das selbst machen, erfahren Sie in diesem Video.

Eine robots.txt-Datei hingegen ist ein Textdokument, das sich im Stammverzeichnis Ihrer Website befindet. Es teilt Google mit, welche Webseiten und Dateitypen auf Ihrer Website für das Crawlen gesperrt sind und welche A-Ok sind. Wenn Ihre XML-Sitemap wie eine Roadmap ist, dann ist eine robots.txt-Datei eher eine Blaupause.

Es ist wichtig zu beachten, dass Google die in Ihrer robots.txt-Datei beschriebenen Parameter als Richtlinie und nicht als feste Regel betrachtet . Es könnte sich dafür entscheiden, es einfach zu ignorieren.

Der sicherste Weg, um zu verhindern, dass eine Webseite indexiert wird, besteht darin, den Meta-Tag: <meta name=“robots“ content=“noindex“> in den Quellcode der Seite aufzunehmen.

Das Senden Ihrer XML-Sitemap und robots.txt-Datei an Google ist im Wesentlichen so, als würden Sie Google eine Wegbeschreibung zu Ihrem neuen Haus geben.

„Hey Google, willkommen in unserem neuen Haus! So kommen Sie zu uns nach Hause. Hier ist, was Sie finden werden, wenn Sie dort sind. Oh, aber pass bitte auf, dass du nicht hier, hier oder hier gehst. Dort verstecken wir die Bitcoin-Mining-Server, Leichen und exotische Tierhautmäntel.“

SEO als Marketingstrategie

SEO ist die Kunst und Wissenschaft, Websites zu verbessern, damit sie in Suchmaschinen besser abschneiden, und bezeichnet es als technische Fähigkeit.

SEO ist jedoch auch ein Bereich, der es erfordert, die Art und Weise zu untersuchen, wie Menschen digitale Medien nutzen, und die Art und Weise, wie sie Websites und Suchmaschinen nutzen, vorauszusehen und diese Informationen dann zu verwenden, um eine Website zu betreiben, als wäre es ein Online-Geschäft.

Aus diesem Grund werden SEO-bezogene Aufgaben normalerweise an die Marketingabteilung verbannt, was auch immer diese cleveren Webentwickler drüben im Engineering sagen mögen.

Im Gegensatz zu vielen Internet-Marketing-Taktiken wie PPC-Suchanzeigen oder Facebook-Werbung, bei denen der Erfolg in Tagen oder Wochen gemessen wird, wird der SEO-Erfolg in Monaten oder sogar Jahren gemessen. SEO spielt das lange Spiel.

Takeaway : Marketing ist nie kostenlos. Es kostet Sie immer entweder Zeit oder Geld, und Sie müssen sich für eines entscheiden. PPC-Suche und Facebook-Werbung kosten Geld. SEO braucht Zeit.

Google-Algorithmus-Updates und White Hat vs. Black Hat SEO

Es ist auch eine bekannte und beliebte Tatsache, dass Vermarkter eine der allgemein unbeliebtesten Gruppen von Menschen auf dem Planeten Erde sind.

Dies kann durch die Tatsache erklärt werden, dass so viele von ihnen betrügerische Nebenbeschäftigungen, große Egos, dumme Haarschnitte, bescheuerte Persönlichkeiten und die kombinierte Moral von zwei hungernden Vielfraßen haben, die in einem Jutesack gefangen sind.

Daraus folgt, dass viele von ihnen alle Arten von hinterhältigen und schändlichen Methoden ausprobiert haben, um Google auszutricksen und auf einfache Weise an die Spitze ihrer Suchergebnisse zu schießen. Diese werden als Black-Hat-SEO-Taktiken bezeichnet.

SEO auf diese Weise zu betreiben, funktioniert nicht, nicht auf lange Sicht. Das haben Menschen bewiesen. Ja, wir sind sicher, also versuchen Sie es nicht.

Wieso den? Vor allem, weil Google auf diese Schwindeleien normalerweise reagiert, indem es sie gleich wieder überlistet.

Sie erreichen dies, indem sie Websites bestrafen, von denen sie vermuten, dass sie Black-Hat-SEO-Taktiken anwenden, und Websitebesitzern Vorzug geben, die ethische Website-Pflege- und Geschäftspraktiken anwenden. Letztere sind als White-Hat-SEO-Taktiken bekannt.

Als der Bereich SEO zum ersten Mal an Bedeutung gewann, drehte sich alles um die Keywords, die Ihre Website hatte. Websitebesitzer und Vermarkter versuchen oft, so viele Schlüsselwörter wie möglich in den Text und die Metadaten ihrer Website zu stecken, um den größtmöglichen organischen Suchverkehr zu erzielen.

Dies ist eine Vorgehensweise, die als Keyword Stuffing bekannt ist. Heutzutage ist Keyword-Stuffing in der SEO-Welt allgemein verpönt. Es wird davon ausgegangen, dass es bestenfalls eine schlechte Benutzererfahrung bietet und Sie im schlimmsten Fall dem Risiko aussetzt, dass Google Ihre Suchergebnisse bestraft.

Takeaway: Nochmals, optimieren und schreiben Sie für Menschen, nicht für Suchmaschinen.

Als das Keyword-Stuffing nicht mehr funktionierte, versuchten sie als Nächstes, Inhalte von hochrangigen Websites zu duplizieren oder direkt zu plagiieren, um ihre Suchpositionen zu ordnen.

Als Reaktion darauf veröffentlichte Google 2011 das Panda-Update für seinen Kernalgorithmus. Panda sucht nach so genannten doppelten Inhalten. Duplicate Content ist jede Kopie (sprich: Wörter), die auf Ihrer eigenen oder der Website eines anderen gefunden wird, die auch an einer oder mehreren Stellen anderswo im Internet gefunden wird.

Fazit: Originale, einzigartige Inhalte sind die besten Inhalte. Inhalt ist König.

Dann versuchten sie, das System auszutricksen, indem sie künstlich manipulierten, wie Links auf ihre Websites verweisen, damit sie ihre eigenen Suchergebnisse aufblähen konnten. Diese sind als „Link-Schemata“ bekannt und beziehen sich normalerweise auf die Praxis, Links gegen Geld zu kaufen oder auszutauschen.

Als Reaktion darauf brachte Google 2012 Penguin heraus. Penguin sucht nach Websites, von denen es feststellt, dass sie an Link-Schemata teilnehmen, und bestraft sie. Er beurteilt dies anhand der Qualität der Websites, von denen eine Gruppe von Backlinks stammt.

Fazit : Das Bezahlen für Links funktioniert nicht. Sie werden höchstwahrscheinlich Müll erhalten und riskieren, Ihre Suchergebnisse zu verlieren. Es ist die potenziellen Risiken einfach nicht wert. Tu es nicht.

Dann versuchte Google etwas besonders Interessantes. 2013 veröffentlichten sie das Hummingbird-Update.

Hummingbird bewertet Suchbegriffe, die von Benutzern verwendet werden, in Bezug auf den Kontext und nicht nur auf den semantischen Text. Mit anderen Worten, es versucht nicht nur herauszufinden, wonach Benutzer suchen, sondern warum sie danach suchen.

Fazit: Das vorrangige Ziel von Google ist es, dem Endbenutzer die besten und relevantesten Suchergebnisse für eine bestimmte Suchanfrage zu liefern. Sie sollten Ihre SEO-Strategie auf der Grundlage dieses Denkens erstellen.
Wir haben es vorher gesagt. Wir sagen es noch einmal: Denken Sie daran. Was. Ist das Beste. Für den Benutzer.

Weitere prominente Google-Algorithmus-Updates sind RankBrain (veröffentlicht 2015), das Benutzermetriken wie Klickrate und Absprungrate untersucht, um die typische Benutzererfahrung einer Website zu bestimmen, und EAT (veröffentlicht 2019), das untersucht, ob eine Website demonstriert Fachwissen, Autorität und Vertrauenswürdigkeit, basierend auf einer Reihe von Faktoren.

Internationales SEO

Hier werden die Dinge etwas komplizierter. Internationales SEO ist ein sehr dichtes Thema und lässt selbst erfahrene SEO-Profis oft frustriert am Kopf kratzen.

Wir werden versuchen, es auf die wichtigsten Punkte zu beschränken und Ihnen nur das zu sagen, was Sie wissen müssen.

Angenommen, Ihr Unternehmen expandiert auf den kanadischen Markt und Sie möchten Ihre Website sowohl für englisch- als auch für französischsprachige kanadische Benutzer zugänglich machen.

Sie haben grundsätzlich eine von vier Möglichkeiten.

Ihre erste Option sind Country Code Top Level Domains ( ccTLDs ).

Die URL-Struktur für Ihre neue Website sieht folgendermaßen aus:

URL-Struktur :

www.prender.ca/en

www.prerender.ca/fr

Dazu gehört die Registrierung einer neuen Domain mit einem neuen Ländercode, in diesem Fall .ca, zusammen mit den entsprechenden Sprachcodes en und fr.

Dies ist das wirksamste Signal für Google, dass Sie eine Website für kanadische Nutzer erstellen. Es ist gleichbedeutend mit einer vollständigen Umarmung des kanadischen Marktes.

Es ist jedoch auch bei weitem die am schwierigsten und anspruchsvollsten zu wartende internationale SEO-Lösung sowie die ressourcenintensivste.

Wenn Sie dies auf diese Weise tun, bedeutet dies im Wesentlichen, dass Sie einen Präzedenzfall für die Erstellung einer neuen Website-Domain für jeden Markt schaffen, in den Sie expandieren, jeder mit seiner eigenen, völlig neuen SEO-Strategie (das Durchlaufen des Prozesses des Rankings für Schlüsselwörter und das Erstellen eines Backlink-Profils von Grund auf neu). ganz zu schweigen von der Einstellung eines separaten Teams von Webentwicklern, um jedes einzelne zu pflegen.

Dies ist einfach keine Option für die meisten Unternehmen. Die meisten Unternehmen haben einfach nicht die Ressourcen, um dies nachhaltig zu tun, es sei denn, es handelt sich um weltweit anerkannte Marken wie Nike oder McDonalds.

Dann gibt es Subdomains .

URL-Struktur: www.ca.prender.com.

Dies ist die zweitstärkste Möglichkeit, Geo-Targeting für eine Website einzurichten, und ist einfacher zu pflegen. Wenn Sie die Subdomain-Route wählen, können Sie die Google Search Console verwenden, um jede Subdomain auf Ihrer Website nach Region und Sprache geografisch auszurichten.

Dies ist eine absolut praktikable Option. Sie können die Dinge auf diese Weise tun, wenn Sie dies wünschen.

Abgesehen davon raten SEO-Best-Practices normalerweise dazu, Ihre Subdomains zu konsolidieren und nur mit so vielen zu arbeiten, wie unbedingt nötig. Es wird sonst nur chaotisch.

Als nächstes haben wir das Unterverzeichnis method . Hinzufügen eines separaten Site-Pfadordners (Unterverzeichnis) für jeden Ort und jede Sprache.

URL-Struktur :

www.prerender.io/ca-en

www.prerender.io/ca-fr

Dies bedeutet im Wesentlichen, dass jede Sprache und Region in einem eigenen Ordner aufbewahrt wird. Es ermöglicht auch individuelles Geo-Targeting mit der Google Search Console.

Dies ist die Methode, die allgemein als die beste Mischung aus Skalierbarkeit und einfacher Implementierung angesehen wird. Daher ist es normalerweise die empfohlene Methode der Wahl für internationale SEO-Initiativen. Tun Sie die Dinge auf diese Weise, wenn Sie können.

Schließlich gibt es generische Top-Level-Domains ( gTLDs ), die zusammen mit hreflang-Markup verwendet werden.

URL-Struktur :

www.prerender.com?lang=fr-ca

www.prender.com?lang=en-ca

Ihre internationale SEO-Strategie auf diese Weise durchzuführen, ist chaotisch, grob und übermäßig kompliziert. Google gefällt das nicht. Die Leute mögen es nicht. Tu es nicht.

Ressourcen

Und das deckt ungefähr die Grundlagen ab! Hier können Sie studieren, wenn Sie mehr erfahren möchten:

  • Moz – SEO-Leitfaden für Anfänger
  • Ahrefs – SEO-Grundlagen: Anfängerleitfaden zum SEO-Erfolg
  • Google – SEO-Starterleitfaden
  • CanIRank – SEO für Startups: 5 Möglichkeiten, Brains Over Budget zu nutzen
  • Blogging Wizard – Was ist SEO? Ein Leitfaden für Anfänger zur Suchmaschinenoptimierung

Und wenn Sie schon dabei sind, hier sind einige YouTube-Kanäle, die Sie abonnieren können:

Moz Whiteboard freitags

Diese werden oft von Rand Fishkin betrieben. Fishkin ist der CEO von Moz, einer SEO-Plattform für Unternehmen, die in der gesamten Branche vertrauenswürdig und respektiert ist.

Bitte ignoriere für einen Moment, dass sein kitschiger Hipster-Blick dich dazu bringt, ihm jedes Mal, wenn du in sein dummes, dummes Gesicht schaust, eine auf den Kopf zu schlagen, und konzentriere dich auf den eigentlichen Inhalt in seinen Videos. Fishkin ist in der Tat ein führender Experte in Sachen SEO und er weiß, wovon er spricht.

Seine Whiteboard Fridays-Reihe gehört zu den besten verfügbaren Ressourcen, wenn es um SEO geht. Er schlüsselt komplizierte SEO-Themen auf eine Weise auf, die jeder verstehen kann.

Ahrefs

Ahrefs ist einfach das beste Content-Marketing-, Keyword-Recherche- und Backlink-Analyse-Tool, das es gibt. Ihre YouTube-Videos zum Thema SEO werden von Sam Oh, einem Berater für digitales Marketing und SEO bei Ahrefs, geleitet.

Er deckt unglaublich nützliche Strategien zu allem ab, von der Durchführung eines Inhaltsaudits bis zum Linkaufbau von Ressourcenseiten, sowie entsprechende E-Mail-Vorlagen und Übersichten über grundlegende SEO-Konzepte. Normalerweise beginnen wir unsere Arbeit morgens damit, eines seiner Videos bei einer Scheibe Grapefruit anzusehen.

Mr. Oh hat die zusätzliche Qualifikation, ein matschiger, rehäugiger, umarmbarer Teddybär von einem Mann zu sein, dessen rosige Wangen ein Geräusch wie ein quietschendes Spielzeug machen, wenn Sie sie anstupsen.