SEO-Strategien für JavaScript-Anwendungen

Wenn wir eine Website entwickeln, verwenden wir oft JavaScript, da es ideal ist, um innovative Websites mit mehreren clientseitigen Funktionen zu erstellen. Eine der am häufigsten verwendeten Technologien ist AJAX.
Durch Rahmen Was Jquery, Prototyp, Mootools und andere, die es ermöglichen, Anfragen an den Server zu stellen, das Ergebnis zu empfangen und das Laden bestimmter Inhalte auf der Seite zu aktivieren, ohne das Web zu aktualisieren und für den Benutzer vollständig transparent zu sein.
Derzeit weisen die meisten Webseiten eine starke Abhängigkeit von JavaScript auf, um clientseitige Effekte und Funktionalitäten zu erzeugen, dies birgt bekannte Risiken in Bezug auf SEO, Linkprobleme oder Inkompatibilitäten, technische Ausfälle, Downloadgeschwindigkeit usw.
Wir werden in diesem Tutorial einige sehen Strategien für die Entwicklung von AJAX-Websites und -Anwendungen Probleme in der SEO-Branche zu vermeiden.

Vor- und Nachteile der Verwendung von AJAX


Die Vorteile in Sachen User Experience liegen auf der Hand: schnelle Seiten, weniger Overhead für den Server, der nur die Bestellung bearbeitet und die für den User notwendigen Inhalte zurückliefert. Viele Webfunktionen der neuen Generation sind ohne die Verwendung von JavaScript oder Jquery nicht einfach zu realisieren, da der Benutzer auf ein Element des Webs klicken und der Browser nicht die gesamte Seite aktualisieren muss, sondern nur einen Inhaltsblock und sogar verschiedene Informationen für verschiedene Benutzer anzeigen.
Der Nachteil ist, dass der zurückgegebene Inhalt für Suchmaschinen möglicherweise nicht sichtbar ist und der Bot den Jquery- oder Ajax-Code oft nicht parst. Ein Problem ist, dass der Inhalt einer Seite nur für den Browser sichtbar ist, aber nicht auf dem Server, die Art des Trackings durch die Robots kann dazu führen, dass sie einige Inhalte nicht sehen oder dass einige Links fehlschlagen, da der Robot das sehr komplexe JavaScript nicht verstehen kann .
Google hat die Ajax- und Javascript-Crawling-Fähigkeiten seiner Roboter ständig weiterentwickelt, während Bing und Yahoo sich nicht viel weiterentwickelt haben.
Selbst Suchmaschinen können die relevantesten Inhalte für eine Suchanfrage nicht genau darstellen, sodass eine übermäßige Nutzung dieser Technologie zu einer schlechten Positionierung in den Suchergebnissen führen kann.

Beispiele für HTML-Elemente und -Blöcke, die SEO verbessern


Wenn wir einen Block erstellen müssen, wenden wir semantische Namen auf die Klassen an, dh mit einem Sinn, der den Inhalt beschreibt:
Beispiel für einen Block, der Inhalt anzeigt
Es wäre besser, jedem HTML-Codeblock einen semantischeren Sinn zu verleihen, damit die Robots verstehen können, welche Inhalte sie anzeigen werden:
Die Struktur ist klar nachvollziehbar, auch wenn der Inhalt nicht im HTML generiert wurde. Da semantisches Markup Schlüsselwörter enthält, ist es wichtig, geeignete HTML-Tags für den Inhalt zu verwenden. Im Zweifelsfall können wir das W3school Html-Handbuch konsultieren.
Wie geordnete oder ungeordnete Listen besteht ein Zweck von Definitionslisten darin, die Liste der gezielten Inhalte anzuzeigen, wie im obigen Fall Nachrichten oder eine Produktliste. Dies ermöglicht eine höhere Keyword-Dichte und weniger Code-Unordnung.
Einer der wichtigsten Aspekte ist, dass der Inhalt, den Javascript für den Benutzer generiert, der gleiche Inhalt ist, der auch Suchmaschinen oder Suchrobotern angezeigt wird.
Google gibt als mögliche Lösung an, dass wir, wenn unsere Website Technologien enthält, auf die Suchmaschinen nicht zugreifen oder die sie nicht interpretieren können, wie JavaScript oder Ajax, beschreibenden Text oder Lesezeichen verwenden müssen, damit diese Elemente anzeigen können, welcher Inhalt entsprechen würde verbessern so die Zugänglichkeit der Website. Viele Benutzer verwenden mobile Geräte, nicht standardmäßige Browser, veraltete Software und langsame Verbindungen, sodass sie beim Anzeigen von Inhalten oder beim Verwenden einiger Funktionen möglicherweise Störungen haben.

Links und Parameter nach URL


Google bevorzugt die hashbang als Parameter in einer URL, denn auf diese Weise können Sie Ihre Links leichter interpretieren, wenn wir einen Hastabang als Parameter an die Site übergeben.
Ein weit verbreitetes Beispiel ist auf der Twitter-Website. Google verwendet es, um den Inhalt dieser statischen Seite zu speichern und anzufordern. Um zu zeigen, was die neu geschriebenen URLs enthalten, hier einige Beispiele:
Diese durch eine Abfrage generierte URL ist eine bessere und semantischere SEO
www.miweb.com/#!madrid/productos
Diese beiden URLs sind für Roboter schwieriger zu verstehen, aber die letzte verbessert zweifellos die Semantik etwas.
www, miweb, com /? tmp = Madrid / Produkte
www.miweb.com/?ciudad=madrid&seccion=productos
Solange wir können Semantisches SEO zu generierten Inhalten und denselben Inhalt anzeigen, den ein Benutzer in Suchmaschinen sehen würde, ist dies kein großes Problem.

Ausziehbare Navigationsleisten und Registerkarten


Bei der Verteilung des Inhalts in Tabs, bei denen sich der Inhalt mit jquery oder einem anderen Framework ändert, je nach Tab, in dem wir uns positionieren, muss es für jeden Tab eine unabhängige URL geben, wenn der Benutzer auf einen Tab klickt, kann eine Anfrage auch auf dem Server gemacht werden, um komplett neue Inhalte zu generieren. Die Struktur jedes Links könnte etwa so aussehen:
www.miweb.com?tab= sales
www.miwebe.com/?tab=clientes
www.miweb.com/?tab=productos
Der Trick mit den Tabs wird mit CSS und Javascript erzeugt, der Server gibt den Inhalt aller Tabs mit dem ersten Seitenaufruf zurück. Wenn der Benutzer auf einen Tab klickt, sorgen die in CSS definierten Klassen dafür, dass der Browser den mit einem Tab verknüpften Inhalt ausblendet und nur den Inhalt zeigt, der sich auf den angeklickten Tab bezieht, während die anderen ausgeblendet werden, aber sie sind im Code dies Es ist erlaubt , daher ist es gut, der Struktur einen semantischen Sinn zu geben.
Es ist auch sehr wichtig, das Crawlen von Javascript- oder CSS-Dateien in der robots.txt unserer Website nicht zuzulassen, da dies die Positionierung und Indexierung Ihrer Inhalte beeinträchtigen und zum Ausfall der Crawling-Statistiken führen kann.
Eine der Richtlinien von Google-Webmaster Es besagt ausdrücklich, dass diese Dateien nicht verfolgt werden dürfen, aber weder blockiert noch vor Bots versteckt werden sollen.

Google Webmaster-Tools zur Überprüfung und Analyse des Crawlings


Google Webmaster Tools gibt uns die Möglichkeit, Google zu informieren, indem wir die Inhaberschaft unserer Website bestätigen. Bitte loggen Sie sich mit Ihrem Google- oder Gmail-Konto ein und dann können wir unsere Website verifizieren.

Nachdem Sie die Unterkunft bestätigt haben, wird die Sitemap.xml um mit dem Crawlen der Website zu beginnen, und dann beginnt Google mit der Indexierung Ihrer URLs.
Es dauert etwa zwei Wochen, bis die Links in der Google-Suche korrekt angezeigt werden.
Es gibt keinen einfachen Weg, um sicherzustellen, dass alles funktioniert, aber es gibt einige Tools, die Ihnen helfen, zu sehen, was vor sich geht. Am besten verwenden Sie das Explore as Googlebot-Tool, das uns genau zeigt, was Google beim Crawlen der Website sieht. Sie können in der Diagnose auf die Google Webmaster-Tools zugreifen.
Mit den Google-Tools für Webmaster-Tools können wir die indizierten Links überprüfen und diese Links korrigieren oder eliminieren, sodass Ihre Website suchmaschinenoptimiert ist und straflos Links enthält, die unter anderem zur Verbesserung Ihrer SEO beitragen.Hat dir dieses Tutorial gefallen und geholfen?Sie können den Autor belohnen, indem Sie diesen Knopf drücken, um ihm einen positiven Punkt zu geben
wave wave wave wave wave