This site uses cookies and other tracking technologies to make possible your usage of the website, assist with navigation and your ability to provide feedback, analyse your use of our products and services, assist with our promotional and marketing efforts, and provide better user experience.

By using the website, you agree to our Datenschutzerklärung

Accept and continue

Report a bug

Cancel
1238
SEO Lesezeit 21 Minuten 27 February 2019

JavaScript-Websites: Ist das Spiel die Kerze wert? Meinung der Experten

JavaScript-Websites: Ist das Spiel die Kerze wert? Meinung der Experten
Фотот главного редактора в Serpstat — сервиса для оценка трафика сайта
Olena Khodos
Redakteurin bei Serpstat
Die Optimierung der JavaScript-basierten Websites kommt immer wieder zur Diskussion. Einerseits bieten diese Seiten erweiterte UX-Möglichkeiten und schnelle Ladezeiten, andererseits stellen notwendige SEO-Maßnahmen Herausforderungen dar.
Ob SEO und JavaScript zusammenpassen und in welchen Fällen es sich lohnt, eine JS-Website zu erstellen, beantworten unsere Experten.
Artur Kosch
Geschäftsführender Gesellschafter
der Kosch Klink Performance
Unternehmer, SEO Experte und Speaker. Als erfahrener SEO publiziert er regelmäßig Fachartikel, unter anderem auf der Website Boosting und hält Vorträge auf Konferenzen wie der SEOkomm, dem SEO Day oder der SEO Campixx u. a. rund um das Thema Online Marketing und SEO.
Armin Ginschel
Head of SEO bei
den Netzgefährten
hat als Dozent für HTML, CSS, JavaScript und Spieleprogrammierung gearbeitet. Seine erste Suchmaschinenoptimierung hat er für die Suchmaschinen Altavista, Lycos und Yahoo umgesetzt. Ab 1998 ist er ausschließlich im Bereich SEO und Online-Marketing tätig.
Henry Zeitler
Senior Frontend Entwickler
bei ecx.io
arbeitet heute vor allem in den Bereichen Entwicklung für mobile Endgeräte und Responsive Web Design, (Web)Applications, technisches SEO, Performanceoptimierung und Accessibility. Webworker seit 2001.
Daniel Marx
Partner und Head of SEO
bei .kloos
Head of SEO bei .kloos, der Wiener Agentur für Suchmaschinenmarketing. Seit Jahren beschäftigt sich der studierte Kommunikationswissenschaftler, mit welchen Strategien Inhalte im Internet besser auffindbar gemacht werden können.

Können JS-Websites überhaupt erfolgreich optimiert werden?


Artur Kosch
Geschäftsführender Gesellschafter der Kosch Klink Performance
Um diese Frage zu beantworten, müssen vorher ein paar Grundlagen verstanden werden. Der wohl wichtigste Unterschied zwischen Rich-JS-Websites und herkömmlichen Websites besteht darin, dass JavaScript nicht vom Server, sondern vom Browser ausgeführt wird. Wenn eine Suchmaschine die Inhalte crawlen möchte, die durch JavaScript erzeugt werden, muss die Suchmaschine die Arbeit des Browsers, das Rendern von JavaScript, übernehmen.

Google nutzt laut eigenen Aussagen den Web Rendering Service (WRS), welcher auf dem Stand des Google Chrome Browsers in der Version 41 basiert, um JavaScript zu rendern. Technologien und Features aus dem Jahr 2015. Wer gerne den Unterschied zwischen dem Chrome 41 und der aktuellen Version vergleichen möchte, kann sich caniuse.com anschauen.

Abgesehen davon, ist Google aktuell die einzige Suchmaschine, die überhaupt versucht, JavaScript zu rendern. Andere Crawler von Unternehmen wie z. B. Bing, Facebook, Twitter usw. versuchen es gar nicht. Ist es sinnvoll, Content bereitzustellen, den nur Google sieht?

Allgemein beschäftigen sich Technical-SEOs damit, Websites und deren Inhalte in einem bestmöglichen Zustand schnell und einfach an die Suchmaschinen auszuliefern. Wer sich dessen bewusst ist, wird sich wohl die Frage selbst beantworten können, ob es sinnvoll ist, eine Website und deren Content der Suchmaschinen Client-Side bereitzustellen.
Ja, auch JavaScript-basierte Webseiten können optimiert werden. Dabei gilt folgende Faustregel: Je leichter Inhalte zu erreichen sind, desto zuverlässiger und schneller können sie indexiert werden.
Henry Zeitler, Senior Frontend Entwickler bei ecx.io

Henry Zeitler
Senior Frontend Entwickler bei ecx.io
In der Regel wird JavaScript dazu verwendet, um eine Website mit Funktionalitäten im Sinne des Progressive-Enhancements zu bereichern, die die User-Experience und die Bedienbarkeit verbessern sollen. Sprechen wir von JavaScript-basierten Seiten, dann sieht die Anwendung etwas anders aus.

Grundsätzlich unterscheidet sich die Auslieferung von JavaScript-basierten Seiten von der von den konventionellen folgendermaßen: Normalerweise wird das HTML-Dokument auf dem Server gerendert und fertig, also mit allen relevanten Inhalten im DOM (Document Object Model) an den Client (z. B. dem Browser) geschickt.

Reine JavaScript-Seiten werden prinzipiell als leeres Dokument an den Client geschickt und erst dort gerendert. Für Maschinen, insbesondere Crawler, Spider und Bots bedeutet das Auslesen der Inhalte somit wesentlich mehr Aufwand, denn das JavaScript muss von ihnen ausgeführt und die Seite gerendert werden.

Ja, auch JavaScript-basierte Webseiten können optimiert werden. Dabei gilt folgende Faustregel: Je leichter Inhalte zu erreichen sind, desto zuverlässiger und schneller können sie indexiert werden.

Neben der Grundausstattung wie den Meta-Tags sind wichtige Faktoren die Lade-Performance (Dateigrößen, Code-Reduzierung, serverseitiges Rendering), Rendering-Performance (Code-Qualität und Optimierung, Pre-Compiling bei Frameworks) und, wie auch bei statischen Seiten, Zugänglichkeit (Accessibility) sowie Semantik (Kontext).
Google ist in der Interpretierung von JavaScript eindeutig besser, als die Mitbewerber. Jedoch haben Tests gezeigt, dass auch Google hier noch nicht perfekt arbeitet.
Armin Ginschel, Head of SEO bei den Netzgefaehrten

Armin Ginschel
Head of SEO bei den Netzgefaehrten
Diese Frage kann man eindeutig mit „Jein" beantworten. Google ist in der Interpretierung von JavaScript eindeutig besser, als die Mitbewerber. Jedoch haben Tests gezeigt, dass auch Google hier noch nicht perfekt arbeitet. Man sollte sich hier also nicht auf die Fähigkeiten der Suchmaschine verlassen.

Wer auch auf andere Suchmaschinen, wie beispielsweise Yandex angewiesen ist, sollte hier grundsätzlich vorsichtig sein, da andere Suchdienste beim Interpretieren von JavaScript Schwächen haben.

Daniel Marx
Partner und Head of SEO bei .kloos
Historisch gesehen hatten Suchmaschinen mit der Indexierung von per JavaScript geladenen Inhalten immer große Probleme, aber während sich viele Suchmaschinen auch 2019 noch schwertun, JS-basierte Seiten zu verarbeiten, kommt Branchenprimus Google mittlerweile recht gut damit zurecht. Trotzdem gibt es noch zahlreiche Stolpersteine, die verhindern können, dass eine JS-basierte Seite gut gefunden wird.

Es ist aber durchaus möglich Seiten, die auf Frameworks wie Angular, React, Vue & Co basieren, für Google und auch andere Suchmaschinen zu optimieren. Jedoch ist eine Optimierung solcher Seiten meist deutlich aufwendiger und setzt ein tieferes technisches Verständnis voraus. Dazu kommt sich das auch das Auditing solcher Websites schwieriger gestaltet, nachdem bei weitem noch nicht alle SEO-Tools mit JavaScript umgehen können.

Welche Aspekte sollte man unbedingt bei der Optimierung von JS-Websites beachten?


Artur Kosch
Geschäftsführender Gesellschafter der Kosch Klink Performance
Aufgrund der oben genannten Argumente wird in den meisten Fällen eine Server-Side-Lösung empfohlen, um Rich-JS-Webseiten für SEO in den Griff zu bekommen. Bei diesen Lösungen wird dem User die Website wie gewohnt ausgespielt. Dem Crawler hingegen, wie z. B. dem Googlebot, wird eine bereits vorgerenderte Website ausgeliefert. Damit profitiert der User von allen Vorteilen die eine JS-Lösung mit sich bringt und der Crawler bekommt alle relevanten Inhalte, ohne selbst rendern zu müssen.

Google selbst empfiehlt in einigen Fällen Server-Side-Rendering. Google nennt es lediglich anders: „Dynamic Rendering". Interessant ist es auch, dass Google für die hauseigene Videoplattform YouTube Server-Side-Rendering einsetzt. Wenn das nicht schon genug Gründe gegen Client-Side-Rendering und für Server-Side-Rendering in Bezug auf SEO wären

Henry Zeitler
Senior Frontend Entwickler bei ecx.io
Folgende Punkte spielen eine bedeutende Rolle:

Lade-Performance

Eine Seite sollte möglichst schnell an den Client ausgeliefert werden. Gerade in Zeiten der mobilen Devices spielt dieser Aspekt eine fundamentale Rolle und wirkt sich auf die Platzierung in den SERPs aus. Im Optimalfall sollte die Seite in einer Sekunde im Browser angezeigt werden und zumindest ansatzweise bedienbar sein.

Viele populäre JavaScript-Frameworks wie z. B. Angular, React oder Vue bieten SSR (Server-Side-Rendering) an. Dabei werden dedizierte Seiten auf dem Server vorgerendert, als fertiges HTML an den Client gesendet und die eigentliche Applikation dann im Hintergrund nachgeladen. Dadurch befinden sich initiale Inhalte bereits im DOM, wenn sie beim Client ankommen und können direkt konsumiert werden.

Genau wie bei konventionellen Seiten spielen Code-Optimierung und Architektur eine ebenso wichtige Rolle. In Zeiten von HTTP/2 wird z. B. eine große JavaScript-Datei gerne in mehrere sogenannte Chunks aufgeteilt, die dann parallel in einem Stream geladen und somit schneller ausgeliefert werden können.

Rendering-Performance


Wie bei herkömmlichen Seiten sollte der Code natürlich schlank und performant gehalten werden. Werden Frameworks benutzt, sollte der Code pre-compiled, also bereits vorkompiliert ausgeliefert werden. Angular nutzt dafür z. B. das AOT (Ahead Of Time) Compiling, welches die Kompilierung von Angular und Typescript bereits im Build-Prozess ausführt und natives JavaScript erzeugt. Durch eine Vorkompilierung wird dem Client-Device (also auch dem Bot) Rechenleistung abgenommen.

Zugänglichkeit und Semantik

Auch wenn das HTML über JavaScript generiert wird, gelten die gleichen Regeln für Zugänglichkeit und Barrierefreiheit wie bei den konventionellen Websites.

Z. B. sollten im Umfeld einer SPA (Single Page Application) die einzelnen Unterseiten über Deeplinks mittels eines Routings erreichbar gemacht werden (Anm.: wichtig ist dabei die Unterscheidung zwischen einem tatsächlichen Anchor-Tag mit sichtbarem Link und einem Button, der eigentlich nur als Schaltfläche für Interaktionen auf derselben Page dient). Auf diesem Wege kann die Suchmaschine die Seiten verfolgen und die Links können letztlich auch in die obligatorische Sitemap aufgenommen werden.

Es empfiehlt sich, wenn es das Budget zulässt, Microdata zu implementieren. Um die Einbindung in Javascript-basierte Seiten und SPAs (Single Page Applications), also dynamisch generierte Seiten zu erleichtern, wurde das JSON-LD-Format (JSON für Linked Data) für schema.org entwickelt. Der Vorteil an einem JSON-LD-Template im Gegensatz zu den schema.org-Annotationen ist die Unabhängigkeit vom HTML-Markup, denn es kann mit einem Script-Tag an entsprechender Stelle in das DOM injiziert und dynamisch befüllt werden. Viele Informationen, die über JSON-LD an die Suchmaschinen geliefert werden, generieren in den SERPs die begehrten Rich Snippets.

Armin Ginschel
Head of SEO bei den Netzgefaehrten
Es ist in diesem Zusammenhang eine Binsenweisheit, dass man (wenn man Websites mit JavaScript erfolgreich optimieren möchte) die Crawler von JS-Verzeichnissen nicht aussperren sollte. Daher sollte die robots.txt dahingehend geprüft werden. Die URLs müssen einzigartig sein, sonst ist eine korrekte Indexierung nicht möglich.

Auf Anfragen muss der Server den Status-Code 200 liefern, vom Umschreiben der URL mit pushState sollte man daher Abstand nehmen. Für JS-Seiten gilt das Gleiche, wie für HTML. Der Bot wertet Meta-Daten aus und sollte diese auch bekommen. Ähnliches gilt für vorhandene Hyperlinks und Bilder. Hier werden immer wieder die beschreibenden Attribute vergessen.

Daniel Marx
Partner und Head of SEO bei .kloos
Während beim Abruf eines traditionellen serverseitigen HTML-Dokuments Struktur und Inhalt bereits im Quellcode enthalten sind, kommt bei React, Angular und Co JavaScript zum Einsatz, um das DOM (Document Object Model) erst clientseitig, also im Browser, fertig zu rendern. Das pre-DOM HTML kommt daher zunächst ziemlich leer daher. Wird nun der gesamte Inhalt einer Seite auf diese Art und Weise geladen, findet ein Suchmaschinen-Crawler, der lediglich den HTML-Code einer Seite ausliest, weder Links, denen er weiter folgen kann, noch grundsätzliche Informationen zum Inhalt der Seite, und zum Teil oft nicht einmal irgendwelche Meta-Tags.

Bisher ist Google leider die einzige Suchmaschine, von der wir wissen, dass sie eine Rendering Engine einsetzt, um JavaScript auszuführen und die Website ebenso zu „sehen" wie sie auch der User in seinem Browser sieht. Dass man JS- und CSS-Ressourcen nicht für den Googlebot blockiert, sollte selbstverständlich sein.

Dieses Rendern von Webseiten ist aber enorm ressourcenaufwendig – selbst für den Branchenriesen Google. Dazu kommt, dass Crawler anderer Suchmaschinen (sowie auch Crawler von Facebook, Twitter, LinkedIn usw., die Seiten beispielsweise für die Generierung einer Preview Box besuchen) noch überhaupt kein JavaScript rendern.

Das Zauberwort, um JavaScript Frameworks SEO-tauglich zu machen ist daher: Server-Side-Rendering. Statt den HMTL-Code erst auf Client-Seite errechnen zu lassen, wird die Seite schon serverseitig „vorgerendert" (pre-rendering) und fertig ausgeliefert. Dabei gibt es verschiedene Modelle, an welche User-Agents was ausgeliefert werden soll. So kann die bereits auf dem Server vorgerenderte Seite einfach an alle – sowohl Browser als auch Bots – ausgeliefert werden oder man setzt eine Middleware ein, um ausschließlich Bots die vorgerenderte Version zu zeigen, während die normalen User die JS-basierte Seite bekommen.

Google empfiehlt einen Mittelweg zu wählen, bei dem zunächst sowohl normale User als auch Suchmaschinen eine vorgerenderte Version der Seite ausgeliefert bekommen. Erst wenn der User beginnt, mit der Seite zu interagieren, beginnt das JavaScript über das DOM, den Quellcode zu verändern.

Dazu dürfen „klassische" technische SEO-Basics nicht vergessen werden. Zum Beispiel braucht natürlich jede Seite, die indexiert werden soll, eine eigene, einzigartige und dauerhafte URL. Denn URLs sind schließlich die Entitäten, die Suchmaschinen in den Suchergebnissen listen. Da man per JavaScript Inhalte dynamisch laden kann, ohne dass sich dabei die URL ändert, scheint das bei JS-Frameworks aber nicht immer selbstverständlich (Stichwort „Single Page App"). Als SEO muss man daher sichergehen, dass alle relevanten Seiten auf eigenen URLs liegen und dass diese auch immer direkt aufrufbar sind.

Auch das Handling von Meta-Tags, die korrekte Verwendung von Server Status Codes oder simple Verlinkungen können zu Stolpersteinen werden.

Welche Vor- bzw. Nachteile haben diese Websites in Bezug auf SEO


Artur Kosch
Geschäftsführender Gesellschafter der Kosch Klink Performance
Da Google laut eigenen Aussagen von „Second Wave of Indexing" spricht, werden Websites am Anfang erst ohne den Einsatz von Rendering gecrawlt und gegebenenfalls indexiert. Erst beim zweiten Besuch wird das Rendering genutzt, um alle Inhalte zu erhalten. In einigen Fällen kann es vorkommen, dass zwischen den beiden Besuchen einige Tage liegen. Das heißt, Inhalte, die durch JavaScript erzeugt werden, landen später im Index als gewollt.

Armin Ginschel
Head of SEO bei den Netzgefaehrten
Ich gestehe, dass ich aus SEO-Sicht derzeit kein Freund davon bin. JavaScript war und ist in Bezug auf Funktionalität spannend und die Möglichkeiten von Progressive Web Apps (PWA) sind ebenfalls riesig. Als SEO hätte ich aber Bauchschmerzen, wenn ein Kunde sich hierauf fokussieren würde. JavaScript-Sites haben aber durch das Rendering oftmals mit höheren Ladezeiten zu kämpfen. Hier könnte Dynamic Rendering hilfreich sein.

Henry Zeitler
Senior Frontend Entwickler bei ecx.io
Rein JavaScript-basierte Ansätze bedürfen einiges an Mehraufwand, um sie fit für Suchmaschinen zu machen und meistens ist der Code für eine SPA umfangreicher als der ihrer nativen Verwandten. Der Rechenaufwand für den Client, der ja häufig ein mobiles Endgerät mit relativ langsamen Prozessor ist, ist demnach signifikant größer. Das ist auch relevant für einen Crawler, der diese Rechenleistung ja ebenfalls aufbringen muss. Die Folge ist oft eine verlangsamte und unzuverlässige Indexierung.

Direkte, messbare und verwertbare Vorteile für SEO habe ich bei rein JavaScript-basierten Ansätzen noch nicht feststellen können. Denkbar wäre ein Konkurrenzvorteil durch verbesserte Bedienbarkeit, erhöhte Conversion und dadurch gesteigerte CTR.
Neben der Problematik des Renderings tauchen bei solchen Seiten auch immer wieder ganz andere Fehlerquellen auf, die man von „traditionellen" Seiten kaum (mehr) kennt.
Daniel Marx, Partner und Head of SEO bei .kloos

Daniel Marx
Partner und Head of SEO bei .kloos
Für Suchmaschinenoptimierer bringt JavaScript ganz neue Herausforderungen mit sich. Rein aus SEO-Sicht bringt die Optimierung einer JS-basierten Single-Page-Application große Herausforderungen mit sich. Neben der Problematik des Renderings tauchen bei solchen Seiten auch immer wieder ganz andere Fehlerquellen auf, die man von „traditionellen" Seiten kaum (mehr) kennt.

Die größte Aufgabe ist oft die Entwickler der Seiten für das Thema SEO zu sensibilisieren, um gemeinsam potenzielle Probleme bezüglich der Crawlbarkeit und Indexierung von vorneherein mitzudenken. Denn oft scheint die Umsetzung relevanter Punkte in solchen Seiten aufwendiger als gewöhnlich.
SEOs müssen in Zukunft daher noch viel tiefer in technische Details eintauchen und sich intensiver mit JavaScript auseinandersetzen, um potentielle Hindernisse erkennen und gemeinsam mit Entwicklern aus dem Weg räumen zu können. Wenn sich Entwickler mit dem Thema auseinandersetzen und bei ihrer Applikation an den richtigen Stellschrauben drehen, schließen sich eine JS-basierte Website und eine gute Auffindbarkeit in Suchmaschinen heute nicht mehr aus.

Das Thema SEO ist bei den Entwickler-Teams der großen Frameworks angekommen, die zunehmend entsprechende Lösungen für gängige Probleme bereitstellen. Soweit, dass JS-Seiten „out of the box" SEO-freundlich sind, sind wir aber noch lange nicht.

In welchen Fällen lohnt es sich, eine JS-basierte Website zu erstellen?


Artur Kosch
Geschäftsführender Gesellschafter der Kosch Klink Performance
Neben den oben erwähnten Problemen gibt es noch zahlreiche weitere Stolpersteine zu beachten. JavaScript bringt definitiv einige Vorteile mit sich, die ihre Berechtigung haben. In Bezug auf SEO bringt diese Kombination lediglich zahlreiche Probleme und Hürden mit sich, die sowohl zeitaufwändig als auch kostspielig sind. Wer als SEO-Verantwortlicher ein Projekt mit einer Rich-JS-Website verantworten muss, sollte auf eine Server-Side-Lösung setzen.
In Bezug auf SEO bringt JavaScript lediglich zahlreiche Probleme und Hürden mit sich, die sowohl zeitaufwändig als auch kostspielig sind.
Artur Kosch, Geschäftsführender Gesellschafter der Kosch Klink Performance
Wer mehr über das Thema erfahren möchte, kann gerne in meinen ausführlichen JavaScript SEO Guide reinschauen. Dort habe ich alle meine Erfahrungen zusammengefasst und zeige dir, wie auch du mit einer Rich-JS-Website gute Rankings erreichen kannst. Zusätzlich bekommst du noch eine Webinar-Aufzeichnung und Slides von meinen Vorträgen zum Thema JavaScript SEO auf der SEOkomm, dem SEO-Day und der SEO Campixx.

Henry Zeitler
Senior Frontend Entwickler bei ecx.io
Für herkömmliche Websites, die lediglich Content-getrieben sind, wie z. B. News-Seiten, Firmenvorstellungen oder Blogs, lohnt sich ein JS-basierter Ansatz wohl kaum.

Interessant wird es erst, wenn viele Interaktionen im User-Interface gefragt sind und die Inhalte dynamisch generiert werden. Klassische Beispiele dafür sind Dashboards jeglicher Art und datengetriebene Ansätze mit Suchfunktionen und Filtermöglichkeiten.

Bei Shops wird es schon komplizierter, denn die Vorteile eines JS-basierten User-Interfaces mit asynchronen Filterungen und Suchmechanismen sind schon sehr verlockend, aber die Produkte sollten in jedem Fall leicht und schnell zu indexieren sein.

Die Verwendung eines reinen JS-basierten Ansatzes muss immer genau mit den Bedürfnissen der Plattform abgestimmt werden und ist von daher nicht in jedem Fall empfehlenswert.

Armin Ginschel
Head of SEO bei den Netzgefaehrten
Wenn ich JavaScript einsetzen sollte, wären Progressive Web Apps mein Thema. Hier verschwimmen die Grenzen zwischen Apps und mobilen Seiten. PWAs müssten im Gegensatz zu normalen Apps nicht installiert werden. Die Inhalte wären auch bei schlechter (oder fehlender) Internetverbindung verfügbar und wären daher vorteilhaft für die User-Experience, weil sie die Vorteile mehrerer Welten vereinen. Außerdem werden Apps länger und intensiver genutzt, als vergleichbare Mobil-Seiten.

Daniel Marx
Angular, React, Vue, usw. machen vor allem Sinn, wenn es darum geht wirkliche Web-Applikationen bereitzustellen, auf denen Inhalte sehr dynamisch dargestellt werden und die stark personalisiert sind oder auf Nutzer-Interaktionen reagieren. Für solche Anwendungen schaffen die Frameworks eine flüssige und schnelle User-Experience im Browser, die an jene nativer Apps herankommt.

Man sollte daher immer abwägen, welche Features und Funktionen die geplante Website bieten soll und welcher Weg hier sinnvoll ist.

Zusammenfassung

Da JS-Websites zeitaufwändig und kostspielig sind, solltest du einige Aspekte beachten, bevor du eine Entscheidung triffst:

  • Obwohl die JS-Websites mehrere Vorteile bringen (Benutzerfreundlichkeit und erweiterte Funktionalitäten), ist die JS-Seitenindexierung komplizierter als die der gewöhnlichen Websites.

  • Die meisten Suchmaschinen nehmen JS-Inhalte nicht auf. Auch Google verfügt über eingeschränkte technische Möglichkeiten in Bezug auf die JS-Indexierung.

  • JavaScript ist nicht geeignet für Websites von Unternehmen, News-Portalen und Blogs, die sich auf Inhalte konzentrieren. JS-Websites machen sich bezahlt, wenn du ein großes Projekt optimierst, das über vielfältige interaktive Dashboard-Funktionen verfügt.

  • Es lohnt sich nicht, JavaScript anzuwenden, wenn du auf den organische Traffic und SEO setzt. JS-Inhalte können angewendet werden, wenn die meisten Besucher durch Refer-Links oder die Kontextwerbung kommen.

  • Die Ladezeit der JS-Inhalte spielt eine bedeutsame Rolle, da die Suchmaschine sie einfach nicht „sieht", wenn die Website langsam geladen wird. Hier könnte Server Side Rendering hilfreich sein.
Wir bedanken uns bei den Experten, die uns mit der Beantwortung dieser Frage geholfen und ihre Erfahrungen geteilt haben. Und was denkst du über JS-Websites? Schreibe deine Meinung in die Kommentaren.

Erfahre, wie du Serpstat mit bestmöglicher Effizienz verwendest

Möchtest du persönliche Produktdemonstration, die Testversion oder erfolgreiche Use-Cases bekommen?

Sende eine Anfrage und unser Support-Team kontaktiert dich ;)

Rate the article on a five-point scale

The article has already been rated by 4 people on average 5 out of 5
Hast du einen Fehler gefunden? Markiere diesen und betätige Ctrl + Enter, um es uns mitzuteilen

Empfehlungen

Abonniere den Newsletter von Serpstat
Bleibe auf dem Laufenden mit aktuellsten Nachrichten, Beiträgen und Updates

Поделитесь статьей с вашими друзьями

Einloggen Registrieren

Вы исчерпали лимит запросов.

Or email
Забыли пароль?
Or email
Back To Login

Don’t worry! Just fill in your email and we’ll send over your password.

Are you sure?

Awesome!

To complete your registration you need to enter your phone number

Back

We sent confirmation code to your phone number

Your phone Resend code queriesLeft

smthWentWrong

contactSupport
telegramVerification telegramBotLink
Choose the project to view data on it

Persönliche Produktdemonstration

Serpstat hilft dir, noch mehr Zeit zu sparen! Bitte fülle das Formular vollständig aus — du wirst schnellstmöglich von einem unserer Produktspezialisten kontaktiert.

Persönliche Demonstration umfasst den Testzeitraum des Services, umfangreiche Anleitungen und Webinare, individuelle Beratung von Serpstat-Experten. Wir machen alles, damit du mit Serpstat zurechtkommst.

Name
Email
Telefonnummer
Wir freuen uns auf deine Kommentare

Upgrade your plan

Export is not available for your account. Please upgrade to Plan A or higher to get access to the tool. Learn more.

Sign Up Free

Спасибо, мы с вами свяжемся в ближайшее время

Invite
Просмотр Редактирование

E-mail
Message
Optional
E-mail
Message
Optional

У вас закончились лимиты

Вы достигли лимита на количество созданных проектов и больше не можете создавать новые проекты. Увеличьте лимиты или удалите существующие проекты.

Я хочу больше лимитов

Christmas is a time for miracles.

You are almost on the finish line of our Christmas quest. The last brick of your lego-promocode is left on the way ap 55% discount.

Did not find previous lego-bricks? Fill the form anyway.

Name
Email
Telefonnummer