web-dev-qa-db-de.com

Verhindert e.preventDefault on link, dass die Seite gecrawlt wird?

Ich habe ein paar Links in der Navigation auf der Homepage, die zu neuen Seiten führen. Wenn ich auf den Link klicke, möchte ich verhindern, dass ich auf diese Seite gehe (e.preventDefault()) und stattdessen diese Seite in Popup mit Ajax laden. Benutzer mit JS-Behinderung würden über den Link zur Seite wechseln. Kann dies SEO in irgendeiner Weise schaden? Würden diese Seiten gecrawlt werden?

2
user2406735

Die Seiten werden gefunden und höchstwahrscheinlich gecrawlt . Sie sind nicht weit von der Wahrheit entfernt, wenn Sie davon ausgehen, dass Bots kein Javascript verwenden.

Ein Crawler funktioniert ähnlich wie folgt:

  1. Gehe zu einer Webseite und hole den Inhalt
  2. Holen Sie sich alle Informationen von der Seite, wie Schlüsselwörter und alle anderen SEO-Prüfungen
  3. Holen Sie sich alle internen und externen Links aus der Quelle
    • Fahren Sie per Link mit Schritt 1 fort.

Es wird die Quelle verwendet, nicht die Seite, die der Benutzer sieht. Einige Bots können JavaScript nicht ausführen, aber es wird sie nicht davon abhalten, die URLs zu finden und zu crawlen.

Wenn Sie möchten, dass Bots den URLs auf einer Seite nicht folgen, gibt es NOINDEX (sagt: Diese Seite nicht indizieren) und NOFOLLOW (diese Seite indizieren, aber nicht den URLs folgen). Weitere Informationen zu das Roboter-Meta .

Eine andere Option ist die Verwendung von robots.txt , einer kleinen Textdatei, in der Sie Ihren Seiten URLs hinzufügen können Ich möchte nicht, dass sie indizieren. Dies hängt davon ab, dass sie darauf vertrauen, dass sie es tatsächlich hören werden (was jedoch am häufigsten der Fall ist).

4
Martijn