Wie kann mal ein seiten in googel reihn bekommen
Und kostet das was
Wie kann mal ein seiten in googel reihn bekommen
- Tobi@Toxic125
- Beiträge: 1146
- Registriert: Mo 12. Jun 2006, 18:27
- Wohnort: Regensburg
RE: Wie kann mal ein seiten in googel reihn bekommen
soweit ich weis ist das umsonst. habs mal ausprobiert über meine homepage, da hab ich beim anbieter nen link gefunden. hat mich jede menge nerven gekostet, weil es irgendwie nicht geht. fazit: auch ich bin nicht in google zu finden.
mfg Tobi
mfg Tobi
RE: Wie kann mal ein seiten in googel reihn bekommen
ehm...
Diese Rechtschreibreform. Ich wusste ja, daß es zu nichts führt
Ich nehme mal an, Du willst, daß Deine Seite bei Google gelistet wird ?
Was, bitte, macht die Frage in einem Kartsportforum ?
Aber egal, Du sollst ja nicht dumm sterben:
Da gibt es zwei Arten.
Die erste kostet was. Da musst Du dich bei Google anmelden, gibst die Wörter an, bei denen Google Deine Seite anzeigen soll und schon findest Du dich beim Suchergebnis zu diesem Stichwort auf der rechten Seite. Davon lebt Google
Die zweite ist kostenlos.
Google schickt regelmäßig einen Roboter (Crawler) durchs Internet. Dieser klappert alle Links, die auf einer Seite zu finden sind ab, und speichert über die besuchten Seiten wichtige Schlüsselbegriffe ab. Google wertet das dann aus und ordnet die Seiten nach Relevanz. Dabei werden ein paar Maßstäbe gesetzt. Ist zum Beispiel eine Seite oft verlinkt, oder wird sie oft besucht, ist sie für Google "wichtig" und erscheint auf der Liste sehr weit oben. Auch wenn der gesuchte Schlüsselbegriff schon in der Titelleiste erscheint, ordnet Google die Seite als wichtig ein. Dazu wird auch noch ausgewertet wie oft der Schlüsselbegriff auf der Seite auftaucht. Je öfter, desto wichtiger. Ganz schlimm sind in diesem Zusammenhang Seiten mit Frames, Datenbanken oder Flash-Seiten. Wo kein Link, da kann der Crawler auch nicht weiter und wertet möglicherweise nur die Startseite aus. Darüber hinaus sollte man dem Crawler in den Meta-Tag's im Code möglichst viele Schlüsselbegriffe hinlegen.....
Für die ganzen Roboter (aber nicht nur für die) sollte man auch im Stammverzeichnis der Page eine robots.txt ablegen. Da kann man über simple Befehle den Crawlern Weisungen erteilen. Z.B. Teile der Page von der Auswertung ausschließen und mehr...
Der Tricks gibt es viele
Da gibt es sogar etliche, die leben davon eine Seite "Googlegerecht" zu machen, um eine möglicht hohe Relevanz vorzutäuschen. Aber nicht übertreiben ! Google kennt die ganzen Tricks, und wenn die sich vergackeiert fühlen, dann wird die Seite gesperrt und nie gelisted.
Das, was der Tobi meint, ist was anderes.....Da kann man Google erlauben auf einem Teil der Page Links zu andere Pages, der gleichen Themengruppe einzublenden. Das sind dann Pages, die nach dem erstgenannten Schema für die Listung zahlen. Das kostet nichts, dafür bekommt man sogar was. Ist zwar nur Kleckergram, aber immerhin.
Diese Rechtschreibreform. Ich wusste ja, daß es zu nichts führt

Ich nehme mal an, Du willst, daß Deine Seite bei Google gelistet wird ?
Was, bitte, macht die Frage in einem Kartsportforum ?
Aber egal, Du sollst ja nicht dumm sterben:
Da gibt es zwei Arten.
Die erste kostet was. Da musst Du dich bei Google anmelden, gibst die Wörter an, bei denen Google Deine Seite anzeigen soll und schon findest Du dich beim Suchergebnis zu diesem Stichwort auf der rechten Seite. Davon lebt Google

Die zweite ist kostenlos.
Google schickt regelmäßig einen Roboter (Crawler) durchs Internet. Dieser klappert alle Links, die auf einer Seite zu finden sind ab, und speichert über die besuchten Seiten wichtige Schlüsselbegriffe ab. Google wertet das dann aus und ordnet die Seiten nach Relevanz. Dabei werden ein paar Maßstäbe gesetzt. Ist zum Beispiel eine Seite oft verlinkt, oder wird sie oft besucht, ist sie für Google "wichtig" und erscheint auf der Liste sehr weit oben. Auch wenn der gesuchte Schlüsselbegriff schon in der Titelleiste erscheint, ordnet Google die Seite als wichtig ein. Dazu wird auch noch ausgewertet wie oft der Schlüsselbegriff auf der Seite auftaucht. Je öfter, desto wichtiger. Ganz schlimm sind in diesem Zusammenhang Seiten mit Frames, Datenbanken oder Flash-Seiten. Wo kein Link, da kann der Crawler auch nicht weiter und wertet möglicherweise nur die Startseite aus. Darüber hinaus sollte man dem Crawler in den Meta-Tag's im Code möglichst viele Schlüsselbegriffe hinlegen.....
Für die ganzen Roboter (aber nicht nur für die) sollte man auch im Stammverzeichnis der Page eine robots.txt ablegen. Da kann man über simple Befehle den Crawlern Weisungen erteilen. Z.B. Teile der Page von der Auswertung ausschließen und mehr...
Der Tricks gibt es viele

Das, was der Tobi meint, ist was anderes.....Da kann man Google erlauben auf einem Teil der Page Links zu andere Pages, der gleichen Themengruppe einzublenden. Das sind dann Pages, die nach dem erstgenannten Schema für die Listung zahlen. Das kostet nichts, dafür bekommt man sogar was. Ist zwar nur Kleckergram, aber immerhin.