Sacht ma, ihr lieben internet- und technikaffinen Menschen. Wieso wird mein Blog von Suchmaschinen so gewissenhaft ignoriert? Durchschnittlich zwei Suchanfragen am Tag und die immer nur zu dem Wort „nuf“. Kann mir das mal jemand erklären?
Sacht ma, ihr lieben internet- und technikaffinen Menschen. Wieso wird mein Blog von Suchmaschinen so gewissenhaft ignoriert? Durchschnittlich zwei Suchanfragen am Tag und die immer nur zu dem Wort „nuf“. Kann mir das mal jemand erklären?
Metatags sind absolut unwichtig… interessant sind eingehende Links. Also weiter so nette Geschichtchen schreiben, brav andere Blogs kommentieren und auf viele Verlinkungen hoffen. Wenn mich jemand dran erinnert, werde ich Dich nach Feierabend mal in meine Linkliste aufnehmen!
Grüße aus Köln, der Arzt.
Neue Seiten (und hier unter der Domain ist das ja noch neu) haben auch das Problem, dass Google zur Zeit eine Sandbox hat. D.h. neue Seiten werden erstmal ein paar Wochen eingesperrt, bevor sie überhaupt in den Gesamtindex übernommen werden. Das macht Google, um Linkfarmen ein kleines bißchen was entgegenzusetzen.
Das gibt sich aber irgendwann, und wenn der Google-Bot auch mal was öfter vorbeikommt, dann kommen auch die Suchergebnisse wieder. Und für das Link-Karma setz ich dich mal in meine Blogroll (wollte ich eh schon länger), ein kleines bißchen hilft das dann bestimmt auch.
Eine gewaltige Hilfe ist, wenn man weiß, wie das Internet funktioniert, das Kommentieren (und dabei das Hinterlassen der eigenen URL). Damit finden nicht nur Suchmaschinen auf fremden Seiten den Link zu Dir und die Sache explodiert nahezu.
Das ist anfangs ein wenig Schreibarbeit, doch es lohnt sich in jedem Falle!
Spam incl. *g*
Den robots.txt nicht löschen, der ist schon richtig so, das kann man auch unter http://www.robotstxt.org/wc/exclusion.html nachlesen. MetaTags sind eine gute Idee, ansonsten hilft auch ein Blick auf http://www.google.at/addurl/?hl=de&continue=/addurl und http://www.google.at/support/webmasters/ und natrülich auch auf anderen Suchmaschinen. Ziemlich viele Amateure unterwegs was SEO betrifft.
Bud:Wenn wir schon am verhandeln sind. Gegen einen festen Platz auf der Blogroll bekommen Sie das PW. He, he.
ich habe es ja gesagt. es gibt ein paar themen da scheiden sich die geister. thema nummer eins ist wohl „windows oder mac“ und thema zwei dieses.
meiner meinung nach, sieht es momentan gut aus wie es ist, nicht nur der code sondern auch die robots.txt
das einzige was ich noch ändern würde, wäre wirklich der www-suffix.
für den fall das sie wissen wollen, was in die .htaccess datei hineingehört um das mit dem suffix in den griff zu kriegen, haben sie ja meine adresse.
und ab jetzt ist von meiner seite aus funkstille zu dem thema. zumindest hier in den kommentaren :-)
Alle bisherigen Antworten sind falsch. Alle. Ich kenne die richtigen. Verrate Sie aber nur gegen Nennung des Passwortes für den vorherigen Eintrag.
Farlion, sorry, hab mich falsch ausgedrückt. Natürlich sind ein paar Meta-Tags sinnvoll (der Description-Tag zB) oder, wenn man was bestimmtes will (noindex, noarchive etc.), sogar nötig.
Mit den meisten macht man sich aber meiner Ansicht nach nur unnötiges Gefussel. Der Aufwand, der zum Teil zB mit Keywords betrieben wird, steht doch in einem recht unklaren Verhältnis zum Nutzen ;-)
Chris: Och nöööö. Erst meckern 50.000 Leute dass es nicht geht und jetzt gehts und dann ist es auch nicht gut?
Kann das sein, dass es keine Regeln und nur Vorlieben gibt?
hmpf
@bov
Da liegst Du leicht daneben. Gerade in einigen Sumas werden meta-tags wie (Desription) immer noch indiziert und auch angezeigt. So gesehen nicht wirklich sinnlos.
Die Änderung von Disallow: / (heute vormittag) in Disallow: /wp-admin (jetzt) müsste eigentlich reichen. Der Rest passiert von allein.
Meta-Tags sind hauptsächlich zur Belustigung von Quelltextguckern, ansonsten haben sie nach meiner Erfahrung praktisch keine Wirkung.
Und wenn du es ganz ausführlich brauchst: Ein Leitfaden zum Thema „Gefunden werden im Internet“. Leitfaden“
Gind das so?
da wir gerade schon bei der suchmaschinenoptimierung angekommen sind:
es ist nicht gut, dass man sowohl http://dasnuf.de und http://www.dasnuf.de eintippen kann. das führt zu doppeltem content.
das problem hatte ich auch mal. lässt sich aber einfach mit hilfe einer htaccess datei umgehen. habe in meinem blog sogar noch den code dafür.
Die robots.txt NICHT löschen, liebes nuf. Die Sperrt nämlich nur das Googlen des Logins, mehr nicht. Alles andere wird gegoogelt. Und du wurdest auch schon von paar Suchmaschinen besucht. Logs gibts heute Abend … Gruß, esemka
PS: http://dasnuf.de geht ;-)
Und wenn Du dann noch die Möglichkeit erhältst, für jeden Artikel bzw. jede Seite eine gesonderte kurze Beschreibung (meta-Tag „description“) einzugeben, dann wird zumindest Google das honorieren. Bei denen werden die keyword nämlich kaum noch gewichtet, wenn ich mich recht erinnere.
Einen richtigen „Schalter“ gibt es nicht. Aber bei WordPress kann man in der Admin-Oberfläche unter Verwalten – Dateien die robos.txt bearbeiten.
Unten bie „Andere Dateien“ ‚robots.txt‘ eintippen und dann was sinnvolles eingeben. (Bei SelfHTML gibts gute Infos zur robots.txt: http://de.selfhtml.org/diverses/robots.htm)
Sinnvoll wäre z.B.
User-Agent: *
Disallow: /wp-admin
Du willst ja nicht das Google&Co das Verzeichnis mit den Admin-Datein durchsucht. Denk ich jetzt mal.
Sollte das nicht klappen, dann kann es daran liegen das die Datei robots.txt schreibgeschützt ist. In diesem Fall müsstest du mit einem FTP-Programm entsprechende Schreibrechte vergeben.
Bestimmt so ein fieser Schalter irgendwo. Bah!
Hm, wo der robots.txt herkommt, weiß ich auch nicht….
Die robots.txt musst Du natürlich löschen, aber das mit dem „revisit-after“ kannst Du Dir auch sparen. Das ist sozusagen eine „urban internet legend“ und wird von den Bots ignoriert.
Und den Metatag „robots=all“ kannst du gleich mitlöschen – das ist nämlich sowieso das Standardverhalten der Bots (= alle Seiten besuchen und indexieren).
Der Robots-Tag ist eigentlich ein „robots exclusion tag“ – d.h. die Verwendung auf Deiner Seite ist womöglich sogar kontraproduktiv
Aber die anderen Metatags mit sinnvollen Informationen ausbauen ist auf jeden Fall ne gute Idee.
bov: Das ist interessant. Gibts da irgendwo so nen Schalter „jetzt nich mehr“? Hab ich das eingerichtet? Seltsam.
Danke aber für die Hinweise …
meta name=“description“ content=“Beschreibungstext“
meta name=“keywords“ content=“Schlüsselwörter“
meta name=“robots“ content=“index,follow“
meta name=“revisit-after“ content=“1 day“
meta http-equiv=“language“ content=“de“
meta name=“author“ content=“Das Nuf“
meta http-equiv=“content-type“ content=“text/html; charset=iso-8859-1″
(Sorry, er mochte natürlich keine eckigen Klammern.)
Da mir langweilig ist…
Diese MetaTags würde ich definitv verwenden.
Moinmoin !
Ich hab das gegenteilige Problem: Im von mir initiierten Elternforum eltern.problemlos.ch schauen nur Suchmaschinen vorbei – dafür keine Nutzer. Jetzt sag mir mal, was besser ist.
Rico, traurig.
Der Beitrag über mir hört sich schonmal gut an.
Für zusätzliche Infos können Sie ja auch mal hier vorbeischauen: http://www.abakus-internet-marketing.de/foren
Dort findet man eigentlich alle wichtigen Informationen die man so braucht.
Aaaalso, liebes Nuf, zunächst solltest Du Deine meta-tags etwas ausbauen:
Also in den Keywords nicht nur blog, blogger, log und solche Dinge stehen haben.
Dann setzt Du mal einen Sprachtag in die metas (meta name=“language“ content=“de“) und zu guter letzt nutzt Du die macht schlechthin und stellst sicher, dass Deine Seite von den Suchmaschinen auch jeden Tag besucht wird. Das geht mit: (meta name=“revisit-after“ content=“1 day“), andernfalls schauen die nämlich nur vorbei, wann es ihnen gerade passt.
Dann zurücklehnen, 2-3 Wochen warten und schon sollte sich die Sache verbessert haben.
Die Suchmaschinen ignorieren Dich, weil Du es Ihnen selbst vorschreibst:
http://www.dasnuf.de/robots.txt
Keine Kommentare bis jetzt.