Heute erreichte mich eine Anfrage des neuen Projekts Blogbibliothek, die uns Autoren hier auf der Endlosrekursion bittet einige unserer Artikel dort listen zu lassen. Es gäbe schon einige Empfehlungen unserer Texte. Die Blogbibliothek hat sich zum Auftrag gemacht, die besten Blogtexte im deutschsprachigen Raum zu sammeln. Ohne kommerzielle Ansprüche und mit dem Ziel die Textperlen der kleineren Blog einem größeren Publikum zu präsentieren.

Ich habe mich wirklich gefreut, dass diese Wahl der Blogperlen auch die Endlosrekursion getroffen hat und halte überhauptd as Projekt von Kurt Steuble, Roman Hanhart und Caro Nadler für ein sinnvolles. Aber die Art und Weise der Umsetzung des Projekts birgt einige Probleme, die ich in diesem Artikel gerne darstellen möchte und hoffe, so zu einem sinnvollen gelingen der Blogbibliothek beitragen zu können. Denn unter gegebenen Umständen würde ich meine Artikel nicht freigeben und auch niemandem empfehlen diese freizugeben.

Alles fängt an mit der Technik. Ich versuche mich, wie sicherlich einige aus leidvollen Gesprächen schon wissen, als Suchmaschinenoptimierer. Ein solcher versucht seine Internetprojekte so gut es geht für Suchmschinen wie Google aufzubereiten, dass diese möglichst gute Rankings, also Plätze in den Suchergebnissen, erreichen. Und genau daher rührt auch mein Einwand.

Es ist ein alter Hut in der Suchmaschinenoptimierung, dass Google nur eine Seite im Index führt, wenn zwei Seiten mit dem selben Inhalt aufzufinden sind. Ganz sicher, welche Seite Google listet, kann man sich nie sein, Google wartet da durchaus ab und an mit Überraschungen auf. Im großen und ganzen kann man aber sicher sagen, dass die Seite, die „stärker“ ist, den Inhalt in den Index drücken wird.

Nun ist allerdings aufgrund der wirklich guten Idee von der Blogbibliothek zu erwarten, dass diese eine starke Seite sein wird. Blogger berichten und Linken. Links sind das wichtigste Kriterium für die Stärke einer Seite. DIe Blogbibliothek wird also stärker sein, als die meisten Blogs, aus denen sie Beiträge vorstellt.

Nun ist es nicht besonders tragisch, wenn ein Beitrag eben nicht mehr auf dem eigenen Blog, sondern bei der Blogbibliothek gefunden wird, weil diese jetzt mit dem Artikel im index ist. Denn darum geht es ja. Blogger zu unterstützen, die zwar gute Texte schreiben, aber aus vielerlei Gründen keinen starken Blog ahben und deshalb nur wenig Leser erreichen.

Allerdings kann die doppelte Inhalt für kleinere Blogs wirklich bedrohlich werden und mit etwas Pech zum Komplettausschluss von Google führen. Das ist zwar sicher der sprichwörtlich an die Wand gemalte Teufel und doch sehr unrealistisch, aber dennoch, helfen wird es den Blogs sicherlich nicht, es sei denn sie sind stärker als die Blogbibliothek.

Nun könnte man anmerken, dass man sich doch nicht von Google diktieren lassen sollte, wie man seine Projekte plant und durchführt. Allerdings ist Google der zuverlässigste Beschaffer von Lesern, wenn man wenigsten ein paar Links auf seine Seite gerichtet hat. Und diese Leser zu verlieren wird schwerer wiegen, als die Freude der Anerkennung durch die Aufnahme bei der Blogbibliothek.

Vor allem, weil all dieses durcheinander gar nicht sein muss. Google und alle mir bekannten anderen Suchmaschinen bieten eine Möglichkeit an, eben mit diesen doppelten Inhalten umzugehen. Es gibt die Möglichkeit Seiten direkt aus dem Index auszuschließen. Google ignoriert diese Seiten einfach, bzw. folgt, so gewünscht und angezeigt noch den Links aufd er Seite. Und genau das wäre ein Modell für die Blogbibliothek. Alle Übersichts-, Quellen- und Autorenseiten lässt man im Index und die Artikelseiten schließt man einfach aus. Das kann man über das Metatag „robots“ mit „noindex,nofollow“ wunderbar implementieren.

Das Projekt gewinnt, weil es seine sinnvolle Aufgabe voll wahrnehmen kann und die besten Texte aller deutschsprachigen Blog sammeln kann und so die Autoren dieser Texte unterstützen kann, ohne diese um ihre potentiellen Leser von Suchmaschinen zu bringen. Die Autoren gewinnen, weil sie neue Leser einerseits durch die Blogbibliothek direkt gewinnen und andererseits durch die Verlinkung der Blogbibliothek indirekt mehr Leser auf ihr Blog gebracht werden.

Ich hoffe, dieser Anstoß bringt euch weiter, denn ich würde euch sehr gerne erlaube einige meiner Texte in die Bibliothek aufzunehmen und das gesamte Projekt wachsen zu sehen.

Kommentare

Eine Blogbibliothek. Warum nicht. Man sammelt doch auch Bücher und stellt diese in eine Bibliothek, warum sollte man nicht auch die Werke, die im Netz veröffentlicht werden sammeln. Die Idee ist glaube ich gar nicht so schlecht, aber ich glaube, dass die Umsetzung doch noch schwierig wird. Da ich mir nicht sicher bin, wie man auswählen sollte, was dort hineingehört und was nicht, denn alles möchte man dort sicherlich nicht haben. Da verliert man dann viel zu schnell den Überblick und das Niveau kann auch nicht gewahrt werden.

Also ich bin mir nicht sicher Wowik, aber ich glaube, dass die betreffenden Personen auf einen zukommen, wenn sie Beiträge haben wollen. Aber ich denke, dass sehr viele Beiträge für die Bibliothek genommen werden. Dennoch sollten diese natürlich inhaltlich wirklich auch was bieten können. Ich würde dir empfehlen, dass du einfach mal über Google schaust ob du was findest. Vielleicht hast du ja auch eine Chance, dass deine eigenen Beiträge in die Bibliothek kommen. Und wirst dann für immer dort verewigt.

Ich finde, man muss sich auch mal von der SEO-Denke frei machen können! Es ist ja kein furchtbares Unglück, wenn dereinst (wenn die Blogbibliothek hoffentlich groß, stark und bekannt ist) mal ein eigener Artikel DORT gefunden wird anstatt auf dem eigenen Blog. Na und?

Geht davon die Welt unter? Es ist ja immer noch der eigene Artikel, versehen mit Links zum eigenen Blog, also zur Originalquelle. Über den Venetzungseffekt kommen im übrigen auch mehr Surfer: Seit ein Artikel von mir in der Bibliothek ist, bemerke ich bestimmt so 10 neue Leser pro Tag, die im übrigen auch recht Kommentierfreudig sind – ein echter Gewinn!

Wenn Google die „stärkere Version“ zuerst anzeigt, ist das im Übrigen kein „Ausschluss“, keine irgendwie geartete Bestrafung oder Abwertung, sondern einfach eine Prioritätensetzung im Sinne der Surfer.

Ich würde dir sogar Recht geben, was deinen Blog angeht, was die Endlosrekursion und was meine Blogs angeht. Wir würden sicherlich keinerlei Probleme bekommen, sind die Projekte doch schon alt genug und auch „stark“ genug. Aber was ist mit dem kleinen Blogger, der tolle Artikel schreibt, aber nicht so besonders vernetzt ist. Was sagst du ihm,w enn er auf einmal komplett aus dem Index fliegt, weil er von der Blogbibliothek „gefördert“ wurde.

Ich denke, dass die technische Lösung, die wir jetzt gefunden haben, allen hilft und eben da fördert, wo gefördert werden soll. Weder deine, noch meine Projekte müssen unbedingt gefördert werden, aber ich habe das Projekt auch so verstanden, dass eben den Blogautoren eine Bühne gegeben wird, die nicht so vernetzt sind.

Ich hätte auch das Wort SEO weglassen können, weil es scheinbar in manchen Kreisen allzu negativ konuntiert ist, aber ich habe es nicht getan, weil ich glaube, dass SEO eben bei der Verwirklichung von Ideen im Netz helfen kann, als Teil einer Idee. Strukturen sind eben im Netz nicht, oder nicht mehr, allein auf Empfehlungen und Verlinkungen von Seiten untereinander ausgelegt, auch wenn sie weiterhin die Grundlage dazu sind. Google nutzt dies, um uns allen die Navigation im Netz zu erleichtern. Darüber sind wir wohl alle froh und ich verstehe SEO eben als eine Anpassung an diese Strukturen. Seiten werden nicht künstlich gepusht, sondern so aufbereitet, dass sie den Nutzen, den sie haben maximieren, indem sie sich einem möglichst breiten Publikum präsentieren. Dieses Publikum kommt eben über Google und Google stellt gewisse Ansprüche an den Verweis des suchenden Publikums.

Und diese Ansprüche sind gar nicht mal unverschämt hart. Zwei Mal das selbe Ergebniss will niemand finden, wenne r sucht, kann amn doch verstehen, aus Suchmaschinensicht, die versucht die Sicht des Suchenden einzunehmen. Einen Schritt weiter zu gehen und eben zu verhindern, dass man zwei Mal den selben Text im internet hat, das ist dann schon SEO, aber was daran ist schlecht?

Sicher kann SEO auch zu reinen Spammen benutzt werden, wie wohl jede Technik missbraucht werden kann. Aber zu verhindern, dass der Suchende, der wir eben auch selbt sind, schlechte Ergebnisse bekommt, das kann die Technik eben auch. Mit den beschränkten Möglichkeiten, die Google eben zu Verfügung stehen. Ein Beispiel haben ich mal im Artikel „Seo ist keim Spam“ aufgezeigt.

Hier sollen die Blogs und Autoren gefördert werden. Wenn ihre Blogs nicht mehr ausfindbar sind, wüsste ich nicht, inwiefern dieses Ziel erreicht wurde. Die Blogbibliothek wird ihre Besucher haben, weil es die Autoren wissen, die idee zu kommunizieren. Sie brauchen Google nur bedingt, weil wir Blogger drüber schreiben. So ist dann allen geholfen. Und das war doch das Ziel, oder?

Hi Soeren, ich hab gar nix gegen SEO, schließlich wollen gute Inhalte auch gefunden werden.
„Komplett aus dem Index“ zu fallen, würde wohl aber niemandem drohen: es gibt auf den allermeisten Blogs ja zum Glück mehr als nur EINEN Artikel! 🙂

Deine technische Lösung hat den Nachteil, dass die Backlinks auf den Texten in der Bibliothek keine Linkpower mehr weiter geben – auch das wär mir bezüglich der eigenen Artikel egal, was aber nicht für alle Autoren gelten mag. Ein „ordentlicher“ Backlink ohne nofollow gilt vielen als eine Art Bezahlungsersatz für die Überlassung des Contents.

Stimmt nicht Claudia! Der Artikel in der Blogbibliothek ist auf „noindex“ gesetzt und gleichzeitig wird Google ein „follow“ mitgegeben, sodass kein einziger Link nofollow ist, es sei denn er wird händisch so gesetzt. Die komplette Power, die auf den Artikel fließt, kommt ganz normal jedem den verlinkten Seiten zugute. Es wird lediglich der Artikel vom Index ausgeschlossen, sonst läuft alles die gewohnten Bahnen. Google crawlt normal und wertet die Links gemäß des Wertes der auf den Artikel zeigenen Links und ihrer Stellung im Artikel. Es passiert nur eines: der Artikel erscheint nicht im Index.

Und eine Abstrafung muss nicht auf einen Artikel beschränkt bleiben, auch wenn ich das bei 90% der Blogs als Gefahr ausschließen würde.

Ich finde es ein wenig seltsam, in einem Medium, das auf Hyperlinks beruht, Inhalte zu verdoppeln. Reicht nicht eine Vorschau und ein Link auf den Rest im Originalblog?
Davon könnten beide profitieren, und das Problem mit den Suchmaschinen träte gar nicht erst auf.

Im Prinzip gefällt mir die Idee, immer mal kleine Perlen aus dem Netz zu picken, die ich alleine nicht gefunden hätte (habe auch den Feed abonniert), nur die Umsetzung finde ich – auch in der Typographie und dem URL-Design – nicht angemessen.

Schön, den Goodwill heraus zu hören, und schön, dass die Kritik konstruktiv eingebracht wird. Da bei uns Roman der Techniker ist, beschränke ich mich auf die Beantwortung der Frage von
@Thomas Scholz
Das Feed-ähnliche Prinzip angeteaserter Artikel gibt es bereits zahlreich – und ist auch die Grundidee aller Blogverzeichnisse und -Rankings. Hier geht es um etwas anderes: Wir wollen ganz bewusst auch jenen Blogs erschliessen, die sich nicht über mehrere Links erst einen Artikel ersurfen wollen – um dabei von immer wieder veränderten Designs etc. verwirrt zu werden. Nicht vergessen: Wir alle sind Internet-affin, d.h. wir sind uns die Orientierung im Netz gewohnt. Weniger geübte User verlieren daran aber schnell mal die Lust: Wenn sie die Zeitung oder das Buch aufschlagen, steht da auch nicht: Die Geschichte finden Sie auf Seite 51.
Wir wollen die Hemmschwelle abbauen, dass Leute, die Blogs nicht kennen, einfach mal Blogtexte lesen und neugierig werden, bevor sie sich überhaupt mit Blogrolls etc. herumschlagen müssen. Wir fixen die Leute mit Eurem Inhalt an, und schicken sie dann zu Euch, um sich dort weiteren Content zu gönnen.
Und Blogger vernetzen wir, indem wir selbst erleben: Hoppla, auch mal schön, erst einen Text zu lesen und erst dann sich vom Design etc. einer Seite vereinnahmen zu lassen.
Und vielleicht wird so der einzelne Blogger auch wieder mehr zum Leser, der selbst Texte findet und empfiehlt? Denn auch eine gute Empfehlung ist eine Visitenkarte!

Ich habe das Prinzip durchaus verstanden, nur teile ich eben auch das Unbehagen, daß der »duplicate Content« den kleinen Blogs eher schadet als eure Publikation ihm nutzt.
Hättet ihr eine robots.txt und stünde darin …

User-agent: *
Disallow: /single

… dann sähe das anders aus.

Und sonderlich lesefreundlich finde ich die Seite nicht. Die Farben ja, die sind gut. Aber Blocksatz und extrem kleine Schrift? Der Normalleser (nicht User bitte) kann sich dagegen doch gar nicht wehren. Wir »internet-affinen« haben Userstylesheets plus Mindestschriftgröße und bemerken das meistens nicht einmal – sind aber nicht gemeint. Kurz: Ich vermisse die Konsequenz.

@Thomas Scholz:
Blocksatz? Extrem kleine Schrift?
Aalso: Zu Beginn hatten wir kleine Schriften. Die wurden auf Wunsch mehrerer Besucher vergrössert. Jetzt hören wir keine Klagen mehr? Blocksatz? Es mag einzelne Blog-Texte geben, die im Blocksatz geschrieben werden – und im Kopiermodus kann das mal übernommen und nicht korrigiert werden: Bitte beachten: Eine Optimierungsbehörde sind wir nur im Rahmen eines Gesamtkonzeptes. Aber auch unsere Ressourcen an Zeit, Energie und individueller Bearbeitung sind beschränkt.
Was ich als Nicht-Google-Techniker nicht so ganz verstehe: Wäre als kleiner Blogger nicht auch zu fragen:
Was ist besser? Mit einem einigermassen alltäglichen Suchwort mit dem eigenen Text am Erstveröffentlichungsort an Position 78 zu erscheinen – oder mit der Zweitveröffentlichung auf der Blogbibliothek auf Position 8?
Aber wie gesagt, ich verstehe zu wenig davon – und ich denke, das Problem ist für den Moment in sehr passabler Form gelöst. Übrigens ist es eines der Ziele, den Bloggern zusätzlichen Ansporn zur Inhaltspflege zu schenken – und das liegt ja dann auf einer ganz anderen Ebene.
Jedes Angebot des Web ist darüber hinaus nur ein Angebot. Es muss nicht angenommen werden.