Der Traum von den bidirektionalen Links

10 Dec 2009 21:13

Eines der wichtigsten Merkmale des Web ist es, dass Hyperlinks darin unidirektional sind. Das bedeutet: wenn jemand in Inhalt A einen Link auf Inhalt B setzt, dann gibt es einen Link von A nach B, aber nicht von B nach A. User, die auf Webseite A landen, können dank des darin enthaltenen Links leicht zu Webseite B finden, doch User, die zuerst auf Webseite B landen, finden nicht ohne weiteres nach A, weil es in dieser Richtung keinen Link gibt. Das hat völlig andere Konsequenzen, als wenn alle Links automatisch bidirektional wären.

Wenn es nach Ted Nelson gehen würde, hätten wir heute ebenfalls ein weltweites Hypertextsystem, das sich aber in einigen wesentlichen Punkten vom World Wide Web unterscheiden würde. Unter anderem dadurch, dass Links darin bidirektional wären. Lassen wir mal technische Aspekte wie die erforderliche Schreibberechtigung für Rückverweise auf verlinkten Servern beiseite und sinnen ein wenig nach, welche sozialen Konsequenzen eine konsequente, automatische Bidirektionalität zumindest bei Links zu fremden Websites hätte.

Würde ein unbekannter Blogger einen Link zu einem viel beachteten Artikel auf SPIEGEL Online setzen, so würde von dem vielbeachteten Artikel auch ein Rückverweis zu dem unbekannten Blogger führen. Das klingt fantastisch, denn so könnte der unbekannte Blogger ohne viel Aufwand von der Bekanntheit des Online-Magazins profitieren. In der Praxis würde die Rechnung allerdings nicht aufgehen. Denn natürlich würden alle anderen unbekannten Blogger in den gleichen Genuss kommen wollen und ebenfalls auf den viel beachteten Magazin-Artikel verlinken. Dort würde eine immer weiter anwachsende Liste an Rückverweisen entstehen, die wahrscheinlich kein Leser mehr ernst nehmen würde. Der Mehrwert-Effekt wäre dahin, und es gäbe eine Unzahl von Links, die kaum inhaltlich motiviert wären, sondern allein durch den Wunsch nach Aufmerksamkeit. Was also im interesselosen, rein wissenschaftlichen Kontext, den Ted Nelson wohl ursprünglich im Sinn hatte, funktionieren mag, würde auf dem Jahrmarkt der Eitelkeiten, also im massentauglichen Web, keine wirklichen Vorteile bringen.

Dennoch wird es immer wieder versucht. Zum Beispiel mit Hilfe der sogenannten Pingbacks. Pingbacks kommen innerhalb der Blogosphäre häufig zum Einsatz. Setzt Blogger A in seinem Artikel A1 einen Link auf Artikel B2 von Blogger B, so sendet die pingback-fähige Blogsoftware von Blogger A via HTTP automatisch eine XML-RPC-kodierte Nachricht, einen sogenannten Blog-Ping, an den Webserver von Blogger B, wo dessen Blog-Software die Nachricht verarbeitet und unterhalb des Artikels B2 als Rückverweis zum Artikel A1 von Blogger A einfügt.

Pingbacks sind eine wunderbare Einrichtung, solange ganz normale Blog-Artikel ganz normale, thematisch passende oder ergänzende Links zu Artikeln anderer Blogs enthalten. Da externe Links auf eigene Inhalte jedoch ein wichtiges Kriterium sind, um in Suchmaschinen besser platziert zu werden, werden Pingbacks häufig auch so generiert, dass sie nur noch als Spam zu bezeichnen sind. Nicht wenige Blogger deaktivieren die automatischen Pingbacks in ihrem Blog, weil diese nur noch als Spamschleudern fungieren. Die Spam-Problematik wird dabei um so größer, je bekannter ein Blog ist. Der Grund ist in diesem Fall, dass Suchmaschinen Links von bekannten fremden Seiten auf eigene Seiten besonders hoch gewichten. Das wurde in der Vergangenheit von vielen No-Content-Blogs genutzt, die eigentlich nur wegen ihrer Werbeeinblendungen existieren. Diese generierten sinnlos Pingbacks auf bekannte Blogs, um so an wertvolle Backlinks zu kommen.

Bidirektionale Links, so lässt sich an dieser Stelle festhalten, sind aus Hypertext-Sicht im Web eigentlich nur dann sinnvoll, wenn beide Parteien der Verknüpfung Webangebote sind, die eine vergleichbar große Aufmerksamkeit genießen, und die sich ausschließlich aus inhaltlich motivierten Gründen verlinken.

Die Betrachtung ist damit aber noch nicht ganz zuende. Denn an dieser Stelle setzt ein Artikel mit dem Titel Die Macht der bidirektionalen Link-Gravitation an. Wer jetzt allerdings gespannt auf neue, wissenschaftlich fundierte SEO-Erkenntnisse hofft, wird enttäuscht sein. Denn der Artikel stammt aus dem Esoterischen SEO Blog, einem „satirisch-esoterischen PSI-Ausflug in die Welt der Suchmaschinenoptimierung“.

Dennoch kein Grund, den Gedanken der bidirektionalen Link-Gravitation nicht zumindest mal im Kopf zergehen zu lassen. Im Modell dieser Theorie gibt es sogenannte Trust-Sites. Das sind bekannte Webangebote mit richtig hohen Userzahlen. Unter anderem sind diese Webangebote deshalb so bekannt, weil es sehr viele freiwillige Links dorthin gibt. Die bekannte Website wird, so das Modell, zu einer Art Trust-Center, zu einem vertrauenswerten und vertrauten Zentrum. Um es herum entsteht eine Art Sphäre des Vertrauens. Websites, die auf die bekannte Website verlinken, begeben sich in die gleiche Sphäre des Vertrauens. Und, so die aufgestellte Theorie, davon profitieren sie! Zitat: „die anderen Websites, welche bereits um die Trustsite im Trust-Ring ihre Bahnen ziehen, strahlen über die im Zentrum liegende Trustsite ihre thematische Power auf unsere Seite ab.“

Das ist zweifellos der Moment, in dem der PSI-Factor allen rechtschaffenenen Verstandesmenschen so zusetzt, dass sie kopfschüttelnd aussteigen. Und eines ist gewiss: es ist kaum möglich, dieses Gedankenkonstrukt empirisch zu verifizieren, geschweige denn, es im Sinne strenger Wissenschaft mit Falsifizierungsversuchen zu befeuern. Dennoch sagt meine Erfahrung, dass die Theorie nicht völlig gaga ist. Dank des SELFHTML-Projekts hatte ich einmal die Chance, Beobachtungen aus Sicht einer Trust-Site zu machen. Es gibt wahrscheinlich keinen Google-Algorithmus, der Sites, die gemeinsam haben, dass sie auf eine Trust-Site verlinken, irgendwie im Ranking einander angleicht und tendenziell erhöht. Doch es gibt Menschen, die kommunizieren. Ich konnte oft genug beobachten, wie sich Web-Anbieter, die zunächst nur eines gemeinsam hatten, nämlich dass sie sich SELFHTML verbunden fühlten, eben deshalb kennen und schätzen lernten. Das führte natürlich auch zu Verlinkungen zwischen diesen Anbietern. Es entstand also so etwas wie eine durch die Trust-Site ermöglichte Linkverdichtung zwischen Sites, die sich im Bannkreis der Trust-Site befanden. Genau das Gleiche spielt sich heute wohl auch in der Blogosphäre im Bannkreis rund um Top-Blogs wie Netzpolitik oder Spreeblick ab.

Es funktioniert aber nicht bei Sites wie EBay oder Amazon. Nicht, weil diese zu groß sind, sondern weil jeder weiß oder spürt, dass diese Sites ausschließlich aus generierten dynamischen Inhalten bestehen, ohne Menschen dahinter, die aktuell ihren Hirnschweiß vergießen, um bestimmte Ziele zu erreichen oder etwas zu bewirken. Es funktioniert nur dann, wenn die Trust-Site und ihre Satelliten-Sites eine Art Site-Community mit „gemeinsam gefühlten“ Visionen bilden.

Es ist kein Mangel, dass Links im Web unidirektional sind, es ist schlichtweg realitätskonform. Bidirektionalität setzt, um einen echten Mehrwert für alle Beteiligten (also auch die Rezipienten) zu haben, ungefähr gleich große Bedeutung und Wahrnehmung der verlinkten Sites voraus, was im Web meistens nicht der Fall ist. Doch Bidirektionalität bleibt der Wunsch, das Ziel, die Hoffnung, das Ideal. Bidirektionalität ist so etwas wie Link-Kommunismus im marxschen Vollkommenheitsstadium. Es ist ein Traum der gleichen Kategorie wie der, den das Echtzeit-Web in seiner Hoffnung auf zeitgleicher Übereinstimmung träumt, gipfelnd in retweet-bewirkten Flashmobs für einen guten Zweck oder gegen einen offenkundigen Missstand. Es ist nicht so sehr eine Frage der Technik. Es ist eine Frage der Ausbalancierung von Inhalten.

Kommentare

Neuen Kommentar hinzufügen
oder Als Wikidot User anmelden
(wird nicht veröffentlicht)
- +
Sofern nicht anders angegeben, steht der Inhalt dieser Seite unter Lizenz Creative Commons Attribution-ShareAlike 3.0 License