Humans.txt - die Datei von Mensch zu Mensch

1297711723|%d.%m.%Y

humans-txt.png Was Webmaster, denen ihr Menschsein am Herzen liegt, neben einer robots.txt noch brauchen.

Obgleich das moderne Web den User immer mehr von der Technik entkoppelt, hat der Mensch mitunter das Bedürfnis, dem Netz gegenüber sein Menschsein zu demonstrieren. Genauer gesagt: anderen Netzbewohnern zu zeigen, dass man immer noch Mensch ist, und keine Maschine. Den datenverarbeitenden Maschinen ist das ja egal. Noch, zumindest.

Der durchschnittliche Web-Content-Produzent von heute weiß in der Regel nicht, was eine Datei namens robots.txt in der Document Root einer Webpräsenz ist. Er weiß nicht einmal, was eine Document Root ist. Und das ist keine Schande. Wer Auto fährt, muss ja auch nicht wissen, wie ein Einspritzmotor im Detail funktioniert. Deshalb kurz zum Hintergrund: Wenn in der Adresszeile des Browsers so etwas wie http://example.com/ steht, dann ist http das Protokoll, example.com der Name der Domain, und das „/“ am Ende steht für das Startverzeichnis dieser Domain. Diesem Web-Verzeichnis entspricht irgendein tatsächliches Verzeichnis im Dateisystem des Rechners, auf den die Domain example.com routet. Welches Verzeichnis, das ist im Webserver konfiguriert, der HTTP-Anfragen für example.com verarbeitet. Im Startverzeichnis liegen Dateien, die dafür sorgen, dass beim Aufruf von http://example.com/ etwas im Browser erscheint. Daneben enthalten viele Web-Startverzeichnisse aber auch noch andere Dateien. Diese Dateien haben meist bestimmte Dateinamen. Die vielleicht bekannteste Datei dieser Art muss den Namen robots.txt haben. Der Dateiname allein sagt ja schon alles über die unmenschliche Natur des Inhalts aus. Er besteht zwar aus lesbarem Text, richtet sich aber ausschließlich an Software, genauer, an die Spider, Crawler oder Robots (bedeutet alles in etwa das Gleiche), die von Suchmaschinen wie Google ausgesendet werden, um Inhalte im Web zu erfassen. In einer robots.txt finden sich typischerweise Passagen wie diese:

User-agent: UniversalRobot/1.0
User-agent: mein-Robot
Disallow: /quellen/dtd/
User-agent: *
Disallow: /unsinn/
Disallow: /temp/
Disallow: /newsticker.shtml

Menschen, die viel mit der Technik hinter dem Web zu tun haben, war es offenbar ein Anliegen, dieser seelenlosen Datei ein menschliches Pendant zur Seite zu stellen: eine humans.txt! Also gründeten sie flugs die Humans-TXT-Initiative, die unter http://humanstxt.org/ ihre Heimat im Web hat. Sie ahnen es schon, nicht wahr? Das „/“ am Ende steht für das Startverzeichnis der Domain humanstxt.org. Und darin befindet sich unter anderem eine Datei namens humans.txt. Nun, machen wir die Probe aufs Exempel, denn in diesem Fall müsste die URL http://humanstxt.org/humans.txt zum Ziel führen. Und tatsächlich, das tut sie!

Wir hätten allerdings auch einfach den Inhalt der Startseite von humanstxt.org lesen können. Dort wird genau beschrieben, was eine humans.txt soll, und es wird sogar eine Möglichkeit beschrieben, eine solche Datei im HTML-Code von Webseiten als zusätzliche Ressource zu verlinken. Bleibt die Frage, an wen sich diese Möglichkeit richtet. An Menschen, die lieber HTML-Quelltexte lesen als die Inhalte, die dadurch ausgezeichnet werden? Oder etwa doch … an Maschinen?

Danke jedenfalls an die Autoren von perun.net, die es wiederum von Frank Bültge haben.

Kommentare

Neuen Kommentar hinzufügen
oder Anmelden als Wikidot User
(wird nicht veröffentlicht)
- +
Sofern nicht anders angegeben, steht der Inhalt dieser Seite unter Lizenz Creative Commons Attribution-ShareAlike 3.0 License