Helmut Wuensch
2010-01-26 12:30:49 UTC
Ein Hallo an Alle!
Ich habe mir gerade ein Log-file
des Datenverkehrs unserer HP ange-
schaut und die Anfrage
"GET / HTTP/1.1" und
"GET /robots.txt HTTP/1.1" (/1.0)
gefunden.
Und da ich hier viele Fachfrauen/männer
vermute, entschuldige ich mich schon
'mal für meine für Euch sicher trivialen
Fragen, bitte Euch aber trotzdem um
Beantwortung. :-)
Frage 1:
Was macht die 1. Zeile?
Ich vermute, da wird die index.htm(l)
angefordert! ... und evtl. mit Java-
Script Version 1.1 ausgeführt?
Frage 2:
In der 2. Zeile holt sich die Such-
maschine die angegebene Datei. Damit
kann ich ihr dann sagen, was sie
nicht darf. 'Google' sagte dazu:
" ...
Die Syntax für die Datei robots.txt ist sehr
einfach und ihr Inhalt sieht in der Regel
wie folgt aus:
* User-agent: *
* Disallow: /cgi-bin/
* Disallow: /kundendaten/
In diesem Fall werden zwei Verzeichnisse
von der Indizierung ausgenommen. ...
... "
Dies ist eigentlich klar! (... Bis auf die
Sterne am Anfang: Meiner Vermutung nach
gehören die schon hin, oder?)
Nun aber zur _Hauptfrage_:
Wenn ich html-files und Unterverzeichnisse
habe und dann sage, dass diese NICHT abge-
klopft werden dürfen, weiß dann nicht jede
_unseriöse_ Suchmaschine gerade die Dateien,
die ich eigentlich nicht gescannt haben möchte?
(Wohl die meisten werden sich sicher dranhalten,
aber ....)
Wenn ich deshalb keine Datei/DIR verbiete,
ist deren Name doch unbekannt und deshalb nicht
scannbar! (Oder erhält man trotzdem vom Server
das ganze Verzeichnis aufgelistet?)
[Also ich meine hierbei Dateien, auf die
_kein_ Link von einer anderen html-Seite
zeigt!!]
Schon 'mal vielen DANK für Eure Mühe!
cu Helmut
Ich habe mir gerade ein Log-file
des Datenverkehrs unserer HP ange-
schaut und die Anfrage
"GET / HTTP/1.1" und
"GET /robots.txt HTTP/1.1" (/1.0)
gefunden.
Und da ich hier viele Fachfrauen/männer
vermute, entschuldige ich mich schon
'mal für meine für Euch sicher trivialen
Fragen, bitte Euch aber trotzdem um
Beantwortung. :-)
Frage 1:
Was macht die 1. Zeile?
Ich vermute, da wird die index.htm(l)
angefordert! ... und evtl. mit Java-
Script Version 1.1 ausgeführt?
Frage 2:
In der 2. Zeile holt sich die Such-
maschine die angegebene Datei. Damit
kann ich ihr dann sagen, was sie
nicht darf. 'Google' sagte dazu:
" ...
Die Syntax für die Datei robots.txt ist sehr
einfach und ihr Inhalt sieht in der Regel
wie folgt aus:
* User-agent: *
* Disallow: /cgi-bin/
* Disallow: /kundendaten/
In diesem Fall werden zwei Verzeichnisse
von der Indizierung ausgenommen. ...
... "
Dies ist eigentlich klar! (... Bis auf die
Sterne am Anfang: Meiner Vermutung nach
gehören die schon hin, oder?)
Nun aber zur _Hauptfrage_:
Wenn ich html-files und Unterverzeichnisse
habe und dann sage, dass diese NICHT abge-
klopft werden dürfen, weiß dann nicht jede
_unseriöse_ Suchmaschine gerade die Dateien,
die ich eigentlich nicht gescannt haben möchte?
(Wohl die meisten werden sich sicher dranhalten,
aber ....)
Wenn ich deshalb keine Datei/DIR verbiete,
ist deren Name doch unbekannt und deshalb nicht
scannbar! (Oder erhält man trotzdem vom Server
das ganze Verzeichnis aufgelistet?)
[Also ich meine hierbei Dateien, auf die
_kein_ Link von einer anderen html-Seite
zeigt!!]
Schon 'mal vielen DANK für Eure Mühe!
cu Helmut