[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: Überlegungen zum Bertelsmann-Memorandum und PICS



On Thu, Sep 30, 1999 at 07:52:49PM +0200, Gert Doering wrote:
> On Thu, Sep 30, 1999 at 02:21:44PM +0200, Helmut Springer wrote:
[...]
> > Das nach angeschlossenen Einheiten groesste, prinzipiell offene
> > ip-basierte Netz zur globalen Kommunikation?  Was u.U. das
> > Definitionsproblem auf 'Einheiten' verschiebt, das muesste man
> > ausformulieren.
> 
> Insbesondere verschiebt es das Definitionsproblem zu "prinzipiell
> offen"...

Genau da liegt der Haken. Gemessen am genutzten IP-Adressenraum, i.S. von
real existierenden und online seienden Rechnern, ist "das Internet" ein
sehr geschlossener Raum. Wenn vielleicht 80% aller Rechner Clients auf
PC- oder Mac-Basis sind, dann laesst sich leicht abschaetzen, wie hoch
etwa der Erreichbarkeitsanteil ueber telnet/ftp/news/smtp (offizielle
Protokolle lt. RFC) ist. Selbst wenn man unrealistischerweise annaehmen
wuerde, dass jeder dieser Clients einen eigenen telnet/ftp etc. daemon 
haette, dann bleibt nach wie vor, dass die weitaus meisten Rechner sich
mittlerweile aus guten Gruenden hinter Firewalls in Intranetzen verbergen.
Ich rechne den Anteil solcher nicht offener Hosts (d.h. vielleicht zwar
mit der Moeglichkeit, sich nach aussen verbinden zu koennen, aber nicht
von aussen erreichbar sind (Rueckkanal einer bidirektionalen Verbindung wie bei
FTP ausgenommen), im Ganzen auf 85% oder mehr. Das heisst, die mehreren
100 Millionen Webpages liegen auf hoechstens 15% der Rechner/Server. Bei
einzelnen Firmen mag der Anteil noch extremer sein: eine Zahl aus der
GMD: ca. 3000 Hosts, davon offiziell als Web/DNS/Mail/FTP-Server erreichbar
ein paar Dutzend, vielleicht 1-2% (alle anderen koennen freilich trotzdem
direkt froehlich surfen, ohne ueber Proxies gehen zu muessen).

Wenn laienhaft vom "offenen Internet" die Rede ist, dann kann man typischerweise
lediglich die paar 100 Millionen zugaenglichen Webseiten (es gibt auch in
Intranetzen noch massenhaft Server und WWW-Pages, an die man von aussen normal
nur mit Hacken oder durch Fehlkonfiguration der Firewalls drankommt), aber 
ganz bestimmt nicht den Rundumschlag "alles, was in RFC steht". Diese Forderung
ist illusorisch; darueber hinaus sind die Zeiten aus Hacker-Hollywoodfirmen
laengst vorueber, wo sich Hacker-Wizkids mit 2400bps-Modem mal eben in
"den Geheimdienstcomputer" eindialen koennen oder auch wollen. Ich schaetze
ebenfalls, dass ebenfalls 90% aller heutigen Internetuser noch nie jemals 
ueberhaupt telnet oder ftp direkt verwendet haben (ftp://xxx als Link zaehlt
dabei nicht), selbst wenn massenhaft Software "downgeloadet" wird.

Soviel zum Versuch der Begriffsbestimmung.

> Ist ein Webserver mit ipfw-Regeln darauf noch "prinzipiell offen"?  Ist
> es ein Webserver-Netz hinter einer Cisco mit Paketfilter-Regeln, die
> (z.B.) "telnet" verbieten, aber alles andere erlauben?

Nach obiger Definition: "das Internet sind die klickbaren Seiten" ja. Du siehst
als Anwender nicht mehr (wer kennt schon Traceroute?), wie die Pakete im
Netz geroutet werden oder wo Deine WWW-Page herkommt, die Du angeklickt
hast, und es interessiert auch keinen Anwender. Erst wenn ein Error 404
auftritt, stellt er die Frage nach der Erreichbarkeit.

> > >  * "ohne weitere Einschraenkungen".  Wie ist das mit einer Firewall
> > >    bei einem anderen Internet-Teilnehmer?  Ist der Bereich hinter
> > Einschraenkungen seitens anderer bzgl. deren Erreichbarkeit koennen
> > schlecht dem eigenen ISP angelastet werden.
> 
> Ja, klar, aber wo ist die Grenze?  Ab wann ist es das Problem des 
> lokalen ISPs, wenn ein anderes Netz nicht erreichbar ist (wg. aktiven
> Filtern, fehlenden Peering-Vertraegen auf Ebene dieses ISPs oder 
> seiner "upstreams", Fehlkonfigurationen)?

Wenn der ISP nicht boeswillig oder vorauseilend filtert, dann kann er
sinnvollerweise keine Verantwortung darueber uebernehmen, ob irgendwo anders
jenseits seiner Modems oder Router auch nur irgendwas erreichbar ist.
Er kann einfach nicht mehr tun, als er bereits tut (vielleicht noch beim
Upstream anrufen, was los ist, aber das tut er eh bereits im Stoerungsfall).

Die Schwierigkeit liegt lediglich im Nachweis, dass er nicht filtert. Da ist
einerseits Transparenz seitens des ISP gefordert, andererseits aber auch
Verzicht auf unrealistische Forderungen der User nach "ich will RFC.all, aber
eigentlich will ich nur ueberall rumklicken koennen". Um beim letzteren stellt
sich noch die Frage danach, wieviel der User bereit ist, fuer die Leistung
zu zahlen.

Holger

-- 
Signature fault - code dumbed