[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: [horns@t-online.de: Re: [MEMBERS] [leitner@convergence.de: Re: Zensur Feldversuch durch TCPIP.de Berlin?]]
- To: debate@fitug.de
- Subject: Re: [horns@t-online.de: Re: [MEMBERS] [leitner@convergence.de: Re: Zensur Feldversuch durch TCPIP.de Berlin?]]
- From: Florian Weimer <fw@deneb.cygnus.argh.org>
- Date: 22 Mar 2000 18:16:18 +0100
- Comment: This message comes from the debate mailing list.
- In-Reply-To: Martin Schröder's message of "Wed, 22 Mar 2000 12:49:16 +0100"
- References: <20000321170127.J11120@minos.trend.jena.thur.de> <20000321183308.A27289@convergence.de> <20000322124916.T24862@artcom8.artcom-gmbh.de>
- Sender: owner-debate@fitug.de
- User-Agent: Gnus/5.0804 (Gnus v5.8.4) Emacs/20.6
Martin Schröder <martin@oneiros.de> writes:
> Wenn sie URLs filtern, sind sie offen gegen DOS. URLs kann man
> schneller erzeugen, als sie sind in ihre Filter einbauen können.
> Und wenn sie sie einbauen, bricht ziemlich schnell das System
> zusammen (das Testsystem hat 56GB Cache. Für wieviele URLs reicht
> das? :->).
Man könnte eine Hashfunktion, die 2^38 Bits liefert, über die URLs
drüberlaufen lassen und die 56 GB als Bitmap "gesperrt/nicht gesperrt"
verwenden. Bewirkt natürlichen einen gewissen Kollateralschaden.
(M.E. ist es sowieso völlig verfehlt, für so etwas eine Cache-Lösung
einzusetzen.)
URL-basiertes Blocking ist sowieso völlig unnütz. Sobald man eine
Session-ID im URL hat, funktioniert das nicht mehr.