[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [off topic] P2P Netz als redundanter Netzspeicher?



On Sun, 8 Feb 2004 09:11:46 +1100 (EST) Peter Ross wrote:

> Auf einer australischen Linux-Mailingliste ist die Frage aufgetaucht, wie
> man grosse Platten einer Farm von ueber 200 Linux-Rechnern, verbunden mit
> Netzgeschwindigkeit von 1GB/sec, zu einem grossen Speicher organisiert, so
> dass man mittels simpler Get/Push/Remove-Befehle gelegentlich grosse Files
> (>500M) draufschiebt. Die Speichersoftware sollte den vorhandenen
> Plattenplatz selbst organisieren, um eine gleichmaessige Nutzung zu
> gewaehrleisten, und die Speicherung sollte redundant sein, so dass
> Ausfaelle einzelner Knoten nicht zu Datenverlust fuehren.
>
> Ist eine der P2P-Netz-Techniken dazu zu "missbrauchen"?

Freenet oder GNUnet würden so was wohl leisten können.  Bei
Freenet können "unbeliebte" Dateien aber verschwinden.  Mit
"doppelt so vielen Festplatten"  würde das Problem bei
GNUnet nicht auftreten.

Das schöne an beiden ist halt, dass das P2P Netz praktisch
aus einem gemeinsamen großem Speicher besteht.  Bei GNUnet
kann "bei Bedarf" eine Datei von der Festplatte ins Netz
eingespeist werden, das muss bei Freenet "per Hand"
geschehen (Dateien die aufgrund mangelnder Nachfrage von
den Nodes irgendwann gelöscht werden, müssten dann auch
wieder "per Hand" neu ins Netz eingespeist werden).

Das größte Problem ist aber wohl der Kryptographie und
Datenbank Overhead.  Ich glaube, dass dir das GBit Netz kaum
Vorteile vor einem MBit Netz bringen würde.

An "Dateinamen", die aus wirren Zahlen bestehen sollte man
sich dann auch gewöhnen ;-)  (Mit GNUnet kann man
allerdings auch suchen).

Gruß,

David

Attachment: pgp00003.pgp
Description: PGP signature