[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [telepolis] Verlust der Geschichte (fwd)



In schulung.lists.fitug-debate you write:
>Nicht laenger flachstrukturierte, passive Texte zu schreiben, sondern
>diese als Programme zu entwerfen und so aus ihnen Textmaschinen zu
>machen, geht mir seitdem ebenfalls durch den Kopf. Die
>praedikatenlogisch orientierte Aufbereitung von Dokumenten ist der
>eine Job, die Strukturierung der Anschluesse der Dokumente an andere
>Dokumente (u.a. auch deshalb, weil sie nicht allein der gleichen
>"Semantik-Klasse" angehoeren) ist der andere. Faszinierend faende
>ich unter dem letzten Aspekt eine Kapselung von Dokumenten etwa in
>Form von Java-Beans, die quasi-autonom die Interfaces (= die
>Adressierbarkeiten) zu anderen derartig gekapselten Texten
>auszuhandeln in der Lage waeren.

Ihr seid beide Eurer Zeit einige Jahrhunderte voraus.

Wenn Texte so geschrieben waeren, dass sie zugleich Programme
sind und ihre Semantik so codiert ist, dass sie die fuer
wechselnde Rezipienten (darunter eben auch andere
Texte/Programme) eine wechselnde Syntax waehlen koennen, dann
wird der menschliche Rezipient fuer solche Texte ueberfluessig.

Texte werden dann zu den Agenten ihrer Semantik: Ein Text, der
eine Aufforderung oder Anweisung enthaelt etwas zu tun, ist
zugleich ein Programm, das diese Aufgabe erledigt (oder andere,
untergeordnete Texte damit beauftragt, den Kram zu machen). Wenn
Texte Programme sind, die mit anderen Texten "handeln" koennen,
dann ist die Reportfunktion fuer menschliche Agenten (die
Prosa-Darstellung des Textes) zunaechst einmal fuer das
Eintreten der Wirkung des Dokumentes von untergeordneter
Bedeutung - der Text muss mit anderen Texten kommunizieren
koennen, nicht unbedingt mit Menschen.

Was nichts anderes heisst, als das wir langfristig alle Codierer
wuerden (nur mit unterschiedlichen Zugriffsrechten :-)...


Hmm, Active Content (Applets statt HTML; es ist aber eine
Sackgasse, weil die interne Struktur des Applets einer Analyse
durch andere Applets nicht zugaenglich ist. Damit kann sich
keine Komplexitaet entwickeln), literate Programming (a la
Knuths TeX-Source, der zugleich Pascal/C-Programm und TeX-Source
ist; es ist aber eine Sackgasse, weil die Prosa beim literate
Programming einer automatischen semantischen Analyse nicht
zugaenglich ist - es handelt sich um reinen Kommentar, der dann
geTeXt wird.).

Was immer man in dieser Richtung unternehmen wird, es wird eher
eine Art Auszeichnungssprache sein muessen, die die einzelnen
Textelemente strukturiert und in ihrer Funktion fuer die Aussage
einordnet. Wenn die Auszeichnung der Elemente hinreichend
detailliert ist, werden die ausgezeichneten Elemente (die Prosa)
irgendwann ueberfluessig, weil nicht mehr bedeutungstragend und
im Zweifel auch sinnerhaltend in der Zielsprache des Rezipienten
dynamisch generierbar. Der Markupanteil in Dokumenten nimmt also
auf Kosten des Fliesstextes zu, die Kommunikation des Dokumentes
wird formalisiert. Reste von Fliesstext in solchen Dokumenten
wuerden die nicht formalisierbaren Aspekte der Kommunikation
befoerdern.

Wobei ich es mir sehr schmerzhaft vorstelle, sich den Quelltext
einer solchen fuer eine Zielsprache generierten Textes anzusehen
und dort dann Ironie, Humoranteile, Absichten und Taktiken
formalisiert und in Staerkegraden codiert niedergelegt zu finden
(was notwendig sein wuerde, damit die Generierung korrekt
gelingt...). Hier waere ein Schutz der Quelltexte unter
Umstaenden von fundamentaler Bedeutung, naemlich immer dann,
wenn ein Textagent mehr Informationen haben muss (ueber
Absichten und Ziele der Darstellung die er generieren soll) als
er bei Prosagenerierung ausgibt. Also immer.

Kristian