Lingua
Franca?
Human
Markup Language
Das
Internet lebt in dem Dilemma, zwar über die fortgeschrittenste
Kommunikationstechnologie zu verfügen, die je auf dieser Erde entwickelt
wurde, aber die Barrieren der Sprachen und Differenzen der Kulturen lassen
sich telepräsent längst nicht so einfach überspringen wie
geophysikalische Grenzen. Dabei sind die phänomenologischen
Ausgangsvoraussetzungen des "cultural interface" aus Computer
und Netzanschluss tendenziell polyglott. Die HTML-Programmierung einer
typischen Webpage in der Mischung von Schrift, Bildern, Filmen und
Hyperlinks ist tendenziell trans- oder interkulturell vermittelbar, wie
die globale Praxis der Webkultur belegt.[1]
Die Mischung aus abstrakten Interface-Elementen wie sich überlappenden
Fenstern, sich ausrollenden Seiten und hierarchischen oder rhizomatischen
Hyperlink-Verweisungsstrukturen auf der einen Seite und andererseits
konkreten bildsprachlichen Elementen - JPEGs, (animated)GIFs, Flash oder
QuickTime - stößt zwar kulturell auf verschiedene Interpretationsweisen,
Konnotationen und Gewohnheiten, begründet aber keine unüberwindbaren
Hindernisse für ein zumindest elementares Verstehen. Insoweit gibt es in
der Codierung amerikanischer, europäischer, arabischer oder asiatischer
Webseiten zumindest keinen technischen "clash of civilizations".
Aber dieser kleinster gemeinsame Nenner der Interface-Basis wird eben in
der Sprache verlassen, die gegenwärtig noch einen erheblich höheren
Anteil in der Netzkommunikation besitzt als bildsprachliche Elemente. Es
stellt sich also die Frage, ob die babylonische Sprachverwirrung, die
gleichermaßen für das Off- wie Online-Leben prägend ist, zumindest
teilweise stärker der Programmierung von Webseiten und den Eigenschaften
des kulturellen Interface aufgebürdet werden kann.
Die
Übersetzungshilfen der einschlägigen Software wie z.B. Babelfish[2]
sind noch recht skurrile Helfer, die zwar lexikalische Angebote machen,
eine akzeptable Übertragung feingliedriger Sprachgewebe in eine fremde
Sprache ist indes längst nicht in Sicht. Übertragungen setzen ein
avancierteres Verstehen voraus. Englisch gilt zwar als lingua franca des
Internet, aber damit sind für Millionen von Nutzern auch bereits die
Barrieren einer sprachlich orientierten Verständigung klar markiert. Über
die Sprachschwierigkeiten hinaus gibt es zahlreiche kulturelle Momente,
die sich der Verständigung entziehen. OASIS (Organisation for the
Advancement of Structured Information Standards)[3]
will aber auch dieses Hindernis auf dem Weg zur kommunikativen
Eingemeindung der Welt überwinden.
Das
internationale Non-Profit-Konsortium hat erste organisatorische
Voraussetzungen geschaffen, eine offene Sprache zu entwickeln, die
nichtverbale menschliche Kommunikationsmomente in einen nichtproprietären
Programmcode verwandeln soll. Das HumanMarkup Technical Committee von
OASIS soll HumanML (Human Markup Language als XML-Standard (Extensible
Markup Language) entwickeln. Ranjeeth Kumar Thunga, Vorsitzender des
Komitees glaubt, dass sich die Besonderheiten, die Kommunikationen
jenseits der mehr oder minder sturen Übersetzung von Sprache erst
sinnvoll kontextualisieren, in einen technischen Code überführen lassen.
“Examples
of human characteristics include emotions, physical descriptors, proxemics,
kinesics, haptics, intentions, and attitude. Applications of HumanML
include agents of various types, AI systems, virtual reality,
psychotherapy, online negotiations, facilitations, dialogue, and conflict
resolution systems.”[4]
Kommunikation
ist ein komplexer Prozess, der den Teilnehmern regelmäßig ein großes
gemeinsames Hintergrundwissen der jeweiligen Kultur abverlangt, um annäherungsweise
zu begreifen, was ihr jeweiliges Gegenüber meint. Das folgt G.H. Meads
Studien, dass Sprachkompetenz allein nicht ausreicht, interkulturelle
Verständigungsschwierigkeiten zu überbrücken.[5]
Die Rede Samuel P. Huntingtons vom "clash of civilizations" oder
Edward W. Saids Untersuchungen über den "Orientalismus sowie
"Kultur und Imperialismus" führen sich nicht zuletzt auf diese
zahllosen, filigranen Bedeutungsstrukturen zurück, die den Anderen zum
Fremden und Feind machen, weil wir ihn nicht verstehen. Das
HumanML-Programm antwortet auf diese Untiefen des kulturellen Verstehens
keck bis tollkühn: Nicht nur Applikationen im Bereich der künstlichen
Intelligenz, der virtuellen Realität, sondern auch differenzierte
Kommunikationsszenarien der Psychologie, Kunst, Werbung oder Diplomatie
sollen nun weltweit verständlich codiert werden. Wäre das ohne Abstriche
möglich, würden ganze Berufsgruppen arbeitslos, die sich der mühseligen
Vermittlung, Übersetzung, Übertragung von differenzierten Zusammenhängen
in andere Kulturen widmen. Außenminister Fischer müsste ein chinesisches
Politikerlächeln dann nicht mehr fehl interpretieren, sondern wüsste
dank HumanML die Mimik, die Europäern vordergründig zustimmend
erscheint, als frostiges Nein zu deuten. Sicherlich würden einige mehr
oder minder differenzierte Smileys für einen solchen Code, der ein
transkulturelles Verständnis des Gegenübers gewährleisten will, kaum
ausreichen.
Dieser
prätentiöse Code droht zum tendenziell unendlichen Rückgriff auf
kommunikativ vorgelagerte Verständigungshorizonte zu werden. So würde
ein interreligiöses Gespräch zwischen einem Christen und einem Moslem
nicht nur bibel- und koranfeste Kenntnisse, sondern auch die
gesellschaftliche Einordnung der Religion und das jeweilige persönliche
Verständnis des Gesprächspartners erfordern. Michael Harrison, Experte für
Mensch-Computer-Interaktionen von der
University of York in Großbritannien konzediert zwar, dass ein höheres
semantisches Niveau des Netzes gegenwärtig ein wichtiges Thema sei. Aber
Harrison zweifelt daran, dass dieser Wunsch nach einer vertieften
Kommunikation von Menschen aus verschiedenen Kulturkreisen durch das
hochambitionierte HumanML-Programm einzulösen ist.
Die
Idee, das Netz für kognitive Zwecke und Kommunikationen komfortabler zu
gestalten, liegt dem von WWW-Gründervater Tim Berners-Lee[6]
initiierten "semantic web" zu Grunde. Nach Berners-Lee handelt
es sich um die Kooperation von Computern, die "alle Daten im
Web" analysieren, sodass idealtypisch Handel, Bürokratie und Alltag
von Computern übernommen werden können.[7]
Die Menschen liefern Gefühl, Inspiration und Intuition, den Rest
erledigen intelligente Agenten. Klingt gut, aber auch dieses elektronische
Schlaraffenland dürfte eine zu schnell gestrickte Utopie sein, die ohne
die dunkle Seite der Macht auskommen will, während doch das alltägliche
Chaos im Angesicht der Rechner nicht eben geringer geworden ist. So erfüllen
die gegenwärtigen Suchmaschinen ihre Aufträge noch sehr ungenau, anders
formuliert: Man kann die Suchaufträge noch nicht so präzisieren, dass
aus dem Wust des Datenmülls die benötigten Informationen leicht zu
filtern wären. Je allgemeiner das Suchwort bzw. der Name, umso diffuser
werden die Suchergebnisse. Die klassische Anordnung von Daten in einer
HTML-Programmierung kann der Computer nicht in eine Informationshierarchie
mit relevanten und irrelavanten Daten verwandeln.[8]
Daten der Seitenstruktur bzw. Präsentation werden mit semantischen Daten
so vermischt, dass der Computer vor lauter Wald die Bäume nicht sieht. So
müssten einer Suchfunktion im Quelltext in einer ihr verständlichen
Sprache semantische Einheiten vermittelt werden. Das "semantic
web" vertraut hier auf drei Fundamente: Extensible Markup Language (XML),
Resource Description Framework (RDF) und "Ontologien" wie
DAML+OIL[9].
XML ist für die maschinenlesbare Syntax zuständig, RDF formt
einfache prädikative Aussagen, die sie so erscheinen wie kognitive Sätze.
Per RDF lassen sich also genauere Zuordnungen von Begriffen bzw. Namen zu
dem jeweiligen Sachgebiet erstellen. Ontologien, "eine Art
Fachjargon" (Cai Ziegler), erkennen Äquivalenzrelationen - lieben/love/aimer
- und klassifizieren die begrifflichen Rangordnungen von Abstrakta und
Objekten bzw. Allgemeinem und Besonderem. Im Grunde sind diese
"Ontologien" noch relativ einfache logische Regelsysteme, die
aus bestimmten Eigenschaften einen Syllogismus, also einen logischen
Schluss gewinnen. Das "semantic web" lässt sich zweifelsohne
gegenüber seiner bisherigen Konstitution noch erheblich verfeinern, um
Suchagenten zukünftig mit besseren Ergebnissen in kommunikativen,
insbesondere wissenschaftlichen Kontexten auszustatten. Das ganze Konzept
steht und fällt aber vor allem mit der Bereitschaft von Usern, sich
diesem Mehraufwand der Seitenprogrammierung zu stellen und gemeinsame
Standards zu beachten. Zum stärksten Motiv einer Semantisierung des Webs
dürfte langfristig der Umstand werden, dass die Datenmasse exponenziell wächst
und irgendwann das Internet gerade keine Wüste wird, wie Clifford Stoll
behauptet, sondern gerade umgekehrt mehr noch als gegenwärtig ein
Datendschungel, der immer unergiebiger werden könnte, je mehr Daten er
spendet. Praktisch bedeutet das, die maschinenlesbare Aufbereitung von
Netzwissen solchen Programmen anzuvertrauen, die ähnlich der WYSIWYG
("What you see is what you get")-Software Fertigfunktionen
bereitstellen, um das semantische und logische Gerüst menschlicher
Kommunikation komfortabler sicherzustellen.
HumanML
als XML-Standard soll schlicht für jedes Moment der menschlichen
Kommunikation eingesetzt werden, ob nun physikalische Charakteristika des
Sprechers, seine Gefühle, inneren Zustände oder gar komplette kulturelle
Bedeutungsgefüge. Dabei hatte Berners-Lee bereits vor XML gewarnt: Es sei
"Segen als auch eine Bedrohung für den Traum vom Web".[10]
Zwar können viele Informationsverluste verhindert werden, aber zugleich
droht über die Einführung von vielen inkompatiblen Sprachen letztlich
doch wieder die babylonische Verwirrung. Berners-Lee hält es zwar für möglich,
die Spannung zwischen allgemein gültigen und proprietären Sprachanteilen
fruchtbar aufzulösen, aber das könnte mehr als ein Problem der
Programmierung sein. George H. Mead wies darauf hin, dass interkulturelle
Verständigungsleistungen die Rolle des anderen gedanklich nachvollziehen
müssen. Die Ent-Fremdung des Anderen ist danach ein aufwändiger
Aneignungsprozess einer fremden Kultur, der die während einer Lebenszeit
geprägte Identität mächtig provoziert und daher oft widerwillig oder
gar nicht zugelassen wird. Der Massentourismus belegt besonders
anschaulich, wie das Fremde allenfalls in "homöopathischen
Dosierungen" zugelassen wird, wenn nicht ohnehin künstliche Enklaven
der Pseudoexotik aufgesucht werden. Menschen sind ihren Muttersprachen und
Kulturkreisen verhaftet. Gerade hierin wurzeln keine geringe Widerstände
gegen die globale Eingemeindung, gegenüber "Cross-Culture" und
pseudoliberalen Multikulti-Mixturen, insbesondere wenn sie zusätzlich verdächtig
sind, euroamerikanisch hegemonial konstruiert zu sein. So könnte es der
"menschlichen Auszeichnungssprache" so gehen wie dem 1887 vom
Zamenoff erfundenen "Esperanto", das als internationale
Weltsprache so künstlich und einseitig konstruiert wurde, dass es von der
Menschheit nicht akzeptiert wurde. Aber vielleicht gelingt es dem
HumanML-Projekt ja die paradiesische Universalsprache, die Johann
Gottfried Herder allerdings bereits im 18. Jahrhundert als versteckten
Unsinn denunzierte, wieder zu finden.
Zwar
mögen sich theoretisch alle diese kulturellen und individuellen Prägungen
in eine Markierungssprache für Dokumente umsetzen lassen. Ein Code, der
dieses Feld vollständig abbildet, würde aber unzählige Informationen
voraussetzen. Der Sprachphilosoph Wilhelm von Humboldt hatte bereits die
Konstruktion einer Sprache und das jeweilige Selbst- und Weltbild in
seiner Sprachabhängigkeitstheorie in einem unzertrennlichen Zusammenhang
gesehen. Es ist dann aber kaum damit getan, dass die Human-Markup-Sprache
etwa einen Verfasser als dreißigjährigen weißen, konfessionslosen Europäer
mit athletischen Körperbau ausweist, wenn auch zugleich dessen
Seelenverfassungen und biografischen Werdegänge zum kommunikativen
Totalverständnis codiert werden sollen. Hinzu kämen für nichteuropäische
Adressaten noch einige läppische Jahrtausende europäischer Geschichte,
Kultur etc. Gerade diese Konstitutionen von kollektiven und individuellen
Besonderheiten sind aber regelmäßig auch dem Selbstverständnis von
Menschen in ihrer Kultur nur in sehr reduziertem Umfang zugänglich. Ihre
Artikulation in einem Programm würde daher die individuellen
Selbstbeschreibungsmöglichkeiten des Anwenders sehr schnell vergeblich
strapazieren.
Wäre
das alles codierbar, würde es sich wirklich um die jetzt von OASIS angekündigte
Revolution menschlicher Verständigung handeln. Was bisher
interkulturellen Philosophen, Ethno(psycho)analytikern, Ideologiekritikern
oder transkulturellen Konversationsanalytikern nicht in nennenswertem
Umfang gelang oder kurzerhand als unmöglich erklärt wurde, soll nun
einem Code der Codes aufgebürdet werden. Die von dem HumanML-Projekt
vorausgesetzte idealtypische Verständigungssituation trifft zudem auf den
nur vordergründig provokanten Einwand, dass gerade interkulturelle
Missverständnisse für soziokulturelle Veränderungen von Gesellschaften
fruchtbar sind. Eine völlige globale Angleichung der
Internet-Kommunikation wäre zunächst lediglich ein
Differenzierungsverlust. Leibniz` Ziel, einer vollkommenen Idealsprache,
ein "Alphabet der Gedanken" zu schaffen, scheiterte genau so wie
zahllose weniger prominente Versuche, die babylonische Sprachverwirrung
aufzuheben.[11]
Nicht erst die vernetzte Kommunikation über Kultur- und Sprachkreise
hinaus wirft das Phänomen auf, dass Menschen einander nie vollständig
verstehen. Wenn Menschen das akzeptieren, legt das die ersten
Voraussetzungen für ein tolerantes Miteinander. Ob ein Universalcode, der
mehr als die Vermittlung kognitiver Inhalte leistet, wirklich wünschbar
ist, ist anzuzweifeln, wenn dadurch zugleich fruchtbare Spannungen
zwischen den Kulturen und die Vielzahl sprachlich-virtueller Ausdeutungen
der Welt letztlich beseitigt würden: "Jede Sprache stellt ein
semiotisches Modell des Universums dar, ein semiotisches System des
Weltverständnisses, und wenn wir 4000 verschiedene Arten von
Weltbeschreibung haben, macht uns das reicher. Wir müssten uns um die
Bewahrung der Sprachen ebenso kümmern wie um die Ökologie."[12]
Immerhin
mag es sein, dass das HumanML-Projekt dazu beiträgt, die blinden Flecken
menschlicher Kommunikation zu reduzieren und zu einem besseren Verständnis
des Nichtvermittelbaren beizutragen. Die Schlusserklärung des Projekts könnte
aber auch zum Selbstläufer werden: Als fundamentales Ziel von HumanML
gilt es, menschliche Missverständnisse zu vermindern. Gerade dieses Ziel
birgt aber die Gefahr, die Anzahl der menschlichen Missverständnisse, die
ja ohnehin nicht gering sind, um eine neue Variante zu bereichern. Wenn
nun nämlich der Code den Anspruch erhebt, authentische Geltungsansprüche
einzulösen, könnten Kommunikationsschwierigkeiten, die zuvor dem
verzeihlichen Umstand einer anderen Kulturkreiszugehörigkeit zugerechnet
wurden, nunmehr als absichtsvoll bis aggressiv interpretiert werden.
"Doppelte Kontingenz" (Niklas Luhmann), die Freiheit des
Aneinandervorbeiredens und der thematischen Neuanknüpfungen birgt da
kommunikative Vorteile, wo konsensorientierte Standpunktabgleichungen an
ihren kulturellen, religiösen oder sozialen Prämissen scheitern würden.
Das Moment der Toleranz wäre also unter der vollmundigen Prämisse einer
vollkommenen Verständigung gerade gefährdet.
|