Visuelle Argumente

Werbung
Dieter Mersch / Visuelle Argumente – Zur Rolle der Bilder in den Naturwissenschaften
(Buch: Bilder als Diskurse – Bilddiskurse / Hg. S. Maasen u.a.)
Dank auch an: Boris Nieslony / Kommentare (eingerückt) von G. Dirmoser
(S.96) … Denn Visualisierungen behaupten, wie >visuelle Argumente< überhaupt, ihre
außerordentliche Bedeutung im Diskursiven, ja sogar ihre prinzipielle Gleichwertigkeit im Prozess
der Wissensgenerierung, wie auch Ludwig Wittgenstein, der wie kaum ein anderer Philosoph seine
Überlegungen auf Skizzen, Modelle und Figuren stützte, in seinen Nachlassnotizen nahe legte:
„Gibt es eine bevorzugte, etwa besonders unmittelbare Art der Abbildung?
Ich glaube nein! Jede Art der Abbildung ist gleichberechtigt.“
(S.96) Beide – Visualität und Diskursivität – teilen sich dann das wissenschaftliche Feld mit
Verfahren der Abtastung, Akustik, Numerik oder Statistik und dergleichen, wobei die diskursiven
Verfahrensweisen an der Hervorbringung und Überprüfung von Wahrheitsansprüchen arbeiten,
während den Bildprozessen die Produktion von Evidenz zufällt.
Beide gehorchen somit unterschiedlichen Geltungsverfahren.
(S.97) Allerdings sind die visuellen Strategien selber höchst disparat. Sie lassen sich heuristisch –
wenn auch nicht scharf voneinander abgrenzbar – in zwei grundlegende Klassen einteilen, wozu
freilich noch als weitere Klasse die ganz anders gearteten Präparate, die von Hans-Jörg
Rheinberger so genannten >epistemischen Dinge<, hinzuzurechnen wären:
Erstens solche Darstellungsweisen, deren wesentliche Funktion die Zeugenschaft ist und
die das Visuelle als Beleg verwendet, sowie
zweitens solche, die das Wissen auf abstrakten Tableaus anordnet oder es in Bezug auf
eine zugrunde liegende Datenmenge in berechenbare Figuren verwandelt.
Erstere verfahren referenziell; sie führen einen Existenbeweis, markieren eine Spur oder einen
Abdruck, während letztere diagrammatisch oder >graphematisch< argumentieren, wobei das
Format eine Skriptur oder >Zeichnung< ist, die einen konstruktiven Status einnimmt.
(DG) Der ersten Gruppe wäre diverse mimetische Ansätze zuzuordnen, die in der Lage
sind Spuren oder Abdrücke festzuhalten. Manche Spuren werden erst sichtbar, wenn zuvor
Markierungstechniken angewendet wurden. Auch nachträgliche Markierungen können für
die Lesbarkeit zentral sein.
Bei selbstschreibenden Einrichtungen führt der Begriff der Spur auch zu graphematischen
Ansätzen (vergl. selbstschreibende Messgeräte bei J. Watt).
(S.97) Wir haben es folglich mit mindestens zwei disparaten Arten der Sichtbarmachung zu tun, die
jeweils andere Zwecke erfüllen und damit auch anderen >Logiken< gehorchen. Man könnte
einerseits von Repräsentationsverfahren im weitesten Sinne sprechen, sowie andererseits von
>konstruktiven< oder >modellhaften< Visualisierungen, die zugleich >Schrift< und >Zahl< als
basale Kulturtechniken aufrufen und damit als Hybride zwischen Notationalität und Ikonizität
funktionieren.
(S.98) Die Transformation berührte nicht nur die Wissenschaft selber, sondern auch die Bilder, die
fortan dem Kriterium einer >mechanischen Aufzeichnung< zu genügen hatten: >Nichtintervention
– und nicht Ähnlichkeit – war das Herzstück der mechanischen Objektivität.<
Entsprechend traten die Apparate in den Vordergrund und entthronten das Herrschaftswissen der
Künstler, die die Präzision ihres Auges an optische und andere Instrumente automatischer
Registratur abtraten, um fortan das Sehen der Messung durch eine Maschine überlassen.
Das bedeutet aber, dass das Bild tendenziell zur graphischen Inskription, zur Schrift gerät, die das
Wirkliche so authentisch abzeichnen und wiederholen sollte und sogar den Fehler noch als
Beglaubigungsmerkmal beibehielt.
(S.98) …. Folglich war das Ideal der von ihnen erzeugten Bilder eine Entästhetisierung ….
Diese Formulierung scheint mir sehr wichtig zu sein, weil der „Gestaltungswille“ auf
ein Minimum reduziert wird. Die Farbwahl bei verwendeten Schreibern hat entweder gar
keine Bedeutung, oder es werden unterschiedliche Datenquellen differenziert, oder ein
Code definiert Maximalwerte und Minimalwerte, etc.
Der Linienverlauf ist nicht eine Ausdrucksgeste, und auch die Linienstärke ist keine
Duktusfrage (einer menschlichen Hand). Ähnlich wie bei technischen Zeichnungen, wird
ein „neutraler“ Stil angestrebt.
Vergl. Gespräch mit Katja Mayer zu Konzepten von Lothar Krempel
(S.98) Gelangte so mit der Mechanisierung eine >graphematische< Struktur ins Bild, die sich ihm
mittels aller möglichen technischen Instrumente wie Fotografie, Polygraphie, Phonographie,
Tachistoskopie oder Phenakistiskopie und vieler anderer einschrieb, deren Namen und Funktion fast
vergessen ist, bildete ihr Korrelat die Ausschaltung jeder Subjektivität, die tendenziell das
Semantische auf das Syntaktische reduzierte.
Die Semantikfrage ist weder in der Diagrammatik noch in der Graphematik geklärt.
Mit der Semantisierung dinglicher Verhältnisse (Gamm zu Latour) könnte das Konzept der
Semantik erweitert werden – zumindest so weit, wie es bei den Wissensbegriffen der Fall
ist, die ja bereits weit über die Verbalsprachlichkeit hinaus reichen.
An Ansätzen legen das auch Formulierungen wie „Sprache der Phänomene selbst“ nahe:
(S.99) Wir haben es folglich mit einer grundlegenden Transformation, einem Platztausch zu tun,
der das Ästhetische zugunsten von Technik und das Visuelle zugunsten exakter optischer und
mathematischer Verfahren austrieb, deren Aufgabe zuletzt in der Dokumentation einer Spur oder
eines Abdrucks bestand, worin sich, wie es hieß, der Pinelstrich der Natur oder die >Sprache der
Phänomene selbst< bekundete . (siehe im Detail: Lorraine Daston, Peter Galison)
Sie korrespondierte mit dem Beobachtungssatz im Experiment, jenem >Protokoll< als einfachem
Datum, das seit Rudolf Carnap zur Grundlage der empirischen Wissenschaften überhaupt
avancierte und dessen allgemeine Form >An der Stelle k befindet sich zum Zeitpunkt t ein x<
Der einfachen Aufzeichnung eines Vorkommnisses im Bild aufs Genaueste entsprach.
Kurz, das Schema der Visualisierung war die repräsentationale Schreibung auf der Basis
aller erdenklichen Schreibgeräte und selbstregistrierenden Automaten, die Signale, Bewegungen,
Reize und dergleichen in eine graphische Repräsentation übersetzten.
Bezüglich dieser „Stelle k“ vergleiche auch die Überlegungen zur „Marke“ als
Übersetzungsbegriff, zwischen Graphematik und Diagrammatik.
(S.100) Abschnitt: Visuelle Epistemik
Allerdings wurde die Debatte um Visualisierung und Bildlichkeit in den Wissenschaften bislang
ohne Spezifik des Bildes geführt. Gehört dazu zum einen dessen besondere Ästhetik, zweitens
seine >Logik< des Zeigens, die für die fehlende Syntax, insbesondere aber für die mangelnde
Negation und die Nichthypothetizität des Visuellen verantwortlich ist, drittens seine saptiale
Organisation, die im Bild die Form oder topologische Struktur auszeichnet, steht gleichzeitig
das auf dem Prüfstand, was durch Bilder und deren Sichtbarmachung in den Wissenschaften
überhaupt gewusst werden kann.
Bzgl. der fehlenden Syntax sollte zu denken geben, dass sich lt. einer Theorie
die Syntax aus Gebärden, also aus gestischen Konstellationen entwickelt hat.
Wenn auch die Übertragung der verbalsprachlichen Syntax auf eine binnenkontextuelle
Bildlogik nicht gelingen konnte, heißt das noch nicht, dass nicht auch die Objekt-Relationen
eine gute Basis für eine Art Syntax abgeben könnten.
(S.100/101) (… weiter) Klar ist, dass ein solches Wissen nicht ohne die Beziehung unterschiedlicher
Visualisierungsstrategien zueinander diskutiert werden kann, wie denn auch Bruno Latour zu Recht
bemerkt hat, das es >das Bild< in den Naturwissenschaften nicht gibt, sondern immer nur
synchrone und diachrone Bildserien, die sich untereinander austauschen und allererst in
Beziehung zueinander lesbar werden.
Visualisierungen verweisen dann auf andere Visualisierungen, sowie – quer zu ihnen – auf
diskursive Prozesse der Kontextuierung und Interpretation, worin Bild, Schrift und Zahl unablässig
miteinander interagieren.
Vergleiche dazu die Ansätze von Aby Warburg und meine Versuche 4000 Diagramme als
Bildnetz aufzuschlüsseln. Vergleiche auch die Überlegungen von Ludwik Fleck.
(S.101) (… weiter) Wir bekommen es dabei insbesondere mit verschiedenen Bildtypen zu tun, die
einerseits durch die optischen Apparate oder andere Aufzeichnungsinstrumente generiert werden
und deren semiotisches Format die >Spur< oder >Index< ist, andererseits mit den >abstrakten<
Bildformen wie Graphen, Pläne, Modelle oder Diagramme, die weit eher Theorien ähneln als
Abbildungen.
Spannend, dass (über die Graphematik) neben der Reihe Pläne-Karten-Diagramme
(Seite 97) nun auch Modelle und Graphen ins Spiel kommen.
Vergleiche auch die Reihe bei N. Goodman: Karten-Diagramme-Modelle
oder die Reihe bei meinen „Grundtypen“: Karte-Diagramm-Plan(Modell)
(S.101) Weil unterschiedliche Datensätze derselben Codierung unterliegen und dieselben Datensätze mehrfach adressierbar erscheinen, zeigen sie sich auf der Ebene der Algorithmen als
universell manipulierbar, so dass Visualisierungseffekte als Oberflächeneffekte entstehen.
Die Sichtbarmachung gerät dann zum Gestaltungsprodukt von >Design<.
Es lässt disparate Erscheinungen zu, insofern sich die gleichen Daten auch jeweils anders darstellen
lassen und kein Kriterium existiert, das eine Darstellungsweise gegenüber der anderen
privilegiert.
Informationsdesign / Die Gestalt der Daten
Vergleiche dazu C. Darwin und Zeitgenossen, die alle wichtigen Diagrammtypen
durchprobierten, um die beste Visualisierung ihrer Fragestellungen zu erarbeiten.
Je nach Denkkollektiv werden Methoden und Repräsentationstechniken tradiert, die
dann über lange Zeitspannen beibehalten und gepflegt werden.
(S.102) Wir haben es folglich mit keiner eindeutigen Sichtbarmachung mehr zu tun, keiner
Stabilität im Bild, das etwas Bestimmtes darstellt, sondern lediglich mit Möglichkeiten, die ebenso
unvereinbar nebeneinander bestehen können wie sie unterschiedliche epistemische Formen
aufrufen, deren gemeinsamer Nenner ebenfalls ihre Berechenbarkeit ist.
Im Denkkolletiv bekommt man im Laufe der Zeit einen „Blick“ für verwandte
„epistemische“ Formen. Unüberschaubare Datenmengen werden so gewissermaßen
„anschaulich“. Die verwendeten symbolisch/mathematischen Ausdrücke sind (zB. in der
Atomphysik) oft so komplex, dass Effekte bestimmter Glieder u.a. in ihrer Wirkung als
graphische Ausformung studiert werden (Vergl. Vortrag von Bernd Thaller im ZKM zum
Elektron).
(S.102) (…weiter) Weil außerdem am Anfang diskrete Daten stehen, die auf Messungen beruhen,
die nicht notwendig optischer Natur sind, vielmehr nicht selten bereits auf theoretischen
Abstraktionen und Rechnungen fußen, verwandelt sich ihr Bildliches- unter Abzug von dessen
ästhetischer Qualität – dem Text an und nähert sich einer diskursiven Matrix.
Ihr Material besteht aus Signalen, Impulsen oder Frequenzen, wobei es keine Rolle spielt, wie diese
gewonnen werden, sondern bestenfalls, wie sie in elektromagnetische Wellen und von dort aus in
Digitalcodes übersetzt worden sind, wobei ihre notationale Schreibung nicht vorgibt, ob sie
anschließend visuell, akustisch oder in einem anderen Wahrnehmungsmodus modelliert und
aufbereitet werden.
(S.102) (…weiter) Im Unterschied zu klassischen Visualisierungsverfahren bildet darum kein genuin
Sichtbares den Ausgangspunkt, um zum Bild zu werden, vielmehr >Informationen< im
kybernetischen Sinne, welche erst am Ende der Kette in visuelle Parameter verwandelt werden.
Als diskrete Entscheidungsmaße haben sie deshalb auch, selbst wenn sie optisch generiert wurden,
einen anderen Status als visuelle Objekte.
Zu ihrer Erzeugung kommen digitale Scanner und Sensoren zum Einsatz, die, wie im Falle der
Enzephalographie, elektrische Ströme, oder im Falle der Rastertunnelmikroskopie, Orte gleichen
Tunnelstroms messen, um sie in Graphen zu überführen, die zu >Scharen< aufsummiert eine
dreidimensionale Struktur imitieren, die euklidischen Raumbildern zum verwechseln ähnlich
sehen.
Dann handelt es sich überhaupt um Graphen oder diagrammartige Strukturen, die anders
betrachtet werden müssen als Bilder oder sichtbare Dinge.
Zuweilen kommen kartographische Methoden ins Spiel, um ihnen eine Färbung zu geben, die
freilich kein Sichtbares zeigen, sondern bestenfalls Richtungen, Verteilungen, räumliche
Anordnungen oder Muster usw. zu erkennen geben.
An anderer Stelle wurde schon angesprochen, dass die Graphematik den Blick der
Diagrammatik auch in Richtung Materialität schärft. Für die komplexen materialen
Oberflächen oder Binnenstrukturen (die zB. durch Schnitte, Brüche und Schliffe greifbar
werden), kommen Begriffe Muster, Textur, Struktur, Anordnung, Körnung,
Rauhtiefe, Gleichmäßigkeit, Gitter, Zellen, Inseln, Anhäufung, Häufung, Kapselung,
Einschluß, Einfaltung, Verteilung, Verlauf, Dichte, Verdichtung, Ballung, Ansammlung,
Nebel, Maserung, Streuung, Verbreitung, Ausdünnung, Sinterung, Klumpung, Sediment ….
ins Spiel.
Wenn die Materialität mit ins Spiel kommt, schein sich eine dritte Sicht (neben
Diagrammatik und Graphematik) abzuzeichnen. Einerseits könnte man von einer
Mikrophysiognomie sprechen und andererseits kommen geomorphologische Begriffe
ins Spiel, so wie sie Deleuze (mit Cache) & Serres in ihren geophilosophischen
Annäherungen verwenden. Auch die Beiträge von Sloterdijk haben da einiges zu bieten.
Auf jeden Fall hat also die Materialität einen eigenen Formenschatz zu bieten.
(S.102) (…weiter) Worauf sie auch immer referieren mögen, oder wovon sie >Spur< und
>Abdruck< sind – sie enthüllen nichts Wirkliches, sondern bestenfalls Topologien und Relationen,
die entsprechend auch nicht als Probe oder Beleg für >Etwas< fungieren, sondern unabhängig von
ihrer Ästhetik als Abstrakta gelesen werden müssen, an denen Eigenschaften wie Symmetrie oder
Strukturähnlichkeit usw. zählen.
Folglich nehmen sie keinen repräsentationalen oder denotativen Status ein, sondern einen
diagrammatischen oder >graphematischen<.
Weit eher als dass sie als >Spuren< oder >Abdrücke< von etwas gelesen werden dürfen, handelt
es sich um geordnete Syntaxen.
Ihre epistemische Funktion beruht darum nicht im Existenzbeweis, der stets noch an Materialität
haftet, sondern in der Modellierung einer geometrischen oder figuralen Struktur, die gänzlich
immateriell bleibt.
Aus dieser Sicht wären die Diagramme/Graphen also nicht nur a-semantisch, sondern
auch a-material aufzufassen. Die Sicht der Ordnung zeigt sich dabei als „geordnete
Syntax“, die je Methode und Aufgabenstellung sehr speziell ausfallen kann.
Es ist also nicht von einer allgemeinen Graphensyntax oder Diagrammsyntax die Rede,
sondern von problemspezifischen Ausformungen.
(S.103) Abschnitt: Diagrammatik und spatiale Ordnung
(S.103) Abzustecken wäre dann allerdings im einzelnen, was unter diagrammatischen bzw.
>graphematischen< Visualisierungen zu verstehen ist.
Gefaßt seien darunter zunächst sämtlichen syntaktischen Bildtypen, die auf diskreten
Ordnungen basieren, also auch computergenerierte Visualisierungen, soweit sie der Strukturoder Mustererkennung dienen.
Obwohl dieser Text von D. Mersch seinen Schwerpunkt in der Graphematik hat, wird
dieser Begriff noch unter > < gesetzt.
Wir gewöhnlich zwischen Karte, Plan, Diagramm und Modell und Graph unterschieden, differieren
allerdings die Termini in verschiedenen Kontexten und Disziplinen und wechseln nicht selten die
Seiten, sodaß einmal Graphen als >Kurvendiagramme<, ein andermal als logische oder
mathematische Notationen als diagrammatische Formen, schließlich Netzpläne – wie in der
Informatik – wiederum als Graphen bezeichnet werden.
Vergl. dazu File „Begriffe.htm“ in der Diagrammatik-Studie
(S.103/104) Zwar existiert noch keine allgemeine Theorie des Diagrammatischen – sie wäre erst zu
schreiben – doch ist klar, dass in ihr skripturale wie ikonische Elemente aufeinander verweisen, und
zwar so, dass logische oder relationale Beziehungen durch ein System visueller Parameter
sichtbar gemacht werden können.
Diagrammatiken bedeuten in diesem Sinne die Sichtbarkeit eines Denkens.
Karten, Graphen, Netze und dergleichen bilden Hybride, an denen ihre >Schriftbildlichkit<
auffällig ist, die Bedingung dafür ist, dass Diskursives als Ikonisches lesbar und
Ikonisches als Diskursives sichtbar wird.
Der Ausdruck >Hybridität< meint hier die beiderseitige Verschränkung von Skripturalität und
Pikturalität, an der ihre Indifferenz eigentümlich ist, so dass Skripturales und Piktorales nicht als
getrennte Parameter erscheinen, sondern eines im anderen und umgekehrt.
Mit meiner Diagrammstudie möchte ich mit Hilfe der gewählten Matrix (Typ /vs/ Aspekt)
zeigen, dass über 90% der Exemplare auch diagrammatische Hybride sind, also in der
Regel Mischformen von Ordnungsfiguren zu Anwendung kommen.
(S.104) (… weiter) Distinkte Zeichen oder logische Beziehungen zeigen sich dann entsprechend als
Figuren oder räumliche Verteilungen, wie auf der anderen Seite – was freilich nur analytisch
unterschieden werden kann – die Bildelemente als differenzierbare >Marken< funktionieren,
die, wie die seit Platon währende Debatte über geometrische Formen bezeugt, >Idealisierungen<
darstellen, die als solche >wiederholbar< sind und an denen vor allem Orte, Winkel und
Proportionen relevant sind, nicht ihre je konkrete Gestalt.
Vergleiche Überlegungen zum Begriffe der Marke (mit Derrida) - Link
Bei Ludwik Fleck findet sich (im Buch: Entstehung und Entwicklung einer wissenschaftlichen
Tatsache) ein spannender Ansatz zum Gestaltbegriff, der auch graphematisch fruchtbar
gemacht werden könnte: (S.121) „Das unmittelbare Gestaltsehen verlangt ein Erfahrensein
in dem bestimmten Denkgebiete: erst nach vielen Erlebnissen, eventuell nach einer
Vorbildung erwirbt man die Fähigkeit, Sinn, Gestalt, geschlossene Einheit unmittelbar
wahrzunehmen. … Solche Bereitschaft für gerichtetes Wahrnehmen macht aber den
Hauptbestandteil des Denkstils aus.
Hiermit ist Gestaltsehen ausgesprochene Denkstilangelegenheit.“
Jedes Denkkollektiv verständigt sich also gerade auch bei sehr abstrakten biologischen und
physikalischen Erscheinungen über „relevante“ wiedererkennbare Gestalten.
Der Begriff der Gestalt sollte also im Rahmen der Graphematik nicht zur Seite gestellt
werden, so wie auch der Begriff der (wörtlich zu nehmenden) Denk-Figur in der
Diagrammatik gute Dienste leistet.
Siehe auch Plakat zu den Denkfiguren – Link
Siehe auch Gestalt-findungen der Elektron-Forscher (ZKM-Vortrag)
(S.104) Der Übergang von Bild zu >Schriftbildlichkeit< bedingt dabei eine Transformation von
Figuralität zu Operationalität, wie der Übergang von Schrift zu >Schriftbildlichkeit< die Register
der klassischen Linguistik verlässt, indem Skripturalität weniger der Aufzeichnung einer Sprache
dient, sondern vielmehr einen eigenen, freien Strukturraum konfiguriert.
Er fußt auf einer >spatialen Logik< aus einer Streuung von Punkten und ihren Relationen
zueinander, Anordnungen, Häufungen, Richtungen oder metrischen Verhältnissen und
dergleichen, die Zusammenfassungen zu Mustern, Stellungswechsel und andere räumliche
Aktionen erlauben und dabei neue Ordnungen sichtbar machen,
ohne auf rhetorische Tropen wie Metapher, Metonymie, Synekdoche oder Katachrese
zurückzugreifen.
Es stellt sich die Frage, ob nicht auch in den „fluidalen Strukturen“ quasi Figuren gesehen
werden können. Die absolut gleichmäßige Verteilung, wäre immerhin noch als „Nebel“
begrifflich fassbar. „Häufungen“ heben sich im Nebel der gleichmäßigen Verteilung ab.
Im Rahmen der Atmosphären-Bildstudie (mit 1600 Exemplaren) wird also den
Ausformungen dieser diffusen und fluidalen Verhältnisse nachgegangen.
Auch sollte zu denken geben, dass es im Rahmen der menschlichen Wahrnehmungsmöglichkeiten wenig sinnvoll scheint, zwei unvereinbare Ordnungsmuster-Komplexe zu
unterscheiden. Jede Visualisierung komplexer Abläufe muß einige Schritte in Richtung
fluider Repräsentationstechniken gehen.
Der Diagrammgrundtyp „Faltungen“ scheint dabei eine wichtige Rolle als „formale
Übersetzungshilfe“ zu spielen (zumindest als Einstiegshilfe für das Erfassen fluider Gebilde
und Situationen).
Weiters gilt es zu bedenken, dass mit diversen Strategien der Glättung, Formen ins
Spiel kommen, die als komplexe Übergänge, komplexe Krümmungen, etc. angesprochen
werden, also Physiognomien, die auch den Hintergrund für Deleuze und Cache bilden
wenn sie von gekerbten und glatten Phänomenen sprechen.
(S.105) (… weiter) Der Diagrammatik inhäriert damit eine eigenständige Form von Performanz.
Es handelt sich um eine operative Performanz, die den Kern einer visuellen Argumentation
ausmacht, soweit sie im >Schrift-Bild-Raum< Handlungen vollzieht, die Abhängigkeiten,
Extremwerte, Isomorphien oder Ähnliches evident machen.
Beruhen Schriften zudem, wie Nelson Goodman zu Recht betont hat, auf diskreten Notationen,
verschiebt die >Schriftbildlichkeit< zugleich die Aspekte von den Zeichen und >Buchstaben< zu
ihrer spatialen Lokalisierung und Ausbreitung.
Interspatialität - Zwischenräumlichkeit
(S.105) (… weiter) Ihr Kriterium ist folglich >Interspatialität<. Diagrammatische Strukturen
visualisieren aufgrund solcher >Zwischenräumlichkeit<.
Sie gestatten gleichzeitig, Beziehungen im Raum ebenso zu setzen wie auszulöschen und ihrer
Matrix einen piktoralen >Sinn< abzugewinnen, der wiederum über die Diskretheit der Schrift
hinausweist.
Das bedeutet, Spatialität überhaupt als leitendes Prinzip des Diagrammatischen
auszuweisen: Sie ermöglicht nicht nur, >Marken< zu unterscheiden, sondern durch Zuweisung
verschiedener Stellen oder Plätze im Raum ebenso logische wie deiktische Funktionen abzubilden,
die als topologische Strukturen sichtbar gemacht werden können.
Siehe auch Kapitel: Diagramme als Zwischenschreibung
Siehe auch Schema zur Rolle der Marke/Markierung
(S.105) (… weiter) Aus ihnen lassen sich einige Grundlinien des Diagrammatischen ableiten.
Zunächst bedarf es der Formatierung des Raumes, um Orte festzulegen sowie Metriken und
Skalierungen vorzunehmen, die die Inskriptionen ein festes Bezugssystem einbinden,
so dass als Grundbedingung jeder Diagrammatik der formatierte Raum fungiert.
Er beruht sowohl auf der Einteilung relevanter Felder, Zonen oder Teilräume, worin die
graphischen Elemente ihren Platz finden, als auch auf der Diskretierung des Raumes, der als eine
Zuordnung der Daten und ihre Figurierung erlaubt.
So bilden Kurven diskrete Anordnungen von Punkten im n-dimensionalen Raum, die durch
Interpolation und andere Glättungsmethoden, d.h. durch Algorithmen, in Figuren überführt
werden können.
An der Figuralisierung lässt sich ablesen, was die zugrunde liegenden Rechnungen im Modus
der >Zahl< nicht darzustellen vermögen.
Figuralität und mithin Räumlichkeit fallen auf diese Weise eine unmittelbare epistemische Rolle zu.
Zum Begriff der (Denk)Figuren und der Gestalt s.o.
Die Methoden der „Glättung“ passen auch sehr gut zum Konzept der „Glätte“
(also zu komplex gekrümmten glatten Erscheinungen) bei Deleuze
(S.106) (… weiter) Dabei werden die Unterschiede nicht als Differenzen zwischen >Marken<
modelliert, so dass wir es nicht mit einem genuin diskursiven Schema zu tun haben, sondern als
Unterschiede räumlicher Strukturen, so dass es sich um >spatiale Differentialitäten<
handelt, die mittels Kontrasten, Lücken, Abständen oder nichtbesetzten Plätzen usw. arbeiten.
Ihre Textur konstituiert jenen >visuellen Operationsraum<, der die Struktur visueller
Argumentationen im wesentlichen als eine topologische ausweist.
Allerdings kommen solche Argumentationen ohne Abschneidung ästhetischer Funktionen nicht
aus. Es handelt sich also gleichsam um graphische Abbreviaturen oder Schemata, deren Basis
>notationale Ikonizitäten< darstellen, die die Repräsentation >sytaktischer
Strukturbildlichkeit< ermöglichen, wobei bemerkenswert ist, dass der Verbildlichung auf diese
Weise logische Verhältnisse eingeschrieben werden können, die dem Bild sonst fehlen.
(S.106) (… weiter) Man kann deshalb sagen, dass die diagrammatischen Hybride ein neues
Genre bilden, das in einem strikten Sinne weder dem Bildlichen noch dem Schriftlichen angehört,
auch nicht >zwischen< ihnen liegt, sondern Logik und Ikonik bzw. Visualität und Diskursivität
miteinander verschränkt.
Damit erfolgt eine klare Abgrenzung von (mimetischer) Bildlichkeit.
Die Verknüpfung mit der Logik erfolgte ja bereits von Peirce vor hundert Jahren.
Auf jeden Fall Verortung der Diagramme bei S. Krämer nun relativiert; sie hat ja die
Hybridität in Bezug auf Text und Bild thematisiert.
(S.106) (… weiter) Wissenschaftliche Visualisierungen, wie sie vor allem auf der Basis
graphematischer Verfahren wie MRT, Röntgenspektrogramm, Sonden- und Tunnelrastermikroskopie usw. entstehen und digital aufbereitet werden, sind von dieser Art,
weil sie ebenso Aussagen treffen, die richtig oder falsch sein können, wie sie deiktisch operieren.
Sie übernehmen dabei unterschiedliche Funktionen wie Klassifikation, Sortierung, Typologie oder
Rasterung, die gleichermaßen der Verdichtung und Bündelung von Daten und deren Dynamisierung
dienen, wie sie gleichsam mit >Kartographien< konfrontieren, die auf paradoxe Weise etwas
sichtbar machen ohne optisches Korrelat.
(S.106) Abschnitt: Graphen und Bildlosigkeit der Mathematik
Bestimmen demnach spatiale Ordnungen die Medialität des Diagrammatischen, konstituieren
sie sowohl ein visuelles als auch diskursives Feld des Wissens.
Vergl. das Buch: D. Mersch / Medientheorien – zur Einführung
Das Kapitel zu N. Luhmann wirft die Frage auf, wie die Sichten zur Diagrammatik zum
Begriff der Medialität stehen. „…. Sie denkt in Kombinationen, Ordnungen, Baukästen
oder Strukturen, nicht in Materialitäten, woran sich ihr Ästhetisches erst manifestierte.“
Hier wird nun die spatiale Ordnung als zentrales Moment benannt.
Medien stellen Repräsentationstechniken zur Verfügung, die idealerweise semantisch
„neutral“ sein sollten. In der Diagrammatik sind es die spatialen Ordnungen, die als
Trägermedien fungieren. Gerade auch in der Diagrammatik kann von a-semantischen
(medialen) Dienstleistungen gesprochen werden.
Diagramme sind also Medien, deren Medialität in spatialen Ordnungen fundiert ist.
Wenn man bei komplexen Abläufen den zeitlichen Verlauf mit herein nimmt, dann
scheinen Bezugnahmen auf Computersimulation und Film-Medien relevant zu sein.
(S.106/107) Die dabei entstehenden Diagrammatiken erweisen sich jedoch als prinzipiell
mehrdeutig, weil ihre Raumstrukturen unterschiedliche >Abzeichnungen< desselben
Datenmaterials zulassen.
Vergleiche die Nebelkammer als Medium – „.... es zeichnet sich etwas ab ....“
(S.107) Generell kann als diagrammatische Grundregel angenommen werden, dass die
Eindeutigkeit des Wissens sich zum Grad der Ikonizität umgekehrt proportional verhält:
Je mehr ikonische Elemente in die Darstellung eingehen, desto uneindeutiger wird sie, weil sie
unterschiedliche Alternativen zulässt.
Mit dem Grad der Ikonizität wird die „mimetische Bildlichkeit“ angesprochen.
Nicht gemeint sind damit „Glättungen“ die zu physiognomisch lesbaren aber völlig
abstrakten Figurationen führen.
Es sind also Physiognomien mit organischem Hintergrund von den völlig abstrakten,
komplex gekrümmten Figurationen zu unterscheiden.
Formal gesehen sind aber Übergangsformen, also ähnliche Gestalten sehr wahrscheinlich.
(S.107) (… weiter) Umgekehrt schneidet der Graphismus die Ambivalenz des Bildes ab.
Das gilt im eigentlichen Sinne vor allem für Graphen als Untermengen von diagrammatischen
Visualisierungen.
Sie lassen (sich) gemäß der Graphentheorie als >mathematische Modelle für netzartige
Strukturen< verstehen, die im wesentlichen durch zwei Arten von Objekten bestimmt sind, nämlich
Orte (>Knoten<) und Verbindungen (>Kanten<).
Siehe: Dialektik der Knoten und Kanten
(S.107) (… weiter) Die Definition ist hinreichend allgemein, so dass alle Netzstrukturen aus
Kombinationen beider Objekte hervorgehen; doch zeigen sie sich gegenüber ihrer visuellen
Darstellung insofern als resistent, als allein ihre Strukturalität entscheidet, nicht ihre
Ikonizität.
Graphen zeichnen sich damit durch ihre weitestgehende Abstraktion von piktoralen Elementen aus,
wobei die Tilgung der ästhetischen Mittel eine notwendige, nicht hinreichende Bedingung
darstellt.
Dies ergibt sich schon daraus, dass sie strukturell äquivalent sein können, auch wenn ihre
piktoralen Darstellungen im einzelnen differieren.
Isomorphie ist folglich eine Eigenschaft ihrer Syntax, nicht ihrer Bildlichkeit.
Es ist also unerheblich, ob die Kante als Rohr, Stange, Ast, Rebe oder Kette dargestellt
wird. Nur syntaktisch ausdefinierte Eigenschaften für die Gerichtetheit der Kante, der
Beziehungsstärke und der Beziehungstype sind der Kern des Graphen.
Der Rest ist eine Frage der Ausschmückung oder deutlicheren Lesbarkeit und auch der
ästhetischen „Verspieltheit“.
(S.107) (… weiter) Entsprechend erscheint ihre jeweilige Visualität mit Blick auf die dargestellten
Netzstrukturen als irrelevant; vielmehr waren sie jenes Minimum an visueller Evidenz, wie es für
die räumliche Anordnung der relationalen Schemata unerläßlich ist.
Dabei folgt die Unabhängigkeit des Graphischen vom Ikonischen aus dem Vorrang der
Mathematik, der Geltung der Bilder nicht Bedarf.
Der Begriff der „Strukturalität“ im darüber liegenden Absatz gefällt mir besser, da er
für Diagramme und Graphen funktioniert. Das mathematische Argument ist eher für
die Graphen umfassender gültig; für bestimmte Diagramme geht mir die Formulierung
zu weit, auch wenn die Graphentheorie jede Netzstruktur auch mathematisch erschließt.
Auch mit der Begrifflichkeit der Logik kann man nicht jede Repräsentationstechnik
umfassend abdecken (vergl. Expertensysteme und komplexe Datenbanken).
(S.107) (… weiter) Zwar ist die Mathematik nicht bilderlos, wie der Streit zwischen Geometrie und
Algebra belegt, doch fungieren die geometrischen Objekte selber nur als abstrakte Figuren, an
denen nicht ihr >Aussehen< (eikon), sondern ihre formale Konstruktivität aus Zirkel und Lineal
interessiert.
Zudem hat die Algebraisierung der Mathematik seit Descartes und der Logik seit Bool den Einfluß
des Geometrischen und damit auch Visuellen zurückgedrängt, so dass nicht das Piktorale das
Graphische determiniert, sondern die jeweilige Vorschrift oder Regel.
Dennoch sind auch Graphen, die seither die analytische Geometrie, Topologie oder Kombinatorik
beherrschen, nicht ganz auf den Graphismus der Schrift rückführbar.
(S.108) Zur Chaosmathematik ....
(S.108) Ihre Strukturen treten figural hervor, so dass die vermeintlichen visuellen Erkenntnisse
zuletzt auf figuralen fußen, die als Anzeigen fungieren, nicht schon als Beweise.
Die Sichtbarkeit der Logik und die Visualität des Denkens finden daran ihre Grenzen.
Sie beziehen sich auf Figuralität, nicht auf Bildlichkeit im eigentlichen Sinne.
Der Begriff der Figuralität ist auch sehr gut geeignet eine Brücke zwischen der
Diagrammatik und der Graphematik zu schlagen. Diese Begrifflichkeit fand auch für
die Sammlung der 400 Denkfiguren (der Diagrammatik) ihre Anwendung.
Ordnungsfiguren sind für unterschiedlichste Medien relevant und zeigen sich in Text,
Bild und Zahl. Je nach Anwendungsbereich haben sich Figurationen unterschiedlichster
Komplexität als brauchbar herausgestellt.
Der Begriff der Figuralität ist für die „glatten“ und die „gekerbten“ Aspekte brauchbar.
(S.108) (… weiter) Ersichtlich wird daraus, daß alle diagrammatischen Visualisierungen,
insbesondere aber Graphen, um interpretiert werden zu können, der Konventionalität und
Regelhaftigkeit bedürfen.
Keine Wissenschaftsvisualisierung kommt ohne Legende oder diskursiven Kommentar aus.
Nicht nur verweisen Schrift und Bild im Diagrammatischen aufeinander, sondern die Diagrammatik
selber erfordert den Text, der sie deutbar macht.
Welche Funktion das Ikonische innerhalb der Wissenschaften auch immer einnimmt – sei es al
Skizze, Heuristik, Strukturdarstellung oder Wissensorganisation -, immer erfüllt es ein
>Programm<, das durch den Diskurs noch beglaubigt werden muß.
Modelle, Netze, Karten etc. gleichen daher Instrumenten, die, wie mechanischen, auf das
gesamte szientifische Dispositiv bezogen bleiben.
Insofern entmaterialisieren diagrammatische und graphematische Visualisierungen das
Bildliche und beschränken es – anders als die Kunst, deren Darstellungen stets ins Materielle
eingelassen bleiben – auf die Form.
Diese Kette „Modelle, Netze, Karten“ paßt sehr gut in den dreischichtigen GrundtypenAnsatz >Karten, Diagramme, Modelle/Pläne<, wobei der Begriff Diagramm vermieden wird,
der ja auch für das Ganze steht und durch jenen Typ ersetzt wird, der in größter
Anwendungsstückzahl vorliegt. Außerdem wird der „stärkere“ Modell-Begriff dem Plan
vorgezogen. Karten, Netze, Modelle
Vergleiche auch die abgrenzende Diskussion von Diagramm und Dispositiv.
Dieser Aspekt der Entmaterialisierung kann auch mit Hilfe des Medienschemas gut gezeigt
werden. So sind es speziell 2 der 4 Eckpunkte im Schema, die für die Graphematik und die
Diagrammatik wenig zu bieten haben (die Sicht der Zeichen und die Sicht der Materialiät).
Die Sicht der Physiognomien ist ja zumindest für die Graphematik von Bedeutung.
An anderer Stelle wurde besprochen, daß die Sicht der Materialität aber soweit relevant zu
sein scheint, daß (mit Derrida) klassische >Zeichen< von >Marken< und Diagramme von
Graphen unterscheiden werden könnten.
Mit Kubler wurde (im Abschnitt: Verwendungssinn) bereits besprochen, daß man sich in
einigen Bereichen auch analytisch wieder mehr auf die Form bzw. auf Form-Reihen
konzentrieren sollte. Die Entwicklungen der Formen haben ihre eigene (außersprachliche)
Logik, die es mit den Formen selbst zu zeigen gilt; umso mehr, als die Verbalbegrifflichkeit
bei Formen kaum ausgestattet scheint.
(S.108) (… weiter) >Aber was macht einen Plan zum Plan?<, fragt darum Wittgenstein,
„d.h. was unterscheidet ihn von einem beliebigen Gekritzel? (...)
Zu dem Plan gehört die Regel der Übersetzung (...).
So ist der Plan offenbar ein nützliches Instrument. Und das rechtfertigt seine Untersuchung seiner
Wirksamkeit/Funktion.“
Deswegen genügt es auch nicht, „um den Plan zu verstehen (...), dass ich diese Zeichnung sehe
(...). Ich muß auch wissen, was es heißt, einem Plan zu folgen.“
In diesem Zusammenhang ist es spannend anzumerken, daß Astrit Schmidt-Burkhardt
die Ebene des Planes (im Grundschema) als den „imperativen Zugang“ bezeichnet hat
und die erste Grundzuordnung von Personen und Zeiträumen Wittgenstein (als zeichnenden
Philosophen) als Idealbesetzung erscheinen läßt.
(S.109) (… weiter) Doch ist damit zugleich ein grundlegendes Problem angezeigt. Denn
Wittgenstein macht deutlich, dass diese Operation zuletzt bodenlos bleibt, weil sich kein Plan
selbst erläutert.
„Ich möchte sagen: einen Plan verstehen muß schon heißen, ihn anwenden“, wobei die
Anwendung keiner weiteren Regel folgt, denn damit „würde wieder ein neuer Plan erzeugt, der der
Erklärung so bedürftig wäre wie der erste.“
Das bedeutet: „Ich brauche keine weitere Abbildung, die mir zeigt, wie die Abbildung vor sich zu
gehen hat, wie also die erste Vorlage zu benutzen ist, denn sonst brauche ich auch eine Vorlage,
um mir die Verwendung/Anwendung der zweiten zu zeigen usf. ad infinitum. (...)
Der Plan ist als Plan (...) nicht zu beschreiben.“
Im Abschnitt zum „Verwendungssinn“ bin ich auch an diese Grenze gestoßen, bzw.
bei der Frage vom Anwendungswissen. Wir müssen bei relevanten Anwendungshandlungen dabei gewesen sein. Das können eigene Versuche sein, aber in der
Regel sind diese Handlungen in die Kommunikation eines je relevanten
Denkkollektives eingebettet.
(S.109) (… weiter) Man müßte hinzusetzen: Graphen und diagrammatische Strukturen sind
nicht selbsterklärend.
Sie funktionieren eben nicht als Bilder, die etwas sehen lassen und sich im Zeigen erschöpfen,
weshalb kein Hochtechnologiebild aus seiner Sichtbarkeit alleine entschlüsselbar wäre.
Seine Lesbarkeit verlangt vielmehr noch der Theorie als Erklärungsrahmen, aus der es hervorgeht
und ohne die es nicht existierte, so dass wir es mit einer Indiffrenz zwischen Argument und
Instrument zu tun bekommen.
(S.109) (… weiter) Abschnitt: Ontologisierung diagrammatischer Strukturen
(S.109) (… weiter) Diese Indifferenz macht indessen den prekären Status der
Wissenschaftsvisualisierung im Zeitalter des >errechneten Bildes< aus.
An sie knüpfen sich zwei grundlegende Probleme, die die Frage, was sie darstellen oder worauf sie
verweisen, prinzipiell unbeantwortbar machen.
Der erste Instabilitätspunkt entsteht dadurch, daß das, was sie zu sehen geben, auf instrumentell
erzeugten Datenmengen beruht, die erst vermöge graphischer Algorithmen in Bildpunkte übersetzt
werden müssen.
(S.110) Soweit jedoch das Sichtbare keinen Rekurs auf sein Ausgangsmaterial zuläßt, weil es nicht
länger als dessen >Spur< oder >Abdruck< , sondern als >Information< fungiert, bleibt die
visuelle Präsenz des Errechneten gegenüber seiner zugrunde liegenden technischen und
algorithmischen Tiefenstruktur ein Oberflächliches, dessen Quellen verdeckt bleiben.
Dazu finden sich im Buch >image & logic< von Peter Galison spannende Überlegungen zu
zwei „Maschinen-Kulturen“ der Teilchenphysik. Für die eine Tradition ist der Begriff der
Spur nach wie vor gültig (man will das physikalischen Ereignis als Spur festhalten).
Mit Hilfe der Informatik sind nun beide Traditionen und auch Maschinentypen als
Kombinationstechnik verfügbar, wobei die zweite Tradition (mit ihren logischen bzw.
statistischen Ansätzen) in der Ergebnisvisualisierung bei der Anschaulichkeit der ersten
Tradition profitiert. Siehe dazu Kap. 8 der Diagrammatikstudie (LINK).
(S.110) (… weiter) Wir haben es hier zwar grundsätzlich mit jener Paradoxie zu tun, dass ein
Medium sichtbar macht, ohne die Weise seiner Sichtbarmachung, d.h. auch seine
Produktionsbedingungen und deren Dispositive, mit sichtbar zu machen, doch erzeugt diese
Paradoxie in Bezug auf die technischen Bilder eine Opazität oder Intransparenz, die mit dem
Grad der Programmierung wächst.
(S.110) (… weiter) Die zweite Problematik ergibt sich aus den Verfahren des Computerdesigns und
seiner digitalen Bildbearbeitung selbst. Denn durch spezifische Softwareangebote werden die
diagrammatischen oder >graphematischen< Visualisierungen referenziellen Bildern
zunehmend angeähnelt. ...
(S.110) Hinzu kommen zahlreiche Interpolationsverfahren, die Datenlücken ausgleichen, sowie
Methoden der Datenkompression, der Rauschunterdrückung, Glättung und Filterung, die die Bilder
bereits auf der Programmstruktur modellieren.
(S.110) Ihr wichtigster Punkt ist dabei die Einschreibung von Bildstilen und Wahrnehmungsgewohnheiten, die zwar den Visualisierungen seit je als imaginäre Verfahren implementiert wurden,
die nunmehr aber zu den einschlägigen Tools der Softwarepakete selber gehören, so dass diese gar
nicht mehr anders können als in die graphischen Bildproduktionen die perspektivischen Raster der
Projektionsgeometrie, Fluchtpunktkonstruktionen, kohärente Licht- und Schattenwürfe,
Objektumrisse, Farbgebungen, fließende Bildübergänge usw. einzutragen. ...
(S.111) Mithin läßt sich eine Tendenz zur Einschreibung ästhetischer Regeln feststellen, die schon
auf der Ebene des Algorithmus den abstrakten Bildern einen konventionellen Bildrealismus
aufzuerlegen suchen.
(S.111) (… weiter) Hier beginnt die >Ideologie< der Bildlichkeit, ihr impliziter Illusionismus.
Er gemahnt an räumliche Objekte, deren Eindruck sich mimetischer Evidenzverfahren verdankt, die
die Visualisierung nicht länger von der Diagrammatik her als Darstellung einer topologischen
Ordnung oder eines Graphen versteht, sondern als Bild von Gegenständen mit eigener Identität
und Kontur.
Sie avancieren zu stabilen und damit erforschbaren Objekten in der Welt.
Wir haben es also mit einer Transponierung von diskreten graphischen Strukturen zu ontologischen
Entitäten zu tun, die mit dem Nimbus versehen sind, Eigenschaften zu besitzen und im Sichtbaren
als verfügbare, veränderbare und bestimmbare Dinge aufzutreten.
(S.111) Abschnitt: Unentscheidbarkeit der Referenz
(S.111) Die digitale Bildbearbeitung impliziert damit eine Verdinglichung. Sie überführt kraft ihrer
ästhetischen Vorentscheidungen diagrammatische Skripturen in mimetische.
Der Haupteffekt gilt dabei der Verwischung der digitalen Zuordnung. Sie löscht die Schriftzüge der
Graphen zugunsten eines analogen Scheins aus und verwandelt deren graphematische
Ordnung in eine referenzielle.
Dann erweist sich ihr epistemischer Status als prekär, weil keine eindeutige Trennungslinie mehr
besteht. Eines der schlagensten Beispiele dafür sind die >Bilder< der Nanotechnologie.
Diese zwei Sätze haben es in sich :) Wenn man sich das Medienschema in Erinnerung ruft,
dann erfolgt hier eine Übersetzung von (quasi linearen) graphischen „Skripturen“ in
komplex gekrümmte (mimetische) Physiognomien. Dies erinnert auch an die
Unterscheidungen bei Deleuze: Linien die Punkte verbinden (Kerben) /vs/ Linien die
komplexe Flächen zwischen Punkten aufspannen, also in ihren Bewegungen zwischen
den Punkten Physiognomien abtasten bzw. ausformen (also die Punkte nicht nur einfach
verbinden).
Diese Übersetzung bringt die Ästhetik (lt. Mersch zwingend) mit ins Spiel, wobei ich es eher
vorziehe die ästhetische Sicht als Parallel-Ebene darzustellen, da sie in allen medialen
Hauptsichten (mehr oder weniger) eine Rolle spielen kann.
Die digitale Bearbeitung/Verarbeitung bringt den analogen Schein ins Spiel.
(Vergl. dazu die „digitalen Passagen“ von B. Siegert)
Mit dem Begriff der Verwischung werden folgende Aspekte mit angesprochen:
weg von diskreten Einheiten/Datenpunkten zu komplexen gekrümmten Oberflächen;
weg von den digitalen Codes hin zu analogen Erscheinungen;
weg von den coolen bits hin zu den atmosphärischen Verwischungen;
weg von selbstbezüglichen Verwebungen hin zu referenziellen Ordnungen.
Der Begriff der Verwischung erinnert auch an die „Diagrammatik“ (=Graphematik)
bei F. Bacon (Siehe Text von Deleuze)
Diese Verschiebung läßt auch die Konzepte von Saussure bzw. Frege bzgl. >Sinn und
Bedeutung< wieder ins Spiel treten. Siehe dazu die Detailbetrachtungen (Link).
Repräsentationstechnische Grundsatzentscheidungen und die Frage der „referenziellen
Ordnung“ scheinen nun auch für die Diagrammfrage zentral zu werden.
Kompliziert wird das nun hier noch dadurch, daß auch die Differenz zwischen
mimetischen Bildern und Graphen entlang dieser Unterscheidung gedacht wird.
Würde nun mit der Ästhetisierung der Diagramme/Graphen eine Referenzialität mit ins
Spiel kommen? Aber welche „Informationen“ wird hier ästhetisch transportiert?
Wenn einerseits die Materialität ausgeschaltet wurde, welche Aspekte bleiben nun fern
ab von individuellen Ausdrucksgesten?
Oder versucht man lediglich dem Wahrnehmungs- und Gedächtnisapparat ein paar
erfassungs- und merktechnische Zugeständnisse zu machen?
Genau genommen weiß ich noch nicht, ob es wirklich Sinn macht ästhetische Begrifflichkeit
ins Spiel zu bringen. Streng codierte Farbentscheidungen führen zu jederzeit
wiederholbaren Visualisierungen, die für ästhetisch gebildete RezipientInnen reizvoll oder
gruselig sein können.
Nur was heißt es wirklich, wenn nun Forscher (wie Lothar Krempel) beginnen die
Farbskalen der jeweiligen Disziplin zu normieren? Was hat das mit (Kunst)Ästhetik zu tun,
wenn sie mit Hilfe der bildenden Kunst Farbtafeln bzw. Sets definieren, die
wahrnehmungstechnisch günstig sind und in unterschiedlichsten Kombinationen gut
„harmonieren“ bzw. in der Wiedergabe von Datenmaterial optimal kontrastierend wirken.
Auch wenn einzelne Softwareentwickler die Ästhetik nun für ihre graphematischen
Visualisierungen bemühen, bin ich mir nicht sicher, der Ästhetik eine so wichtige
Übersetzerrolle zugestehen zu können.
Unser Wahrnehmungssystem kann gar nicht anders, als jede „ausdruckslose“
Diagrammgeste oder graphematische Geste auch ansatzweise „ausdruckshaft“ zu lesen
(Vergl. dazu das Buch zur Anthropologie des Ausdrucks). So erscheinen bestimmte
Graphen „energetisch expressiv“ zu sein, andere „minimalistisch“ etc.
Zu den Visualisierungen in der Nanotechnologie (Pseudoschatten) würde ich sagen, daß es
sehr schwierig ist feldhafte Erscheinungen zu visualisieren und man daher versucht ist,
wahrnehmungstechnisch einfacher faßbare Entitäten auszuformen, auch wenn das der
physikalischen Realität auf atomarer Ebene zuwiderläuft.
Nur welche Visualisierungsansätze zeichnen ein besser faßbares Bild? Welcher Ansätze
könnte aus anderen Bereichen übernommen werden?
(S.112) Wie die Quantenmechanik jedoch zuletzt zu einer Undarstellbarkeit subatomarer
Beziehungen gelangt, die sich nur mathematisch erschließen, bilden demgegenüber die
nanotechnologischen Visualisierungen lediglich >Abbildungen< mathematischer Funktionen.
Prinzipien der Identität, der Gestalt und Materialität, die einer >Sache< anhängen, werden
hinfällig.
(S.113) Wurden solche Unschärfen in frühen Veröffentlichungen bewußt beibehalten, so dass die
Medialität der technischen Erzeugung als Spur reflexiv im >Bild< mitaufbewahrt wurde, setzte sich
mit zunehmender technischer Perfektion und unter Rückgriff auf kommerzielle Softwarepakete ein
Ideal der Glättung durch, das die Konstruiertheit der Sichtbarmachung zu überdecken suchte.
Glättung und Unschärfe rücken als Begriffe immer mehr ins Blickfeld, wobei sie
darstellungstechnisch nicht im Widerspruch stehen müssen. Fluidale, nebelige Ansätze
können zu visuellen Glättungen führen, die nicht jede Unschärfe eliminieren.
Coole metallische Anmutung /vs/ weiche nebelartig flüssige Übergänge
(S.113) (… weiter) Entsprechend imitiert das Visualisierte eine kohärente Darstellung, die dem
Sichtbaren eine Referenzialität auferlegt, so dass wir es mit einer grundlegenden
Unentscheidbarkeit zwischen Denotat und Konstruktion zu tun bekommen.
Unklar bleibt dann, worauf sich die Visualisierungen beziehen oder ob sie überhaupt >etwas<
beschreiben, so dass zuletzt eine Instabilität zwischen diagrammatischen und referenziellen
Bildverfahren entsteht.
Die klare Kluft, die beide voneinander trennt, verliert entsprechend ihre Gültigkeit.
Es ist diese Instabilität, die den Kern der epistemischen Problematik computergenerierter
Wissenschaftsbilder ausmacht, gleichsam ihre immanente >Verblendung<,
ihr denotativer Schein.
Er impliziert einen Übergang vom Topologischen und Syntaktischen zur
Indexikalität mit allen Attributen der >Spur<, des Belegs oder des Existenznachweises.
Eigentlich ist hier der Übergang von einer Diagrammatik zur Graphematik bzw.
zur fluidalen AnDiagrammatik beschrieben. Die Graphematik hatte ja zumindest seit
J. Watt immer auch schon mit Spur (und der Sicht der Indexikalität) zu tun.
D. Mersch beklagt hier aber sicher nicht diesen Übergang bzw. die Unterschiede
zwischen Diagrammatik und Graphematik, sondern die mimetische Überzeichnung
in der Graphematik.
In Bereichen wie der Computertomographie wird die mimetische Verwandlung der
Graphematik unproblematischer verlaufen, da ja die dargestellten Aspekte ja
durchaus faßbare organische Realweltentitäten als Grundlage haben. Und die
zerstörungsfrei Einsichtnahme ist der Vivisektion allemal vorzuziehen.
(S.113) (… weiter) Nicht, dass solche >Bilder< auf nichts verweisen würden, doch ist der
entscheidende Punkt, dass wir nicht mehr in der Lage sind zu entscheiden, was ein Index,
ein Denotat ist und was Konstruktion oder Textur.
Das sehe ich nicht so kritisch, denn zB. im Bereich der Medizintechnik wird die
Software in der Praxis weiter entwickelt. Features und Darstellungsweisen, die
im Rahmen der Diagnose unbrauchbar sind, werden kaum Chance auf Bestand
haben. Umso mehr als die Softwarehersteller nur „Testprogramme“ und
„Forschungssoftware“ liefern, um die Letztverantwortung nicht vom Mediziner
auf die Maschine(inkl. Software) überantwortet bzw. übertragen zu bekommen.
Vielen Dank an D. Mersch für diesen Text, der wieder einige wichtige Schritte in Richtung
Graphematik und Diagrammatik setzen konnte.
Herunterladen