wissensdesign

mit digitalen medien wissen gestalten

Abstract

Die Arbeit an theoriefähigen hypermedialen Systemen geht von zwei Prämissen aus: der Abhängigkeit der Kommunikation von Materialität und der Dominanz technischer Systeme zur Erzeugung, Repräsentation und Nutzung von Komplexität.Wenn anerkannt wird, daß die Möglichkeiten und Grenzen medialer Repräsentation der Theorieentwicklung nicht äußerlich bleiben, so kann in der Interaktion mit digitalen Medien originäre Wissensproduktion erwartet werden. Kognitive Leistungen hängen hier überwiegend von gestaltungsrelevanten Parametern ab, wodurch sich bisheriges Wissensmanagement erweitert zu Wissensdesign.

Einleitung

In der Diskussion zum Thema Wissensorganisation kommen vor allem zwei Aspekte zur Geltung: Zum einen geht es um die grundsätzliche Frage, womit wir es überhaupt zu tun haben, wenn wir von Wissen sprechen. Hier geht es um Wissenstheorie oder Szientographie, um die Unterscheidung von impliziten und expliziten Wissensformen und um Stufenmodelle des Wissens. Zum anderen geht es um die Frage, wie sich Wissen darstellen, vermitteln und letztlich optimal nutzbar machen läßt. Hier geht es um die Kommunizierbarkeit und Organisation des Wissens.
Die Diskussion muß in beiden Bereichen geführt werden, weil es argumentative Klarheit darüber geben sollte, von welchen Annahmen ausgegangen wird, wenn Modelle der Wissensarchivierung, -aufbereitung und -vermittlung entwickelt und Dritten empfohlen werden sollen. Im Folgenden soll gezeigt werden, daß durch die mediale Aufbereitung und Darstellung von Wissen sich auch die Vorstellung und der Begriff des Wissens selbst verändern.

Im Begriff des Wissensmanagements werden die pragmatischen Aspekte im Umgang mit Wissen bisher aus zwei Perspektiven betrachtet: Informatiker befassen sich mit Informationsgewinnung (Data Mining, Data Warehousing) und mit Datentransfer, Protokollierung und Archivierung. Ziel ist die Bereitstellung effizienter und sicherer Verfahren zur Unterstützung vorgegebener Zwecke aus verschiedenen Anwendungsgebieten (u.a. Bibliothekswissenschaft, Management-Systeme, Produktionsprozesse). Wirtschaftswissenschaftler befassen sich mit entscheidungs- und planungstheoretischen Themen, mit dem Ziel der Optimierung von Informationsflüssen.

Im Zusammenhang mit den stetig wachsenden Möglichkeiten digitaler Medien und deren flächendeckender Verbreitung gewinnen neben Kognition und Kommunikation auch inszenatorische und dramaturgische Aspekte an Bedeutung. Hier öffnet sich ein neues Qualifikations- und Wirkungsfeld, für das der Gestalter prädestiniert ist. Seine Expertise in der Entwicklung von Formaten und Interfaces, sein kritisches Bildverständnis und die Ausrichtung auf Adressaten in konkreten Nutzungen finden hier neue Anwendungsfelder.

Das Potenzial neuer Medien für alternative Formen der Aufbereitung, Archivierung und Nutzung von Wissensbeständen wird aus gestalterischer Sicht vor allem durch folgende Merkmale wirksam:

  • Multimodalität
  • Bild, Text und Ton sind gleichberechtigt und simultan nutzbar, erhöhter Wirkungsgrad durch Anschaulichkeit und synästhetische Effekte
  • Konnektivität
  • Hyperlinks ermöglichen assoziative Indizierung
  • Interaktion
  • Non-Linearität schafft individuelle Nutzungsformen, in Verbindung mit dynamischen Medien werden neue Dramaturgien ermöglicht
  • Vernetzungsfähigkeit
  • gemeinsamer Zugang zu Wissensressourcen (Resource Sharing)
  • offene Systeme
  • Fortschreibung von Inhalten durch Forschungs- oder Interessengemeinschaften (Community Building)

Diese Bereiche stellen neue Forschungsfelder dar, die sowohl mit wissenschaftlicher Systematik als auch mit gestalterischen Experimenten zu erkunden sind (siehe hierzu 3.1. 3.5).
Den möglichen Vorteilen der genannten Punkte stehen Problemlagen gegenüber, die nur von interdisziplinären Teams gelöst werden können wie etwa „information overload”, Orientierungsverlust, Instabilität der technischen Basis etc.

Bisherige Anwendungen im Bereich der medialen Wissenssysteme nutzen das Potenzial der neuen Medien nur unvollkommen, da sie vor allem an zu geringer gestalterischer Distinktionskraft leiden.

Standardmängel verfügbarer Wissenssysteme:
  • Einer Ausschließungslogik folgend, die in der aristotelischen Kategorialanalytik ihren Ursprung hat, bieten verfügbare Wissenssysteme meist eine rein technisch-strukturelle Differenzierung des stofflichen Angebots, die sich an Prinzipien der Linearität, Kausalität und Zweckgerichtetheit orientiert, wie sie sich selbst im Umgang mit traditionellen analogen Medien nur unzureichend bewährt hat.
  • Qualitative Aspekte, also die Gesamtheit der ästhetisch-bildnerisch-gestalterischen Dimension kommen in diesen Anwendungen nur zum Einsatz, um die technische Strukturierung und Aufbereitung im Nachhinein zu unterstützen.
  • Medienadäquate Umsetzungen, die die Dimension der sinnlichen Affizierung, der Assoziationskraft, der Gestaltformation und Anschaulichkeit verknüpft mit den Möglichkeiten der Nonlinearität, einer kontrolliert eingesetzten Stochastik, Adaptationsfähigkeit und informationellen Geschlossenheit trotz modellhafter Ergebnisvorläufigkeit, finden sich dagegen kaum.
  • Die wichtige Ebene der emotionalen Beteiligung des Rezipienten wird ebenso unterschätzt, wie die Dimension der Anschaulichkeit. Gestaltung wird nicht als konstitutives Mittel begriffen, um Verstehensleistungen zu provozieren.
  • Bilder werden in der Regel illustrativ eingesetzt, die gesamte Anwendung wird nicht unter bildnerischen, sondern ausschließlich unter rational-informativen Aspekten erstellt und bewertet.

Das überwiegend anzutreffende Grundverständnis ist durch die historische Entwicklung aus den EDVTechniken abgeleitet und basiert auf dem Versuch der größtmöglichen Formalisierung von Prozessen, wie sie in der Problemraumhypothese der klassischen Künstlichen Intelligenz (KI) zum Ausdruck gebracht wird: eine vollständige Beschreibung des Problems ermöglicht die Differenzierung in Teilaspekte und daraus folgend die Angabe eines Algorithmus, der in endlichen Schritten eine Lösung generiert. Implizit wird hierbei vorausgesetzt, daß sich das Verstehen über die möglichst exakte Aufbereitung des Inhalts von selbst einstellt (Korrespondenzmodell).

Während ein solcher Ansatz für eng begrenzte, meist technisch geprägte Fragestellungen (well defined problems) noch hinreichend sein mag, wird zunehmend deutlich, daß im Umfeld steigender Komplexität und Dynamik zumal im Umgang mit der Ressource Wissen (ill defined problems) neue Modelle entwickelt werden müssen. Das Kohärenzmodell des Wissens basiert auf dem heutigen hermeneutisch orientierten Verständnis von Kognition und Kommunikation und geht davon aus, daß gelungene Verstehensleistungen auf der Aktivierung von Ressourcen beruhen, die nicht nur im rationalen, sondern auch im Bereich des Emotionalen und Vorbewußten angesiedelt sind. Es gilt, die fundamentale Verschiebung in die digitale Welt (Turing-Galaxis) als Notwendigkeit und Chance für einen Paradigmenwechsel zu begreifen und die bisher kaum absehbaren originären Möglichkeiten im Umgang mit Wissen zu erkunden. Dabei ergeben sich weitreichende soziale, ökonomische und rechtliche Folgen, deren Bewältigung die moderne Gesellschaft vor große Herausforderungen stellt.

2. Ansatz und Realisierung

Als Gestalter bieten wir eine Sichtweise an, die im Umfeld des Wissensmanagements bisher unterrepräsentiert ist, in der jedoch das größte Potenzial zur effizienten Nutzung der neuen Medien im Umgang mit Wissen vermutet werden darf.

Theoriebildung wird als modellierende Aktivität aufgefaßt: Das Modell ermöglicht die Implementierung von Annahmen. Als »epistemisches Ding« bedingt es die Art und Anzahl der Fragen, die gestellt und beantwortet werden können und konstituiert somit die kognitiven Rahmenbedingungen. Durch die Verwendung digitaler Modelle sind entscheidende Funktionen wie Repräsentation und Interaktion auf ein neues Niveau gebracht worden (z.B. virtuelle Sichten, realtime Verhalten und Interaktion in verteilten Umgebungen), wodurch neue kognitive Möglichkeiten entstehen.

Das gegenseitige Abarbeiten geistiger und konkreter Modelle kennt der Designer aus dem Entwurfsprozeß. Ein gestaltungsspezifischer Zugang, der auf ästhetischer und kommunikativer Kompetenz beruht, kann für die Erzeugung von Modellen genutzt werden, die »mind ergonomisch«, d.h. an die Funktionsweise menschlicher Kognition angepaßt sind.

Die Untersuchung der operativen Funktion der Theoriebildung liefert eine angemessene Grundlage für avancierte Gestaltungsaufgaben, wie die Modellierung von »Knowledge Spaces«, die Visualisierung komplexer Sachverhalte, die Navigation innerhalb verteilter Modelle und das »cognitive engineering« bei virtuellen Produkten.

Grundlegend ist die Thematisierung der Materialität von Kommunikation, die davon ausgeht, daß die verwendeten Zeichensysteme und ihre Repräsentationsformen den damit dargestellten Inhalten nicht äußerlich bleiben, sondern unmittelbar konstitutiv in diese eingehen.

Für den engeren Bereich der Sprache wurde dies im »linguistic turn« angesprochen. Es scheint heute, im Hinblick auf den Kontext allgegenwärtiger bildgenerierender Technologien geboten, diese Perspektive zu ergänzen zum »pictorial turn« (William Mitchell).

Die Wechselwirkungen zwischen dem Sag-, Zeig- und Denkbaren werden dabei wesentlich von gestalterischen und kognitiven Aspekten bestimmt, was in Begriffen wie »Information Architect« und »Cognitive Engineering« anklingt. Wenn angenommen wird, daß Medien nicht nur die Darstellungsmöglichkeiten von Wissen verändern, sondern in den Prozess der Wissengenerierung konstitutiv eingreifen, muß geschlossen werden, daß die neuen Medien bisher unbekannte Möglichkeiten für die Generierung neuer Wissensformen bieten.
Deren Erforschung orientiert sich an folgenden Desideraten:

  1. Angemessene Unterstützung kognitiver und neuronaler Prozesse
  2. Angemessene Darstellungsformen, bezogen auf den jeweiligen Inhalt
  3. Anpassung an die gegebenen pragmatischen Nutzungszwecke und -absichten

Theoretische Vorgaben finden sich in der konstruktivistischen Erkenntnistheorie, der Kybernetik zweiter Ordnung, der systemtheoretischen Ästhetik und der Gestaltungs- und Entwurfstheorie. Als Autoren sind hier u. a. zu nennen: Winograd, Günther, Maturana, Luhmann, v. Foerster, Brock, Dehlinger, Bonsiepe, Nadin.

Grundsätzlich geht es um den Wechsel von Korrespondenzmodellen zu Kohärenzmodellen. Danach gehört zum Wissen nicht nur das Faktenwissen und das symbolische Wissen, sondern auch die Dimension der vorbewußten, subsymbolischen Ebene. Wissen erstreckt sich von der Tätigkeit des Immunsystems und der Antikörper über die Kopplung von neuronaler Funktion und Aktorik (gefühlsmäßige Beurteilung, Intuition) bis hin zur sprachlichen Externalisierungsleistung. Gerade bei letzterer Dimension erfahren wir schmerzhaft, wie sehr jeder Versuch der Versprachlichung in Differenz zu kognitiven Vorgängen abläuft. Die Sprache ist der Engpaß der Kommunikation: sie ist nicht realitätserschließend, sondern realitätserzeugend. Sprache repräsentiert keine Wirklichkeit, sie ist Austausch- und Vermittlungsformat für Text- und Bildalgorithmen, die prinzipiell beliebig referenziert werden können.

3. Potenzial der neuen Medien Einzelaspekte

Bild, Text und Ton sind gleichberechtigt und simultan nutzbar

Das Wahrnehmungsangebot der neuen Medien ist gegenüber den traditionellen Vermittlungsformen erweitert. Bisher nur in einzelnen Medienformen realisierbare Darstellungen sind durch Medienintegration nun simultan und wahlweise verfügbar. Es ergeben sich vielfältige Synästhesien und gegenseitige Steigerung, Spiegelung und Brechung. Der bisher unterrepräsentierten Visualität kommt dabei besondere Bedeutung zu.
Mit der Entwicklung der digitalen Technologien sind die Möglichkeiten der Bildgenerierung automatisierbar und alltäglich verfügbar geworden. Damit einher geht eine Verschiebung der Möglichkeiten wissenschaftlicher Argumentation von der Wortsprache zu einem neuen Verständnis der Beziehung von Wort und Bild. In den Naturwissenschaften (insbesondere Medizin, Physik und Biologie) ist die wissenschaftliche Beweisführung ohne Bilder heute kaum noch denkbar (z.B. Röntgenaufnahmen, Computertomografien, Elektronenmodelle, Wetterkarten).
Auch in den Geistes- und Gesellschaftswissenschaften, in denen bildhafte Darstellungsformen traditionell als von geringerer Dignität angesehen wurden, artikuliert sich ein neues Interesse am „ikonischen Denken”. Frühe Formen bildgestützter Reflektion werden neu bewertet (z.B. Emblematiken und Wunderkammern des 16. und 17. Jhdts., sowie allegorische Darstellungen der Antike). Über den Sammelbegriff der „Imaging Sciences” wird versucht, die verschiedenen Fachrichtungen anhand ihres jeweiligen Interesses am Bild in einen fruchtbaren Austausch zu bringen. Während die alphanumerische Darstellung großer Datenmengen mit hoher Detailgenauigkeit die sinnvolle und effiziente Interpretation erschweren, ermöglicht es der Gebrauch bildlicher Repräsentationen, Informationen effizienter aufzufinden und komplexe Zusammenhänge schneller zu überschauen. Das alltäglich geübte Programm der Wahrnehmung, Abschätzung von Proportionen und Orientierung im Raum zu liefern, kann auch in virtuellen Welten zur Erzeugung kognitiv verwertbarer Muster genutzt werden. Aus unterschiedlichen Richtungen wurde die Funktion des Visuellen für kognitive Leistungen erforscht (z.B. Arnheim, Rudolf : Visual Thinking, 1969). Durch die heute alltäglichen bildgebenden Verfahren entsteht die Notwendigkeit, bisherige analytische Arbeiten durch synthetische zu ergänzen, die neuartige Bildwelten generieren und experimentell erkunden.

Non-Linearität schafft individuelle Nutzungsformen
»Interaktion« beschreibt eine wechselseitige Zustandsveränderung und kennzeichnet ursprünglich soziale Verhältnisse zwischen Personen. Inwieweit solche differenzierten Wechselwirkungen im Verhältnis zu Maschinen erreicht werden können oder bereits erreicht wurden, ist strittig. Wenn Interaktion als Kommunikation aufgefaßt wird und diese als das gegenseitige Eingehen von Verpflichtungen beschrieben wird, ist klar, daß Maschinen daran nicht teilnehmen können. Unstrittig ist jedoch ebenso, daß komplexe, immersive Systeme (virtual reality) einen anderen Grad an Interaktion ermöglichen, als einfache reaktive Maschinen (Lichtschalter).

In der Diskussion um angemessene Kriterien zur Gestaltung von Interfaces geriet aus dem Blick, daß es letztlich nicht darauf ankommt, das Verhältnis zur Maschine zu optimieren, sondern das Verhältnis zu einer Aufgabe. Daraus folgt die Forderung nach einem möglichst transparenten Interface (make the interface go away).

Entgegen früheren Vorstellungen totaler Automatisierung führt die Betrachtung einer (Mensch- Maschine)-Maschine zu einem prozeduralen Verständnis, das auf Regelkreisen zwischen Nutzer und Aufgabe beruht. Bezogen auf Wissenssysteme können damit kybernetische Beschreibungen entwickelt werden, die zu einem Entwurfsmodell der Theoriebildung führen.
Dieses ist gekennzeichnet durch:

  • jederzeitigen Einstieg: alles kann Ausgangsmaterial sein und Anlaß zur Reflektion geben
  • Rückkopplung, Steuerung durch rückfragende Schleife
  • Zeitverhalten
  • Vorläufigkeit der Modellbildung und inkrementelle Verfeinerung der Hypothesen

Damit wird ein Gegenmodell zur Problemraumhypothese der KI gefunden (vgl. 1.4). Der Antagonismus von Problem und Lösung wird überwunden und durch ein unabgeschlossenes Modell ersetzt, in dem Aufgaben nicht gelöst, sondern Problemfelder samt ihren definierenden Rahmenbedingungen in einem Möglichkeitsraum aneinander abgearbeitet werden und in dieser Tätigkeit die Produktion von Erkenntnis definieren. Dabei sind immer nur begrenzte Optima zu erreichen, die hinsichtlich des Nutzers, der Aufgabe, der Zeit und des Adressaten bestimmt werden.

Eine solche Interaktion stützt sich auf entsprechend avancierte Gestaltungsmittel, die vor allem auf die Integration dynamischer und synästhetischer Wirkungen zu achten hat. Dafür lassen sich aus traditionellen Medienformen Erfahrungswerte ableiten, wie Grafik, Film oder Bühne (vgl. Laurel, Brenda: Computers as theatre, Addison-Wesley 1991), aber ebenso ist Innovationskraft gefragt, um das Potenzial der erst durch Computer ermöglichten Dramaturgien experimentell zu erkunden und systematisch zu erforschen. Screendesign ist dabei nur ein kleiner Ausschnitt. Die Gesamtaufgabe lautet, Formate zu entwickeln, die situationsadäquate Möglichkeiten für Anschluß und Rückkopplung bieten. (vgl. Peter Wegner, 1997: Why Interaction is more powerful than algorithms, in: Communications of the ACM, May 1997, Vol. 40, No. 5, S. 80-91)

Gemeinsamer Zugang zu Wissensressourcen (ressource sharing)

Das oben genannte offene Modell ist heute unabsehbar verzweigt. Dies führt zu grundlegenden Verschiebungen in den Prozessen der Wissensgenerierung. Das ehemals alternativlose Modell der Wissensvermittlung war vertikal organisiert und hatte als Mengenmodell die Form einer Pyramide: In der Spitze sind einige Forscher, die Neuland erkunden, gefolgt von Experten, die einen überwiegend statischen Wissensfundus verwalten, darunter die Vermittler, die den Stoff an die breite Basis verteilen. Diese Wege kosten Zeit und sind mit Qualitätsverlusten verbunden: der unten ankommende Stoff ist häufig stark verallgemeinert, verdünnt und veraltet.

Im Zeitalter des Netzes können horizontale Modelle entwickelt werden: Resourcen sind theoretisch für jedermann und in Realtime verfügbar. Erkenntnisse werden nicht als theoretische Konstrukte absolut und statisch formuliert, sondern können als Erfahrungswerte direkt ausgetauscht und mit jedem Prozess der Rückkopplung optimiert werden.

Dieses idealtypische Modell begründet vollkommen neue Fragestellungen. Die Ebene der Vermittler wird, schon unter Effizienzgesichtspunkten, weiter eine wichtige Rolle spielen und angesichts unüberschaubarer Komplexität an Wichtigkeit eher noch zunehmen. Sie wird aber anders funktionieren müssen als bisher und vermutlich aus einer Mischung von menschlicher Dienstleistung und automatisierten Verfahren (Agenten) bestehen. Die Möglichkeiten und Gefahren netzbasierten Wissens rühren nicht nur an technische, sondern vor allem auch an soziale, rechtliche und ökonomische Fragestellungen. Es entsteht ein gesellschaftlicher Regelungsbedarf, der auch das Selbstverständnis von Berufsgruppen und die Legitimierung von Aussage- und Wirkungsansprüchen betrifft.

Fortschreibung von Inhalten durch Forschungs- oder Sammlergemeinschaften (Community Building) Die Themen »Was ist ein Autor?« (Foucault) und »Tod des Autors« (Barthes) wurden aus philosophischen Erwägungen schon früher gestellt. Heute gewinnen sie durch technische Breitenwirkung eine praktische und umwälzende Relevanz: Im Umfeld der Netze müssen Autoren eine neue Rolle finden.

Literarische, journalistische und wissenschaftliche Autoren sind nicht mehr klar positioniert. Ihre Alleinstellungsmerkmale (Zugang zu Personen und Ressourcen, Zugriff auf Publikationsorgane) sind nicht länger exklusiv. Avantgardistische Kunstströmungen haben schon lange die Rückkopplung von Lesern und Hörern und das Wechseln der jeweiligen Sprecherrolle gefordert (z.B. Brecht: Radiotheorie). Ergebnisse kollektiver Autorenschaft sind aber häufig fragwürdig geblieben.

Als Ausgangspunkte zur Entwicklung netzgemäßer Autorenschaft könnten die Verzettelungsmethoden unterschiedlicher Autoren dienen. Aus Literatur (Arno Schmidt), Kunst (Anna Oppermann) und Wissenschaft (Niklas Luhmann) ist die Arbeit mit hochgradig komplexen Archiven bekannt. Während deren Materialität in der Kunst sicher eine große Rolle spielt und in Form von Installationen präsentiert wird, sind die Zettelkästen und Methoden von Schmidt und Luhmann möglicherweise mit Gewinn in die Digitalität übertragbar. Die Frage ist, inwiefern sich solche idiosynkratisch organisierten Archive öffnen und anschlußfähig machen lassen.

Die in Selbstzeugnissen überlieferten Arbeitsweisen legen jedenfalls nahe, daß nur solche generativen Methoden den jeweils behandelten Stoffen noch entsprechen können. Insofern ist das Thema der verteilten Produktion keine Frage individueller Vorlieben, sondern ein aus der Sache selbst abgeleiteter Imperativ. Heute und zukünftig relevante Themen verlangen nach einer weiterentwickelten Reflektions- und Publikationsform. Avancierte Autoren haben dieses Wechselverhältnis von Stoff und Darstellungsmöglichkeit klar gesehen und versucht, ihren jeweiligen Möglichkeiten entsprechend einzusetzen (Benjamin, Wittgenstein, Deleuze/Guattari).

Heute ist nicht nur zu fragen, wie überlieferte Bestände netzgemäß zugänglich gemacht werden können, sondern vor allem, welche neuen Themen und Erkenntnismöglichkeiten durch die Arbeit mit netzbasierten Methoden generiert werden.

4. Zusammenfassung und Ausblick

Die Möglichkeiten der technischen Implementierung alternativer Strukturen zeigt die Konvergenz von Methoden technischer Pioniere und Themen der (post-) strukturalistischen Theorie. In diesem Umfeld sehen traditionell arbeitende Autoren ihre Kompetenzen schwinden und nennen als die zukünftig maßgeblichen Qualifikationen Programmierung und Design. Das Feld der kommenden Multimedia- Autoren wird dabei als »Wissensdesign« beschrieben, das durch folgende Merkmale gekennzeichnet ist:

  1. Die Konstruktion umfassender, monolithischer Gedankengebäude weicht dem Entwurf flexibel nutzbarer Strukturen, die aus Beständen (Texteinheiten, Bilder, Töne) und Operatoren (Verweise, Ansichten, Suchroutinen) gebildet werden.
  2. Die Ebene der Repräsentation ist keine nachgeordnete und beliebig zu realisierende Form vorher an anderem Ort entwickelter Inhalte, sondern sie bildet, in Form von Notationssystemen, den Schauplatz der gedanklichen Entwicklung. Die Bedingungen des Sag- und Zeigbaren gehen unmittelbar konstitutiv in das Denkbare ein. Darstellung und Herstellung bilden einen Funktionszusammenhang.
  3. Durch Modellierung, Visualisierung und Simulation werden neue mediale Erfahrungen ermöglicht, deren Anschauungs- und Interaktionsqualitäten neue Wissenstypen entstehen lassen.
  4. Wissensnetzwerke liefern Kommunikationsanlässe durch anschlußfähig aufbereitete Inhalte. Autoren und Rezipienten treffen sich auf einem medial vermittelten Schauplatz, dessen Effizienz wesentlich durch ästhetische und kommunikative Aspekte bestimmt wird. Die Erweiterung wissenschaftlicher Methoden um gestalterische Aspekte läßt neue Erkenntnis- und Aussagemöglichkeiten erwarten.

Damit ist ein maximaler Anspruch benannt: Die Gestaltung von Hypermedien eröffnet nicht nur neue Zugänge zu vorhandenen Inhalten, sondern ermöglicht neuartige Erkenntnisformen. Der »Second Order Autor« begnügt sich nicht damit, dieses von außen zu beschreiben und nur ÜBER die Medien nachzudenken, sondern er stellt sich der Forderung MIT ihnen zu denken, den Computer also als erkenntnisgenerierendes Medium anzuerkennen und experimentell zu erkunden. Ein solches Methodenbewußtsein verbindet aktuelles Denken und Produzieren in einer integrativen Gestaltungstätigkeit, die sich als »post-heroische« Theoriebildung begreift.

5. Impressum

Inhaltlich verantwortlich gem. § 55 II RStV:

Prof. Dr. phil. Stefan Asmus
Peter Behrens School of Arts
Hochschule Düsseldorf
Georg-Glock Straße 15
40474 Düsseldorf
asmus@asmus.de
Tel +49 211 4351-216

und

Prof. Peter Friedrich Stephan
Kunsthochschule für Medien Köln
Peter-Weltern-Platz 2
pstephan@khm.de
50676 Köln
Tel +49 221 201890

Gestaltung und Umsetzung

Steffen Preuß
mail@steffenpreuss.net

Rechtliche Hinweise, Urheberrecht

Die Veröffentlichungen auf diesen Seiten unterliegen dem deutschen Urheberrecht. Für Beiträge Dritter sind die Autoren selbst verantwortlich. Vervielfältigung, Bearbeitung und jede Art der Verwertung ausserhalb der Grenzen des Urheberrechtes bedürfen der schriftlichen Zustimmung des jeweiligen Verfassers. Downloads und Kopien dieser Seite sind nur für den privaten, nichtkommerziellen Gebrauch gestattet.