GWTF-Jahrestagung
Erlangen, 17.-19. November 2000

Transfer von Modellen zwischen Wissenschaftsgebieten

GWTF e.V.

Call for papers | Tagungsbericht | Abstracts

Die Übertragung von Modellen ist heute eine in allen Wissenschaftsgebieten akzeptierte Problemlösungsstrategie. Wir beobchten, daß Modelle, die in einem Wissenschaftsgebiet bereits etabliert sind, mehr oder weniger plötzlich in einem anderen Wissenschaftsgebiet auftauchen, allerdings dann ihres ursprünglichen Kontextes entkleidet und mit einem neuen Kontext versehen. Bekannte Beispiele für diese Strategien sind die Bionik und neuerdings die Sozionik, die Modelle aus der Biologie bzw. Soziologie auf die Bearbeitung technikwissenschaftlicher Probleme anwenden.
Der Modelltransfer variiert in verschiedenen Dimensionen. Die übertragenen Modelle können umfangreich sein oder nur aus einem einzelnen Begriff bestehen, ihr Abstraktionsgrad ist unterschiedlich, sie können unterschiedliche Funktionen haben usw. Auch kann der Modus des Transfers in unterschiedlicher Gestalt daherkommen (Metaphernmigration, Ko-Evolution von Konzepten in kooperativer Praxis, Abstraktion etc.) In jedem Fall steht aber das aufnehmende Wissenschaftsgebiet vor dem Problem einer Re-Kontextualisierung des Modells, und es können Reibungen zwischen 'Spender' und 'Wirt' entstehen.

Mit unserer Tagung wollen wir wieder die Behandlung des Themas durch die Wissenschafts- und Technikforschung mit einem Erfahrungsaustausch von WissenschaftlerInnen verbinden, die einen solchen Modelltransfer aktiv betreiben oder von ihm betroffen sind. Dabei soll es um folgende Fragen gehen:

1) Unter welchen Bedingungen kommt es zu Modelltransfers? Sind sie eine Notlösung, wenn andere Problemlösungsstrategien versagen? Wird systematisch nach zu importierenden Modellen bzw. - umgekehrt - nach deren ‚Exportchancen' Ausschau gehalten?

2) Sind Modelltransfers tatsächlich nützlich, oder handelt es sich nicht häufig um den Versuch, Originalität zu demonstrieren, ohne daß tatsächlich neue Problemlösungen möglich werden?

3) Auf welchen Wegen werden Modelle übertragen, und wie erfolgreich sind diese Wege? Ist z.B. das 'Mitbringen' von Modellen durch WissenschaftlerInnen und TechnikerInnen, die das Arbeitsgebiet wechseln, erfolgreicher als das 'Holen' von Modellen?

4) Inwieweit werden mit Modellen implizit auch Heuristiken, Weltanschauungen usw. transferiert, und welche Rolle spielen diese in den neuen Gebieten? Oder umgekehrt: Kann man Modelle überhaupt der sie hervorbringenden Methoden und (Theorie)techniken entkleiden, ohne sie im Kern zu verändern?

5) Welches Verhältnis entwickeln die 'Spender-Gebiete' zur externen Verwendung 'ihrer' Modelle? Welche Reibungen entstehen? Liegt hier eine der spezifischen Schwierigkeiten der Interdisziplinarität?

Diese Fragen können (und sollen auf der Tagung) aus unterschiedlichen Perspektiven behandelt werden. Die wissenschaftstheoretische Perspektive auf die kognitiven Probleme des Modelltransfers versteht sich gewissermaßen von selbst. In einer anderen, stärker soziologischen Perspektive wird erkennbar, dass Modelltransfers durch ganz unterschiedliche Handlungen und Interaktionen erfolgen können. Eine forschungspraktische Perspektive sollte uns auf das Ausmaß aufmerksam machen, in dem Wissenschaftler unterschiedlicher Disziplinen mit Modelltransfers und transferierten Modellen umgehen (müssen). Auch die Frage nach gescheiterten Modelltransfers ist in der forschungspraktischen Perspektive interessant. Eine wissenschaftshistorische Perspektive bietet die Möglichkeit, Trends und vielleicht sogar Makroprozesse - etwa die Diffusion von Modellen als Aggregateffekt einzelner Transfers - wahrzunehmen.

Um diese unterschiedlichen Perspektiven zu erschließen, sollen auf der Tagung Modelltransfers aus möglichst vielen Gebieten behandelt werden. Neben Analysen aus der Wissenschafts- und Technikforschung wünschen wir uns auch Beiträge von Natur- und Technikwissenschaftlern sowie Ingenieuren, die Funktionen und Probleme des Modelltransfers in ihren Disziplinen diskutieren.


Tagungsbericht von Rainer Hohlfeld

Die Tagung stand unter dem Thema „Transfer von Modellen zwischen Wissenschaftsgebieten“ und wurde lokal ausgerichtet und organisiert vom Interdisziplinären Institut für Wissenschaftstheorie und Wissenschaftsgeschichte (IIWW) der Universität Erlangen.

An der Tagung nahmen ca 30 WissensschafterInnen aus Philosophie, Soziologie, Sozionik, Informatik , Biologie und Wissenschaftsforschung teil. Da die z.T. ausführlichen Zusammenfassungen der Vorträge sowie Tagungsprogramm von der homepage der GWTF abrufbar sind, beschränke ich mich bei diesm Bericht auf die wichtigsten Diskussionspunkte.

Der Anfang der Tagung (Abendvortrag und folgender Vormittag) war den wissenschsaftstheoretischen und pragmatischen Fragen des Modellgebrauchs in den Naturwissenschaften gewidmet. In der Diskussion des Abendvortrages des Berliner Philosophen Holm Tetens wurde besonders der heuristische Wert von Modellen aufgegriffen: Modelle sind eine Quelle bei der Hypothesenbildung über noch unbekannte Wissensgebiete nach dem Schema: „wir tun mal so, als ob...“. Die Frage nach hinreichender Ähnlichkeit eines über Analogiebildung neu zu erschließenden Gebietes mit einem schon bekannten könne nur durch wissenschaftshistorische Fallstudien beantwortet werden, dafür ließe sich kein generelles Erfolgsschema angeben. Modelle könnten auch in die Irre führen.

Rudolf Kötter vertiefte den wissenschaftstheoretischen Aspekt des Tagungsthemas, indem er die unterschiedlichen Verwendungen des Modellbegriffs in den exakten Wissenschaften klarstellte und die Notwendigkeit einer gemeinsamen Metasprache vor allen Dingen bei wissenschaftlichen Kooperationen betonte.
In ihrer heuristischen Funktion könnten Modelle dem Wissenstransfer dienen, das wäre präziser als von „Modelltransfer“ zu reden betonte Lothar Läsker in einem ausführlichen Kommentar zum Tagungsthema am folgenden Tag.
Im Mittelpunkt von Lars Schusters Beitrag „Technisch motivierte Modelle in der Bewußtseinsphilosophie“ stand die Frage nach dem Verhältnis von Materie und Geist bzw. ihren wissenschaftlichen Protagonisten in Form von Neurologen und Philosophen im Mittelpunkt. Ohne in der Sache weiter zu kommen,- die ja ein schon seit 150 Jahren ungelöstes Problem darstelle - wurde doch immer wieder die tiefe Kluft und „Funkstille“ zwischen beiden Professionen konstatiert.
Nach einer weiteren Diskussion über verschiedene Typen von Modellbildung in den Wissenschaften, tauchte überraschend die Frage auf, ob die Gesellschaftwissenschaften überhaupt modellierungsfähig seien, denn sie würden ja vollständige Geschichten erzählen, an denen sich keine generalisierbare (und damit theoretisch modellierbare) Strukturen sichtbar machen ließen. Dem wurde mit dem Beispiel der Bildung der hochgradig abstrakten „Idealtypen“ in der Soziologie widersprochen.
An Martin Meisters Beitrag, der mit einem Spender-Wirt-Modell die Frage, was eigentlich beim Austausch/Kooperation zwischen Wissensgebieten transferiert/übersetzt wird, ausweitete, wurde vor allen Dingen die Analogiebildung beim Transfer problematisiert. Die Prozesse der Kooperation, des Austausches und des Ausborgens seien zu heterogen und vielschichtig, um zureichend als „Übersetzung“ gedeutet werden zu können.
Martina Merz brachte einen völlig neuen Modus des Modelltransfers ins Spiel: das Weiterreichen von theoretischen Modellen mittels Simulationsprogrammen aus der theoretischen in die experimentelle Teilchenphysik , in eine andere „epistemische Kultur“, zum Zwecke der operativen Umsetzung in ein Experiment. Die Diskussion zeigte Erstaunen darüber, daß die Experimentalphysiker das Simulationsprogramm lesen können, ohne die theoretische Struktur , die hinter der Experimentalanordung steckt, "verstanden" zu haben. Aber offensichtlich funktioniert das Verfahren. Nicht geklärt werden konnte, was mit dem theoretischen Modell passiert, wenn es in ein technologisches Objekt - das Simulationsprogramm - überführt wird.

Bei der Diskussion von Armin Grunwalds evolutionstheoreteidscher Modellierung der Technikentwicklung stand im Vordergrund die Frage nach dem Verhältnis und der Vereinbarkeit einer Theorie, die einen beschreibenden und externen Beobachterstandpunkt verfolgt mit einem handlungstheoretischen Ansatz aus Teilnehmerperspektive, der normative Elemente einer Technikgestaltung bei der Theoriekonstruktion einführt. Beide Perspektiven scheinen nicht ineinander überführbar zu sein; ihre Vereinbarkeit blieb ein offenes Problem. Stephan Peters aus Frankfurt unterstrich mit seinem Beitrag den heuristischen Wert von mechanischen Maschinenmodellen für die Rekonstruktion von evolutionären Transforamtionsreihen in der biologischen Abstammungsgeschichte. Die Diskussion bestätigte die Problemlosigkeit der Verwendung von Modellen in diesem Kontext.
Rainer Hohlfeld verknüpfte in seinem Beitrag über den „Modellimperialismus in der Biologie“ die Frage des Modelltransfers mit dem Problem des Theorienreduktionimus im Forschungsprogramm der Genetik und der Soziobiologie und kam zu dem Ergebnis, daß die neuere Soziobiologie eine konziliante Strategie verfolgt, die eher auf eine Vernetzung von Soziobiologie und sozialer Anthropologie als auf eine „Übernahmestrategie“ hinausläuft. Allerdings wurde seine an E. O. Wilson angelehnte Interpretation des Übergangs von der Biologie zu höheren geistigen Einheiten, von der Soziobiologie als „Meme“ definiert, am Beispiel des Mems des Farbensehens, in der Diskussion mit empirischen Einwänden erheblich in Zeifel gezogen.
Petra Ahrweiler nahm in ihrem Beitrag „Gene, Meme, Kene“ den Kategorienvorschlag der Soziobiologie auf und griff das Angebot von Nigel Gilbert 1997 auf, in Analogie zu den „Memen“ als kleinsten Kulturträgern Atome des Wissens (Knowledge) als „Kene“ zu definieren und schlug vor, über die Bildung von „Keneplexen“ formale Modelle für Innovationen (als Veränderung von Keneplexen) zu konstruieren. Inwieweit ein solcher „atomistischer Ansatz“ der Modellierung kognitiver Prozesse der Kontextabhängigkeit von kognitiven Einheiten gerecht werden kann, blieb in der Diskussion eine offene Frage.

Der Sonntagvormittag konfrontierte die KonferenzteilnehmrInnen mit der Sozionik, der Theorie und Praxis des Zusammenwirkens menschlicher (natürlicher) und künstlicher Intelligenz in Systemen Verteilter Künstlicher Intelligenz (VKI).Das Tagungsthema spiegelte sich in den beiden Beiträgen von Mario Hoffmann und Andrea Zarcula bzw. von Ingo Schulz-Schaeffer wider im Problem der Übertragung theoretischer und empirischer Ergebnisse der Soziologie zu Fragen der Kooperation auf Computersoftware, um Teamarbeitsprozesse zu erleichtern bzw. einfache Arbeiten wie Terminabsprachen an Maschinen zu delegieren.
Die Diskussion zeigte, daß bisher die kognitive Autonomie der künstlichen Agenten relativ gering ist, daß aber auch die Soziologie noch nicht allzuviele differenzierte Modelle kooperativer Arbeitsteilung in Teams anzubieten hat und daß der Transfer durchaus in beide Richtungen verlaufen knn, d.h. daß auch die Soziologie in ihrer Hypothesenbildung von z. Teil überraschenden Ergebnissen der VKI-Forschung profitieren kann.
Insgesamt zeigt die Tagung eine Vielfalt von Möglichkeiten der wechselseitigen Übertragung von Theoriestrukturen und Ergebnissen zwischen Wissensgebieten, die nicht so leicht auf einen theoretischen Nenner gebracht werden können. Ein Teilnehmer faßte die Erfahrung dieser pluralistischen Situation so zusammen: „I am confused, but on a higher level“.


Abstracts der Beiträge

Petra Ahrweiler

Universität Bielefeld
e-mail: petra.ahrweiler@uni-bielefeld.de

Gene - Meme - Kene
Wissenschaftssimulation als Interaktion konzeptueller Strukturen

Kategorien der Allgemeinen Evolutionstheorie organisieren die Analyse von sich selbst replizierenden Popula-tionen; die Populationen bestehen dabei aus Einheiten, welche dynamischen Prozessen der Variation und Selek-tion ausgesetzt sind. Der Versuch, die Dynamik von Wissenschaft als Interaktion konzeptueller Strukturen mit Hilfe der Allgemeinen Evolutionstheorie zu beschreiben, ist nicht neu. Beispielsweise identifizierte Toulmins Evolutionsmodell der Wissenschaftsentwicklung (Toulmin 1967) Konzepte, Überzeugungen und Interpretatio-nen als Einheiten (Gene) der wissenschaftlichen Entwicklung, welche Gegenstand von Selektions-, Variations- und Retentionsprozessen sind. Daran anschließend interpretierte Ackermann die Arbeiten von Kuhn und Popper vereinheitlichend als Anwendungen dieser Art von Wissenschaftsbetrachtung mit dem Unterschied der Bezug-nahme auf jeweils andere Selektionssysteme (vgl. Ackermann 1970).

Sehr aktuelle Arbeiten versuchen zur Zeit, im Kernbereich der Allgemeinen Evolutionstheorie einen “cognitive turn” einzuläuten: anschließend an “The Selfish Gene” diskutiert Dawkins (Dawkins 1989) die Idee eines kulturellen Replikators: des sogenannten “Mems”. Als Replikator wird eine Einheit bezeichnet, von der – mit gelegentlichen Fehlern - Kopien angefertigt werden, wobei diese Einheit allerdings die Wahrscheinlichkeit ihrer eigenen Replikation in gewisser Weise mitbestimmen kann. Obgleich Dawkins selbst das “Mem” als kultu-rellen Replikator nicht dem Gen als biologischen Replikator gleichstellte, wurde gerade diese Implikation von anderen Theoretikern vermehrt aufgegriffen (vgl. Dennett 1995, Blackmore 1999). “Meme” werden gewöhnlich im Bewußtsein von Individuen loziert (Memory); dort können sie mit beliebigen Bewußtseinsinhalten gleichge-setzt werden. Eine Ansammlung interdependenter Meme wird “Memeplex” genannt. Sind die Meme wirklich interdependent, können sie sich allein nicht mehr replizieren, und der “Memeplex” wird zum eigentlichen Repli-cator. Obgleich als „Meme“ schon Tänze, Melodien, Moden und Rituale vorgeschlagen wurden, gelten vor allem „Ideen“ als einschlägige kulturelle Replikatoren, die nur im „(Ideen-)Kontext“ als „Memeplex“ erfolgreich repli-zierbar sind.

Eine solche kognitive Orientierung erfordert nun aber die analytische Fokussierung auf Einzelbewußt-seine oder gar auf ein “kollektives Bewußtsein”, welches mit einem komplexen Set interdependenter Ideen (Memeplex) arbeitet, das kein Individuum für sich überblicken kann. Will man die sich replizierenden Einheiten aus ihrer Bewußtseinsbindung suspendieren, ohne die Kategorien der Allgemeinen Evolutionstheorie aufzuge-ben, bietet es sich an, wie Nigel Gilbert dies 1997 vorgeschlagen hat (vgl. Gilbert 1997: Paragraph 6.2.), von “Kenen” (“Knowledge”) als Einheiten von Wissenssystemen zu sprechen. Dabei werden Begriffe, Konzepte oder Sätze wie “Black Box”-Einheiten eines Theorie-Systems behandelt; diese Einheiten sind mit bestimmten Handlungskompetenzen und Reaktionskapazitäten ausgestattet und bewegen sich zueinander gemäß ihrer zuge-schriebenen Eigenschaften als Dynamik des Theorie-Systems. Die Kene als Einheiten sind allerdings semantisch unterbestimmt. Deshalb bleiben wesentliche Fragen unbeantwortet, wie zum Beispiel: welche Interfaces organi-sieren die Interaktion von “Ken”-Komponenten zur Formierung eines “Keneplex”? Auf welche Weise wird über die Zusammensetzung eines “Keneplex” entschieden?

Dieser Beitrag will nach genauerer Vorstellung der genannten evolutionstheoretischen Perspektiven de-ren Möglichkeiten und Grenzen an Hand der Resultate einer nach evolutionstheoretischen Maßgaben konzipier-ten Computersimulation illustrieren. Ein wesentlicher Kritikpunkt evolutionstheoretisch inspirierter Modellie-rung von Theoriendynamik in der Wissenschaft ist dabei, daß diese Dynamik eigentlich auf die theoriespezifisch geleistete Explikation von Bedeutungen, auf die sprachliche Interpretation von Objekten und auf die Referenz zwischen Interpretationsangeboten und Objektkonstitutionen angewiesen ist. Begreift man wissenschaftliche Theorien lediglich als Funktion von Selektionsprozessen und formuliert man Vererbungsregeln für deren Muta-tion und Rekombination, bewegt man sich innerhalb einer nur noch an Formen orientierten Modellierung. Doch nur über eine ständige theorie-intern ausgerichtete Vergewisserung über Inhalte ist die Struktur-Generierung möglich, welche sich dann ex post im Rahmen evolutionstheoretischer Terminologie formulieren läßt.

Hieraus motiviert sich ein eindringliches Plädoyer für einen sprach- bzw. inhaltsorientierten Ansatz zur Modellierung der konzeptuellen Theoriendynamik von Wissenschaft. Die evolutionstheoretisch inspirierte Dar-stellungsform muß auf diese - durch die Besonderheit der (sprachlich strukturierten) Domäne vorgegebenen - Bedingungen aufbauen. Nur so können Antworten auf Fragen gegeben werden, welche bisher wegen des Black Boxing vorhandener Modelle nicht beantwortet werden konnten: dies betrifft zum Beispiel solche nach den Interaktionsmechanismen der Genotypen, nach den Produktionsregeln für Phenotypen, nach den Kriterien für Mutation und Variation, nach der Bestimmtheit des Selektionshintergrunds etc. Dieser Beitrag stellt als Alterna-tive zur „schlichten“ evolutionstheoretischen Wissenschaftssimulation das SISiFOS-System (Simulating the Integration of Studies on the internal Formation and the Organization of Science) zur Diskussion und zeigt ab-schließend eine Möglichkeit, dieses in eine auch soziale Faktoren einbeziehende Computersimulation von Wis-senschaftsdynamiken einzubinden.

Armin Grunwald

Institute for Technology Assessment and Systems Analysis (ITAS)
Research Center Karlsruhe, Germany
e-mail: grunwald@itas.fzk.de

Evolutionstheoretische Modellierung der Technikentwicklung und die Frage der gesellschaftlichen Gestaltbarkeit von Technik

In der Technikgeneseforschung werden gegenwärtig vielfach (ökonomisch oder so-ziologisch geprägte) evolutionstheoretische Modelle zur Beschreibung von Technik-entwicklung diskutiert. Dabei werden Erklärungsmuster, teilweise auch Kernbegriffe aus der Biologie übernommen. Im Vortrag wird gefragt, wie der Schluß von dem Satz „Technik lässt sich evolutionstheoretisch beschreiben“ auf die Behauptung, dass Technikentwicklung Evolution ist, in methodischer bzw. wissenschaftstheoretischer Hinsicht einzuschätzen ist. Insbesondere werden die Implikationen dieser modell-theoretischen Kritik für die Möglichkeit erörtert, aus der evolutionstheoretischen Mo-dellierung Schlüsse auf die gesellschaftliche Gestaltbarkeit von Technik zu ziehen.

Mario Hoffmann/ Andreea Zarcula

Institut für Sichere Telekooperation (SIT)
GMD – Forschungszentrum Informationstechnik GmbH, Darmstadt
e-mail: hoffmann@darmstadt.gmd.de zarcula@darmstadt.gmd.de

Kooperative verteilte Teamarbeit in virtuellen Räumen
Kooperationsmodelle in Multi-Agenten-Systemen

Eingebettet in das Gesamtforschungsprojekt Kooperative Räume – Arbeitswelten der Zukunft (COR) bedurfte das Teilprojekt Virtuelles Projektbüro (VPO) einer intuitiv einsichtigen und effizienten virtuellen Repräsentation von geographisch verteilten Teammitgliedern und ihrer Arbeitsabläufe. In diesem Problemfeld erfordern insbesondere die aus der Realität zugrundeliegenden Kooperationsstrategien in solchen Projektteams eine gewissenhafte Umsetzung eines flexiblen Informationsaustauschs und eine realitätsnahe und effiziente Unterstützung der Kommunikation und Kooperation. Der vorliegende Beitrag wird versuchen darzustellen, wie einzelne dieser Kooperationsstrategien mit Hilfe eines geeigneten Modelltransfers in mobilen, selbstständigen Agenten abzubilden sind.

Mit dem Ziel einer möglichst einfachen Toplevel-Designsynthese zur Realisierung des Modelltransfers aus der realen Welt bezüglich größtmöglicher Autonomität und Mobilität der einzelnen Teammitglieder verbunden mit dem intelligenten Einsatz und der Integration arbeitsunterstützender Kooperations-Software, fiel unsere Wahl auf sogenannte Multi-Agenten-Systeme (MAS). Auf Benutzerebene erfolgt die Umsetzung der vertrauten Arbeitsumgebung in eine intuitive dreidimensionale Benutzerschnittstelle in Form von Arbeitszonen, die jeweils spezielle Kooperationsformen repräsentieren wie beispielsweise Konferenzzonen, Zonen für individuelle Einzelarbeit, Teamarbeitszonen und ähnliche. Die Präsenz der einzelnen Teammitglieder wird durch sogenannte Avatare – eine dreidimensionale virtuelle Repräsentation der Teammitglieder – dargestellt, die zudem dem direkten, individuellen Kommunikationsaustausch mit anderen Avatare dienen.

Wir können somit im Rahmen unseres allgemeinen Ziels, die Teammitglieder des Virtuellen Projektbüros durch intuitive und effiziente Kommunikation und Kooperation zu unterstützen, zwei Unterziele identifizieren. Als erste Herausforderung kristallisiert sich die Schaffung einer künstlichen, webbasierten Umgebung durch eine interaktive dreidimensionale Darstellung mit Hilfe von VRML (Virtual Reality Modelling Language) heraus. Zum zweiten sollen die Arbeitsabläufe auch ohne direkten menschlichen Eingriff mit Hilfe der mobilen Agenten unterstützt werden.

Ohne die erste Aufgabe zu vernachlässigen, die eher im Bereich Webdesign und Realisierung benutzerfreundlicher, graphischer Oberflächen anzusiedeln ist und für ein Gefühl von Vertrautheit, Gewohnheit und Authentizität Sorge trägt, liegt der Fokus im vorliegenden Beitrag auf dem Transfer von Kooperationsstrategien von realen Teams auf mobile Agenten. Die entscheidende Frage lautet demzufolge, inwieweit künstliche Agenten (also Software) derart gestaltet werden können, dass sie optimal, d.h. so autonom wie möglich, kommunizieren und kooperieren können. Insbesondere bedingt durch die soziale Komplexität des Büroalltags erwarten wir hier eine besondere Herausforderung für die in der Zukunft zu entwickelnde „beziehungsreiche“ Agentenwelt.

Als ersten Schritt in diese Richtung und gleichermaßen als einen der wichtigsten Aspekte ist die Abbildung einzelner Kooperationsstrategien anzusehen. Nach einer Projektteam-orientierten Definition von Kooperation im allgemeinen führt uns das Zusammenspiel von geographisch verteilt arbeitenden Teams im speziellen zu der Beschreibung von Kooperationsmodellen. Kooperation ist in diesem Zusammenhang vorranging im empathischen Sinne zu verstehen. D.h. der Nutzen für das Team und das Projekt stehen zwar nach wie vor im Vordergrund, basieren aber insbesondere, auf der Bereitschaft und der Fähigkeit der Einzelnen zur Kooperation und sich in den jeweils anderen hineinzuversetzen. Die Vielfalt an Kooperationen – von der einfachen Terminabsprache bis hin zu komplexen Koorperationsaufgaben im Namen der einzelnen Teammitglieder – führen dabei durchaus zu sehr unterschiedliche Strategien, die je nach Modell von egoistischen bis hin zu altruistischen Zügen geleitet werden.

In einer ersten Annäherung an Kooperationsmodelle für autonome, mobile Agenten werden wir die selbstständige Kompromisssuche für Terminabsprachen analysieren. Diese Fragestellung beinhaltet bereits den mehrfachen Austausch von Nachrichten zwischen mehreren Agenten auf der Basis der persönlichen und der Projekt-Terminplanung und der Priorisierung der einzelnen Termine. Im allgemeinen macht es beispielsweise wenig Sinn, Projekt-Termine hinter wichtige Meilensteine zu legen. Eine solche Randbedingung erhielte demnach eine entsprechend hohe Priorisierung.

Abschließend sehen wir in einem praktischen Teil die Simulation einer geeigneten Kooperationsaufgabe – hier die Terminabsprache – zwischen einer variierenden Anzahl von Agenten mit unterschiedlichen Priorisierungen vor. Dabei werden Fragen nach der maximalen Anzahl von nicht kooperativ handelnden Agenten, nach einfachen und komplexen Terminabhängigkeiten und nach einem geeigneten Grad der Priorisierung behandelt und wir hoffen, eine Vielzahl von Widersprüchen und Paradoxien beobachten zu können.

Rainer Hohlfeldt

e-mail: hohlfeld@bbaw.de

Der Modellimperialismus der Biologie

„Modellimprialismus“ der Biologie (Soziobiologie und Molekularbiologie) steht als Metapher für den Versuch, den Geltungsanspruch biologischer und biochemischer Theorien auf soziale ,kulturelle und biologisch komplexere Phänomene auszuweiten, d.h. diese zu Modellen der Evolutionstheorie bzw. der Molekularbiologie zu machen.

Beide Versuche sind eingebettet in wissenschaftliche Domänen übergreifende Reduktionismusprogramme: Im Falle der Soziobiologie sollen soziale und kulturelle Verhaltensweisen darwinistisch (entstanden durch genetische Variation, Selektion und Anpassung) also entstehungsgeschichtlich („ultimal“) erklärt werden. Eine schwächere Variante des „Imperialismus“ versucht lediglich, eine Anschlußfähigkeit genetischer und „epigenetischer“ Erklärungen herzustellen und eine Brücke zur kuturellen Evolution zu schlagen. Dabei wird analog zum Gen als kleinste Einheit kulturellen Verhaltens das „Mem“(E.O. Wilson/Lumsden) definiert.

Im Falle der Genetik wird die Theorie der Genwirkung und der zytologischen Genstruktur auf Physik und Chemie im Kontext eines Programmes der „Einheit der Natur“ reduziert. Inwieweit und um welchen Preis eine solche Reduktion gelingen kann, soll an den beiden Fällen. „Vom Gen zum Mem des Farbensehens“ und „Vom Chromosom zur DNS“ diskutiert werden.

Rudolf Kötter

IIWW
Universität Erlangen-Nürnberg
e-mail: Rfkoette@phil.uni-erlangen.de

Der Modellbegriff und seine Bedeutungen

Einleitung
Der Modellbegriff gehört wie der Theorie- oder Strukturbegriff zur Metasprache der Wissenschaften, die in erster Linie von Wissenschaftstheoretikern entwickelt und gepflegt wird. Fachwissenschaftler nehmen von diesen Bemühungen meist nur beiläufig Notiz, entsprechend vage und schillernd ist auch ihr Gebrauch dieser Begriffe. Im Folgenden soll als ein kleiner Schritt in diese Richtung versucht werden, die wichtigsten Bedeutungen, die in den üblichen Verwendungen des Modellbegriffs mitschwingen, heraus zu arbeiten und kurz vorzustellen.

1. Modell als ideale Beschreibung
Weit verbreitet ist die Auffassung, ein Modell sei eine Art Abbild der Wirklichkeit, bei dem von einem Realitätsausschnitt bestimmte, als relevant erachtete Merkmale so wieder gegeben werden, dass sie im Urbild wie in der Modell-Darstellung in der gleichen strukturellen Beziehungen zueinander stehen (man spricht deshalb auch von einem „partiellen Isomorphismus„). Zieht man von dieser Position den metaphysischen, abbildungstheoretischen Realismus ab, dann bleibt die Vorstellung übrig, dass ein Modell jedenfalls die Verdichtung, bzw. Idealisierung einer empirischen Beschreibung darstellt. D.h. wenn man von einer relativ zum Forschungsprogramm einer Disziplin korrekten Beschreibung eines Sachverhalts ausgeht, die sich z.B. in Protokollen von Experimenten oder Feldbeobachtungen verkörpert, dann kann man daran bestimmte Veränderungen, sog. "Idealisierungen" vornehmen: Wertverläufe werden geglättet, unterschiedliche Ausprägungen eines Merkmals in einer Individuengruppe durch den Mittelwert ersetzt, bestimmte Einflüsse als "vernachlässigbar" unterdrückt. das Ergebnis dieser Manipulationen ist eine idealisierte Beschreibung, die man auch als deskriptives Idealmodell bezeichnen kann.

2. Modell als Belegung einer Struktur
In der Mathematik und in stark mathematisch geprägten Wissenschaften (theoretische Physik, mathematische Ökonomie) wird der Modellbegriff häufig im Zusammenhang mit strukturtheoretischen Ansätzen gebraucht. Ausgehend von einem Axiomensystem A, welches aus einer bestimmten Anzahl von Aussageschemata besteht, kommt man zu einem Modell M dieses Axiomensystems, indem man seine Aussageschemata interpretiert (das Modell M stellt eine Belegung von A dar). Damit ist gemeint, dass man die Variabilitäts- oder Gegenstandsbereiche V der Quantoren festlegt und den Relatoren R, die die Beziehungen zwischen den Elementen von V herstellen, eine bestimmte Bedeutung gibt, so dass die dadurch erzeugten Aussagen den Bedingungen des Axiomensystems gehorchen und als „wahr„ ausgewiesen werden können. Die Gegenstandsbereiche V werden also durch die Relatoren R in einer durch das Axiomensystem A festgelegten Weise strukturiert; man sagt, dass zwei Axiomensysteme A und B die gleiche Struktur darstellen, wenn jedes Modell M von A auch Modell von B ist und umgekehrt. Deshalb wollen wir hier von Modellen als „Strukturmodellen„ sprechen.
Strukturmodelle im strengen Sinne gibt es nur in Mathematik und Logik. Allerdings hat sich auch in mathematisierten empirischen Wissenschaften, insbesondere in der Physik, die Redeweise vom „Modell als Belegung einer Struktur„ eingebürgert, wobei die Axiomensysteme, auf die man sich etwa bei physikalischen Theorien bezieht, Hybrid-Charakter besitzen, d.h. sie enthalten von Anfang an sowohl interpretierte wie rein formale Bestandteile. Durch die als Axiomensystem gedeuteten Grundgleichungen einer physikalischen Theorie werden die Variablen und Parameter in ihrem Charakter als physikalische Größen festgelegt und ihre Verknüpfung in formaler (z.B. algebraischer oder topologischer) Hinsicht bestimmt. Bei der „Interpretation„ werden dann in die Grundgleichungen an die Stelle der schematischen Ausdrücke zulässige Funktionen eingesetzt, wodurch man ein physikalisches Strukturmodell gewinnt; dieses hat einen im weiteren Sinne hypothetischen Charakter (Naturgesetz). Werden dann noch die Parameter (Randbedingungen) und die Variablen in bestimmter Weise (Anfangsbedingungen) numerisch belegt, erhält man eine Hypothese im engeren Sinne.

3. Modelle als Veranschaulichungen
Veranschaulichungsmodelle haben die Aufgabe, einen Mangel an Anschaulichkeit, der bestimmten Struktur- oder Idealmodellen eigen ist, zu heilen. Wenn Strukturmodelle zu abstrakt oder Idealmodelle zu komplex sind, dann lassen sie sich nur schlecht kommunizieren und die menschliche Vorstellungskraft findet nur schwer Ansatzpunkte für ihre fruchtbare Weiterentwicklung. In solchen Fällen empfiehlt sich die Suche nach einer metaphorischen Interpretation der Modelle. Solche Veranschaulichungen erhält man im einfachsten Fall z.B. durch eine geometrische Deutung des mathematischen Formalismus, der zum Bau des Modells verwendet wurde (graphische Darstellung). Anspruchsvoller ist die Veranschaulichung durch Analogiebildung. Ein im Wege der Analogie gewonnenes Veranschaulichungsmodell muß wenigstens drei Kriterien genügen: (a) es muß einer geläufigen und gut verstandenen Theorie (u.U. aus einer anderen Disziplin) entnommen sein; (b) es muß die geforderte Anschaulichkeit besitzen und dadurch ein Potential an fruchtbaren Assoziationen freisetzen können und (c) es muß mit dem unanschaulichen Struktur- oder Idealmodell eine strukturelle Ähnlichkeit besitzen (es geht hier um Ähnlichkeit zwischen Modellen, nicht zwischen Modellen und "Wirklichkeit").

4. Modelle als Deutungsinstrumente
Für die Biowissenschaften ist das Zusammenspiel von funktionalen Erklärungen und zugeordneten kausalen Erklärungen von zentraler Bedeutung: einem Organ oder einem physiologischen Vorgang wird zunächst eine Funktion oder Aufgabe zugeschrieben, anschließend wird untersucht, durch welche chemischen oder physikalischen Mechanismen diese Aufgabe erfüllt wird. Für die funktionale Deutung selbst braucht man ein Deutungsmuster und dieses kann man sich nur aus dem Bereich der Technik verschaffen, da man nur hier in einem positiven Sinne Funktionen setzen und ihre Realisierung sicherstellen kann. Technische Systeme werden durch die Angabe der Funktion oder Aufgabe bestimmt, die sie zu erfüllen haben. Die Abläufe in einem technischen System werden dann als kausal für die Realisierung der Funktion beschrieben. Die Deutungsmodelle, die man aus der Technik nimmt, um sie zur Erklärung biologischer Sachverhalte zu benutzen, sind prinzipiell nicht eliminierbar, d.h. man kann zwar ein Deutungsmodell durch ein anderes ersetzen, aber man wird eine biologische Funktion nie anders als durch ein technisches Analogon bestimmen können. Diese fundamentale, nicht reduzierbare Transformationsleistung, die technische Idealmodelle für die Erklärung biologischer Sachverhalte erbringen, hat schon I. Kant gesehen (er sprach in diesem Zusammenhang von „regulativen Ideen„). Heute wird der Transfer von der Technik in die Biowissenschaften oft über den Einsatz von „Supertheorien„ hergestellt, wobei im wesentlichen zwei solcher Supertheorien eine Rolle spielen: die allgemeine Systemtheorie und die Informationstheorie; beide ermöglichen es, komplexe biologische Phänomene in den Horizont eines technischen Verständnisses zu ziehen.

Lothar Läsker

e-mail: Bucha@t-online.de

Modellvielfalt und der Status von Modellen in den Wissenschaften

Sollten Wissenschaftler, die erfolgreich Modelle verwenden, wissen, was „Modell“ auf metasprachlicher Ebene bedeutet? Jeder Definitionsversuch des vielgebrauchten Wortes Modell schließt die meisten seiner im Gebrauch aktualisierten Bedeutungen aus. Das hängt damit zusammen, daß Metasprachen der Wissenschaft nicht geeignet sind, das, was in der Wissenschaft, der Forschung wie der Lehre geschieht, getan und gedacht wird, zu beschreiben. Davon, welches Gewicht wir dieser Tatsache beimessen, wird abhängen, welches Gewicht wir der Konstruktion und dem Gebrauch von Modellen in der Forschung, der Erklärung, der Lehre, beimessen. Viele (die meisten?) Modelle, die in der Forschung erdacht, konstruiert und auch technisch hergestellt werden, kommen in der Theorie nicht mehr vor. Der Streit, ob die Theorie auch ohne diese Modelle hätte erdacht werden können, ist unentscheidbar. Wenn wir also unter Wissenschaft verstehen, was Wissenschaftler tun, werden wir „Modell“ in einer anderen Bedeutung gebrauchen als dann, wenn wir wissenschaftliche Methoden und Theorien analysieren. So spiegeln sich auch im Streit um den Stellenwert von Modellen die Konflikte in der Begründung von Status und Anspruch von Wissenschaft wider.
Modelle vermitteln zwischen Wissenschaftsgebieten (wie zwischen der Mechanik und der Physiologie; der Hydrodynamik und der Elektrodynamik); dieser „Wissenstransfer“ ist aber kein „Modelltransfer“; Modelle sind „Brücken“, über die „Einsichten“ und „Vorstellungen“ vermittelt werden; daher scheint die Formulierung: „Wie Modelle Wissenstransfer ermöglichen“ treffender als jene, die das Thema unseres Kolloquiums angibt.
In der durch Modelle ermöglichten Transformation von Wissen werden Analogien gebildet und auch Metaphern gebraucht; es scheint nicht erforderlich, die Bildung von Analogien metatheoretisch zu begründen oder eine Theorie der Metaphern zu entwickeln. Die Berechtigung wird vielmehr in ihrem Gebrauch und daher in der Wissenschaften, in denen sie gebraucht werden, nachgewiesen.

Martin Meister

Uni Freiburg
e-mail: Meister@ztg.TU-Berlin.de

Übersetzung? Tausch? Zusammenarbeit? Oder alles zusammen?
Zu Verfahrens- und Modelltransfers in Hochtechnologiebereichen

Die Diskussion über die Transfers zwischen getrennten Forschungsbereichen wird von der Denkfigur des sog. “Theorie- oder Konzepttransfers” bestimmt, die im CfP zutreffend als “Spender-Wirt-Modell” bezeichnet wird. Dabei wird davon ausgegangen, dass nur punktuell eine stark abstrahierte Version eines Ursprungskonzeptes des “Spenders” übernommen und dann vom “Wirt” auf die eigenen Bedürfnisse hin rekonkretisiert wird - der wechselseitige Kontakt beschränkt sich also auf eine doppelte Übersetzung, es geht ausschließlich um abstraktes Wissen, und die beteiligten Forschungsbereiche bleiben strikt getrennt. Dieser Denkfigur wird in letzter Zeit eine andere Extremposition gegenübergestellt: Behauptet wird ein “neuer Modus” bzw. eine allgemeine “Vernetzungstendenz”, wodurch die Grenzen flüssig und wechselseitige Bezugnahmen und eben Transfers zum Normalfall werden. In meinem Beitrag will ich an zwei Beispielen zu zeigen versuchen, dass die Realität der Transfers eher eine Zwischenform zwischen diesen beiden überzogenen Sichtweisen darstellt. Beide Sichtweisen erscheinen zudem einseitig, da sie den Austausch auf theoretisches Wissen und Kommunikation beschränken, während sie Modelle und Verfahren aussen vor lassen; auf diesen Unterschied macht bereits der Begriff “Modelltransfer” im Titel der Tagung aufmerksam.

Mein erstes Beispiel ist die Entstehung der heute so verbreiteten Computersimulation, wie sie vom Wissenschaftshistoriker Peter Galison rekonstruiert wurde. Galison spricht dabei von einer “trading zone”, wobei die Simulationsverfahren (also eine mathematische Sprache) als eine Art geteilte Handelssprache (ein “pidgin”) fungierte, die den Austausch von Ideen, experimentellen Ergebnissen, Theorieversatzstücken und Tricks erst ermöglichte, und zwar zwischen ganz unterschiedlichen Forschungsgebieten - vom Atombombenbau zur synthetischen Chemie, von der physikalischen Grundlagenforschung zur globalen Wetterprognose etc.

Mein zweites Beispiel ist die Bedeutung von Modellen in der aktuellen Robotik. In diesem Forschungsgebiet müssen Ansätze und Ergebnisse ganz unterschiedlicher Forschungsgebiete sinnvoll zusammengeführt werden, ohne durch übergreifende Theorien zusammen gebunden zu werden. Diese organisierende Rolle übernehmen, so meine Interpretation, allgemeine Modelle des Gesamtgerätes, die unterhalb der Schwelle ausformulierter Theorien eine “Design-Philosophie” des Zusammenhanges der Einzelkomponenten darstellen. Von besonderer Bedeutung ist dabei die Philosophie der “Verschaltung” von sensoriellem input, interner Datenverarbeitung und aktuatorischem output, die in der neuen Robotik als ein paralleler (und damit “lebensähnlicherer”) Vorgang verstanden wird.

Anschießend an diese Beispiele möchte ich folgende drei allgemeinere Thesen bzw. Fragen zur Diskussion stellen:
- Wenn das “Spender-Wirt-Modell” als allgemeine Vorstellung über Transfers als zu überzogen und zu einseitig erscheint, so lässt sich die Frage stellen, ob dieses Modell nicht auf einen kleinen Bereich der “reinen Theorietransfers” beschränkt werden sollte, während die meisten Transfers wohl in einem Kontinuum zwischen vollständiger Übersetzung und dauerhafter Kooperation liegen, und ohne den organisierten Tausch von Modellen, Verfahren und materiellen Dingen wohl nicht ablaufen würden.
- Daran anschließend kann nach einer historischen Veränderung der Modi des Transfers gefragt werden, denn die Abhängigkeit der übertragenen großen Theorien von den banalen Instrumenten sowie den gesellschaftlichen Einbettungen scheint mit der hochtechnologischen Forschung seit den 1940er Jahren (und insbesondere durch Computermodelle und -verfahren) eine neue Qualität gewonnen zu haben, welche von der offiziellen Selbstbeschreibung der Wissenschaft(en) kaum zur Kenntnis genommen wird.
- Schließlich lässt sich nach der Bewertung von Transfervorgängen fragen. Wenn die ausschließliche Bewertung nach der “Sauberkeit” der doppelt übersetzten Theorien eine Überstilisierung ist, so ist ein alternatives Kriterium gefragt. Dies könnte darin bestehen, dass unvollständige Übersetzungen Austausch und Kooperation ermöglichen, und zwar in der Übereinstimmung, nicht übereinstimmen zu müssen.

Martina Merz

CERN
Division EP, Switzerland
e-mail Martina.Merz@cern.ch

Modelltransfer mittels Computersimulation
Das Modell als blinder Passagier, trojanisches Pferd, Ehrengast oder Neubürger?

Im Call for Papers werden mehrere Mechanismen genannt, mittels derer Modelle zwischen Wissenschaftsgebieten transferiert werden. Ein bedeutender Typ des Modelltransfers bleibt dabei ungenannt: der Transfer von Modellen mittels Computersimulation. Simulationsprogramme enthalten Modelle und Modellannahmen in 'verkapselter' Form, die beim Transfer der Simulationsprogramme zwischen Wissenschaftsgebieten mittransportiert werden. Um diese Form des Transfers soll es im geplanten Beitrag gehen.

Das besondere Problemlösungspotential der Computersimulation, die in den letzten zwei Jahrzehnten zu einem weitverbreiteten Hilfsmittel der Wissensproduktion und -vermittlung geworden ist, speist sich u.a. daraus, dass das Verfahren an Schnittstellen verschiedener Forschungsgebiete zum Einsatz gelangt, zwischen denen es eine Verbindung und Vermittlung ermöglicht. Simulationsprogramme sind für einen Transfer zwischen Forschungsgebieten besonders geeignet. Ihre Transferierbarkeit beruht u.a. auf ihrer 'Multiplexität' (Merz 1999), d.i. der Tatsache, dass die Programme in verschiedenen Kontexten Verschiedenes leisten und sich flexibel in diverse wissenschaftliche Arbeitssettings einpassen lassen. Im geplanten Beitrag soll nun diskutiert werden, was bei einem Transfer der Simulationsprogramme mit den verkapselten Modellen geschieht, wie das Verhältnis zwischen dem Modell und seinem neuen Anwendungskontext ausgestaltet wird und welche Bedeutung dem Modell dabei zukommt. Es wird herausgearbeitet, wie sich diese Fragen aus der Perspektive verschiedener Akteure (den Modellkonstrukteuren, den Autoren der Simulationsprogramme, ihren Nutzern, etc.) darstellen.

Zwei wissenschaftssoziologische Forschungsprojekte stellen die Datenbasis für den geplanten Beitrag: Eine am CERN (Genf) durchgeführte Untersuchung, in der Computersimulation als eine Strategie der Wissensgewinnung analysiert wird, richtet das Augenmerk auf den 'kleinen Transfer' zwischen den eng verwandten Forschungsgebieten der theoretischen und der experimentellen Teilchenphysik. Eine zweite, am Anfang stehende vergleichende Untersuchung zielt auf ein besseres Verständnis der Übersetzungsleistungen, die Simulationsverfahren an verschiedenen wissenschaftlichen Grenzbereichen ermöglichen.

Stephan Peters

Mechanische Modelle in der evolutionaeren Morphologie

In der Evolution kann sich nur das jeweils Vorhandene veraendern, d.h. der aktuelle Zustand eines "Bauplans" bestimmt selbst die Moeglichkeiten seiner lebensfaehigen Abwandlungen. Die Rekonstruktion evolutionaerer Transformationen laesst sich deshalb nur dann plausibel begruenden, wenn sie die betroffenen morphologisch beschreibbaren Strukturen als "funktionierende Gefuege", etwa analog einer Maschine, darstellen kann. Dieser Zusammenhang soll an einem Beispiel aus der Wirbeltierevolution erlaeutert werden.

Ingo Schulz-Schaeffer

Institut für Sozialwissenschaften
Technische Universität Berlin
e-mail: schulz-schaeffer@tu-berlin.de

Strukturen koordinierten Handelns als Konstruktionsprinzipien der Technikentwicklung
Der Rekurs der Multiagentensystem-Forschung auf Mechanismen sozialer Koordination und das Problem der Problemähnlichkeit

Multiagentensysteme sind Systeme aufeinander abgestimmten Operierens einer Mehrzahl sogenannter Agenten. Als Agenten werden Softwareprogramme bezeichnet, die über bestimmte, von ihnen selbst gesteuerte Aktionsprogramme verfügen und in der Lage sind, ihre eigenen Aktionen unter Berücksichtigung derer anderer Agenten selbstständig auszuwählen. Ziel der Multiagentensystem-Forschung ist es, bestimmte Vorteile kollektiv organisierten Problemlösens für den Bereich der Softwaretechnik nutzbar zu machen. Damit avanciert das Koordinationsproblem, die Frage also, wie man zu geeigneten Formen der Verhaltensabstimmung zwischen Agenten gelangt, zu einem der Kernprobleme dieses noch jungen Feldes der Künstliche Intelligenz-Forschung, der Verteilten Künstlichen Intelligenz (VKI). Zugleich drängt sich eine Lösungsstrategie gleichsam von selbst auf: Man muss dort nach Lösungen suchen, wo kollektive Verhaltensabstimmung etablierte Praxis ist: in Sozialverbänden tieri-scher, insbesondere aber menschlicher Lebewesen. Ein solcher Rekurs auf menschliche Sozialität ist in den einschlägigen Arbeiten der VKI unübersehbar. Es stellt sich dann die Frage, welche Bedeutung diese Konzeptübertragungen für den Innovationsprozess der Multiagentensystem-Forschung besitzen. Im Allgemeinen kann man davon ausgehen, dass der Einfluss entsprechender Konzeptübertragungen auf ein Innovationsgeschehen wesentlich davon abhängt ob und in welchem Ausmaß es gelingt, eine Ähnlichkeitsbeziehung zwischen den Problemen herzustellen, als deren Lösung das fragliche Konzept sich im Ursprungskontext bewährt hat, und den Problemen, als deren Lösung es für den neuen Kontext vorgesehen wird. Im Vortrag soll der Frage nachgegangen werden wie und wie weit diese Problemähnlichkeit im Fall der Multiagentensystem-Forschung hergestellt wird. Dabei werden Ergebnisse einer empirischen Untersuchung über Sozialmetaphern in der VKI in Deutschland verwendet.

Lars Schuster

AG Neuro Science
TU Darmstadt
e-mail: l.schuster@gmx.de

Technisch motivierte Modelle in der Bewusstseinsphilosophie

Nach dem Ausklingen des Behaviorismus in der Mitte des 20. Jahrhunderts richtete sich erneut die Aufmerksamkeit der Philosophie und Wissenschaft auf das Phänomen des Bewusstseins. Zunächst näherten sich vornehmlich Philosophen aus der Tradition der analytischen Sprachphilosophie dem Phänomen, schliesslich auch Forscher aus den Gebieten der später so genannten Kognitionswissenschaften. Im Verlauf der geführten Debatte entstanden eine Reihe von Grundsatzfragen, die bis heute nicht zufriedenstellend beantwortet werden konnten. Zumeist ungeachtet der noch offenen Fragen wurden Ansätze zur Erklärung von Bewusstsein vorgebracht: Aus den Disziplinen der Hirnforschung und der Neuropsychologie werden Theorien zur Beschreibung eines neuronalen Korrelats von Bewusstsein entwickelt, von Seiten der "Künstlichen Intelligenz"-Forschung und der Psychologie wurde die Computeranalogie des Geistes vorgeschlagen, Eccles und Penrose trieben die Diskussion um eine Quantenerklärung weiter voran und in jüngster Zeit werden Selbststrukturierungs- und (wie bereits ein Jahrhundert zuvor) Emergenzprozesse als mögliche Grundlage von Bewusstsein diskutiert. Bei den genannten Beispielen handelt es sich also um Fälle, in denen Methoden und Modelle aus Technik- und Naturwissenschaften auf das Phänomen des Bewusstseins angesetzt werden.

In diesem Beitrag wird zunächst eine kurze Einführung in die philosophische Tradition der Annäherung an das Bewusstseinsphänomen gegeben. Anhand der Ansätze aus der Neuropsychologie und der Quantenphysik wird dann die aktuelle Situation des gegenseitigen Aneinander-vorbeiredens von Naturwissenschaften und Philosophie exemplarisch aufgezeigt. Dabei wird versucht, die Gründe für diese Missverständnisse zu umreissen und in einem optimistischen Ausblick einen Vorschlag eines neuen Ansatzes für eine zukunftige Zusammenarbeit zu liefern.

Holm Tetens

Beruhen Modelle des Geistes auf Metaphern und Analogien?

Im ersten Teil wird anhand eines Beispiels aus der kognitiven Psychologie das durch die untenstehende Graphik veranschaulichte generelle Drei-Komponenten-Modell wissenschaftlicher Theoriebildung eingeführt und erläutert.

Im zweiten Teil werden anhand dieses Modells die Begriffe „Modell“, „heuristisches Modell“, „Analogie“ und „Metapher“ ein Stück weit geklärt, insbesondere wird untersucht, inwiefern Analogien und Metaphern für die Theoriebildung unverzichtbar sind.. Im dritten Teil werden die in den ersten beiden Teilen gewonnenen Einsichten auf die Konzepte „Netz“ und „Computer“ angewendet, mit denen der Geist bzw. das Gehirn modelliert wird.