GWTF-Jahrestagung
Berlin, 25. und 26. November 2005

E-Science? Die Bedeutung des Computers für die Produktion, Vermittlung, Verbreitung und Bewertung wissenschaftlichen Wissens

GWTF e.V.

Call for papers | Tagungsprogramm (pdf) | Abstracts der Beiträge

Unter Stichworten wie „E-Science“ wird allenthalben die zunehmende Computerisierung der Wissenschaften als eine wichtige Facette der Wissensgesellschaft verhandelt und entweder als Innovation euphorisch begrüßt oder mit technikkritischen Befürchtungen verbunden. In den Natur- und Technikwissenschaften schon lange Bestandteil der wissenschaftlichen Praxis, hat die Digitalisierung in jüngster Zeit auch die Sozial- und Geisteswissenschaften erreicht, wie neue Formen der Archivierungen oder die Verwendung hochkomplexer computergestützter Modellierungen zeigen.

Doch was wissen wir wirklich über die Reichweite und die Folgen dieses Prozesses? Auf der diesjährigen Jahrestagung wollen wir dieser Frage nachgehen, und zwar sowohl aus der Perspektive konkreter empirischer Studien wie aus der Perspektive der ‚Macher‘ oder ‚Betroffenen‘ dieses Prozesses. Dabei sollen alle Stadien wissenschaftlicher Tätigkeit zum Thema werden.

Die wissenschaftliche Erkenntnisproduktion im engeren Sinne verändert sich ohne Zweifel durch Computereinsatz, etwa durch Simulationen oder bildgebende Verfahren, durch computerisierte Beweise oder die Bereitstellung, Verknüpfung und Auswertung großer Datenbanken. Doch bringen diese neuen Werkzeuge und Verfahren auch neue epistemologische Herausforderungen mit sich, und haben sie auch sichtbare Auswirkungen auf die wissenschaftliche Produktionsweise? Wie steht es etwa um die Beweiskraft oder auch nur die Anerkennung von Simulationsergebnissen oder computergestützten Erhebungs- und Auswertungsverfahren? Und welche Kombinationen mit den herkömmlichen Formen wissenschaftlicher Empirie und Beweisführung zeichnen sich ab? Weiterhin lässt sich nach dem Einfluss der Digitalisierung auf die bestehenden wissenschaftlichen Kulturen fragen, etwa danach, ob die Differenzierung zwischen diesen Kulturen weiter voran getrieben wird, oder ob sich neue intermediäre Kulturen herausbilden. Und schließlich kann auch danach gefragt werden, wie sich neue Professionen, die sich um Computer- und Digitalisierungstechniken gruppieren, zum wissenschaftlichen Kernpersonal verhalten.

Innerhalb der Wissenschaft wird der Computerisierung aber auch ein großes Potenzial für die Vermittlung von Vorgehensweisen und Ergebnissen zugeschrieben, da sich die Bedingungen für verteiltes Arbeiten verändern und – mutmaßlich – verbessern. Damit verbindet sich etwa die Hoffnung, dass effizientere Formen der Kommunikation in räumlich verteilten Forschungsverbünden möglich sowie neuartige Kooperationsmöglichkeiten eröffnet werden, etwa durch Fernzugriff auf Forschungsgeräte der Partner oder durch Daten-Sharing. Neue kollektive Arbeitstechniken sollen zudem durch Verfahren des Computer Supported Cooperative Work oder E-Learning befördert werden. Doch berühren diese Computer- und Netzwerktechniken auch den Kern des wissenschaftlichen Produzierens? Entstehen tatsächlich neue Möglichkeiten, die über den Effekt der Word-Überarbeitungsfunktion für die gemeinsame Bearbeitung von Dokumenten hinausgeht? Und in welchem Verhältnis stehen die mögliche Kooperationsvereinfachung oder mögliche neue Kreativitätsräume zu den Standardisierungseffekten, die mit computerisierten Werkzeugen zwangsläufig einhergehen?

Schließlich verändert Computerisierung die Verbreitung und wissenschaftliche Bewertung des produzierten Wissens. Hier sind besonders die mit dem Internet verbundenen neuen Publikations- und Verbreitungsmöglichkeiten einschlägig, etwa E-Journals, die großen und vernetzten Datenrepositories, oder auch die Publikation auf Homepages. Welchen Einfluss auf die Wahrnehmung und Bewertung von wissenschaftlichen Arbeiten hat die mächtige open-access-Bewegung, also der Versuch, teure Papierzeitschriften durch frei zugängliche Internetzeitschriften zu ersetzen? Zudem scheint auch die computerisierte Abfrage von Impact-Faktoren oder Google-Rankings eine zunehmende Bedeutung zu erlangen. Erleben wir die Herausbildung neuer Konventionen der innerwissenschaftlichen Bewertung, und wenn ja, wie verhalten sie sich zu den bislang geltenden Konventionen? Und hat dieser Prozess einen sichtbaren Einfluss auf die Art und Weise, wie wissenschaftliche Reputation erworben und zugeschrieben wird?

Abstracts erbeten bis zum 31.Juli 2005 an

Martina Merz, Universität Lausanne und EMPAS St. Gallen (Martina.Merz@unil.ch)
Martin Meister, TU Berlin (meister@ztg.tu-berlin.de)
Ingo Schulz-Schaeffer, TU Berlin (schulz-schaeffer@tu-berlin.de)

Abstracts der Beiträge (in der Reihenfolge des Programmablaufs)

Böschen/Kropp | Schnettler | Reinhart/Sirtes | Kleinen/Paulitz | Hinner | Hanekop | Hinkel | Gramelsberger | Lenhard | Hahne/Lettkemann | Büscher

Stefan Böschen, Universität Augsburg
Cordula Kropp, Universität München
Email: stefan.boeschen@phil.uni-augsburg.de, Cordula.Kropp@soziologie.uni-muenchen.de

Wissenskartierung als Medium reflexiver Wissenspolitik

Computerisierung und E-Science verändern nicht nur die Wissenschaft und ihre Methoden und Kulturen der Wissensproduktion, sondern auch die Formen der Wissensvermittlung sowohl innerhalb der Scientific Community als auch an ihren Schnittstellen zu gesellschaftlichen Teilbereichen und bspw. Akteuren aus Politik, Zivilgesellschaft und Fachöffentlichkeit. Dabei lassen sich sehr unterschiedliche Formen der computerisierten und internetbasierten „dissemination“ denken, die weit über E-Journals und Publikationen auf Homepages hinausgehen. Eine solche Form, nämlich die Kartierung von Risikowissen, werden wir in den kommenden Jahren in einem Forschungsprojekt erproben.

Die Grenze zwischen Wissenschaft und Öffentlichkeit ist in den vergangenen Jahren zunehmend zum Gegenstand von Auseinandersetzungen geworden. Zwischen Aufklärungsstrategien von Öffentlichkeit durch die Wissenschaft und der Einbeziehung von Laien in die Wissensproduktion gibt es ein breites Spektrum von Strategien, nach denen die Schnittstelle zwischen diesen beiden „Sphären“ geordnet werden könnte. Einige (wohl die Mehrzahl) der Wissenschaftler fürchten eine „Verwässerung“ der Wissensproduktion durch Laien – andere erwarten sich besondere Kreativitätsgewinne. Gleichviel, das Problem der Kommunikation wissenschaftlichen Wissens stellt sich in beiden Fällen. Dieses wird noch dadurch verstärkt, dass im Rahmen von wissenspolitischen Diskursen die Frage nach einem „technological“ oder „scientific citizenship“ aufgeworfen wird und damit ganz grundsätzlich die Stellung von „Laien“ (wer das dann auch immer ist) im Erzeugungsprozess von Wissen zur Diskussion steht.

Wenn wir im Zusammenhang der geplanten Risikowissenskartierung von einer „reflexiven Wissenspolitik“ sprechen, dann meint dies insbesondere zwei Gestaltungsaufgaben: a) wissensrelevante Grundunterscheidungen (Experten vs. Laien; Wissen vs. Nichtwissen bzw. Fakten vs. Werte) explizit zu machen, und darüber hinaus b) die demokratiepolitische Perspektive, die Lasten von Nichtwissen, normativer Ambivalenz und kategorialer Uneindeutigkeit umwelt- und sozialverträglich zu verteilen sowie hierfür Verfahren zur Verfügung zu stellen. Vor diesem Hintergrund befassen wir uns mit einem besonderen Verfahren der Wissenserschließung und –kommunikation für die Gestaltung reflexiver Wissenspolitik, spezifischer: mit Wissenskarten.

Gegenstand des Vortrages ist es, Vorüberlegungen für die Entwicklung eines Prototyps für die internetbasierte Kartierung von Risikodiskursen zu präsentieren und zur Diskussion zu stellen. Zielpunkt dieses vom BMBF im Rahmen des Schwerpunktes sozial-ökologische Forschung bewilligten Projektes wird es sein, eine exemplarische Darstellung der kontroversen Informations- und Wissensgrundlagen als Argumentationslandkarten in ausgewählten Risikofeldern zu entwickeln. Die so entstehenden, strukturierten „Issue Maps“ sollen dazu dienen, die Argumentationsnetzwerke in ihrer Vielfalt von Akteuren, institutionellen Regeln sowie Bedeutungszusammenhängen transparent zu machen, diese unter bestimmten Gesichtspunkten zu akzentuieren und mit zentralen Referenzen verknüpfen. Hierbei sind es die besonderen Möglichkeiten von Computern und Web, die die Aufbereitung von unterschiedlichen Diskursen als Wissenslandkarte nicht nur ermöglichen, sondern auch zu einer weiten Verbreitung von Wissensperspektiven und damit letztlich zu einer Strukturierung von Diskursen beitragen können. Nicht zuletzt steht damit erneut die demokratietheoretische Frage zur Debatte, inwieweit durch Informations- und Rationalitätssteigerung Handeln und Entscheiden an die Prozesse öffentlicher Meinungsbildung rückgebunden werden können.

Bernt Schnettler, TU Berlin
Email: bernd.schnettler@tu-berlin.de

Präsentationen: ›E-Science‹ oder ›Computer in Aktion‹?

Der Einsatz von Computern hat die wissenschaftliche Arbeit zweifellos in vielerlei Hinsicht ver-ändert. Während die Debatte um CSCW, E-Science oder E-Learning aber vor allem recht kom-plexe und spezielle Anwendungen in den Blick genommen hat, wurde eine wesentlich alltägliche-re Art der Computernutzung in der Wissenschaft bislang nahezu vollkommen übersehen:
Zu den wohl nachhaltigsten Veränderungen in der Wissenskommunikation zählt der Einsatz von Computern in Vorträgen, für die sich der Begriff der ›Präsentation‹ eingebürgert hat. Solche computergestützten Präsentationen sind eine recht junge, gleichwohl enorm verbreitete Kommu-nikationsform. In den letzten Jahren finden sie neben zahlreichen anderen institutionellen Berei-chen auch in der Wissenschaft eine rasante Verbreitung – in manchen Disziplinen sind sie sogar zur Standardform des Vortrags avanciert.
Von techniksoziologischem Interesse dürfte der Umstand sein, dass es sich bei Präsentationen um ›sozio-technische Konstellationen‹ besonderer Art handelt: Sie bestehen aus (einem oder meh-reren) Sprechern, die einem anwesenden Publikum mittels technischer Apparate (Computer, Beamer, manchmal Lautsprecher und Leinwand) einen Vortrag halten.
Hier soll die Rolle dieser technischen Apparate für die Kommunikation von Wissen näher un-tersucht werden. Die Frage ist, welche Auswirkungen ihres Einsatzes sichtbar werden. Das betrifft in der einen Richtung (a) den Umgang der Sprecher mit der Computertechnik: Welche Typen lassen sich hier unterscheiden? Umgekehrt betrifft dies (b) den ›Auftritt‹ der Technik in der Situa-tion. Dies wird typischerweise dann offenkundig, wenn die offenbar üblichen Pannen passieren (wenn etwa das Programm abstürzt, der Beamer in den Schlafmodus fällt oder das hüpfenden Logo eines Bildschirmschonern dem Redner die Aufmerksamkeit stielt.) Anhand der Analyse solcher Pannen soll schließlich (c) der Blick erneut auf die Frage nach der Handlungsträgerschaft von Technik geworfen werden.
Beantwortet werden soll dies auf der Grundlage der gattungsanalytischen Untersuchungen von naturalistischen Videoaufzeichnungen solcher Präsentationen und anderer Vorträge aus unserem laufenden DFG-Projekt.

Barbara Kleinen, Universität Hamburg
Tanja Paulitz, TU Berlin
Email: tanja.paulitz@tu-berlin.de, barbara@barbarakleinen.de

Multiperspektivität und mehrdimensionale Verknüpfungen Einsatzpotentiale der webbasierten "Cooperation Infrastructure" im Feld E-Science

Sozial- und geisteswissenschaftliche Forschung ist mittlerweile längst in der Informationsge-sellschaft angekommen. Unterstützte der Personal Computer schwerpunktmäßig die individu-elle Textproduktion, so haben die Neuen Medien u.a. schnelle und informelle Wege für die Kommunikation und Kooperation zwischen WissenschaftlerInnen erschlossen. Vor diesem Hintergrund erscheinen traditionelle Formen und Systeme wissenschaftlicher Produktivität zunehmend als veraltet und stellen das Bild des individuellen Geistesarbeiters, der am Ende des Forschungsprozesses mit dem "opus magnum" die Studierstube verlässt, radikal in Frage. Die Entwicklung von Kooperationstechnologien im Feld des Computer Supported Cooperati-ve Work eröffnen neue, technisch generierte Arbeitsräume für verteiltes Arbeiten. Solche technischen Kooperationsumgebungen modellieren spezifische Formen wissenschaftlicher Kooperation und können folglich an etablierte Verfahren wissenschaftlicher Produktivität anschließen oder diese umgekehrt auch destabilisieren und somit neue Anforderungen an wis-senschaftliche Arbeitsweisen generieren.
Unser Beitrag beleuchtet eine solche Kooperationsumgebung, die horizontal organisierte ko-operative Wissensarbeit mit einem interaktiven Hypermediasystem unterstützen soll. Dieses erlaubt dafür dezentrale Zugriffe über das Web. Wir stellen diese prototypisch realisierte und erprobte "Cooperation Infrastructure (CI)" vor. Sie wurde als Webapplikation mit Java- und XML-Technologien entwickelt. Die mit dieser CI eröffneten Arbeitsmöglichkeiten veran-schaulichen wir im Vortrag am Beispiel des Szenarios der Vorbereitung einer umfangreiche-ren wissenschaftlichen Publikation durch mehrere HerausgeberInnen. Dieses Szenario ist, bezogen auf die Systematik des CfP, in das Stadium der Aufbereitung, Codifizierung und Vermittlung von Forschung einzuordnen. Es ist einerseits ausreichend unspezifisch, um für verschiedene disziplinäre Kontexte Relevanzen aufzuweisen, und erlaubt es andererseits, ver-schiedene Einsatzmöglichkeiten der CI zu zeigen: Es lässt sich daran illustrieren, wie etwa die Beteiligten die Projektdaten und die Forschungsliteratur kooperativ organisieren, wie die In-teraktionen zwischen AutorInnen und HerausgeberInnen des Buches ablaufen, wie Textredak-tionen mit Hilfe von verlinkten Annotationen erfolgen und wie ein von den HerausgeberInnen gemeinsam verfasster Einführungstext entsteht. Die CI integriert für solche Aktivitäten Mög-lichkeiten des Anlegens von Mindmaps in der Gruppe, Tools zur Definition von Verknüpfun-gen zwischen Mindmap und Forschungsliteratur bzw. auch zu den dazugehörigen Lektüreno-tizen der Gruppenmitglieder sowie Möglichkeiten des Herstellens von Bezügen zu den Bei-trägen des Bandes.
Unter Einsatz eines solchen Szenarios sollen die Potentiale der Leitvorstellungen, die die Entwicklung der CI getragen haben, dargestellt werden. Dabei wird es auch darum gehen, diese Potentiale vor dem Hintergrund empirischer Erfahrungen mit "virtuellen Teams" sowohl aus informatischer als auch aus sozialwissenschaftlicher Perspektive reflexiv zu beleuchten. Wir beabsichtigen dafür, auf vorhandene empirische Untersuchungen zurückzugreifen, die zum Aspekt des kooperativen Arbeitens (kommunikative Interaktion und Datenorganisation) durchgeführt wurden. Der Aspekt der kooperativen Textproduktion wird anhand des vorge-stellten Szenarios hypothetisch zu diskutieren sein. Als verbindendes Moment dieser Betrach-tung stellen wir die Frage nach neuen Anforderungen an wissenschaftliches Arbeiten ins Zentrum. Es zeigt sich, dass E-Science mit Hilfe einer solchen kooperativen interaktiven Webapplikation, wie sie in der CI prototypisch entwickelt wurde, unter Bedingungen radika-ler Multiperspektivität von Wissen und seiner multidimensionalen Verknüpfungen in einem Prozess eines allmählich aufzubauenden Wissensnetzes erfolgt. Verschiebungen und Begren-zungen, die mit dieser Form kooperativen wissenschaftlichen Arbeitens zu erwarten sind, sol-len für die Diskussion aufgezeigt werden. aufgezeigt werden.

Martin Reinhart und Daniel Sirtes
Email: martin.reinhart@unibas.ch, daniel.sirtes@unibas.ch

Peer Review im digitalen Zeitalter

Als zentrales Element der Selbststeuerung des Wissenschaftssystems gilt das Verfahren des Peer Review, in dem Wissenschaftler über die Qualität wissenschaftlicher Arbeit aus ihrem Fachgebiet urteilen. Eine bisher kaum untersuchte Frage ist der Einfluss digitaler Technologien auf das Peer Review Verfahren.
Unser Vortrag wird in einem ersten Schritt in kritischer Diskussion der Literatur einen Überblick über die vom Peer Review betroffenen Akteure (LeserIn, AutorIn, ReviewerIn, Zeitschriften, Förderungsinstitutionen) liefern und zeigen welche Funktionen das Peer Review für diese erfüllt. In einem zweiten Schritt wird dann der Frage nachgegangen werden, wie sich die Funktionen des Peer Review für die erwähnten Akteure unter dem Einfluss digitaler Technologien wandeln oder wandeln könnten. Als die beiden wichtigsten Einflüsse sind hier die Verlagerung der Publikationen auf das Internet (E-Journals und Open-Access-Repositories) und die Organisation des Peer Review Verfahrens mit elektronischen Mitteln zu nennen (Email, Internet, Software zur Entscheidungsfindung,...). Vor diesem Hintergrund lässt sich schliesslich diskutieren, in welchem Masse der Einfluss digitaler Technologien nicht nur zu Veränderungen im Peer Review sondern durch dieses vermittelt auch im gesamten Wissenschaftssystem führt.

Kajetan Hinner, Universität Mainz
Email: hinner@uni-mainz.de

Neue Möglichkeiten für Plagiat und Betrug

Nachdenklich stimmen die Fälschungs- und Betrugsmöglichkeiten im Bereich der Wissenschaft, die mit dem Internet denkbar geworden sind. Plagiate werden durch die einfache Distribution wissenschaftlicher Publikationen stark erleichtert. Fehlende Standards bei den Internet-Adressen tragen dazu bei, dass im Internet publizierte wissenschaftliche Informationen nicht anhand einfacher äußerer Merkmale in ihrer Qualität eingeordnet werden können. Deshalb werden auf WWW-Seiten publizierte Falschmeldungen oder bewusst unzutreffende Veröffentlichungen leicht durchführbar. Von unzufriedenen Kollegen, Mitarbeitern oder Studenten veröffentlichte Schmähungen könnten bis zum Rufmord führen. Realistische Gegenmaßnahmen sind dabei zur Zeit begrenzt.

Heidemarie Hanekop, SOFI Göttingen
Email: hhaneko@gwdg.de

Herausbildung neuer Institutionen wissenschaftlicher Bewertung durch Open Access Publikationen?

Die Forderung nach freiem Zugang zu wissenschaftlichen Publikationen entspricht dem Charakter des wissenschaftlichen Wissens, das im Wissenschaftssystem als öffentliches Gut produziert wird. Das Publikationssystem in seiner gegenwärtigen Form mit den wissenschaftlichen Verlagen als dominantem Akteur ist nicht nach der Logik des Wissenschaftssystems organisiert, sondern nach ökonomischer Verwertungslogik. Wissen wird im Publikationsprozess in eine Ware verwandelt. Open Access Publikationen sind so betrachtet eine Form der De-Kommodifizierung wissenschaftli-chen Wissens. Insofern zielt Open Access auf eine neue Form der Verbreitung, die durch die neu-en IuK-Technologien ermöglicht wird. Dies erklärt die beachtliche Anziehungskraft der Open Ac-cess Bewegung in der Wissenschaft - nicht nur unter Wissenschaftlern, sondern auch bei Bibliotheken, Forschungseinrichtungen und Organisationen der Wissenschaftsförderung (siehe Berlin Declaration).
Im Widerspruch hierzu steht allerdings die geringe Bedeutung, die Open Access Publikationen bisher in den Publikationsstrategien von Wissenschaftlern haben. Die Folgen sind gravierend: in vielen OA-Archiven und institutionellen Repositories (Ausnahmen bestätigen die Regel) herrscht entweder gähnende Leere oder eine unbefriedigende Beliebigkeit der vorhandenen Inhalte. Auch von den Protagonisten der Bewegung wird dieses Problem zugestanden; seine Überwindung wur-de als nächstes Etappenziel ausgegeben (Harnard 2005). Die kürzlich veröffentlichten Ergebnisse einer repräsentativen DFG-Studie zum Publikationsverhalten von DFG-Wissenschaftlern verdeut-licht das Problem: das Publikationsverhalten von Autoren orientiert sich an der erhofften Wirkung der Publikation in Bezug auf wissenschaftliche Anerkennung (Mugabushaka 2005). Dieses Publi-kationsverhalten wissenschaftlicher Autoren entspricht der Logik des Wissenschaftssystems, in dem wissenschaftliche Anerkennung bzw. Reputation als Währung fungiert, nach der Status und Ressourcen verteilt werden. Denn andere, als wissenschaftliche Steuerungskriterien widersprä-chen dem Ethos der Wissenschaft (Merton 1985).
Das Problem vieler OA-Plattformen besteht offensichtlich darin, dass für Autoren nicht erkenntlich ist, inwiefern diese zu ihrer wissenschaftlichen Anerkennung beitragen können. Oder anders for-muliert, Open Access Publikationen sind dann für Autoren attraktiv, wenn sie einen erkennbaren Beitrag zur wissenschaftlichen Anerkennung leisten. Wissenschaftliche Anerkennung wird jedoch in einem hochgradig institutionalisierten Bewertungsprozess generiert und vermittelt, indem die wissenschaftlichen Verlage in den vergangenen Jahrzehnten eine überaus dominante Stellung erlangen konnten. Ein Beispiel dafür ist die Art und Weise wie Impact Faktoren von Publikationen ermittelt und wie sie im System der wissenschaftlichen Bewertung eingesetzt werden. Unsere These ist daher, dass die Reichweite der durch die Open Access Bewegung intendierten Verände-rung davon abhängen wird, ob sie zur Veränderung dieses institutionalisierten Bewertungsprozes-ses führt. Dieses hätte vermutlich weit reichende Implikationen für die Art und Weise wie wissen-schaftliche Reputation erworben und zugeschrieben wird.
In dem Beitrag soll zum einen diese Argumentation begründet werden, zum anderen werden erste Ergebnisse empirischer Untersuchungen präsentiert. Dabei sind zwei Entwicklungspfade zu unter-scheiden: Open Access durch "Self Archiving" der Autoren, z.B. auf Homepages oder in Archiven; zweitens Open Access Journale. Der zentrale Unterschied liegt darin, dass Open Access Journale aktiv an dem institutionalisierten Bewertungssystem teilnehmen, sie führen Peer Review Verfahren durch, erfolgreiche OA-Journale weisen auch Impact Faktoren aus. Im Hinblick auf die oben formu-lierte These ist hier zu fragen, ob der ihre Wirkung sich darin erschöpft, dass sie sich in der etab-lierten Publikationshierarchie positionieren können, oder es zur Herausbildung neuer Bewertungs-verfahren kommt. Self Archiving beschränkt sich per se auf die Durchsetzung der neuen Verbreitungsform, die wissenschaftliche Bewertung bleibt anderen Institutionen überlassen, z.B. den etablierten Journalen. Allerdings könnten sich weitergehende Wirkungen aus der Veränderung der Rezeptionsformen ergeben (Tenopier 2003).

Jochen Hinkel
Email: hinkel@pik-potsdam.de

Die Semantik von Computermodellen in der integrierten Forschung

Die Computersimulation ist zu einer zentralen Methode in vielen wissenschaftlichen Disziplinen und Forschungsfeldern geworden. Zum Beispiel bilden Klimamodelle die Zirkulation der Atmosphäre ab, ökonomische Modelle die Entwicklung der Wirtschaft und Vegetationsmodelle das Pflanzenwachstum.

In dem Forschungsfeld des Globalen Wandels spielen integrierte Modelle, das heisst Modelle welche aus verschiedenen disziplinären Teilmodellen zusammengesetzt sind eine große Rolle. Zum Beispiel werden Klimamodelle, Vegetationsmodelle und ökonomische Modelle gekoppelt, um die Wechselwirkungen zwischen volkswirtschaftlicher Entwicklung, Landnutzung und den daraus resultierenden CO2-Emissionen zu simulieren. Diese integrierte Modellierung erfordert eine sorgsamere Auseinandersetzung mit der Semantik von Computermodellen als dies bei der disziplinären Forschung der Fall ist.

Unter der Bedeutung eines Computermodells soll hier die Beziehung des Modells zu dem modellierten Phänomen verstanden werden. Ein Computermodell ist mit dem Phänomen durch den Prozess der Modellbildung verbunden: Zuerst wird ein mathematisches Problem formuliert, dann wird die Lösung des Problems mit einem numerischen Modell angenähert, welches schließlich mittels einer Programmiersprache auf dem Computer implementiert wird. Bei jedem Schritt werden bestimmte Annahmen getroffen und Vereinfachungen gemacht.

In der disziplinären Modellierung werden die einzelnen Schritte der Modellbildung häufig nur implizit durchlaufen und die dabei getroffenen Annahmen sind kaum dokumentiert. Die genaue Bedeutung der Modelle ist für Aussenstehende deswegen nur schwer erfassbar. Da die Computermodelle jedoch meist ausschliesslich von ihren Autoren oder innerhalb der jeweiligen Disziplin genutzt werden, bereitet dies keine besonderen Probleme.

In der integrierten Modellierung ist es jedoch essentiell, die Annahmen der Teilmodelle explizit zu erfassen. Sinnvolle integrierte Modelle können nur gebildet werden, wenn sich die während der Modellbildung getroffenen Annahmen der Teilmodelle nicht widersprechen. Deshalb ist im interdisziplinären Modellbildungsprozess mehr Transparenz notwendig.

Dieser Vortrag betrachtet den Prozess der Modellbildung unter semantischen Gesichtspunkten und hebt die sich daraus ergebenden Konsequenzen für die integrierte Modellierung hervor.

Gabriele Gramelsberger, FU Berlin
Email: gabriele@philart.de

Datenarchäologie in aktuellen Klimamodellen. Simulationscode als Wissensarchiv

Sieht man sich den Code aktueller Klimamodelle an, so zeigt sich, dass Simulationscode nicht nur aus aktiven Programmstücken besteht, sondern aus einer Vielzahl von Kommentaren, auskommentierten, älteren Programmteilen und Referenzen auf Publikationen. Man stellt fest, dass Simulationsmodelle gewachsene „Organismen“ sind, in welchen eine mehr als dreißigjährige Geschichte der Computerisierung der Naturwissenschaften eingeschrieben ist. Darüber hinaus erleichtern neuere Hilfsprogramme die kollaborative und distribuierte Programmierarbeit. Current Version Systeme dokumentieren die kollaborative Arbeit an aktuellen Simulationsversionen und visualisieren mit komplexen Baumstrukturen die Arbeitsprozesse der Modellierer (Beispiel „ClearCase“ der Klimamodellierung). Frameworks ermöglichen die distribuierte Programmierung an verschiedenen Orten und verschiedenen Programmstücken parallel (Beispiel „Cactus Code“ der Gravitationsphysik). Diese Hilfsprogramme dokumentieren, dass sich die computerisierte Wissenschaft von einem Anfangsstadium mit „selbstgeschriebenen“ proprietären Lösungen, in eine „normal scientific method“ wandelt. Der Beitrag analysiert anhand der „Wolken-Datei“ des aktuellen Erdmodells [ECHAM 5] den Simulationscode als Wissensarchiv, stellt die Arbeitsweise mit Simulationsmodellen und ihren strukturellen Einfluss auf das wissenschaftliche Arbeiten vor, und zeichnet die zunehmende Professionalisierung der „Computational Science“ nach. 1 Der Beitrag reflektiert die Ergebnisse meiner Interview-Studien in der Klimaforschung im Rahmen des Forschungsprojekts „Computersimulationen – Neue Instrumente der Wissensproduktion“, Freie Universität Berlin, Institut für Philosophie. Das Projekt ist Teil der Initiative „Wissen für Entscheidungsprozesse“, die von der Berlin-Brandenburgischen Akademie der Wissenschaften koordiniert wird.
http://www.sciencepolicystudies.de/projekt/computersimulationen/index.htm

Johannes Lenhard, Universität Bielefeld
Email: johannes.lenhard@uni-bielefeld.de

Computersimulation: zur Epistemologie eines neuen Instruments der Wissenschaften

Der Computer als wissenschaftliches Instrument beeinflusst die Praxis der meisten Wissenschaften in zunehmendem Maße. Die Entwicklung und der Einsatz von Computersimulationen ist Teil dieser instrumentbasierten Revolution, deren Auswirkungen von der Methodologie der Wissenschaften bis hin zu ihrer Kultur reichen.
Im Zentrum des Vortrags soll Simulation als neues Instrument der Modellierung im Komplexen stehen. Simulationsmodelle, so die hier vertretene These, lassen die grundlegende epistemische Luzidität vermissen, die seit Descartes und der wissenschaftlichen Revolution des 17. Jahrhunderts das Idealbild mathematischer Modellierung prägt. Das heißt, die Modelle und ihr Verhalten können nicht mehr „durchschaut“, oder „eingesehen“ werden.
Auch wenn Simulationsmodelle undurchschaubar sind, so kann trotzdem eine Orientierung im Modell, eine Kenntnis des Modellverhaltens, möglich sein. Diese paradox anmutende Vereinbarkeit stellt ein wesentliches methodologisches Merkmal von Simulationen dar. Am Beispiel der Modellierung von Hurrikanen wird erläutert, wie Simulationsexperimente, Visualisierung der Resultate und eine vernetzte Umgebung zusammenwirken und so eine Orientierung in epistemisch opaken Modellen ermöglichen.

Michael Hahne und Eric Lettkemann, TU Berlin
Email: hahne@ztg.tu-berlin.de, eric.lettkemann@tu-berlin.de

Going Code statt Going Native. Neue Möglichkeiten der computergestützten Beobachtung und Analyse von Mensch-Technik-Interaktivität

Computergestützte Wissensgenerierung und -evaluation werden in Informatik und Sozialwissenschaften schon lange für Simulationen von sozialen Vorgängen eingesetzt. Relativ neu ist dagegen der Einsatz für die direkte Beobachtung, d.h. Erhebung und Analyse von Mensch-Technik-Interaktivität, welche sich besonders für Bereiche anbietet, die entweder mit gängigen Herangehensweisen nur schwer beobachtbar sind (Wie beobachtet man sinnvoll die Interaktivität über einen Bildschirm?) oder aber durch Interaktivität mit proaktiven Technologien gekennzeichnet sind.

Wir stellen in unserem Beitrag erstens ein solches Methodenbündel, das wir Interaktivitätsexperiment getauft haben, vor. Zweitens diskutieren wir anhand der Ergebnisse zweier durchgeführter Experimente die generellen methodologischen Stärken und Schwächen einer solchen Vorgehensweise, und prüfen kritisch die Kombinierbarkeit (Stichwort Triangulation) mit klassisch qualitativen Methoden und mit Simulationen. Drittens geben wir einen Ausblick auf mögliche Anwendungsgebiete dieser Methodik.

Im ersten Teil unseres Beitrages stellen wir das methodologische Grundgerüst der Interaktivitätsexperimente vor. Um Interaktivität zwischen Mensch und Technik in kontrollierter Weise in Beobachtungsdaten zu überführen, dokumentieren wir sowohl menschliche als auch technische Aktivitäten in Computerprotokollen. Indem wir so die Interaktivitäten auf der Mikroebene sichtbar machen und für die spätere Auswertung konservieren, schließen wir einerseits an die Programmatik der Technografie an. Andererseits empfehlen wir – und darin weichen wir von vielen (ethno-)technografischen Ansätzen ab – die Erhebung der Daten in einem Laborsetting. Erst in der künstlichen Laborsituation ist die für die Datenerhebung notwendige Kontrollierbarkeit der Interaktivität gewährleistbar. Dies schließt insbesondere auch die Einführung eines Interface ein, das eine wechselseitige Anpassung von Mensch und Technik erzeugt. Ferner werden so auch neue Technologien, die noch nicht gesellschaftlich etabliert sind, einer Untersuchung zugänglich. Darüber hinaus wird diskutiert, inwiefern sich das Interaktivitätsexperiment über den klassischen experimentellen Hypothesentest hinaus auch zur Exploration und Musteranalyse und daraus resultierend zur Generierung neuer Hypothesen eignet.

Der zweite Teil konkretisiert das beschriebene Vorgehen am Beispiel der bisher durchgeführten zwei Interaktivitätsexperimente. Nach dem Vorbild des Tauschs von Diensten im Schichtbetrieb, wie es beispielsweise in Krankenhäusern Gang und Gebe ist, haben wir menschliche Probanden und proaktive (BDI-)Agenten miteinander Dienstschichten verhandeln lassen. Zunächst werden die bisherigen Ergebnisse der Hypothesentests bezüglich Passungsverhältnissen und Interaktionsmustern vorgestellt. Wir diskutieren Möglichkeiten diese Ergebnisse miteinander zu verbinden, bzw. mit weiteren Methoden zu kombinieren. Insbesondere auf qualitative Beobachtungsverfahren und Simulationen soll hierbei eingegangen werden.

Im Ausblick unseres Beitrags gehen wir kurz auf einige weitere Anwendungsmöglichkeiten ein. Ein Schwerpunkt unserer zukünftigen Arbeit liegt auf Bedarfsanalysen, die auf eine Einheit von Nutzungs- und Beobachtungssituation setzen, um prospektiv Daten über Interaktivitätsmuster in Nutzungsszenarien zu erheben, die auf eine iterative Weiterentwicklung der Technik selbst abzielen. Mit dem Instrumentarium der Interaktivitätsexperimente eröffnet sich ein genuin soziologischer Beitrag zu interdisziplinären TA-Projekten: Neben der Dokumentation kreativen Technikumgangs und evokatorischer Potenziale der Technik können beispielsweise auch Forschungsfragen aus anderen Disziplinen zur Mensch-Technik-Interaktivität in operationalisierbare Hypothesen überführt werden. Nicht zuletzt ergibt sich ein neuartiger Zugang zur Organisationsforschung, eine „practice lens“ (Orlikowski), die das praxisstiftende Zusammenspiel von Mensch und Technik schon in einer Frühphase der Technikeinführung beobachtbar macht.

Monika Büscher, Lancaster University Sociology Department, UK.
Email: m.buscher@lancaster.ac.uk

Form und Wissenschaft: Design als Soziologische Analyse

Die Computerisierung der Sozial- und Geisteswissenschaften ist nicht nur eine Frage der Methoden, sondern auch der Resultate: z.B. im Sinne der Inkorporation von Soziologischer Analyse in das Design von neuen Technologien. Als Soziologin und Mitglied eines internationalen Forschungs- und Technologie Design Teams bin ich sowohl Macherin als auch Betroffene im Prozess der Veraenderung der Wissenschaft durch computergestuetzte Methoden und der Produktion von soziologischer Analyse als Design. Mein Werkzeug – digitales Video – hat sich ueber einen Zeitraum von etwas ueber 10 Jahren zu einem aussergewohnlich wirksamen und wichtigen Instrument entwickelt. Doch seine dokumentarische Wirklichkeitstreue (Mohn 2001) macht es nicht nur fuer ethnographische Datensammlung und detaillierte Analyse ideal, sondern auch fuer Inspiration und Experimente. Deshalb ist Video fuer mich auch nicht eine Art soziologisches Microscop (Büscher 2005), sondern ein Instrument mit dem soziologisches Verstaendnis, aber auch ein in solchem Verstaendnis verankerter sozio-technischer Wandel, erreicht werden kann.
Meine soziologische Disziplin ist die Ethnomethodologie, d.h. ich interessiere mich fuer die praktische Produktion von sozio-technischer Ordnung. Diese analytische Orientierung macht Design-relevante Einsichten moeglich und meine Forschung findet Anwendung im Technologie Design (Luff et al. 2001). Unsere Projekte sind gefoerdert durch das Information Society Technologies Program der Europaeischen Union. Im PalCom (Palpable Computing) Projekt arbeite ich zur Zeit mit einem ca 100 Personen starken Team von Informatikern, Interaktions Designern, Soziologen, Gesundheitsfuersorge Personal, und Landschaftsarchitekten, aus ueber 12 Organisationen und 6 Laendern. Wir entwickeln eine Computer Architecktur (Infrastruktur), die die Prozesse der Computation greifbar (palpable) macht, indem sie sie manifestiert, uebersetzt, amplifiziert.
Mit ’greifbar’ meinen wir den Sinnen erfassbar, verstaendlich, inspizierbar, auseinandernehm- und zusammsetz-bar, kontrollierbar. Das Ziel ist die Erschliessung von ambient, ubiquitous, embedded Computing fuer den menschlichen Gebrauch. In meinem Vortrag beschreibe ich Video-Ethnographische Methoden der Forschung, video- und computer gestuetzte Analyse und Design ‘Fieldstorms’, sowie die Inkorporation und Enwicklung von soziologischer Analyse in und durch Prototyp Technologien.