GWTF-Jahrestagung Berlin, 25. und 26. November 2005 E-Science? Die Bedeutung des Computers für die Produktion, Vermittlung, Verbreitung und Bewertung wissenschaftlichen Wissens |
![]() |
Call for papers | Tagungsprogramm (pdf) | Abstracts der Beiträge Unter Stichworten wie „E-Science“ wird allenthalben die zunehmende Computerisierung der Wissenschaften als eine wichtige Facette der Wissensgesellschaft verhandelt und entweder als Innovation euphorisch begrüßt oder mit technikkritischen Befürchtungen verbunden. In den Natur- und Technikwissenschaften schon lange Bestandteil der wissenschaftlichen Praxis, hat die Digitalisierung in jüngster Zeit auch die Sozial- und Geisteswissenschaften erreicht, wie neue Formen der Archivierungen oder die Verwendung hochkomplexer computergestützter Modellierungen zeigen. Doch was wissen wir wirklich über die Reichweite und die Folgen dieses Prozesses? Auf der diesjährigen Jahrestagung wollen wir dieser Frage nachgehen, und zwar sowohl aus der Perspektive konkreter empirischer Studien wie aus der Perspektive der ‚Macher‘ oder ‚Betroffenen‘ dieses Prozesses. Dabei sollen alle Stadien wissenschaftlicher Tätigkeit zum Thema werden. Die wissenschaftliche Erkenntnisproduktion im engeren Sinne verändert sich ohne Zweifel durch Computereinsatz, etwa durch Simulationen oder bildgebende Verfahren, durch computerisierte Beweise oder die Bereitstellung, Verknüpfung und Auswertung großer Datenbanken. Doch bringen diese neuen Werkzeuge und Verfahren auch neue epistemologische Herausforderungen mit sich, und haben sie auch sichtbare Auswirkungen auf die wissenschaftliche Produktionsweise? Wie steht es etwa um die Beweiskraft oder auch nur die Anerkennung von Simulationsergebnissen oder computergestützten Erhebungs- und Auswertungsverfahren? Und welche Kombinationen mit den herkömmlichen Formen wissenschaftlicher Empirie und Beweisführung zeichnen sich ab? Weiterhin lässt sich nach dem Einfluss der Digitalisierung auf die bestehenden wissenschaftlichen Kulturen fragen, etwa danach, ob die Differenzierung zwischen diesen Kulturen weiter voran getrieben wird, oder ob sich neue intermediäre Kulturen herausbilden. Und schließlich kann auch danach gefragt werden, wie sich neue Professionen, die sich um Computer- und Digitalisierungstechniken gruppieren, zum wissenschaftlichen Kernpersonal verhalten. Innerhalb der Wissenschaft wird der Computerisierung aber auch ein großes Potenzial für die Vermittlung von Vorgehensweisen und Ergebnissen zugeschrieben, da sich die Bedingungen für verteiltes Arbeiten verändern und – mutmaßlich – verbessern. Damit verbindet sich etwa die Hoffnung, dass effizientere Formen der Kommunikation in räumlich verteilten Forschungsverbünden möglich sowie neuartige Kooperationsmöglichkeiten eröffnet werden, etwa durch Fernzugriff auf Forschungsgeräte der Partner oder durch Daten-Sharing. Neue kollektive Arbeitstechniken sollen zudem durch Verfahren des Computer Supported Cooperative Work oder E-Learning befördert werden. Doch berühren diese Computer- und Netzwerktechniken auch den Kern des wissenschaftlichen Produzierens? Entstehen tatsächlich neue Möglichkeiten, die über den Effekt der Word-Überarbeitungsfunktion für die gemeinsame Bearbeitung von Dokumenten hinausgeht? Und in welchem Verhältnis stehen die mögliche Kooperationsvereinfachung oder mögliche neue Kreativitätsräume zu den Standardisierungseffekten, die mit computerisierten Werkzeugen zwangsläufig einhergehen? Schließlich verändert Computerisierung die Verbreitung und wissenschaftliche Bewertung des produzierten Wissens. Hier sind besonders die mit dem Internet verbundenen neuen Publikations- und Verbreitungsmöglichkeiten einschlägig, etwa E-Journals, die großen und vernetzten Datenrepositories, oder auch die Publikation auf Homepages. Welchen Einfluss auf die Wahrnehmung und Bewertung von wissenschaftlichen Arbeiten hat die mächtige open-access-Bewegung, also der Versuch, teure Papierzeitschriften durch frei zugängliche Internetzeitschriften zu ersetzen? Zudem scheint auch die computerisierte Abfrage von Impact-Faktoren oder Google-Rankings eine zunehmende Bedeutung zu erlangen. Erleben wir die Herausbildung neuer Konventionen der innerwissenschaftlichen Bewertung, und wenn ja, wie verhalten sie sich zu den bislang geltenden Konventionen? Und hat dieser Prozess einen sichtbaren Einfluss auf die Art und Weise, wie wissenschaftliche Reputation erworben und zugeschrieben wird? Abstracts erbeten bis zum 31.Juli 2005 an Martina Merz, Universität Lausanne und EMPAS St. Gallen (Martina.Merz@unil.ch) [zum Seitenanfang]
Abstracts der Beiträge (in der Reihenfolge des Programmablaufs) Böschen/Kropp | Schnettler | Reinhart/Sirtes | Kleinen/Paulitz | Hinner | Hanekop | Hinkel | Gramelsberger | Lenhard | Hahne/Lettkemann | Büscher Stefan Böschen, Universität Augsburg Wissenskartierung als Medium reflexiver Wissenspolitik Computerisierung und E-Science verändern nicht nur die Wissenschaft und ihre Methoden und Kulturen der Wissensproduktion, sondern auch die Formen der Wissensvermittlung sowohl innerhalb der Scientific Community als auch an ihren Schnittstellen zu gesellschaftlichen Teilbereichen und bspw. Akteuren aus Politik, Zivilgesellschaft und Fachöffentlichkeit. Dabei lassen sich sehr unterschiedliche Formen der computerisierten und internetbasierten „dissemination“ denken, die weit über E-Journals und Publikationen auf Homepages hinausgehen. Eine solche Form, nämlich die Kartierung von Risikowissen, werden wir in den kommenden Jahren in einem Forschungsprojekt erproben. Die Grenze zwischen Wissenschaft und Öffentlichkeit ist in den vergangenen Jahren zunehmend zum Gegenstand von Auseinandersetzungen geworden. Zwischen Aufklärungsstrategien von Öffentlichkeit durch die Wissenschaft und der Einbeziehung von Laien in die Wissensproduktion gibt es ein breites Spektrum von Strategien, nach denen die Schnittstelle zwischen diesen beiden „Sphären“ geordnet werden könnte. Einige (wohl die Mehrzahl) der Wissenschaftler fürchten eine „Verwässerung“ der Wissensproduktion durch Laien – andere erwarten sich besondere Kreativitätsgewinne. Gleichviel, das Problem der Kommunikation wissenschaftlichen Wissens stellt sich in beiden Fällen. Dieses wird noch dadurch verstärkt, dass im Rahmen von wissenspolitischen Diskursen die Frage nach einem „technological“ oder „scientific citizenship“ aufgeworfen wird und damit ganz grundsätzlich die Stellung von „Laien“ (wer das dann auch immer ist) im Erzeugungsprozess von Wissen zur Diskussion steht. Wenn wir im Zusammenhang der geplanten Risikowissenskartierung von einer „reflexiven Wissenspolitik“ sprechen, dann meint dies insbesondere zwei Gestaltungsaufgaben: a) wissensrelevante Grundunterscheidungen (Experten vs. Laien; Wissen vs. Nichtwissen bzw. Fakten vs. Werte) explizit zu machen, und darüber hinaus b) die demokratiepolitische Perspektive, die Lasten von Nichtwissen, normativer Ambivalenz und kategorialer Uneindeutigkeit umwelt- und sozialverträglich zu verteilen sowie hierfür Verfahren zur Verfügung zu stellen. Vor diesem Hintergrund befassen wir uns mit einem besonderen Verfahren der Wissenserschließung und –kommunikation für die Gestaltung reflexiver Wissenspolitik, spezifischer: mit Wissenskarten. Gegenstand des Vortrages ist es, Vorüberlegungen für die Entwicklung eines Prototyps für die internetbasierte Kartierung von Risikodiskursen zu präsentieren und zur Diskussion zu stellen. Zielpunkt dieses vom BMBF im Rahmen des Schwerpunktes sozial-ökologische Forschung bewilligten Projektes wird es sein, eine exemplarische Darstellung der kontroversen Informations- und Wissensgrundlagen als Argumentationslandkarten in ausgewählten Risikofeldern zu entwickeln. Die so entstehenden, strukturierten „Issue Maps“ sollen dazu dienen, die Argumentationsnetzwerke in ihrer Vielfalt von Akteuren, institutionellen Regeln sowie Bedeutungszusammenhängen transparent zu machen, diese unter bestimmten Gesichtspunkten zu akzentuieren und mit zentralen Referenzen verknüpfen. Hierbei sind es die besonderen Möglichkeiten von Computern und Web, die die Aufbereitung von unterschiedlichen Diskursen als Wissenslandkarte nicht nur ermöglichen, sondern auch zu einer weiten Verbreitung von Wissensperspektiven und damit letztlich zu einer Strukturierung von Diskursen beitragen können. Nicht zuletzt steht damit erneut die demokratietheoretische Frage zur Debatte, inwieweit durch Informations- und Rationalitätssteigerung Handeln und Entscheiden an die Prozesse öffentlicher Meinungsbildung rückgebunden werden können. Bernt Schnettler, TU Berlin Präsentationen: ›E-Science‹ oder ›Computer in Aktion‹? Der Einsatz von Computern hat die wissenschaftliche Arbeit zweifellos in vielerlei Hinsicht ver-ändert. Während die Debatte um CSCW, E-Science oder E-Learning aber vor allem recht kom-plexe und spezielle Anwendungen in den Blick genommen hat, wurde eine wesentlich alltägliche-re Art der Computernutzung in der Wissenschaft bislang nahezu vollkommen übersehen: Barbara Kleinen, Universität Hamburg Multiperspektivität und mehrdimensionale Verknüpfungen Einsatzpotentiale der webbasierten "Cooperation Infrastructure" im Feld E-Science Sozial- und geisteswissenschaftliche Forschung ist mittlerweile längst in der Informationsge-sellschaft angekommen. Unterstützte der Personal Computer schwerpunktmäßig die individu-elle Textproduktion, so haben die Neuen Medien u.a. schnelle und informelle Wege für die Kommunikation und Kooperation zwischen WissenschaftlerInnen erschlossen. Vor diesem Hintergrund erscheinen traditionelle Formen und Systeme wissenschaftlicher Produktivität zunehmend als veraltet und stellen das Bild des individuellen Geistesarbeiters, der am Ende des Forschungsprozesses mit dem "opus magnum" die Studierstube verlässt, radikal in Frage. Die Entwicklung von Kooperationstechnologien im Feld des Computer Supported Cooperati-ve Work eröffnen neue, technisch generierte Arbeitsräume für verteiltes Arbeiten. Solche technischen Kooperationsumgebungen modellieren spezifische Formen wissenschaftlicher Kooperation und können folglich an etablierte Verfahren wissenschaftlicher Produktivität anschließen oder diese umgekehrt auch destabilisieren und somit neue Anforderungen an wis-senschaftliche Arbeitsweisen generieren. Martin Reinhart und Daniel Sirtes Peer Review im digitalen Zeitalter Als zentrales Element der Selbststeuerung des Wissenschaftssystems gilt das Verfahren des Peer Review, in dem Wissenschaftler über die Qualität wissenschaftlicher Arbeit aus ihrem Fachgebiet urteilen. Eine bisher kaum untersuchte Frage ist der Einfluss digitaler Technologien auf das Peer Review Verfahren. Kajetan Hinner, Universität Mainz Neue Möglichkeiten für Plagiat und Betrug Nachdenklich stimmen die Fälschungs- und Betrugsmöglichkeiten im Bereich der Wissenschaft, die mit dem Internet denkbar geworden sind. Plagiate werden durch die einfache Distribution wissenschaftlicher Publikationen stark erleichtert. Fehlende Standards bei den Internet-Adressen tragen dazu bei, dass im Internet publizierte wissenschaftliche Informationen nicht anhand einfacher äußerer Merkmale in ihrer Qualität eingeordnet werden können. Deshalb werden auf WWW-Seiten publizierte Falschmeldungen oder bewusst unzutreffende Veröffentlichungen leicht durchführbar. Von unzufriedenen Kollegen, Mitarbeitern oder Studenten veröffentlichte Schmähungen könnten bis zum Rufmord führen. Realistische Gegenmaßnahmen sind dabei zur Zeit begrenzt. Heidemarie Hanekop, SOFI Göttingen Herausbildung neuer Institutionen wissenschaftlicher Bewertung durch Open Access Publikationen? Die Forderung nach freiem Zugang zu wissenschaftlichen Publikationen entspricht dem Charakter des wissenschaftlichen Wissens, das im Wissenschaftssystem als öffentliches Gut produziert wird. Das Publikationssystem in seiner gegenwärtigen Form mit den wissenschaftlichen Verlagen als dominantem Akteur ist nicht nach der Logik des Wissenschaftssystems organisiert, sondern nach ökonomischer Verwertungslogik. Wissen wird im Publikationsprozess in eine Ware verwandelt. Open Access Publikationen sind so betrachtet eine Form der De-Kommodifizierung wissenschaftli-chen Wissens. Insofern zielt Open Access auf eine neue Form der Verbreitung, die durch die neu-en IuK-Technologien ermöglicht wird. Dies erklärt die beachtliche Anziehungskraft der Open Ac-cess Bewegung in der Wissenschaft - nicht nur unter Wissenschaftlern, sondern auch bei Bibliotheken, Forschungseinrichtungen und Organisationen der Wissenschaftsförderung (siehe Berlin Declaration). Jochen Hinkel Die Semantik von Computermodellen in der integrierten Forschung Die Computersimulation ist zu einer zentralen Methode in vielen wissenschaftlichen Disziplinen und Forschungsfeldern geworden. Zum Beispiel bilden Klimamodelle die Zirkulation der Atmosphäre ab, ökonomische Modelle die Entwicklung der Wirtschaft und Vegetationsmodelle das Pflanzenwachstum. In dem Forschungsfeld des Globalen Wandels spielen integrierte Modelle, das heisst Modelle welche aus verschiedenen disziplinären Teilmodellen zusammengesetzt sind eine große Rolle. Zum Beispiel werden Klimamodelle, Vegetationsmodelle und ökonomische Modelle gekoppelt, um die Wechselwirkungen zwischen volkswirtschaftlicher Entwicklung, Landnutzung und den daraus resultierenden CO2-Emissionen zu simulieren. Diese integrierte Modellierung erfordert eine sorgsamere Auseinandersetzung mit der Semantik von Computermodellen als dies bei der disziplinären Forschung der Fall ist. Unter der Bedeutung eines Computermodells soll hier die Beziehung des Modells zu dem modellierten Phänomen verstanden werden. Ein Computermodell ist mit dem Phänomen durch den Prozess der Modellbildung verbunden: Zuerst wird ein mathematisches Problem formuliert, dann wird die Lösung des Problems mit einem numerischen Modell angenähert, welches schließlich mittels einer Programmiersprache auf dem Computer implementiert wird. Bei jedem Schritt werden bestimmte Annahmen getroffen und Vereinfachungen gemacht. In der disziplinären Modellierung werden die einzelnen Schritte der Modellbildung häufig nur implizit durchlaufen und die dabei getroffenen Annahmen sind kaum dokumentiert. Die genaue Bedeutung der Modelle ist für Aussenstehende deswegen nur schwer erfassbar. Da die Computermodelle jedoch meist ausschliesslich von ihren Autoren oder innerhalb der jeweiligen Disziplin genutzt werden, bereitet dies keine besonderen Probleme. In der integrierten Modellierung ist es jedoch essentiell, die Annahmen der Teilmodelle explizit zu erfassen. Sinnvolle integrierte Modelle können nur gebildet werden, wenn sich die während der Modellbildung getroffenen Annahmen der Teilmodelle nicht widersprechen. Deshalb ist im interdisziplinären Modellbildungsprozess mehr Transparenz notwendig. Dieser Vortrag betrachtet den Prozess der Modellbildung unter semantischen Gesichtspunkten und hebt die sich daraus ergebenden Konsequenzen für die integrierte Modellierung hervor. Gabriele Gramelsberger, FU Berlin Datenarchäologie in aktuellen Klimamodellen. Simulationscode als Wissensarchiv Sieht man sich den Code aktueller Klimamodelle an, so zeigt sich, dass Simulationscode nicht nur aus aktiven Programmstücken besteht, sondern aus einer Vielzahl von Kommentaren, auskommentierten, älteren Programmteilen und Referenzen auf Publikationen. Man stellt fest, dass Simulationsmodelle gewachsene „Organismen“ sind, in welchen eine mehr als dreißigjährige Geschichte der Computerisierung der Naturwissenschaften eingeschrieben ist. Darüber hinaus erleichtern neuere Hilfsprogramme die kollaborative und distribuierte Programmierarbeit. Current Version Systeme dokumentieren die kollaborative Arbeit an aktuellen Simulationsversionen und visualisieren mit komplexen Baumstrukturen die Arbeitsprozesse der Modellierer (Beispiel „ClearCase“ der Klimamodellierung). Frameworks ermöglichen die distribuierte Programmierung an verschiedenen Orten und verschiedenen Programmstücken parallel (Beispiel „Cactus Code“ der Gravitationsphysik). Diese Hilfsprogramme dokumentieren, dass sich die computerisierte Wissenschaft von einem Anfangsstadium mit „selbstgeschriebenen“ proprietären Lösungen, in eine „normal scientific method“ wandelt. Der Beitrag analysiert anhand der „Wolken-Datei“ des aktuellen Erdmodells [ECHAM 5] den Simulationscode als Wissensarchiv, stellt die Arbeitsweise mit Simulationsmodellen und ihren strukturellen Einfluss auf das wissenschaftliche Arbeiten vor, und zeichnet die zunehmende Professionalisierung der „Computational Science“ nach. 1 Der Beitrag reflektiert die Ergebnisse meiner Interview-Studien in der Klimaforschung im Rahmen des Forschungsprojekts „Computersimulationen – Neue Instrumente der Wissensproduktion“, Freie Universität Berlin, Institut für Philosophie. Das Projekt ist Teil der Initiative „Wissen für Entscheidungsprozesse“, die von der Berlin-Brandenburgischen Akademie der Wissenschaften koordiniert wird. Johannes Lenhard, Universität Bielefeld Computersimulation: zur Epistemologie eines neuen Instruments der Wissenschaften Der Computer als wissenschaftliches Instrument beeinflusst die Praxis der meisten Wissenschaften in zunehmendem Maße. Die Entwicklung und der Einsatz von Computersimulationen ist Teil dieser instrumentbasierten Revolution, deren Auswirkungen von der Methodologie der Wissenschaften bis hin zu ihrer Kultur reichen. Michael Hahne und Eric Lettkemann, TU Berlin Going Code statt Going Native. Neue Möglichkeiten der computergestützten Beobachtung und Analyse von Mensch-Technik-Interaktivität Computergestützte Wissensgenerierung und -evaluation werden in Informatik und Sozialwissenschaften schon lange für Simulationen von sozialen Vorgängen eingesetzt. Relativ neu ist dagegen der Einsatz für die direkte Beobachtung, d.h. Erhebung und Analyse von Mensch-Technik-Interaktivität, welche sich besonders für Bereiche anbietet, die entweder mit gängigen Herangehensweisen nur schwer beobachtbar sind (Wie beobachtet man sinnvoll die Interaktivität über einen Bildschirm?) oder aber durch Interaktivität mit proaktiven Technologien gekennzeichnet sind. Wir stellen in unserem Beitrag erstens ein solches Methodenbündel, das wir Interaktivitätsexperiment getauft haben, vor. Zweitens diskutieren wir anhand der Ergebnisse zweier durchgeführter Experimente die generellen methodologischen Stärken und Schwächen einer solchen Vorgehensweise, und prüfen kritisch die Kombinierbarkeit (Stichwort Triangulation) mit klassisch qualitativen Methoden und mit Simulationen. Drittens geben wir einen Ausblick auf mögliche Anwendungsgebiete dieser Methodik. Im ersten Teil unseres Beitrages stellen wir das methodologische Grundgerüst der Interaktivitätsexperimente vor. Um Interaktivität zwischen Mensch und Technik in kontrollierter Weise in Beobachtungsdaten zu überführen, dokumentieren wir sowohl menschliche als auch technische Aktivitäten in Computerprotokollen. Indem wir so die Interaktivitäten auf der Mikroebene sichtbar machen und für die spätere Auswertung konservieren, schließen wir einerseits an die Programmatik der Technografie an. Andererseits empfehlen wir – und darin weichen wir von vielen (ethno-)technografischen Ansätzen ab – die Erhebung der Daten in einem Laborsetting. Erst in der künstlichen Laborsituation ist die für die Datenerhebung notwendige Kontrollierbarkeit der Interaktivität gewährleistbar. Dies schließt insbesondere auch die Einführung eines Interface ein, das eine wechselseitige Anpassung von Mensch und Technik erzeugt. Ferner werden so auch neue Technologien, die noch nicht gesellschaftlich etabliert sind, einer Untersuchung zugänglich. Darüber hinaus wird diskutiert, inwiefern sich das Interaktivitätsexperiment über den klassischen experimentellen Hypothesentest hinaus auch zur Exploration und Musteranalyse und daraus resultierend zur Generierung neuer Hypothesen eignet. Der zweite Teil konkretisiert das beschriebene Vorgehen am Beispiel der bisher durchgeführten zwei Interaktivitätsexperimente. Nach dem Vorbild des Tauschs von Diensten im Schichtbetrieb, wie es beispielsweise in Krankenhäusern Gang und Gebe ist, haben wir menschliche Probanden und proaktive (BDI-)Agenten miteinander Dienstschichten verhandeln lassen. Zunächst werden die bisherigen Ergebnisse der Hypothesentests bezüglich Passungsverhältnissen und Interaktionsmustern vorgestellt. Wir diskutieren Möglichkeiten diese Ergebnisse miteinander zu verbinden, bzw. mit weiteren Methoden zu kombinieren. Insbesondere auf qualitative Beobachtungsverfahren und Simulationen soll hierbei eingegangen werden. Im Ausblick unseres Beitrags gehen wir kurz auf einige weitere Anwendungsmöglichkeiten ein. Ein Schwerpunkt unserer zukünftigen Arbeit liegt auf Bedarfsanalysen, die auf eine Einheit von Nutzungs- und Beobachtungssituation setzen, um prospektiv Daten über Interaktivitätsmuster in Nutzungsszenarien zu erheben, die auf eine iterative Weiterentwicklung der Technik selbst abzielen. Mit dem Instrumentarium der Interaktivitätsexperimente eröffnet sich ein genuin soziologischer Beitrag zu interdisziplinären TA-Projekten: Neben der Dokumentation kreativen Technikumgangs und evokatorischer Potenziale der Technik können beispielsweise auch Forschungsfragen aus anderen Disziplinen zur Mensch-Technik-Interaktivität in operationalisierbare Hypothesen überführt werden. Nicht zuletzt ergibt sich ein neuartiger Zugang zur Organisationsforschung, eine „practice lens“ (Orlikowski), die das praxisstiftende Zusammenspiel von Mensch und Technik schon in einer Frühphase der Technikeinführung beobachtbar macht. Monika Büscher, Lancaster University Sociology Department, UK. Form und Wissenschaft: Design als Soziologische Analyse Die Computerisierung der Sozial- und Geisteswissenschaften ist nicht nur eine Frage der Methoden, sondern auch der Resultate: z.B. im Sinne der Inkorporation von Soziologischer Analyse in das Design von neuen Technologien. Als Soziologin und Mitglied eines internationalen Forschungs- und Technologie Design Teams bin ich sowohl Macherin als auch Betroffene im Prozess der Veraenderung der Wissenschaft durch computergestuetzte Methoden und der Produktion von soziologischer Analyse als Design.
Mein Werkzeug – digitales Video – hat sich ueber einen Zeitraum von etwas ueber 10 Jahren zu einem aussergewohnlich wirksamen und wichtigen Instrument entwickelt. Doch seine dokumentarische Wirklichkeitstreue (Mohn 2001) macht es nicht nur fuer ethnographische Datensammlung und detaillierte Analyse ideal, sondern auch fuer Inspiration und Experimente. Deshalb ist Video fuer mich auch nicht eine Art soziologisches Microscop (Büscher 2005), sondern ein Instrument mit dem soziologisches Verstaendnis, aber auch ein in solchem Verstaendnis verankerter sozio-technischer Wandel, erreicht werden kann. | |
Zuletzt aktualisiert am 24.05.2018 [zum Seitenanfang] [Impressum/Datenschutzerklärung] |