Wissen – Wissenschaft – Organisation
12. Tagung der Deutschen ISKO (International Society for Knowledge Organization), Bonn, 19.-21.10.2009, in Zusammenarbeit mit GESIS-Leibnizinstitut für die Sozialwissenschaften und dem Universitätsclub Bonn e.V.
Wissen ist zum Leitbegriff der postmodernen Gesellschaft geworden. Elektronik und Neue Medien haben die technologische Entwicklung beschleunigt. Entsprechend entstehen im Wissenschaftsbetrieb neue Techniken, Organisationsformen und Wissensbegriffe. All dies ist gepaart sind mit neuen Logiken, Konzeptionen, Kommunikationsweisen und Arbeitsteilungen. Begriffe wie “Wissensfabrik”, “Nicht-Wissen”, “Wissensnachhaltigkeit”, “Wissenstransfer”, “Knowledge Base”, “E-Science”, “Ontologien”, “Semantic Web”, “Online Communities” und andere spiegeln dieses neue Verständnis der Generierung von Wissen und dem Umgang damit wider.
Die Notwendigkeit interdisziplinärer Zusammenarbeit ist offenkundig. Beteiligt sind an der Ausarbeitung einer “Neuen Wissensordnung”: Konzeptanalyse, Informationsverarbeitung, Erkenntnistheorie, Nutzerforschung, Evaluationsforschung, Kognitionsforschung, Wissensmanagement und andere Bereiche der etablierten Wissenschaften. Die kommende Tagung der Deutschen ISKO soll neue Tendenzen in der Organisation von Wissen aufzeigen, diese hinterfragen und praktikable Modelle zur Organisation von Wissen vorstellen.
Programmbereiche:
- Wissensorganisation und Wissenschaftstheorie
- Ontologien und Interoperabilität
- Individualität und Wissensorganisation
- Virtual Communities und Social Software
- Wissensmanagement und Wissensdesign
- Wissenssoziologie und Wissensordnung
- Scientometrie und Wissenschaftsevaluation
- Wissensethik und Wissensnachhaltigkeit
Ort:
Bonn, Universitätsclub
Termine:
Einreichung einer Kurzfassung: bis 30. Juni 2009 (verlängert)
Annahmebescheid: bis ca. 30. Juni 2009
Frühbuchung: bis 31. Juli 2009
Einreichung der Langfassung: 15. September 2009
Tagung: 19.-22. Oktober 2009
Frist für die Einreichung von Workshop-Vorschlägen (mit mind. 3 Referaten): 31. Mai 2009
Benachrichtigung über die Annahme von Workshops: bis ca. 15. Juni 2009
Tagungsinformation:
Plakat (PDF)
Programmkomitee:
Jörg Blasius, Bonn / Angelika Deigner, Bonn / Winfried Gödert, Köln / Stefan Hornbostel, Bonn / Thomas Mandl, Hildesheim / Tilman Mayer, Bonn / Philipp Mayr, Bonn / Ekkehard Mochmann, Köln / H. Peter Ohly, Bonn (Tagungsl.) / Achim Osswald, Köln / Vivien Petras, Berlin / Jo Reichertz, Duisburg / Ralph Schröder, Oxford / Jörn Sieglerschmidt, Konstanz / Max Stempfhuber, Bonn / Christian Swertz, Wien / Karsten Weber, Opole
Programm
Mo. 19.10. | ||
Wolfgang-Paul-Saal | Schumpeter-Raum | |
9:00-10:45 | Anmeldung (Foyer) | Tutorium: Ontologiesprachen (Sure) |
Kaffeepause | ||
Eröffnung (Weber) | ||
11:00-12:30 | N.N.: Begrüßung
Ohly: Wissen und Organisation
Blasius: Informationsverhalten Weber: Informationsnachhaltigkeit |
|
Mittagspause | ||
Wissensmehrwert (Stempfhuber) | Wissensqualität (Weishaupt) | |
14:00-15:30 | Dahlberg: WO-Desiderata (Kurzreferat)
Lindenthal/Scheven: ISO 25964
Mayr et al.: Mehrwertdienste für das Information Retrieval |
Weishaupt; Herb; Müller: Qualitätssicherung und Qualitätsmessung – Determinanten der Akzeptanz für Open Access? (Session) |
Kaffeepause | ||
Fachwisssen (Mayr) | Fachkommunikation (Blasius) | |
15:45-17:00 | Riege: Fachinformation und Forschungsevaluierung
Dees: Bewertung von Publikationsorten der Erziehungswissenschaft |
Shen/ Stempfhuber: Discussion in online publications
Dücker/Roth: Wissenslandkarte Berufsbildungsforschung (45 Min.)
|
17:15-19:00 | Bonn-Führung (pro Person 4.- €; Anmeldung im Tagungsbüro erforderlich) | |
19:30 | Empfang im Uni-Club | |
Di. 20.10. | ||
Wolfgang-Paul-Saal | Schumpeter-Raum | |
9:00-9:45 | Czap: Erkennen durch künstliche Systeme (Plenum) | |
Semantik I (Sieglerschmidt) | Grundlagen der WO I (Dahlberg) | |
9:45-10:45 | Püttmann: Sprachliches Wissen zur SuchunterstützungZapilko/Sure: Kombination von Digital Library Verfahren mit Semantic Web (Kurzbeitrag) | Segundo: General Theory of KO (Engl.)
Prätor: Logic as organization of Actions (Engl.)
|
Kaffeepause | ||
Semantik II (Bertram) | Fachkommunikation II (Ohly) | |
11:00-12:30 | Boteram: semantische RelationenKoch: Vokabularien und WebServices
Hubrich: Integrierte begrifflicher Interoperabilität |
Raghavan: Education for Information Management as a Transformative Force (Engl.)
Paepcke/ Harfensteller: Epistemic Community 2.0 (Engl.) Wessels/Pinna: WO-Systeme für Kulturerbe und Archäologie – State of the Art |
Mittagspause | ||
Wissensbetrieb (Hopp) | Wissensmanagement (Czap) | |
14:00-15:30 | Biester: Der intrinsisch motivierte Professor
Sieglerschmidt: Ubiquitaeres Wissen
Rahmstorf : Philosophie
|
Ammann: Knowledge in an Enterprise (Deutsch)
Bertram: Enterprise-Search-Lösungen Braschler et al.: Suchfunktionen deutscher Unternehmens-Websites |
Kaffeepause | ||
Semantik III (Rahmstorf) | Wissensalmende (Sieglerschmidt) | |
15:45-17:15 | Ohly: Wissens- und informationssoziologische Aspekte der WO
Gradmann/Olensky: Semantic Interoperability
Zens: Electronic Health Records |
Bidlo/ Englert: Open-Source-Gedanke
Hopp: Open Access
|
Kaffeepause | ||
17:30-19:15 | Mitgliederversammlung (20.10. 17:30) | |
19:30 | Empfang im Alten Rathaus, Am Markt (20.10. 19:30) | |
Mi. 21.10. | ||
Stand: 15.10.09 | Wolfgang-Paul-Saal | Schumpeter-Raum |
9:00-9:45 | Bornmann: Qualität von Forschung (Plenum) | |
Wissenserwerb (Swertz) | Medien (Adler) | |
9:45-10:45 | Hofhues et al.: Wissensaustausch unter StudierendenSporer et al.: Informelles Lernen | Dreier: FotografienHagenah/Becker: Überregionale Tageszeitungen |
Kaffeepause | ||
Wissenspraxis (Mandl) | Wissenskonzepte (Deigner) | |
11:00-12:30 | Horvatic: Gedächtnis, Medien und WissensorganisationSwertz: Negativität in der Wissensvermittlung
Stempfhuber/Zapilko: Integration of Primary Data and Publications
|
Adler: Feministische WissensorganisationAnastassiya Kovaleva: Psychologische Konstrukte
Netscher: Informationsgehalt und –aussage von dynamischen Modellen, am Beispiel der Globalisierung |
Mittagspause | ||
Wissensgemeinschaften II (Bornmann) | ||
13:30-15:00 | Janowitz: Netographie
Lietz: Diagnose von Emerging Science
Sondermann: Exzellenzinitiative |
|
Kaffeepause | ||
15:15-15:45 | Abschlusspanel (Ohly): Wissensorganisation zwischen Modellierung und Selbstorganisation | |
anschließend | Reisebericht: 2007 – Meine 2. Reise nach Indien (Ohly) |
Referentinnen bzw. Referenten und ihre Beiträge
Abschlusspanel (Ohly): Wissensorganisation zwischen Modellierung und Selbstorganisation | Mi. 21.10. 15:15-15:45 Wolfgang-Paul-Saal |
Adler: Feministische Wissensorganisation Anastassiya | Mi. 21.10. 11:00-12:30 Schumpeter-Raum |
Ammann: Knowledge in an Enterprise (Deutsch) | Di. 20.10. 14:00-15:30 Schumpeter-Raum |
Anmeldung (Foyer) | Mo. 19.10. 9:00-10:45 Wolfgang-Paul-Saal |
Bertram: Enterprise-Search-Lösungen | Di. 20.10. 14:00-15:30 Schumpeter-Raum |
Bidlo/ Englert: Open-Source-Gedanke | Di. 20.10. 15:45-17:15 Schumpeter-Raum |
Biester: Der intrinsisch motivierte Professor | Di. 20.10. 14:00-15:30 Wolfgang-Paul-Saal |
Blasius: Information und Fehlinformation in den Sozialwissenschaften | Mo. 19.10. 11:00-12:30 Wolfgang-Paul-Saal |
Bonn-Führung (pro Person 4.- €; Anmeldung im Tagungsbüro erforderlich) | Mo. 19.10. 17:15-19:00 Wolfgang-Paul-Saal |
Bornmann: Qualität von Forschung (Plenum) | Mi. 21.10. 9:00-9:45 Wolfgang-Paul-Saal |
Boteram: semantische Relationen | Di. 20.10. 11:00-12:30 Wolfgang-Paul-Saal |
Braschler et al.: Suchfunktionen deutscher Unternehmens-Websites | Di. 20.10. 14:00-15:30 Schumpeter-Raum |
Czap: Erkennen durch künstliche Systeme (Plenum) | Di. 20.10. 9:00-9:45 Wolfgang-Paul-Saal |
Dahlberg: WO-Desiderata (Kurzreferat) | Mo. 19.10. 14:00-15:30 Schumpeter-Raum |
Dees: Bewertung von Publikationsorten der Erziehungswissenschaft | Mo. 19.10. 15:45-17:00 Wolfgang-Paul-Saal |
Dreier: Fotografien | Mi. 21.10. 9:45-10:45 Schumpeter-Raum |
Dücker/ Roth: Wissenslandkarte Berufsbildungsforschung (45 Min.) | Mo. 19.10. 15:45-17:00 Schumpeter-Raum |
Empfang im Alten Rathaus, Am Markt (20.10. 19: 30) | Di. 20.10. 19:30 Altes Rathaus |
Empfang im Uni-Club | Mo. 19.10. 19:30 Foyer |
Eröffnung (Weber) | Mo. 19.10. 11:00-12:30 Wolfgang-Paul-Saal |
Fachkommunikation (Blasius) | Mo. 19.10. 15:45-17:00 Schumpeter-Raum |
Fachkommunikation II (Ohly) | Di. 20.10. 11:00-12:30 Schumpeter-Raum |
Fachwisssen (Mayr) | Mo. 19.10. 15:45-17:00 Wolfgang-Paul-Saal |
Gradmann/Olensky: Semantic Interoperability | Di. 20.10. 15:45-17:15 Wolfgang-Paul-Saal |
Grundlagen der WO I (Dahlberg) | Di. 20.10. 9:45-10:45 Schumpeter-Raum |
Hagenah/ Becker: Überregionale Tageszeitungen | Mi. 21.10. 9:45-10:45 Schumpeter-Raum |
Herb: Qualitätssicherung und Qualitätsmessung – Determinanten der Akzeptanz für Open Access? | Mo. 19.10. 14:00-15:30 Wolfgang-Paul-Saal |
Hofhues et al.: Wissensaustausch unter Studierenden | Mi. 21.10. 9:45-10:45 Wolfgang-Paul-Saal |
Hopp: Open Access | Di. 20.10. 15:45-17:15 Schumpeter-Raum |
Horvatic: Gedächtnis, Medien und Wissensorganisation | Mi. 21.10. 11:00-12:30 Wolfgang-Paul-Saal |
Hubrich: Integrierte begrifflicher Interoperabilität | Di. 20.10. 11:00-12:30 Wolfgang-Paul-Saal |
Janowitz: Netnographie | Mi. 21.10. 13:30-15:00 Wolfgang-Paul-Saal |
Koch: Vokabularien und WebServices | Di. 20.10. 11:00-12:30 Wolfgang-Paul-Saal |
Kovaleva: Psychologische Konstrukte | Mi. 21.10. 11:00-12:30 Schumpeter-Raum |
Lietz: Diagnose von Emerging Science | Mi. 21.10. 13:30-15:00 Wolfgang-Paul-Saal |
Lindenthal/Scheven: ISO 25964 | Mo. 19.10. 14:00-15:30 Schumpeter-Raum |
Mayr et al.: Mehrwertdienste für das Information Retrieval | Mo. 19.10. 14:00-15:30 Schumpeter-Raum |
Medien (Adler) | Mi. 21.10. 9:45-10:45 Schumpeter-Raum |
Mitgliederversammlung (20.10. 17: 30) | Di. 20.10. 17:30-19:15 Wolfgang-Paul-Saal |
Müller: Qualitätssicherung und Qualitätsmessung – Determinanten der Akzeptanz für Open Access? | Mo. 19.10. 14:00-15:30 Wolfgang-Paul-Saal |
Netscher: Informationsgehalt und –aussage von dynamischen Modellen, am Beispiel der Globalisierung | Mi. 21.10. 11:00-12:30 Schumpeter-Raum |
Ohly: Reisebericht Indien | Mi. 21.10. 16:00-17:30 Wolfgang-Paul-Saal |
Ohly: Wissen und Organisation | Mo. 19.10. 11:00-12:30 Wolfgang-Paul-Saal |
Ohly: Wissens- und informationssoziologische Aspekte der WO | Di. 20.10. 15:45-17:15 Wolfgang-Paul-Saal |
Paepcke/ Harfensteller: Epistemic Community 2.0 (Engl.) | Di. 20.10. 11:00-12:30 Schumpeter-Raum |
Prätor: Logic as organization of Actions (Engl.) | Di. 20.10. 9:45-10:45 Schumpeter-Raum |
Püttmann: Sprachliches Wissen zur Suchunterstützung | Di. 20.10. 9:45-10:45 Wolfgang-Paul-Saal |
Raghavan: Education for Information Management as a Transformative Force (Engl.) | Di. 20.10. 11:00-12:30 Schumpeter-Raum |
Rahmstorf : Philosophie | Di. 20.10. 14:00-15:30 Wolfgang-Paul-Saal |
Riege: Fachinformation und Forschungsevaluierung | Mo. 19.10. 15:45-17:00 Wolfgang-Paul-Saal |
Segundo: General Theory of KO (Engl.) | Di. 20.10. 9:45-10:45 Schumpeter-Raum |
Semantik I (Sieglerschmidt) | Di. 20.10. 9:45-10:45 Wolfgang-Paul-Saal |
Semantik II (Bertram) | Di. 20.10. 11:00-12:30 Wolfgang-Paul-Saal |
Semantik III (Rahmstorf) | Di. 20.10. 15:45-17:15 Wolfgang-Paul-Saal |
Shen/ Stempfhuber: Discussion in online publications | Mo. 19.10. 15:45-17:00 Schumpeter-Raum |
Sieglerschmidt: Ubiquitaeres Wissen | Di. 20.10. 14:00-15:30 Wolfgang-Paul-Saal |
Sondermann: Exzellenzinitiative | Mi. 21.10. 13:30-15:00 Wolfgang-Paul-Saal |
Sporer et al.: Informelles Lernen | Mi. 21.10. 9:45-10:45 Wolfgang-Paul-Saal |
Stempfhuber/Zapilko: Integration of Primary Data and Publications | Mi. 21.10. 11:00-12:30 Wolfgang-Paul-Saal |
Swertz: Negativität in der Wissensvermittlung | Mi. 21.10. 11:00-12:30 Wolfgang-Paul-Saal |
Tutorium: Ontologiesprachen (Sure) | Mo. 19.10. 9:00-10:45 Schumpeter-Raum |
Weber: Informationsnachhaltigkeit | Mo. 19.10. 11:00-12:30 Wolfgang-Paul-Saal |
Weishaupt: Qualitätssicherung und Qualitätsmessung – Determinanten der Akzeptanz für Open Access? | Mo. 19.10. 14:00-15:30 Wolfgang-Paul-Saal |
Wessels/Pinna: WO-Systeme für Kulturerbe und Archäologie | Di. 20.10. 11:00-12:30 Schumpeter-Raum |
Wissensalmende (Sieglerschmidt) | Di. 20.10. 15:45-17:15 Schumpeter-Raum |
Wissensbetrieb (Hopp) | Di. 20.10. 14:00-15:30 Wolfgang-Paul-Saal |
Wissenserwerb (Swertz) | Mi. 21.10. 9:45-10:45 Wolfgang-Paul-Saal |
Wissensgemeinschaften II (Bornmann) | Mi. 21.10. 13:30-15:00 Wolfgang-Paul-Saal |
Wissenskonzepte (Deigner) | Mi. 21.10. 11:00-12:30 Schumpeter-Raum |
Wissensmanagement (Czap) | Di. 20.10. 14:00-15:30 Schumpeter-Raum |
Wissensmehrwert (Stempfhuber) | Mo. 19.10. 14:00-15:30 Schumpeter-Raum |
Wissenspraxis (Mandl) | Mi. 21.10. 11:00-12:30 Wolfgang-Paul-Saal |
Wissensqualität (Weishaupt) | Mo. 19.10. 14:00-15:30 Wolfgang-Paul-Saal |
Zapilko/ Sure: Kombination von Digital Library Verfahren mit Semantic Web | Di. 20.10. 9:45-10:45 Wolfgang-Paul-Saal |
Zens: Electronic Health Records | Di. 20.10. 15:45-17:15 Wolfgang-Paul-Saal |
Abstracts und Folien
Stand: 13.10.09
Feministische Wissenschaftsforschung: Gibt es eine Wahrheit oder ist sie geteilt?
Ulrike Adler, Bonn
Die feministische Forschung wirft zumindest die Fragen nach Erkenntnis neu auf und stellt damit alte Ansprüche in Frage, indem sie sowohl die alten Regeln zur Erkenntnisbestimmung neu definiert und um neue Standpunkte, feministische wie auch andere, erweitert. Darüber hinaus führt sie moralische, politische und kulturelle Aspekte in die Wissenschaftsdebatte ein und entlarvt damit die androzentrische Wissenschaftsdefinition als Herrschaftstechnik. Das feministische Standpunkt-Denken versucht dagegen, Wissen aus der Perspektive des Lebens von Frauen zu konstruieren. Anhand typischer Vertreterinnen der feministischen Wissenschaftsforschung werden die Fragestellungen, ihre Ansätze und Schlußfolgerungen beispielhaft dargelegt:
Sandra Harding geht von eigenen Erfahrungen und Reflexionen über die ökonomische Theorie und dem Klassenkonzept von Marx aus. Der Weiterentwicklung von Lukács stellt sie die Objektivität der Wissenschaft als gültiges gegenüber. Wenn es unterschiedliche Wahrnehmung in Abhängigkeit von der Zugehörigkeit zu einer ökonomischen Klasse – und damit unterschiedliche Erkenntnisse, ja Wahrheiten – gibt, wieso nicht dann auch für die Kategorie Geschlecht, fragt sie, wobei sie später die Kategorien um Rasse und Kultur erweitert. Dabei wendet sie sich nicht allgemein gegen systematische Forschung, sondern entlarvt den vorherrschenden Androzentrismus der Wissenschaft. Demnach sind biologisch definierte Geschlechtszuweisungen in vielfacher Hinsicht gesellschaftlich konstruiert und fallen damit in Wahrheit unter die Kategorie „soziales Geschlecht“.
Donna Haraway beleuchtet in ihrem 1983 publizierten Manifesto for Cyborg die möglichen Schnittstellen von Mensch und Maschine. Dabei diskutiert sie verschiedene Formen der Objektivität insbesondere in technologisch vermittelten Gesellschaften. In ihre Wissenschaftskritik führt sie die Generierung von Körpern und Objekten, auch von Wissenschaftsphantasien einschl. „Cyborgs“, als neue Dimension zur Betrachtung von Partialität, Objektivität und Wissen ein. Statt vermeintlich objektiver Standpunkte fordert sie ein Konzept des situierten Wissen:“ Nur eine partiale Perspektive verspricht einen objektiven Blick“ ist eine ihrer zentralen Thesen.
Mona Singer befaßt sich mit feministischen Epistemologie und der Wissenschaftssoziologie der Cultural Studies. So hat sich die „westliche Wissenschaft“ in unterschiedlichen Formen den Gegebenheiten angepaßt und im Laufe der Geschichte verändert. „Anderes“ Wissen, von anderen Kulturen, wird nur anerkannt, wenn es den herrschenden Strukturen nutzt. Denn Wissenschaft war immer schon ein Machtmittel. Der direkte Einsatz wissenschaftlichen Wissens gegen die ArbeiterInnen und KonsumentInnen in Form von Maschinen, aber auch in Form der Unterhaltungs-, Kommunikations- und Informationstechnologie, die immer stärker unser Leben prägen, wird ergänzt durch die „ideologischen“ Funktionen.
Der feministischen Wissenschaftstheorie wird im Rahmen der allgemeinen feministischen Theoriebildung eine große Bedeutung zugesprochen, da etwa eine kritische Untersuchung von humanwissenschaftlichen Kategorien zentral für ein Verständnis der Geschlechtervorstellungen sei. Feministische Ansätze werden zudem auch in der allgemeinen Wissenschaftstheorie diskutiert, da sie in einflussreicher Weise allgemeine wissenschaftstheoretische Fragen thematisieren. So wird auch die allgemeine Frage nach der Wertneutralität der Wissenschaften oder nach der Notwendigkeit einer Wissenschaftskritik sehr häufig unter Bezugnahme auf feministische Theoretikerinnen geführt. Zum einen wird darauf hingewiesen, dass die Wissenschaften de facto nicht werturteilsfrei seien, zum anderen wird argumentiert, dass wissenschaftliche und politische Systeme mit Ungleichheiten zu Verzerrungen des Wissens führen. Dem kann ein feministischer Erkenntnisansatz entgegenwirken.
A Conception of Knowledge and Knowledge Dynamics in an Enterprise
Eckhard Ammann, School of Informatics, Reutlingen University
A new conception of knowledge and knowledge dynamics is introduced. It provides a three-dimensional model of knowledge with types, kinds and qualities. Built on this knowledge conception, knowledge dynamics is modeled with the help of general knowledge conversions between knowledge assets. Here knowledge dynamics is understood to cover all of acquisition, conversion, transfer, development and usage of knowledge. Through this conception we gain a sound basis for knowledge management and development in an enterprise. Especially the type dimension of knowledge, which categorizes it according to its internality and externality with respect to the human being, is crucial for knowledge management, because knowledge should be made available by converting it to more external types.
Several areas of applicability for this conception are discussed. First an approach to model knowledge-intensive business processes in an enterprise is described, be it human-driven, knowledge-driven or task-driven processes. As an example for this approach, a model of the creative activity for the renewal planning of a product is given. Second, from a more company-wide and resource-oriented perspective, the various knowledge transformations between the different intellectual capital domains of an enterprise can be modeled with this approach. Other areas of applicability of the new conception are shortly addressed and include educational and organisational psychology.
Stand der unternehmensweiten Suche in österreichischen Großunternehmen – Ergebnisse einer Onlinebefragung
Jutta Bertram, Fachhochschule Hannover, Studiengang Informationsmanagement
Dass eine erfolgreiche Suche nach im Unternehmen vorhandenen Informationen oftmals schwieriger zu bewerkstelligen ist als eine Suche im Internet, wird in der Privatwirtschaft zunehmend als Problem gesehen. Enterprise Search ist eine Strategie, diesem Problem zu begegnen. In einer empirischen Studie mit explorativem Charakter wurde der Frage nachgegangen, wie es um den Stand der unternehmensweiten Suche in österreichischen Unternehmen bestellt ist. Im Rahmen einer Onlinebefragung wurden dazu im März/April 2009 469 Unternehmen befragt. Es beteiligten sich 104 Unternehmen. Das entspricht einem Rücklauf von 22 %. Dieser Beitrag gibt Auskunft über den Status quo der unternehmensweiten Informationsorganisation und -suche in Österreich und benennt unternehmens- bzw. personengebundene Faktoren, die darauf Einfluss haben. Im einzelnen werden Ergebnisse zu folgenden Aspekten präsentiert: Regelung der Informationsorganisation; Anreicherung unstrukturierter Informationen mit Metadaten; Probleme bei der Suche nach unternehmensinternen Informationen; täglicher Zeitaufwand für die Suche; vorhandene, wünschenswerte und nicht benötigte Suchfunktionalitäten; Zufriedenheit mit der Suche und der Informationsorganisation im Unternehmen.
„Wissen verbindet – verbindet Wissen“. Der Open-Source-Gedanke als Vergemeinschaftungsimpuls
Oliver Bidlo/Carina Englert, Universität Duisburg-Essen
Open-Source-Projekte sind mittlerweile vor allem im Rahmen der Produktion von Software oder Wissensdatenbanken eine feste Größe. Darüber hinaus entwickeln sich zunehmend Unternehmungen, die den Open-Source-Gedanken, der eng mit dem Begriff „open access“ verknüpft ist, in andere gesellschaftliche Bereiche tragen, z.B. im Rahmen der Stadtplanung, Bürgerbeteiligungen, es wird sogar schon von einem ersten „Open-Source-Auto“ gesprochen. Die (gemeinschaftliche) Wissensproduktion, die leichte Zugriffsmöglichkeit und besonders das Teilen von Wissen sind im Open-Source-Gedanken eng miteinander verknüpft. Aus diesem Grund markiert der Titel des Vortrags „Wissen verbindet“ genau jene beiden Ebenen des Open-Source-Modells: Vergemeinschaftung durch Wissensproduktion, Wissensproduktion durch Verbindung.
Der Vortrag untersucht nun Anschluss- und Umsetzungsmöglichkeiten des Open-Source-Gedankens hinsichtlich seines Vergemeinschaftungspotentials. Aus der Perspektive des Open-Source-Gedankens ist Wissen eine sich erweiternde Ressource, welche nur durch eine künstliche Verknappung, wie man sie beispielsweise von herkömmlichen Urheber- und Eigentumsrechten kennt, zu einer knappen Ressource gemacht werden kann (vgl. Fuchs 2005: 6). Die Open-Source-Gemeinschaft, verstanden als soziale Bewegung (vgl. Brand, Holtgrewe 2004: 15, allgemein Zimmermann 2004), teilt selbst eine gewisse normative Grundlage, die auf der freien Zugänglichkeit von Wissen fußt. Zugleich wird hierdurch die Standortgebundenheit des Wissens aufgebrochen. Im Rahmen der Ausweitung der Wissensgesellschaft bilden sich neue Funktionssysteme und Wissensorganisationen – zu denen die Open-Source-Bewegung gezählt werden kann –, die die Wissenschaft in ihrer alleinigen Rolle als Erzeuger, Bewerter und Vermittler von Wissen zurückdrängt (vgl. Knoblauch 2005: 275). Solcherart weist die Entwicklung des Wissens darauf hin, dass es in Zukunft nicht mehr nur einzelne Experten, sondern arbeitsteilige Gemeinschaften geben wird, die den Erfordernissen und Anforderungen der Gesellschaft entsprechen können.
Die Verknüpfung des Begriffs der Wissensgesellschaft mit dem vom Ursprung her technisch geprägten Open-Source-Gedanken ist in sofern beachtenswert, da der Begriff der Wissens-gesellschaft besonderen Wert auf die nicht-technische, menschliche Seite des Wissens legt und damit dem Begriff der Informationsgesellschaft, der stark von einer technikdeterministischen Auffassung geprägt ist, entgegen steht. Dergestalt soll gerade in Bezug zum Open-Source-Gedanken die Perspektive auf die Gemeinschaft und ihre soziale Verortung gelegt und damit eine bisher vorherrschende technisch-ökonomische Sichtweise und Analyse durchbrochen werden. Der Vortrag folgt demnach dem wissenssoziologischen Grundgedanken, dass der erkennende Mensch ein Bestandteil eines sozialen Zusammenhanges ist, welcher selbst wiederum in den Vorgang des Erkennens einfließt. Zentrales Element für diesen Prozess – und hier zeigt sich evident die kommunikationswissenschaftliche Relevanz – ist Kommunikation. Somit zeichnet sich der Wandel von Wissen und Gesellschaft in modernen Gesellschaften insbesondere durch Veränderungen der Kommunikation aus (vgl. Knoblauch 2005: 130). Diese Veränderungen sind im besonderen Maße durch einen schnelleren Zugriff auf und Verbreitung von Wissen, aber auch durch einen in zunehmendem Maße offenen Zugang (open access) gekennzeichnet. Gerade dieser offene Zugang von Wissen in Open-Source-Projekten lässt den Übergang von Sonderwissensbeständen und Alltagswissen durchlässiger werden und wirft in einer postmodernen Mediengesellschaft die Frage nach der Entstehung, Relevanz und gesellschaftlichen Legitimierung von Wissensbeständen neu auf. Das Open-Source-Modell verspricht in besonderem Maße eine partizipative und basisdemokratische Form der Wissensproduktion.
Der intrinsisch motivierte Professor – ein Vexierbild?
Christoph Biester, Leibniz Universität Hannover, Institut für Soziologie und Sozialpsychologie
Leistungsorientierte Vergütung in der Wissen(schafts)organisation
„Bloß nicht in die W-Besoldung“ könnte die Quintessenz lauten, folgt man den sich publizierend zu Wort meldenden Professorinnen und Professoren sowie deren Interessenverbänden. Die Aufgabe humboldtscher Ideale, die Gefährdung der grundgesetzlich verbrieften Freiheit von Forschung und Lehre sowie die Verdrängung idealistisch-intrinsischer Motivation sind nur drei prognostizierte Folgen der Reform der Professorenbesoldung.
Der Diskurs um leistungsorientierte Vergütung der Professorinnen und Professoren wird hauptsächlich vor dem Vexierbild des idealistisch-intrinsich motivierten Professors geführt, während die institutionelle und organisationale Verfaßtheit wissenschaftlicher Arbeit (Wissensproduktion) und die Vergütung derselben nicht thematisiert wird.
Qualitative Interviews mit drei Hochschulleitungen und 13 Professorinnen und Professoren haben gezeigt, dass sowohl die Intentionen, mit denen die leistungsorientierte Vergütung eingeführt worden ist, und die Anwendung verschiedener Verfahren und Instrumente sehr unterschiedlich ausfallen. Diese Unterschiede lassen sich organiastionstheoretisch fassen und zeigen, dass die institutionelle und organisatorische Verfaßtheit wissenschaftlicher Arbeit und wissenschaftlicher Einrichtungen stärker von Bedeutung ist, als dies in dem Diskurs zum Ausdruck kommt.
So ist auf Seiten der Hochschulleitungen in einem Fall davon die Rede, dass Leistungszulagen (nur) im Sinne einer Feinjustierung eingesetzt werden (1), während in einem anderen Fall diese Gelegenheit genutzt wird, um den Professorinnen und Professoren ein gutes Angebot zu machen und so ein persönliches Gehalt zu zahlen (2). Demgegenüber wird in einem weiteren Fall weniger auf einen – wie auch immer gearteten – Steuerungsaspekt wert gelegt, sondern der Fokus zunächst auf die Implementation, also den Einstieg in das System leistungsorientierter Vergütung gelegt (3). Während der Einsatz und die Praxis leistungsorientierter Vergütung in dem ersten Fall klar auf eine Organisation bürokratischen Typus verweist, lässt sich die zweitgenannte als unternehmerisch charakterisieren. Die an dritter Stelle genannte Universität fokussiert die Verfahren und (Management)methoden und legt eine Beschreibung als managerial nah.
Aus der Perspektive der Professorinnen und Professoren reiht sich die Verhandlung von Leistungszulagen als eine weitere in die Berufungsverhandlungen ein. Die Erfahrungen hier sind vielschichtig und reichen von Ziel- und Leistungsvereinbarungen, die erst nach mittlerweile schon erbrachter Leistung abgeschlossen und so als Joke wahrgenommen wurden, über die Erfahrung, dass ein paar Dinge auf einen Zettel geschrieben wurden, bis zum Ausfüllen eines vorgefertigten Formulars. Insgesamt wird die leistungsorientierte Vergütung von der Professorenschaft positiv aufgenommen. Die Möglichkeit, ohne sich einen Ruf zu besorgen, mehr zu verdienen wird ebenso gelobt, wie die Funktionszulagen für die Übernahme von Ämtern in der Selbstverwaltung.
Es zeigt sich ein eklatanter Widerspruch: Während in der Öffentlichkeit Krisenszenarien vor dem Vexierbild des instrinsisch motivierten Professors aufgebaut und gepflegt werden, wird die Reform auf der Ebene der Wissen(schafts)organisationen durchaus positiv aufgenommen, gestaltend eingesetzt und auch immer bürokratisch verwaltet.
Informationen und Fehlinformationen durch die Sozialwissenschaften
Jörg Blasius, Universität Bonn
Viele der Informationen, die wir im täglichen Leben haben, als auch jene, auf denen politische Entscheidungen basieren, kommen aus den Sozialwissenschaften und hier insbesondere aus der quantitativen Umfrageforschung. Da werden die Einstellungen der Arbeitgeber zur aktuellen Wirtschaftssituation abgefragt, um das Potential von Investitionen auszuloten, es werden Wahlumfragen gemacht, zum einen für Prognosen und zum anderen, um die Ursachen für Wahlgewinne und Wahlverluste zu bestimmen, es werden Fernsehgewohnheiten abgefragt, um zu sehen, welche Sendungen bei welchem Publikum besonders beliebt/unbeliebt sind und auch in der Marktforschung ist die allgemeine Bevölkerungsumfrage meistens das Mittel der Wahl, um das Potential von Produkten zu bestimmen. Die Ergebnisse dieser Umfragen sind dann häufig die Grundlage für Entscheidungen, sei es bei der Einführung eines neuen Produktes oder sei es bei der Besetzung der Spitzenkandidaten von politischen Parteien – bei letzteren signalisieren schlechte Umfragewerte häufig das Ende der Karriere, während gute Werte einen geeignet erscheinen lassen für ein wichtiges Amt. Doch wie genau sind die Umfragen, mit welchen Fehlern sind sie behaftet, und welche Effekte haben Fehler auf das Ergebnis der Umfrage und damit auf politisches oder marktwirtschaftliches Handeln? Und spiegeln in Umfragen geäußerte Einstellungen und Meinungen auch das tatsächliche Verhalten wider oder haben Einstellungen und Verhaltensweisen nur wenig miteinander gemeinsam? Im Vortrag werden die Schwachstellen von sozialwissenschaftlichen Umfragen benannt und es wird diskutiert, inwieweit und unter welchen Voraussetzungen Ergebnisse derartiger Umfragen verwendet werden können.
Lässt sich die Qualität von Forschung messen? Empirische Ergebnisse zur Güte des Peer Review Verfahrens und zu bibliometrischen Indikatoren
Lutz Bornmann, ETH Zürich
Grundsätzlich können wir bei Bewertungen in der Wissenschaft zwischen einer ‚qualitativen‘ Form, der Bewertung einer wissenschaftlichen Arbeit (z. B. eines Manuskripts oder Forschungsantrags) durch kompetente Peers, und einer ‚ quantitativen‘ Form, der Bewertung von wissenschaftlicher Arbeit anhand bibliometrischer Indikatoren, unterscheiden. Beide Formen der Bewertung sind nicht unumstritten. Die Kritiker des Peer Review sehen vor allem zwei Schwächen des Verfahrens: (1) Verschiedene Gutachter würden kaum in der Bewertung ein und derselben wissenschaftlichen Arbeit übereinstimmen. (2) Gutachterliche Empfehlungen würden systematische Urteilsverzerrungen aufweisen.
Gegen die Verwendung von Zitierhäufigkeiten als Indikator für die Qualität einer wissenschaftlichen Arbeit wird seit Jahren eine Vielzahl von Bedenken geäußert. Zitierhäufigkeiten seien keine ‚objektiven‘ Messungen von wissenschaftlicher Qualität, sondern ein kritisierbares Messkonstrukt. So wird unter anderem kritisiert, dass wissenschaftliche Qualität ein komplexes Phänomen darstelle, das nicht auf einer eindimensionalen Skala (d. h. anhand von Zitierhäufigkeiten) gemessen werden könne.
In dem Vortrag werden empirische Ergebnisse zur Reliabilität und Fairness des Peer Review Verfahrens sowie Forschungsergebnisse zur Güte von Zitierhäufigkeiten als Indikator für wissenschaftliche Qualität vorgestellt.
Stratifizierte Typisierung semantischer Relationen in integrierten Systemen der Wissensorganisation
Felix Boteram, Fachhochschule Köln, Institut für Informationswissenschaft
Die differenzierte Typisierung semantischer Relationen in Systemen der Wissensorganisation ist eine Voraussetzung für leistungsstarke und benutzerfreundliche Modelle des Information Retrievals und der Wissensexploration. Insbesondere Systeme, die mehrere Dokumentationssprachen miteinander verknüpfen, erfordern besondere Ansätze für die Typisierung der verwendeten oder benötigten Relationen. Aufbauend auf vorangegangenen Überlegungen zu Modellen der semantischen Interoperabilität in verteilten Systemen, welche durch ein solches Kernsystem miteinander verbunden und so in den übergeordneten Funktionszusammenhang der Wissensorganisation gestellt werden, müssen differenzierte und funktionale Strategien zur Typisierung und stratifizierten Definition der unterschiedlichen Relationen in einem solchen System entwickelt werden.
Um die von fortschrittlichen Retrievalparadigmen erforderten Funktionalitäten im Kontext vernetzter Systeme zur Wissensorganisation unterstützen zu können, werden die formal-logischen, typologischen und strukturellen Eigenschaften sowie der eigentliche semantische Gehalt aller Relationstypen die zur Darstellung von Begriffsbeziehungen verwendet werden, definiert. Um die Vielzahl unterschiedlicher aber im Funktionszusammenhang des Gesamtsystems auf einander bezogenen Relationstypen präzise und effizient ordnen zu können, wird eine mehrfach gegliederte Struktur benötigt, die die angestrebten Inventare in einer Form präsentieren und somit für eine Verwendung in explorativen Systemen vorhalten kann.
Der Aufbau solcher mehrdimensionaler, hierarchisch gegliederter Inventare kann helfen, die im Rahmen der notwendigen Differenzierung und Austypisierung der Relationen unweigerlich zunehmende Komplexität übersichtlich und handhabbar zu gestalten und dem Benutzer eine übersichtliche und leicht zu verstehende und zu navigierende Darstellung der zur Verfügung stehenden Relationen anbieten zu können.
Evaluation der Suchfunktion deutscher Unternehmens-Websites
Martin Braschler, Zürcher Hochschule für Angewandte Wissenschaften, Ben Heuwing, Thomas Mandl, Christa Womser-Hacker, Universität Hildesheim, Josef Herget, Universität Krems, Peter Schäuble, Eurospider Inc. (Zürich), Jürg Stuker, Namics AG (Zürich)
Die Studie unternahm eine umfangreiche Evaluation der Suchunktionen von deutschen Unternehmens-Websites. Unternehmen und Behörden verwenden ihre Websites vermehrt zur Kommunikation mit interessierten Nutzern. In der Studie sollte die vom Nutzer wahrgenommene Qualität einer Website-Suche erfasst werden, und nicht die unterliegenden technischen Parameter oder Systeme. Die Zusammenfassung der Ergebnisse der durchgeführten Einzeltest ermöglicht eine qualitative Beurteilung des Gesamtfeldes und damit auch Aussagen über die Positionierung von Ergebnissen relativ zum Gesamtfeld. Untersucht wurden die Bereiche Suchindex, Anfrage-/Dokumentenvergleich, Benutzerinteraktion und Suchergebnisse. Dabei zeigt sich, dass bei Internetauftritten die Suchfunktion auf Webseiten oft zum Problem wird und nicht das gewünschte Ergebnis bringt. Probleme zeigten sich bei der Vollständigkeit und Aktualität des Suchindexes sowie bei der Pflege und Präsentation ergänzender Metadaten. Weitere Potentiale zur direkten Ansprache des Nutzers wurden selten genutzt. Zum Vergleich wurden die Untersuchungen auch anhand der Google-Sitesearch durchgeführt. Dabei zeigte sich, dass eine genaue Kenntnis der eigenen Daten zu besseren Ergebnissen führen kann, dies aber nicht immer ausgenutzt wird.
Erkennen durch künstliche Systeme
Hans Czap, Universität Trier, FB IV Wirtschaftsinformatik I
Ziel des Beitrags ist die Konstruktion eines künstlichen Systems, dem die Eigenschaft „erkennen zu können“ zuzuschreiben ist. Dazu ist es einleitend erforderlich, den Begriff „Erkennen“ bei autopoietischen und selbstreferentiellen Systemen zu präzisieren. Er wird auf systemischer Ebene als äquivalent zur Selbstorganisation gedeutet, auf der Ebene des externen Beobachters als Emergenz. In Anlehnung an naturanaloge Verfahren wird eine Architektur für sich selbstorganisierende Systeme entwickelt, deren Umsetzung am konkreten Beispiel demonstriert wird. Dies verdeutlicht wie der Prozess der Selbstorganisation dem „Erkennen“ entspricht und dass die emergente Interpretation durch den Menschen eine qualitative Dimension beinhaltet, die auf einer übergeordneten Ebene stattfindet.
Desiderata für die Wissensorganisation
Ingetraut Dahlberg, Bad König
In diesem Jahr wird die ISKO 20 Jahre alt – ein Anlaß, Bilanz zu ziehen und Bisheriges mit möglichem Zukünftigen zu konfrontieren. Desiderata für eine Wissenschaft im allgemeinen und die sie vertretende Gesellschaft zu formulieren, kann von verschiedenen Aspekten her angegangen werden. Da sind zu nennen: ihre wissenschaftstheoretische Grundlage, ihre Aufgabenstellung, ihr Bedarf in der Gesellschaft, ihre Etablierung in der Gesellschaft (Ausbildungsmöglichkeiten/Lehrpläne, kommunikative Aktivitäten /Konferenzen, Publikationen), ihre Besonderheiten (Produkte, Verfahren), ihre Vernetzung mit anderen Wissenschaften durch Anwendung ihrer Methoden oder umgekehrt durch Einflußnahme anderer Wissensgebiete auf ihre Grundlagen. Der Vortrag befaßt sich mit der Anwendung solcher und weiterer Aspekte auf die Probleme der Wissensorganisation, deren Lösung in der nächsten Zukunft wünschenswert wären.
Ein neuer Ansatz zur Bewertung von Publikationsorten der Erziehungswissenschaft
Werner Dees, Deutsches Institut für Internationale Pädagogische Forschung, Frankfurt am Main
Die Publikationslandschaft der Erziehungswissenschaft ist durch eine enorme Breite und Vielfalt und zahlreiche Verbindungen in benachbarte Felder gekennzeichnet. Aktuelle Analysen zum Publikationsverhalten von Erziehungswissenschaftlern zeigen, dass diese Hunderte von verschiedenen Zeitschriften und Verlagen zur Veröffentlichung nutzen. Um aus dieser Fülle an Publikationsorten die bedeutendsten zu ermitteln wird ein neuer Ansatz zur Zeitschriftenbewertung, der publication power approach von Holsapple, auf die deutsche Erziehungswissenschaft übertragen. Dieser Ansatz basiert auf dem Publikationsverhalten von Forschern an ausgewählten Institutionen und stellt eine Alternative zu Expertenbefragungen und Zitationsanalysen dar. Der Beitrag stellt wesentlich Ergebnisse zur „publication power“ von Zeitschriften und Verlagen der Erziehungswissenschaft vor und diskutiert Vor- und Nachteile dieses Ansatzes im Vergleich zu den herkömmlichen Bewertungsmethoden.
Fotografien als empirische Daten
Volker Dreier, Universität zu Köln, Forschungsinstitut für Soziologie
In den Sozialwissenschaften werden Fotografien primär als Objekte der Interpretation, Illustration, Exploration oder als mit Textlegenden versehene Dokumentationen sozialer Realität forschungspraktisch verwendet, jedoch nur in Ansätzen dezidiert als empirische Daten. Diese Beschränkung erscheint von einem wissenschaftstheoretischen Standpunkt aus gesehen jedoch unbegründet, wenn man sich vergegenwärtigt, welcher epistemische und methodische Status der Entität „empirisches Datum“ überhaupt zugesprochen werden kann. Im ersten Teil des Beitrags wird die konventionelle Auffassung von „empirischem Datum“ in den quantitativ orientierten Sozialwissenschaften einer wissenschaftstheoretischen Analyse unterzogen. Im zweiten Teil wird gezeigt, dass Fotografien auf der Grundlage der Ergebnisse der vorangegangen Analyse im Rahmen eines kontrollierten Konstruktionsprozesses als empirische Daten bestimmt werden können. Sie zeigen die gleichen Merkmale wie konventionelle empirische Daten; d.h. sie werden u.a. erst dann zu Informationen, wenn man Sie mit Bedeutung versieht. Fotografien sind so, wie generell alle empirischen Daten, zunächst einmal potenziell ohne eigene, ihnen inhärente Bedeutung.
Wissenslandkarte Berufsbildungsforschung – Kodierung und Vernetzung von Fachwissen – Ein Bericht aus der Praxis
Sandra Dücker/ Uta Roth, Bundesinstitut für Berufsbildung, Bonn
Das Kommunikations- und Informationssystem Berufliche Bildung (KIBB) hat zum Ziel, ein Wissensmanagement innerhalb der Berufsbildungsforschung zu etablieren. Es bedient sich verschiedener Instrumente und Methoden, um dieses Ziel zu erreichen. Der Beitrag stellt zunächst KIBB in seinem gesamten Leistungsspektrum vor und geht dann detailliert auf ein Instrument, nämlich die „Vernetzung von Fachdatenbanken“ ein. Besonderes Augenmerk wird dabei auf die unterschiedlich eingesetzten Methoden der Vernetzung gelegt. In einem abschließenden Teil wird eine kurze Einschätzung über Stärken und Schwächen des KIBB-Ansatzes gegeben..
Semantische Kontextualisierung von Museumsbeständen in Europeana
Stefan Gradmann/Marlies Olensky, Humboldt-Universität zu Berlin / Berlin School of Library and Information Science (B-SLIS)
Europeana geht auf eine politische Initiative zurück, die die Europäische Kommission veranlasste 2005 den Aufbau einer „Europäischen digitalen Bibliothek“ als Teil ihrer i2010 Agenda anzukündigen. Europeana soll ein gemeinsamer multilingualer Zugangspunkt zu Europas digitalem Kulturerbe und gleichzeitig mehr als „nur“ eine digitale Bibliothek werden: eine offene Schnittstelle (API) für Wissenschaftsanwendungen, die ein Netzwerk von Objektsurrogaten darstellt, die semantisch basiertes Objektretrieval und –verwendung ermöglichen. Einerseits ist die semantische Kontextualisierung der digitalen Objekte eine unabdingbare Voraussetzung für effektives Information Retrieval, da aufgrund der Beschaffenheit der Objekte (bildlich, multimedial) deskriptive Metadaten meist nicht ausreichen, auf der anderen Seite bildet sie die Grundlage für neues Wissen. Kern geisteswissenschaftlicher Arbeit ist immer schon die Reaggregation und Interpretation kultureller Artefakte gewesen (Literatur, Musik, Kunst – alle Arten von Artefakten) und Europeana ermöglicht nun mit (teil-)automatisierbaren, semantikbasierten Operationen über große kulturelle Quellcorpora völlig neue Perspektiven für die „digital humanities“. Folglich hat Europeana das Potenzial eine Schlüsselressource der Geistes- und Kulturwissenschaften und damit Teil zukünftiger digitaler kunstwissenschaftlicher Arbeitsumgebungen zu werden.
Überregionale Tageszeitungen: Eine aussterbende Informationsressource?
Jörg Hagenah/Dominik Becker, Universität zu Köln, Medienwissenschaftliches Lehr- und Forschungszentrum (MLFZ) bzw. Cologne Graduate School in Management, Economics and Social Sciences (CGS);
Die Tageszeitungen sind eine wichtige Quelle für die Informationsrezeption. Insbesondere Hintergrundinformationen zur aktuellen Politik und zur ökonomischen Entwicklung der Gesellschaft finden sich hauptsächlich in der Presse. Untersucht wird anhand der Reichweitendaten der Media-Analyse (MA), wie sich die Informationschancen in unterschiedlichen sozialen Gruppen in der Zeit von 1984 bis 2005 entwickelt haben.
Es zeigt sich, gleichermaßen in allen Bildungsgruppen, dass das intensive Lesen von Tageszeitungen von 1984 bis 2005 deutlich zurückgegangen ist. Weiterhin zeigt sich, dass Zeitungen in den jüngeren Altersgrupen deutlich an Bedeutung verlieren (Gilles 2009), was zum Teil auf einen Kohorteneffekt hindeutet (Hagenah 2008; Gilles 2009a). Die bisherigen Untersuchungen beziehen sich auf das Lesen von Tageszeitungen jeglicher Art (von der regionalen Boulevardzeitung bis zur überregionalen Abozeitung). Ähnliche Analysen sollen auf das Lesen von überregionalen Zeitungen begrenzt werden, da diese als sogenannte Leitmedien besonders bedeutsame gesellschaftliche Informationsressourcen sind. Dadurch sollen „härtere“ Daten zu den Informationschancen von sozialen Gruppen in der Gesellschaft analysiert werden.
Die Bedeutung von Impact-Maßen
Ulrich Herb, Universität des Saarlandes, Saarbrücken
Die Anwendung bibliometrischer Verfahren ist von hoher Relevanz, sowohl individuell als auch organisatorisch: Karriere und Evaluierung von Fachbereichen sind abhängig von der Bewertung des Publikationsverhaltens. Der Beitrag eruiert, warum Open-Access-Publikationen in solchen Bewertungen benachteiligt werden, wie die in der Evaluierung üblicherweise herangezogenen bibliometrischen Verfahren (v.a. der Journal Impact Factor – JIF) funktionieren, welche Alternativen zu diesen zitationsbasierten Verfahren existieren und zu welchen Ergebnissen sie kommen. Unter der Annahme, dass Open-Access-Publikationen nicht qua geringer Qualität geringere Wertschätzung in der Evaluierung und bei Berufungskommissionen erfahren, sondern aufgrund methodischer Eigenheiten der Evaluierungsinstrumente, wird diskutiert inwiefern alternative Qualitätsmessungsverfahren sich vorteilhaft auf die Akzeptanz von Open Access auswirken können.
Förderung des Wissensaustauschs unter Studierenden: die Augsburger Initiative w.e.b.Square
Sandra Hofhues/Marianne Kamper/Tamara Specht, Institut für Medien und Bildungstechnologie/Medienpädagogik, Universität Augsburg
Wissensaustausch in dem Sinne, dass Ideen geteilt werden, Studierende von den Leistungen ihrer Kommilitonen lernen, Ergebnisse für andere zum Weiterdenken und -arbeiten verfügbar machen und ähnliches, ist unter Studierenden auch im Zeitalter des Web 2.0 keine Selbstverständlichkeit. Die Augsburger Initiative „w.e.b.Square“ setzt am genannten Mangel an, indem sie herausragende studentische Wissensprodukte unter der Leitidee „von Studierenden für Studierende“ auf einem Online-Portal öffentlich zugänglich macht. Das Motto „von Studierenden für Studierende“ spiegelt sich dabei in allen Aktivitäten des Projekts wider: in der Generierung von Inhalten für das Portal, in der Nutzung der Inhalte, in deren Auswahl und Zusammenstellung sowie in der Weiterentwicklung des Portals. Hinter der Projektinitiative steht ein Redaktionsteam aus Studierenden, studentischen und wissenschaftlichen Mitarbeitern. Sie helfen mit, das vorhandene Wissen mit Methoden und Werkzeugen so zu organisieren, dass es aus Zielgruppensicht optimal gesucht und gefunden werden kann und w.e.b.Square als innovative Informationsvermittlungsstelle seine Dienste leistet. Darüber hinaus führt die Initiative seit einiger Zeit studentische Tagungen mit dem Ziel durch, eine Kultur des Wissensaustauschs vor Ort zu etablieren. Der vorliegende Beitrag skizziert daher zunächst das Projekt w.e.b.Square mit seinen Chancen und Grenzen für das (studiengangskonforme) Self-Assessment. Im Anschluss daran werden die Erweiterungspotenziale des Konzepts für die Organisation „Hochschule“ aufgezeigt, die sich zum Teil bereits in der Erprobungsphase befinden und für die erste Evaluationsergebnisse vorliegen. Abschließend werden die Bemühungen um w.e.b.Square theoretisch vor dem Hintergrund der Informationsvermittlung eingeordnet.
Open Access in der Wissenschaftslandschaft
Bruno Hopp, GESIS – Leibniz-Institut für Sozialwissenschaften, Köln
Open Science und open standards als jüngste Schlagworte haben Konjunktur. Dass der freie Austausch von Informationen im akademischen Umfeld ohne hinderliche proprietäre Formatier- und Konversionsexperimente einen gesteigerten spin-off erzeugen könnte, bewegt manche Kommentatoren. Können die Sozialwissenschaften irgendetwas lernen von der reichhaltigeren Praxis offener Datenformate und frei verfügbarer Informationen in anderen Disziplinen, etwa aus der open-source Bewegung? Linux gilt manchen hier als Synonym – aber wo ist der Haken? Wenn alles offengelegt ist und jeder jeden ohne peer-review kritisieren kann, ist das Scheitern vorprogrammiert? Wohl kaum, wie die Entwicklung von Linux zeigt. Ein schärferes peer-review, eine „Meritokratie“, reguliert Neuentwürfe, Verbesserungen und Gegenentwürfe. Dynamik und Erfolg hängen auch hier davon ab, dass vorhandene Verbesserungen aktiv wieder zurück in den Entwicklungsprozess fliessen. Die Community ist gleichzeitig Nutzerschaft, beta-Tester und Entwicklungszentrum mit fliessenden Übergängen. Wieweit diese Organisation auf freiwilliger Basis ein Vorbild für eine moderne Wissenschaftsorganisation sein könnte, kann nicht schlüssig beantwortet werden – die Perspektiven erscheinen verlockend.
Gedächtnis, Medien und Wissensorganisation
Eva Horvatic, Universität Wien, Institut für Bildungswissenschaft
Für Wissen und dessen Organisation durch den Menschen haben das menschliche Gedächtnis und die hierbei verwendeten Medien konstitutiven Charakter. Daher wird in diesem Beitrag die Verschränkung von Gedächtnis, Medien und Wissensorganisation in den Blick genommen. Hierbei wird von Folgendem ausgegangen: Dadurch, dass es zwischen Realität und medialer Abbildung eine Differenz gibt, kann diese auch zum Ausdruck gelangen. Für eine solche Artikulation der Wechselwirkungsprozesse zwischen Realität und medialer Abbildung sind Formen des Speicherns, Erinnerns und Vergessens notwendig. In diesem Differenz- oder Kommunikationsraum entstehen Gedächtnis und Wissen.
Da Medien konstituierend für menschliche Kommunikation sind und jedes Medium eine ganz bestimmte Speichertechnologie mit einem spezifischen Verständigungsanspruch darstellt, kann davon ausgegangen werden, dass Wissen in direktem Zusammenhang damit steht, welches Medium oder welcher Medienverbund bei der Wissensorganisation verwendet wird. Weiter ist davon auszugehen, dass die Organisation von Wissen und die hierbei verwendeten Medien einander bedingen.
Vom Stringmatching zur Begriffsexploration: das Potential integrierter begrifflicher Interoperabilität
Jessica Hubrich, Fachhochschule Köln, Institut für Informationsmanagement
Als Reaktion auf die mit fortschreitender Internationalisierung sich wandelnden Anforderungen an Informationsräume und Wissensorganisationssysteme haben sich verschiedene Interoperabilitätsparadigmen herausgebildet, die die weitere Nutzung vorhandener Erschließungsdaten mittels Verbindung von verbreiteten Dokumentationssprachen garantieren sollen. Vor dem Hintergrund, welche Eigenschaften selbige zur Verarbeitung und Unterstützung von thematischen Suchanfragen aufweisen, lassen sich folgende Stufen angeben: wortbasierte, begriffliche sowie differenzierte Interoperabilität. In Hinblick auf die Speichermodalitäten kann zudem zwischen systemunabhängigen und integrierten Interoperabilitätsmodellen unterschieden werden.
Die Interoperabilitätskonzepte und ihr jeweiliger Mehrwert für thematische Suchanfragen in heterogenen Informationsräumen werden unter Rückgriff auf die im Rahmen des DFG-Projekts CrissCross erstellten Verbindungen zwischen Schlagwörtern der Schlagwortnormdatei (SWD) und Notationen der Dewey-Dezimalklassifikation (DDC) illustriert und die mit CrissCross gegebenen Möglichkeiten zur Unterstützung von explorativen Suchprozessen dargelegt.
Netnographie
Klaus M. Janowitz, Köln
Grundsätzlich erschliessen sich mit aus der Ethnographie entwickelten Forschungsmethoden vielfältige Wissensbestände im Internet. Die einzelnen dazu entwickelten Ansätze unterscheiden sich wenig in ihren Konzepten, mehr in ihren Anwendungsfeldern, die den unterschiedlichen Herkunftsfeldern ihrer Protagonisten entsprechen. Während in den frühen Jahren des Internets (als die „Neuen Medien“ noch „neu“ waren) das forschende Interesse v.a. dem Internet als einer eigenen – virtuellen – Welt ,in its own terms‘ galt, steht in den neueren Arbeiten der kulturelle Kontext, in dem Online-Interaktionen stattfinden und Sinn machen, im Vordergrund. Eng verbunden ist das Thema posttraditionaler Vergemeinschaftungen, die über das Internet entstehen, bzw. vorangetrieben werden.
Vokabularien und WebServices
Walter Koch, Technische Universität Graz und Steinbeis, Transferzentrum für Informationsmanagement und Kulturerbeinformatik
Die aktuellen Entwicklungen im Bereich des Internets machen auch vor (kontrollierten) Vokabularien nicht halt. Im Bereich der Wissenschaft und Kultur sind zentral geführte Wortverzeichnisse von eminenter Bedeutung denkt man beispielsweise an die in der Biologie verwendeten Systematiken. In Netzwerken und Datenverbünden kann die Verwendungen einheitlicher Begriffe durch Methoden der Informationstechnik (IT) gut unterstützt werden. Zentral geführte Vokabularien können über das Internet auf dem Wege von „WebServices“ abgerufen und auch an verschiedenen Stellen repliziert und angeboten werden. Dabei gewinnt der Service-Charakter an Bedeutung und bewirkt, dass kulturelle und wissenschaftliche Einrichtungen für die Nutzung von Vokabularien keine eigene IT-Infrastruktur mehr aufbauen und bereithalten müssen. Im Rahmen verschiedener Forschungsprojekte vor allem im Context der EU-Förderprogramme hat die AIT Angewandte Informationstechnik Forschungsgesellschaft in Graz WebServices aufgebaut, anhand repräsentativer Daten erprobt und im Rahmen spezieller Informationssysteme zu einem regelmäßigen Einsatz gebracht.
Einsatzbereiche sind beispielsweise inhaltsbezogene Dokumentationstätigkeiten oder (thesaurusunterstützte) Abfragesysteme multilingualer Datensammlungen. Die „AIT-Vocabulary Services“ orientieren sich an ANSI/NISO Z39.19 – 2005 und unterstützen die Abfrage und das Management von Listen und Taxonomien und in eingeschränkter Form von Thesauren. In der ANSI Richtlinie werden die verschiedenen Strukturen (Listen, etc) durch drei Eigenschaftsgruppen (Begriffstypen, Beziehungen, Notizen) gekennzeichnet. Diese Gliederung ist für alle über die WebServices angebotenen Vokabularien in gleicher Weise vorhanden. Unterschiede sind in Beschreibungsinformationen (Notizen) zu finden die einen Term näher spezifizieren. Beim Thesaurus of Geographic Names (TGN) der Getty Foundation sind in den Notes (Notizen) umfangreiche Informationen (Ortstypen, Koordinaten, historische Angaben, etc) vorhanden, die eine genaue Selektion eines Ortsbegriffs über die Suchmöglichkeiten (komplexe logische Ausdrücke) des Webservices ermöglichen und auch nachträgliche Facettenbildung über die in den Notizen enthaltenen Eigenschaften unterstützen. Über das TGN-WebService kann dieser Thesaurus in Sammlungsverwaltungsprogramme eingebunden werden, die Beschreibung dieses Services wird in der WebService Description Language (WSDL) vorgenommen. Neben dem TGN wurden auch andere Vokabularien wie IconClass als WebService realisiert, eine Implementierung der Information Coding Classification (ICC) ist in Vorbereitung.
Die vollständige Realisierung von Thesaurusstrukturen erfolgt gemäß dem ISO Standard XTM-Topic Maps.
Konstrukte und Modelle in Persönlichkeitsdiagnostik
Anastassiya Kovaleva, GESIS – Leibniz-Institut für Sozialwissenschaften, Mannheim
Die psychologische Diagnostik befasst sich mit den Modellen der hypothetischen Konstrukte. Im Rahmen eines einschlägigen hierarchischen Fünf-Faktoren-Modell der Persönlichkeit (nach Costa und McCrae, 1992 (NEO-PI-R)) wurde eine Möglichkeit der circumplexen Anordnung der übergeordneten Hauptdimensionen vorgeschlagen. Das vorgeschlagene Circumplexmodell beabsichtigt eine Kombination von den Hauptfaktoren, die im hierarchischen Modell als unabhängig gelten. Die Unabhängigkeit der Faktoren wird durch ihre Orthogonalität im Circumplexmodell aufrechterhalten. Die neue Anordnung der Untersuchten Konstrukten ermöglicht die Untersuchung von Zwischenräumen des Modells. Für die Überprüfung des circumplexen Modells wurde ein neues Messinstrument konstruiert.
Es wurde zunächst geplant, die Items des neuen Fragebogens als Kombinationen der Items des ursprünglichen Fragebogens (NEO-PI-R) zu konstruieren. Dabei stoßen wir auf das Problem der sprachlichen Flüssigkeit der neuen Items. Einen Ausweg aus dem Dilemma gaben die Beschreibungen der einzelnen Facetten der fünf übergeordneten Faktoren des Modells. Die dahinter stehende Überlegung war: Wenn die sekundäre Ladungen einzelner Facetten tatsächlich ein Zeichen der Cicumplexität des Fünf-Faktoren-Modells sind, sollen auch die Kombinationen der Beschreibungen von einzelnen Facetten sich als eine hypothetische Persönlichkeit vorstellen lassen, bei der diese Kombination als ein Persönlichkeitsmerkmal stark ausgeprägt ist. Somit entstandenen Items wurden zunächst durch 19 unabhängige Personen (freiwilligen Helfer) auf der sprachlichen Flüssigkeit geprüft. Zunächst sollten die Personen die Itemformulierungen beurteilen, und nach der Möglichkeit eine gelungene Formulierung vorschlagen. Danach wurden die freiwilligen Helfer gefragt, was für die Persönlichkeit sie sich unter den abgefragten Verhaltensindikatoren vorstellen können. Im Anschluss dazu wurde die theoretische Kongruenz der untersuchten Konstrukten durch den Experten des Fünf-Faktoren-Modells Herrn A. Angleitner überprüft (Die deutsche Übersetzung und Normierung des NEO-PI-R von Costa und McCrae (Ostendorf, Angleitner 2004)). In Rahmen eines informellen Gesprächs wurden die Items auf Ihre Zugehörigkeit zu den postulierten Kombinationen bewertet. Der neu konstruierten Messinstrument (NEO-4 Styles) wurde im Rahmen einer korrelationsbasierten MTMM-Matrix (Multitrait-Multimethod-Matrix) zur Überprüfung vom postulierten NEO-Circumplexmodell in Form von Selbst- und Fremdbeurteilung eingesetzt. Die Ergebnisse der Untersuchung belegen die Circumplexität im Rahmen des Fünf-Faktoren-Modells. Dies Bedeutet, dass die Informationsverluste, die durch die Einfachstruktur des hierarchischen Modells entstanden sind, im Rahmen des NEO-Circumplexmodells zur der Interpretation der diagnostizierten Werte herangezogen werden können.
Diagnose von Emerging Science: Die Fälle “New Science of Networks” und Szientometrie
Haiko H. Lietz, Institut für Forschungsinformation und Qualitätssicherung, Kompetenzzentrum Bibliometrie, Bonn/Universität Duisburg-Essen, Institut für Soziologie/Hochschule Mittweida (FH), Fachbereich Mathematik/Physik/Informatik
Abstract: Wie und warum florieren manche wissenschaftliche Fachgebiete und etablieren sich, während es anderen verwehrt bleibt? Beiträge zu Antworten auf diese Frage finden sich in den Klassikern, offensichtlich bei Solla Price, der das Wachstum der Wissenschaft studiert hat, aber auch bei Kuhn, der den modus operandi der normalen Wissenschaft sowie gelegentliche Paradigmenwechsel, bei denen eine neue Ordnung entsteht, beschrieben hat. Seitdem hat es enorme Fortschritte hinsichtlich Datenverfügbarkeit und -verarbeitungsmöglichkeiten gegeben, und Modelle der Struktur und Dynamik der Wissenschaft sind beachtlich verbessert worden. Bettencourt et al. haben kürzlich für verschiedene wissenschaftliche Fachgebiete gezeigt, dass sie gut durch logistische Wachstumsmodelle beschrieben werden können und auf dem Weg zur Reife eine topologische Veränderung ihrer Kollaborationsstruktur vollziehen, messbar in Form einer Verdichtung von Koautorennetzwerken sowie der Herausbildung einer großen Komponente darin. Ihrer Theorie nach spiegelt dieser Übergang in der Sozialstruktur das Fußfassen von Paradigmen und somit eine Veränderung auf kultureller Ebene wieder. Aufbauend auf dieser Arbeit werden zwei Hypothesen getestet. Erstens: Die Sozialstruktur der “New Science of Networks”, ein Fachgebiet das äußerst rasch an Bedeutung und Wahrnehmung gewonnen hat, weist die genannte topologische Veränderung auf. Zweitens: Die Szientometrie, die bis heute für das Fehlen von Standards kritisiert wird, weist sie nicht auf. Es zeigt sich, dass keine Hypothese verworfen werden muss. Allerdings zeigt sich auch, dass die Messmethode zu unterschiedlichen Ergebnissen führt, wenn Netzwerke unterschiedlich definiert werden. Die Methode wird in ihrem soziologischen und komplexitätstheoretischen Kontext diskutiert, und auf Sorgfalt bei der Interpretation der Ergebnisse wird hingewiesen.
ISO 25964 – Standard der Information und Dokumentation: “Thesauri and interoperability with other vocabularies”
Jutta Lindenthal/Esther Scheven, Deutsche Nationalbibliothek Frankfurt am Main
Ein neuer internationaler Standard der Information und Dokumentation – Thesauri and interoperability with other vocabularies (ISO 25964) ist in Vorbereitung.
Part 1: Thesauri for information retrieval wurde Mitte August als DIS 25964-1 im ISO Central Secretariat eingereicht. Die Motivation zur Entwicklung eines neuen Vokabularstandards sowie die wesentlichen Änderungen und Erweiterungen gegenüber ISO 2788/ISO 5964 werden kurz erläutert. Anhand des Datenmodells zu Part 1: Thesauri for information retrieval werden Pendenzen erörtert und zur Diskussion gestellt:
1. konzeptbasiertes vs. termbasiertes Thesaurusmodell, 2. Modellierung multilingualer Vokabulare und Mappings, 3. Anforderungen an ein XML-Schema, 4. Bedeutung des Standards für verschiedene Nutzergruppen.
Mit der Arbeit an Part 2: Interoperability with other vocabularies wurde Ende Juni 2009 begonnen. Es sollen Richtlinien erarbeitet werden, um Interoperabilität zwischen Thesauri und anderen Vokabularien wie Normdateien für Namen, Schlagwortlisten, Ontologien, Klassifikationen und dgl. zu gewähren. Der erste Commitee Draft (CD 25964-2) ist für Juni 2010 geplant. Über den Stand der Entwicklung des 2. Teiles wird kurz referiert.
Mehrwertdienste für das Information Retrieval: das Projekt IRM
Philipp Mayr/Peter Mutschke/Philipp Schaer, GESIS – Leibniz-Institut für Sozialwissenschaften, Bonn
Introduction
In the area of academic information systems, a whole array of bibliographic databases, disciplinary internet portals, institutional repositories or archival and other media type collections are increasingly accumulated and embedded in all-encompassing information systems in order to meet user requirements that demand one-stop “information fulfilment”. Examples are Elsevier’s Scirus portal, the OCLC Worldcat union catalog or Tuft University’s Perseus project.
In Germany, the general science portal “vascoda” merges structured, high-quality information collections from more than 40 providers on the basis of search engine technology (FAST enterprise Search) and a concept which treats semantic heterogeneity between different controlled vocabularies (see project KoMoHe).
First experiences with the portal show some weaknesses of this approach which are typical for most metadata-driven Digital Libraries (DLs): standard search and ranking models such as term frequency – inverse document frequency (tf-idf), best match models and especially recent web-based ranking methods implemented in search engines (originally for web pages) are not always appropriate for search in heterogeneously collected scholarly metadata documents. Search, both in full-text collections like the Internet or more heavily structured and less diverse collections like institutional repositories, indexing databases or library catalogues, only works as well as the matching between the language in queries and the language in the searched documents. If the words in the query are different from the words in a relevant document, this document will not be found. Moreover, pure term frequency based rankings often provide results that does’nt meet user needs, as first retrieval tests within the vascoda context have shown.
Objectives
The task of the project IRM is to introduce and evaluate value-added services (treatment of term vagueness and document re-ranking) for information retrieval within a heterogeneous DL environment (like sowiport). The methods, which will be implemented, focus on query construction and on result set re-ranking and are designed to positively influence each other. The goal of the project is to evaluate whether, and how far, search quality will be improved by applying the services under study.
We focus on the following three value-added services:
Search Term Recommander (STR) for term vagueness treatment
Bradfordizing and author centrality in co-authorship networks which are derived from scientometrics and social network analysis for document re-ranking
Outlook
Beyond an isolated use, a combination of the approaches is promising to yield much higher innovation potential. The central impact of the project focuses on the integration of these three value-added services which aim at reducing the semantic complexity represented in distributed DLs at several stages in the information retrieval process: query construction, search and ranking and re-ranking.
Peer-Review-Verfahren
Uwe Müller, Humboldt-Universität zu Berlin
Die Zuschreibung wissenschaftlicher Qualität zu Veröffentlichungen ist klassischerweise eng mit Begutachtungsprozessen verbunden, mit deren Durchführung im Vorfeld der eigentlichen Publikation ein Mindestmaß an Qualität gesichert werden soll. Auch wenn diese so genanten Peer-Review-Verfahren seit Jahrzehnten Gegenstand teils grundsätzlicher Kritik sind, bildet dieser Ansatz in den Augen der meisten Wissenschaftler noch immer das Mittel der Wahl für eine effektive Qualitätssicherung. Er ist vor allem für wissenschaftliche Zeitschriften etabliert, seine konkrete Ausgestaltung trägt erheblich zum Renommee der jeweiligen Publikation bei. Währenddessen stehen die stets an Bedeutung gewinnenden Open-Access-Zeitschriften unter dem Verdacht, geringere Qualitätsmaßstäbe anzusetzen und Artikel zu publizieren, die zuvor keine oder eine weniger strenge Kontrolle durchlaufen haben.
Der Beitrag stellt eine umfassende Studie vor, in der die Peer-Review-Verfahren von weltweit mehr als 1.200 wissenschaftlichen Open-Access-Zeitschriften untersucht und miteinander verglichen wurden. Die Ergebnisse verdeutlichen, dass die meisten Open-Access-Zeitschriften tatsächlich Peer-Review-Verfahren einsetzen, und legen außerdem nahe, dass eine große Bandbreite unterschiedlicher Verfahren und Eigenschaften von Peer Review existieren – etwa die gegenseitige Anonymität von Autoren und Gutachtern, der Informationsfluss, das Verfahren zur Auswahl der Gutachter und formale Regelungen in Bezug auf mögliche Interessenkonflikte. Dabei hängt das Aussehen eines konkreten Peer-Review-Verfahrens wesentlich von dem Wissenschaftsgebiet und der Art des Verlegers der betreffenden Zeitschrift ab. Die Studie zeichnet ein vielfältiges Bild und zeigt, dass die wissenschaftliche Qualität der veröffentlichten Beiträge insbesondere auch für Open-Access-Zeitschriften ein bestimmendes Thema ist.
Informationsgehalt und –Aussagekraft von dynamischen Modellen
Sebastian Netscher, GESIS – Leibniz-Institut für Sozialwissenschaften, Köln
„Wenn Sie nicht über die Zukunft nachdenken, können Sie keine haben.“
(John Galsworthy)
In die Zukunft zu Blicken scheint eine der zentralen Sehnsüchte der Menschheit; schließlich gilt, wer heute schon sagen kann was morgen geschieht, der vermag vorzusorgen und sein eigenes Überleben zu sichern. Dabei ist der vermeintliche Blick in die Zukunft stets vage und von unzähligen, zumeist nicht näher spezifizierbaren, Einflussfaktoren determiniert.
Dies trifft auch für wissenschaftlich fundierte Zukunftsvoraussagen, wie Globalszenarien, als universelle Abstraktion potentieller weltweiter Entwicklungen, zu. Umgekehrt gilt: Globalszenarien, sind in einer schnell voranschreitenden, globalisierten Welt in den verschiedensten Bereichen menschlicher Interaktion von zunehmender Bedeutung. Eines der wohl populärsten Beispiele ist der Bericht des Club of Rome. Bereits 1972 warnten Meadows et al. in ihrem Wachstumsmodell vor dem Erschöpfen natürlicher Ressourcen aufgrund des exponentiellen Bevölkerungswachstums. In einer zweiten Auflage kamen die Forscher 1992 zu dem Ergebnis, dass die Grenzen der Belastbarkeit unserer Erde längst überschritten seien.
In diesem Zusammenhang scheint es mühselig zu streiten, wie exakt Globalszenarien die Wirklichkeit abbilden und darüber hinaus zuverlässige Vorhersagen ermöglichen. Entscheidend ist vielmehr, dass es Meadows et al. mit ihrem Bericht gelang, eine weit reichende, globale Diskussionen über die Endlichkeit fossiler Brennstoffe und die Belastbarkeit unseres Planeten anzustoßen. Gerade darin liegt die Chance von Globalszenarien begründet: Nicht aufzuzeigen, was wirklich kommen wird, sondern mögliche Entwicklungstendenzen unter verschiedenen Voraussetzungen zu analysieren, um so potentielle Bedrohungsgehalte realer Entwicklungen zu verdeutlichen.
Wissens- und informationssoziologische Aspekte der Wissensorganisation
H. Peter Ohly, GESIS – Leibniz-Institut für Sozialwissenschaften, Bonn
Noch vor 50 Jahren hat man Wissensorganisation, das Entwickeln und Ordnen von wissenschaftlichen Konzepten, als ein logisches und damit universelles Problem gesehen. Ältere Ansätze sehen die Wissensgebiete als naturgegeben und entsprechend organisch gewachsen an. Spätestens mit dem ‚Konstruktivismus‘ ist eine Wende eingetreten, die Wissensorganisation als soziale Konvention begreift und entsprechend skeptisch universellen Ansprüchen gegenübersteht. Gleichzeitig hat in den Wissenschaften eine stärkere Beschäftigung mit historischen und soziologischen Untersuchungen der Grundlagen und in der Wissenschaftstheorie die Rückbesinnung auf Relativierungen unterschiedlicher Art an Bedeutung gewonnen.
In dem Beitrag wird auf einzelne klassische wissenssoziologische Positionen näher eingegangen, Folgerungen für Wissen und Information sowie Wissenschaft und Wissensorganisation gezogen und Einwände genannt.
Building an Epistemic Community 2.0 – Lessons Learned from the UN Studies Association
Henrike Paepcke/Julia Harfensteller, UN Studies Association
Scientific collaboration and the generation of scientific knowledge are experiencing a significant enhancement with new Technologies of Communication and Collaboration – in particular with so-called Web 2.0 tools. Web 2.0 tools claim to improve social collaboration in many ways: collaboration becomes more democratic, interdisciplinary, non-hierarchical, global, and transparent. However, the introduction of these new tools in the academic world faces a series of challenges and problems, such as usability issues, copyright questions, and other reservations regarding the process of open collaboration.
In our presentation we will exemplify the advantages and the problems of working with Web 2.0 tools in academia on the basis of a wiki-based epistemic community. The UN Studies Association is an interdisciplinary expert community which cooperates via Wiki-technology. The Wiki has been a vital instrument for the community-building process, serving as official website, as a tool for project planning and management, as well as the community knowledge base.
After a brief introduction into the main features of the UN Studies Wiki, we will discuss following aspects: How can Wikis contribute to knowledge generation and systematization? What is the innovative aspect of wiki-based social collaboration and knowledge production? What are the limits of Wiki-technology with regard to knowledge generation in academia?
Wissensorganisations-Systeme für Kulturerbe und Archäologie – State of the Art
Loredana Pinna/Wiebke Wessels, HAW Hamburg, Department Information
Im Rahmen der Gestaltung eines zentralisierten Begriffspools Wortnetz Kultur für ein geplantes webbasiertes Kulturportal des Landschaftsverbandes Rheinland wurde ein State of the Art Report über nationale und internationale Ansätze zu Wissensorganisationssystemen im Bereich Archäologie und Kulturerbe erstellt. Evaluiert wurden verfügbare Standards und Vokabulare sowie Webprojekte mit kulturhistorischen Informationsinhalten. Ziel war es, bereits bestehende Lösungsmöglichkeiten für die Vokabulargestaltung und Standardisierung sowie Umsetzungsbeispiele von wissensorganisatorischen und Wortgut gestaltenden Ansätzen zu identifizieren und nachzuweisen, um diese für das Projekt Wortnetz Kultur adaptieren oder interpretieren und weiterentwickeln zu können. Der vorliegende Artikel beschreibt die Erstellung sowie die zentralen Ergebnisse des Reports und bewertet die Beobachtungen für den Aufbau des Wortnetz Kultur. Es werden eine Auswahl relevanter Standards und frei verfügbarer Vokabulare benannt und besonders überzeugende Webprojekte vorgestellt. Zudem werden der aktuelle Entwicklungsstand von Vokabularen, Standards und Webprojekten auf dem betrachteten Gebiet interpretiert und hilfreiche Recherchestartpunkte sowie relevante aktive Organisationen nachgewiesen.
Logic as organization of Actions
Klaus Prätor, Berlin
Unquestionably logic has always been a main tool of knowledge organization, from Porphyric trees and Boolean algebra of classic information retrieval to deductive databases and inference engines in expert systems or within ontologies of the Semantic Web. And because of its long tradition logic is of course a rather well understood instrument – as well in technical as in philosophical respects. But that does not mean that there are no fields left which need clarification. The one I want to consider in this paper is the relation of logic and action, which, in my opinion, contains two topics: Logic of Action and Logic as Action.
Thinking of logic we normally do not think of a logic of actions in the first place but of one of facts, or put in another way: a logic of statements, which can be true or false. A fact may also consist in the execution of an action. But speaking emphatically of a logic of action we mean something different. Typical action sentences are not statements, but for example orders, instructions or rules. We do not ask if they are true or false, but what they prescribe or forbid, and eventually if they are justified or sound. A logic of action is dealing exactly with this sort of sentences and with their characteristic sort of validity. For this reason existing logics of action have the form of a logic of commands or norms or a modal logic treating the modi of ordered, allowed, contingent and so on. (cf Rescher 1966, Wright 1972) Obviously all these are still logics of action sentences, not really a logic of action. To show what this might be and why it could be desirable to have such a sort of logic, I will refer to a rather specific field: the planning of actions with the aid of computers and the tools of artificial intelligence, in other words: planning expert systems. (Genesereth 1987, Hertzberg 1989, AUTHOR 2008)
Planning calculi, which are often demonstrated within block worlds, where a robot hand manipulates different blocks on a table, are dealing with the problem to make a plan for transforming an existing situation by a series of actions into another one, which is formulated as the aim. At first glance logic seems a very appropriate tool to solve this problem. The two situations can be formulated as sets of statements and the possible actions are formulated by enumerating the necessary conditions in a situation S0 for the execution of the action and the effects which are produced by it in the following situation S1. The rest is done by inference. This is the concept of the famous situation calculus by McCarthy and Hayes. There was merely one seemingly trivial problem: to infer that the attributions which held in S0, and which were not changed by the action, are holding in S1 too. This so called frame problem proved as at least practically insolvable. To say simply that all not modified statements stay the same, is a sentence of the second order predicate logic, for which there exists no model of computer implementation. So it is necessary to formulate the unchanged attributes for each single transformation and this is at least for more complex action plans practically impossible.
Anreichern von Ontologien durch sprachliches Wissen zur Suchunterstützung in Vorschlags-Funktionen
Hans-Jürgen Püttmann, Essen
Inhalte in Referenz- und Faktendatenbanken sind in der Regel historisch gewachsen und verlangen nach einer nutzungsgeeigneten Überarbeitung. Bei der Erstellung oder Aufbereitung einer bestehenden Ontologie wird die jeweilige Konzeption der Vorschlags-Funktion mit einbezogen und darauf zugeschnitten. Die unterstützende Suche über Termvorschläge in Suchmasken geschieht über passende Stich- und Schlagwörter, die dem Nutzer zu seiner Suchanfrage zur Auswahl angezeigt werden. Auf diese Weise kann er schon vor dem Auslösen der Suche seine Anfrage einschränken und präzisieren. Dies ist besonders bei heterogenen Zielgruppen und nicht suchversierten Nutzern ein geeignetes Hilfsmittel zur Orientierung in den evtl. nur vage bekannten Sachinhalten einer Spezialdatenbank. In diesem Konferenzbeitrag werden Beispiele aus der Schlagwortnormdatei und dem Wirtschaftsbereich angeführt. Damit die Term-Vorschläge dem Nutzer einen informationellen Mehrwert bieten, ist ein hinterlegtes kontrolliertes Vokabular mit Metadaten, das die Inhalte der zugehörigen Datensätze wiedergibt und verschiedene Sucheinstiege berücksichtigt, eine dafür notwendige Voraussetzung. Dazu sind die einzelnen Terme inhaltlich zu erschließen (z. B. Zugehörigkeit zu Themengebieten, Ermittlung von Homonymen/Polysemen, hierarchische Einordnung, Zuordnung zu sachverwandten Termen (die den Nutzer ebenfalls interessieren könnten), Verwendungsfreigabe für die Vorschlags-Funktion, Festlegung von Haupt- und Nebenbenennungen bei Synonymen sowie weitere nutzerorientierte Maßnahmen, Klassifizierung der Nebenbenennungen für unterschiedliche Verwendungszwecke bei der Suche usw.). Die Vorteile dieses Prozesses liegen in einer Kontrolle der Erschließungsqualität von Dokumenten, einer Vorstrukturierung der Inhalte (z. B. für das Web 3.0) und der Marktführerschaft im Bereich Content für das jeweilige Datenbankangebot des Verzeichnisanbieters.
Education for Information Management as a Transformative Force: The Case of India
K. S. Raghavan, DRTC, Indian Statistical Institute, Bangalore
The higher professional education system in a country should aspire to encompass the world of work in all its forms. Work constitutes the human sphere where knowledge and skills are applied, knowledge and skills are born, where new knowledge takes shape in response to social needs and, where the need for new skills and knowledge are recognized. Critics have remarked that India’s undergraduate and graduate programmes are too ‘theoretical’; the suggestion is that they are devoid of ‘practical’ experiences. This is true of most professional education programmes including librarianship and information management. How to overcome this deficiency and make education more relevant to the needs of the industry that is supposed to employ the products of the education system is the question that needs to be rather urgently addressed. It is therefore not without significance that the Government of India constituted a committee to ‘Advice the Government on Renovation and Rejuvenation of Higher Education’. The committee has only recently submitted its report. This presentation looks specifically at some issues relevant to professional education for the information management profession.
Traditionally LIS education in India has focused primarily on the manpower needs of institutions in the higher education and R & D sectors. The current generation of information systems in these organizations reflects the result of the initiatives in computerization that began in the 1980s. However, there have been major changes since the 1990s that strongly suggest a need for re-examination of the education programmes for information professionals in the country:
- The library as a physical space has become somewhat less central in the knowledge transfer process; Users have come to depend more on the Internet than on libraries; the user needs have also become more complex.
- Library networks and consortia have emerged in a big way;
- In the corporate sector, there is increasing realization of the importance of managing information effectively in order to remain competitive in the ‘knowledge society’. Knowledge Management Units have been set up in large corporations that make extensive and innovative use of ICTs including Web 2.0 technologies.
- Even the higher education system has been opened up for private and global players. The government’s role is now being seen largely as that of a facilitator than as a direct player in many economic and higher-education related activities.
All these have led to a transformation of the job market for information professionals. This transformation, by no means unique to India, appears to have begun in the west even earlier. The I-school movement that began a decade ago is partly in response to this.
Given this, how do we go about addressing the issues related to restructuring the education programme for information professionals? It is important to be futuristic in visualizing and planning professional education programmes in LIS. Three major factors have to be considered:
- Which existing components of the Information Arena will be affected and how?
- How and what external drivers will transform information dissemination?
- What new information work environments will emerge?
- Will information work in the specialized domains get so specialized and lead to independent sub-disciplines within those domains? (E.g. Health Informatics, Legal Informatics, Enterprise Knowledge Management, etc)
Philosophie als Wissensgebiet
Gerhard Rahmstorf, Heidelberg
Was ist Philosophie?
Wie hat sich die Philosophie entwickelt?
Welche Themen und Gebiete gehören zur Philosophie?
Welche Methoden werden in der Philosophie angewendet?
Welchen Wert und Nutzen hat die Philosophie in Wissenschaft und Arbeitswelt?
Wie lassen sich die philosophischen Arbeiten ordnen?
1. Was ist Philosophie?
Die Philosophie ist ein wissenschaftliches Fachgebiet. Sie gehört zu den Geisteswissenschaften. Die Philosophie ist eine besondere Wissenschaft. Ihre Besonderheit besteht in der Universalität. Sie macht Raum, Zeit, Leben, Pflanze, Tier, Mensch, Geist Vernunft, Verhalten, Gemeinschaft, Vergangenheit, Zukunft u. a. zum Thema.
2. Wie hat sich die Philosophie entwickelt?
Die Philosophie hat eine über 2000 Jahre lange Geschichte. Ihre Ursprünge in Europa sind mit den Namen Sokrates, Plato und Aristoteles verbunden. Die Lehren dieser Denker wurden über Jahrhunderte weitergegeben und reflektiert. Die Philosophie hat sich vor allem in der Zeit der Aufklärung weiter entfaltet. Im 20. Jahrhundert ist sie durch Carnap und andere Denker einer strengen Methodik unterworfen worden.
3. Welche Themen und Gebiete gehören zur Philosophie?
Zu den Kerngebieten der Philosophie gehören u. a.: Metaphysik, Logik, Erkenntnistheorie. In der Gegenwart werden viele, ganz unterschiedliche Themen von Philosophen untersucht. Dazu gehören auch ethische Probleme.
4. Welche Methoden werden in der Philosophie angewendet?
Die dominierende Methode der Philosophie ist das analytische Denken. Charakteristisch ist die Analyse von Fragestellungen und Begriffen, die zum Kern der Philosophie gehören. Zusätzlich werden aber auch viele alltägliche Begriffe untersucht und diskutiert.
5. Welchen Wert und Nutzen hat die Philosophie in Wissenschaft und Arbeitswelt?
Philosophie kann angewendet werden, wenn es darum geht, Schwierigkeiten zu erkennen, Probleme zu analysieren und sich neue Ziele zu setzen. Eine Stärke besteht darin, dass sie dabei hilft, vom konkreten Fall zu abstrahieren, allgemeiner zu denken und damit zu übergeordneten Themen vorzustoßen vermag.
6. Wie lassen sich die philosophischen Arbeiten ordnen?
Die zahlreichen Themen und Begriffe, die in der Philosophie behandelt werden, lassen sich unterschiedlich ordnen. Eine grobe Orientierung liefert die folgende Aufteilung in vier zentrale Gebiete: Natur, Mensch, Gefühl, Sprache, Erkenntnis, Technik, Frieden.
Fachinformation und Forschungsevaluierung
Udo Riege, GESIS – Leibniz-Institut für Sozialwissenschaften, Bonn
Der Beitrag bezieht die Erfahrungen von GESIS aus der Publikationserhebung im Rahmen der Pilotstudie Forschungsrating Soziologie des Wissenschaftsrates auf die Qualität und Validität der Informationen in der Datenbank SOLIS und dem Portal www.sowiport.de. Darauf aufbauend werden allgemeinere Fragestellungen nach einer möglichen Leistung der Fachinformation für die Forschungsevaluation diskutiert.
Die Erhebung von Veröffentlichungen gehört zu den konsensuellen Bereichen wissenschaftlicher Leistungsmessung. Anders als beispielsweise die Naturwissenschaften zeichnet sich die Soziologie durch ein Publikationsverhalten mit hoher Interdisziplinarität und breiter Streuung hinsichtlich der Publikationstypen und -organe sowie der geographischen Verteilung aus. Daraus ergeben sich besondere Herausforderungen für die möglichst umfassende Dokumentation und Erschließung.
Das Forschungsrating des Wissenschaftsrats war – quasi im Nebeneffekt – damit auch ein besonderer Selbsttest für das integrierte Datenbank- und Portalangebot von GESIS, da hieraus die Vorlagemenge für die Publikationserhebung erstellt wurde. Die teilnehmenden Wissenschaftlerinnen und Wissenschaftler konnten ihre Literaturlisten in einem Online-System einsehen, korrigieren und ergänzen. Die Analyse der Vorlagemenge und der Nachmeldungen geben Aufschlüsse über Streuungseffekte, woran sich Fragen und Vorschläge zur effizienten Integration von Informationen unter Nutzung der technischen Möglichkeiten anschließen.
Der Anspruch der Fachinformation, einen substantiellen Beitrag zur Forschungsevaluierung und Leistungsmessung in der Forschung erbringen zu wollen, ist hoch. Auf dem Weg dorthin lassen sich jedoch Ziele und Meilensteine identifizieren, die kooperativ, zeitnah und mit kalkulierbarem Aufwand sowie mit belastbarem Ertrag zu erreichen sind. Ein Monitoringsystem, das ausgewählte Aspekte der Forschungsentwicklung in statistischer Form beschreibt, wäre eine mögliche Serviceleistung der Fachinformation. In jedem Fall wäre ein solcher Service mit deutlich höherer Akzeptanz verbunden als ein System, das sich dem Anspruch stellt, einen Beitrag zur Qualitätsmessung leisten zu wollen. Die Aufgabe der Unterstützung von Forschungsevaluation bietet zugleich einen idealen Einstieg für eine verstärkte Abstimmung und Zusammenarbeit der bisher stark auf einzelne Disziplinen fokussierten Fachinformationszentren, da es mit einem deutlichem Mehrwert für jeden einzelnen Partner, insbesondere aber für die avisierten Zielgruppen verbunden ist.
Invalidity of a General Theory on knowledge organization
Rosa San Segundo, Carlos III University of Madrid, Information and Libraries Sciences Department
The concept of organizing knowledge, or classifying information and scientific data, is one of the most ancient that man has had to live with. This problem came about as a result of man’s need to create a system for all of his knowledge about the outside world and about the knowledge process. The very idea of organizing knowledge and the determinism in classification structures implicitly involve certain limits which are translated into a General Theory on the Classification of Knowledge, given that classification responds to specific parameters and structures more than to a theoretical concept. Furthermore, the organization or systematization of the sciences leads to a structuring of reality and knowledge that, in turn, is modified according to the different world views of the people who create them. The classification of things is a reflection of their classification by man, and this is what determines classification structures. The first categories upon which classifications are based are social categories. Even a child initiates coordinated classification while immersed in a whole series of established relationships that are steeped with value and are the basis of classification. Intuitive knowledge presents a reality and a structuring and classification of reality that is intact and unaltered by modern forms of thought, as compared with logical classification, which is the result of an elaborate structuring of reality in an artificial manner that makes comparisons with the people around us. Similarly, by applying logic to the world of knowledge, a classification system should arise in which the system is equivalent only to a series of logical principles, but logical principles are not hierarchical by nature. The origin of hierarchical classifications of inclusion and subordination, which introduce a value system into classification itself, lie in the classification of knowledge and the bibliographical classification of the nineteenth century, which are based on empirical principles and ideas of practicality. They are tested and evaluated only for their usefulness and applicability.
The Western World’s classification systems, along with modes of thinking and language structures, give form to social, political, economic and cultural structures, as well as others. Therefore, the classification of the sciences, and in the end documentary classification, take on the shape derived from the Weltanschauung that they form part of. The classification and organization of knowledge are presented to us as an artificial construct or as a useful fiction elaborated by man. They are characterized by their lack of ability to go beyond time barriers, or in other words, for being short-lived. The infeasibility of a classification of the sciences of a universal nature means that a General Theory on Classification is impossible.
Der Zauber ubiquitären Wissens
Jörn Sieglerschmidt, Bibliotheksservice-Zentrum Baden-Württemberg
Das Internet macht Wissen unabhängig von Zeit und Ort verfügbar. Paul Otlet hatte bereits vor über sechzig Jahren diese Entwicklung als eine bezeichnet, die den Menschen gottähnlich macht. Allerdings hatte er dabei wohl die Möglichkeiten der Technik über- und die menschliche Dummheit unterschätzt.
Immerhin bieten die inzwichen massiv aus Steuergeldern alimentierten Digitalisierungsbemühungen im wissenschaftlichen und im Kulturbereich zahlreiche Möglichkeiten, die am Beispiel dieser Projekte zunächst einmal dargestellt werden sollen.
Anschließend wird die Frage gestellt, in welchem Umfang und in welcher Qualität Material für Forschung und Bildung bereitgestellt wird. Abschließend wird zu fragen sein, welche Werkzeuge heute bereitstehen, um einen gut gebahnten Weg durch die angebotenen Informationen zu finden. Insbesondere davon wird es abhängen, wie nützlich das Internet für Forschung und Bildung tatsächlich sein wird.
Monitoring der Exzellenzinitiative: Beobachtungen zur Startphase von Graduiertenschulen und Exzellenzclustern
Michael Sondermann, iFQ – Institut für Forschungsinformation und Qualitätssicherung, Bonn
Im Juni 2005 haben der Bund und die Länder mit der Exzellenzinitiative ein Programm auf den Weg gebracht, mittels welchem sie die nachhaltige Stärkung des Wissenschaftsstandorts Deutschland und die Verbesserung seiner internationalen Sichtbarkeit und Wettbewerbsfähigkeit anstreben. Obwohl in der rasch einsetzten öffentlich geführten Diskussion ein grundsätzlicher Reformbedarf des deutschen Hochschulsystems nicht in Abrede gestellt wurde, äußerten Kritiker nicht zuletzt angesichts der veranschlagten Fördersumme von insgesamt 1,9 Mrd. € Skepsis an der Erreichbarkeit dieser Zielsetzungen und gingen soweit, der damaligen Bundesregierung „staatliche Regelungsfantasien“, gar einen „Harvard-Komplex“ zu bescheinigen und in mannigfaltigen Rechenexempeln zu zeigen, warum dieses Niveau angesichts der jährlichen Hochschuletats in der „ersten Liga“ Utopie bleiben müsse (von Münch, 2004). Von wissenschaftlicher Seite wurde die Förderung von Kartell- und Monopolstellungen im Hochschulsystem (Münch 2006, 2007) kritisiert und Zweifel laut, ob sich eine gleichwie definierte Spitzenforschung – verhandelt über Begriffe wie „Exzellenz“ oder „Elite“ – mittels staatlicher Programme induzieren ließe (Hartmann 2007, Simon und Knie 2007). Unbeachtet dieser Kritik herrscht Einigkeit, dass die Exzellenzinitiative in vielerlei Hinsicht ein Novum in der deutschen Förderlandschaft ist. Konzepte zur strukturellen Umgestaltung und Profilbildung ganzer Hochschulen, Aufbau von Fakultäts- und Organisationsgrenzen überschreitenden Förderverbünden (Exzellenzclustern), die hinsichtlich ihrer Größe eine neue Dimension darstellen, Implementation von Nachwuchsförderungsmodellen, die deutlich über gängige Verfahren hinausgehen sollen und die flächenhafte Einführung per se zwar nicht innovativer, aber in dieser Intensität und beabsichtigen Breitenwirksamkeit doch neuer Prozesse wie Dual-Career Programmen, Tenure-Track-Optionen usw. Um Wirkungen und Effekte von Anfang an beobachten zu können und am Ende Aussagen über die Erreichung der avisierten Ziele zu ermöglichen, hat die mit der Programmdurchführung betraute Deutsche Forschungsgemeinschaft (DFG) das iFQ als unabhängige Hilfseinrichtung der Forschung mit der Beobachtung der Exzellenzinitiative beauftragt. Das folgende Paper erläutert die methodischen Herausforderungen dieses Projekts, das gewählte Instrumentarium und liefert zum Schluss einen kurzen, nicht systematischen Einblick in erste empirische Ergebnisse. Inhaltlich basieren die Erläuterungen auf dem im Dezember 2008 publizierten iFQ-Working Paper No.5.
Technisch-organisatorische Einbettung informellen Lernens in das Universitätsstudium am Beispiel des Augsburger Begleitstudiums
Thomas Sporer/Philip Meyer/Magdalena Steinle, Universität Augsburg, Institut für Medien und Bildungstechnologie
Digitale Medien und neue Technologien eröffnen heute vielfältige Möglichkeiten für offene und kreative Lernszenarien (Stichwort: E-Learning 2.0). Allerdings lassen sich informelle Lernszenarien nicht einfach in das formale Hochschulstudium integrieren. Selbstorganisierte Communities von Studierenden können zwar durch die Gestaltung förderlicher Lernkontexte unterstützt, aber nicht wie traditionelle Lehre organisiert werden. Kritisch ist insbesondere, dass sich extracurriculares Engagement von Studierenden durch die zeitlich straff organisierten BA-/MA-Studiengänge, die Einführung von Studienbeiträgen und die Anforderung während dem Studium möglichst viele Praktika zu absolvieren, immer schwieriger gestaltet. Um Studierenden unter diesen Rahmenbedingungen die Möglichkeit zu bieten, sich außerhalb des Fachstudiums in Projekten im Umfeld der eigenen Hochschule zu engagieren, wurde an der Universität Augsburg das „Begleitstudium Problemlösekompetenz“ geschaffen: www.begleitstudium-problemloesekompetenz.de
Das Konzept dieses Begleitstudiums basiert auf der Förderung von Reflexion über die Mitarbeit in studentischen Projektgruppen und die eigene Entwicklung als Lerner. Studierende werden mit Hilfe einer portfoliobasierten Assessmentstrategie zur systematischen Reflexion ihrer Praxiserfahrungen angeleitet. Neben dem Lernen dienen elektonische Portfolios zur formalen Anrechnung der informellen Lern- und Arbeitsaktivitäten im Fachstudium. Der alltägliche Lernfortschritt wird regelmäßig im Arbeits-Portfolio festgehalten. Das Story-Portfolio dient jeweils am Semesterende der Zusammenfassung dieser alltäglichen Erfahrungen in einer zusammenhängenden Lerngeschichte. Mit dem Test-Portfolio wird schließlich die Anrechnung im Fachstudium geleistet. Der Lernende rekonstruiert seine Lerngeschichte in den Projekten, reflektiert seine Praxiserfahrungen und verknüpft sie mit den Bausteinen des Begleitstudiums und den Inhalten des Fachstudiums.
Diese drei Lern- bzw. Reflexionsstufen werden durch eine Online-Plattform unterstützt, die aus drei Bereichen besteht: Der Community-Bereich dient dem Austausch zwischen den Projektgruppen des Begleitstudiums; hier kann sich der Lernende über andere Projekte informieren und ihnen beitreten. Der Portfolio-Bereich ist der persönliche Bereich des Lernenden. Hier kann ein Profil erstellt und das Arbeits-Portfolio geführt werden. Der Assessment-Bereich dient schließlich der Anrechnung der Lernleistung im Fachstudium sowie dem Überblick über die bereits erbrachten Leistungen im Begleitstudium.
Bei der prototypischen Implementierung im Studiengang „Medien und Kommunikation“ zeigt sich, dass mit dem co-curricularen Studienangebot des Begleitstudiums informelle Lern- und Arbeitsaktivitäten von Studierenden in selbstorganisierten Projekten in das formale Curriculum von BA-/MA-Studiengängen integriert werden können. Das Begleitstudiums stellt in diesem Zusammenhang eine organisatorische und technische Lösung zur Förderung von informellen Lernszenarien an Hochschulen dar, die nach der Evaluation des Projekts im Jahr 2010 auch auf andere mediennahe Studiengänge übertragen werden kann.
A layered Model for Semantic Integration of Primary Data and Publications in Digital Libraries
Ein Ebenenmodell für die semantische Integration von Primärdaten und Publikationen in Digitalen Bibliotheken
Maximilian Stempfhuber, RWTH Aachen, Hochschulbibliothek/Benjamin Zapilko GESIS – Leibniz-Institut für Sozialwissenschaften, Informationelle Prozesse in den Sozialwissenschaften Bonn
Digitale Bibliotheken stehen derzeit vor der Herausforderung, den Informationsbedürfnissen ihrer wissenschaftlichen Nutzer nachzukommen und einen integrierten Zugriff auf verschiedene Informationsarten (z.B. Publikationen, Primärdaten, Wissenschaftler- und Organisationsprofile, Forschungsprojektinformationen) zu bieten. Bisher existiert jedoch kein allgemeingültiges, integrierendes Modell für Organisation und Retrieval von Wissen in Digitalen Bibliotheken. Die daraus resultierende strukturelle und semantische Heterogenität wird durch ein weites Feld von verschiedenen Metadaten-Standards, Inhaltserschließungsverfahren sowie Indexierungsansätze für verschiedene Arten von Information getragen.
Dieser Beitrag stellt aktuelle Forschungsentwicklungen und -aktivitäten vor, die zur Behandlung der Problematik der semantischen Interoperabilität in Digitalen Bibliotheken dienen. Wir präsentieren ein Modell für eine integrierte Suche in textuellen Daten und Faktendaten, das verschiedene Ansätze der semantischen Interoperabilität aufgreift und miteinander in Bezug setzt. Eingebettet in den Forschungszyklus treffen traditionelle Inhaltserschließungsverfahren für Publikationen auf neuere ontologie-basierte Ansätze, die für die Repräsentation komplexerer Informationen und Zusammenhänge (z.B. in sozialwissenschaftlichen Umfragedaten) geeigneter scheinen. Die Vorteile des Modells sind (1) die einfache Wiederverwendbarkeit bestehender Wissensorganisationssysteme sowie (2) ein geringer Aufwand bei der Konzeptmodellierung durch Ontologien.
Tutorium: Ontologiesprachen
York Sure
Informationsnachhaltigkeit
Karsten Weber, Professor for Philosophy, University of Opole, Poland/Visiting Professor for Computers & Society, TU Berlin, Germany/Adjunct Professor for Culture and Technology, BTU Cottbus, Germany Private Lecturer/EUV Frankfurt (Oder), Germany
Seit geraumer Zeit ist Nachhaltigkeit ein sehr wichtiger Begriff, wenn es um die Folgen des Technikeinsatzes geht. Noch bedeutender ist dieser Begriff jedoch im Zusammenhang mit dem Umgang mit knappen Ressourcen, derzeit vor allem in Hinblick auf Energieträger. Sucht man jedoch mithilfe von Google im Internet nach dem Ausdruck “Informationsnachhaltigkeit”, so ist die Ausbeute gering: Am 06.10.2009 wurden 163 Fundstellen angezeigt, das Programm der ISKO 2009 wird dabei bereits an sechster Stelle gelistet; eine erste Bibliothekssuche ergibt keinerlei Fundstellen. Informationsnachhaltigkeit scheint bisher also keine solche Bedeutung zu haben, wie dies für Nachhaltigkeit selber gilt. Dafür gibt es allerdings auch gute Gründe, denn das übliche Verständnis von Nachhaltigkeit kann für Informationsnachhaltigkeit nicht einfach übernommen werden. Die üblichen Beispiele für Nachhaltigkeit sind solche, die einen knappen Rohstoff beinhalten, bspw. Holz.
Nachhaltigkeit bedeutet dann unter anderem, diesen Rohstoff durch Recycling so sparsam wie möglich einzusetzen. Im Bereich der Energie wiederum wird von Nachhaltigkeit gesprochen, wenn die Energiequellen im Rahmen menschlichen Handelns nicht erschöpfbar sind – also letztlich alle Energiequellen, die sich durch Sonnenaktivität sofort oder schnell regenerieren: Windenergie, Solarthermie und Photovoltaik, Wasserkraft oder nachwachsende Rohstoffe. Letztere haben zudem den Charme, dass sie kohlenstoffneutral sind. Der sparsame oder nachhaltige Gebrauch von Rohstoffen betrifft natürlich den Wirtschaftskreislauf und den Schutz der Umwelt. Allerdings wird inzwischen auch von sozialer Nachhaltigkeit gesprochen. Hier wird gemeint, dass die Gestaltung der sozialen Verhältnisse einer Gesellschaft dann nachhaltig ist, wenn sie soziale Stabilität, den allgemeinen Wohlstand und das friedliche, kooperative und gleichberechtigte Zusammenleben der Bürger einer Gesellschaft fördern.
Nun scheinen sich Wissen und Informationen von anderen Ressourcen deutlich zu unterscheiden. Einmal erzeugt, können Wissen und Informationen nicht auf die gleiche Weise verbraucht werden wie bspw. Öl. Wissen und Informationen sind, in der Sprache der Ökonomie, reine öffentliche Güter, da ihre Nutzung, zumindest prima facie, nicht rival und niemand von vornherein von der Nutzung exkludiert ist. Da Wissen und Informationen also andere Eigenschaften als andere Güter besitzen, soll in dem Vortrag versucht werden, genauer zu bestimmen, worin dann Informationsnachhaltigkeit bestehen könnte.
Workshop: Qualitätssicherung und Qualitätsmessung – Determinanten der Akzeptanz für Open Access?
Karin Weishaupt
- Karin Weishaupt: Open-Access-Zeitschriften als Schuttabladeplatz für minderwertige Beiträge? Die Frage ihrer Qualität und ihre Bedeutung für die Akzeptanz
- Ulrich Herb: Die Bedeutung von Impact-Maßen
- Uwe Müller: Peer-Review-Verfahren
Open-Access-Zeitschriften als Schuttabladeplatz für minderwertige Beiträge? Die Frage ihrer Qualität und ihre Bedeutung für die Akzeptanz
Karin Weishaupt, Institut Arbeit und Technik, Gelsenkirchen
„Ich publiziere nur dann in Open-Access-Zeitschriften, wenn die besseren meinen Beitrag abgelehnt haben!“ Solche Aussagen fanden sich in Fragebögen zur Akzeptanz von Open-Access-Zeitschriften während einer Online-Befragung, die im Sommer 2008 unter 1000 Open-Access-Autor/inn/en durchgeführt wurde mit dem Ziel, Wünsche und Bedürfnisse von Wissenschaftler/inne/n bezüglich Open-Access-Zeitschriften zu ermitteln und daraus Maßnahmen zur Akzeptanzsteigerung abzuleiten. Dabei hat gezeigt, dass technische Maßnahmen kaum weiter führen, verschiedene organisatorische Maßnahmen wie die Beschleunigung des Publikationsprozesses und Informationskampagnen dagegen hilfreich sein können.
Dreh- und Angelpunkt aber ist die Frage der Qualität und des daraus resultierenden Renommees der Zeitschriften. Sind Open-Access-Zeitschriften tatsächlich von minderer Qualität als kommerziell vertriebene oder handelt es sich bei dieser Einschätzung lediglich um ein Vorurteil? Wie sind ein Umdenken und die Abkehr von etablierten Strukturen des Wissenschaftssystems zu erreichen, um die Durchsetzung des Open-Access-Modells zu fördern? Der Workshop fokussiert auf Mechanismen und Techniken, die eine Qualitätssicherung ex ante (über Begutachtung) und Qualitätsmessung ex post gewährleisten sollen. Insbesondere wird reflektiert, inwiefern sich Open-Access- und Toll-Access-Publikationen hinsichtlich der angewendeten Qualitätssicherung und -messung unterscheiden und ob diese Merkmale ausschlaggebend für die Akzeptanz von Open Access sind.
Neue Möglichkeiten für die Wissensorganisation durch die Kombination von Digital Library Verfahren mit Standards des Semantic Web
Benjamin Zapilko/York Sure, GESIS – Leibniz-Institut für Sozialwissenschaften, Informationelle Prozesse in den Sozialwissenschaften, Bonn
Die in den letzten Jahren zu beobachtenden Entwicklungen in der Semantic Web Community ermöglichen nicht zuletzt durch die Einführung von SKOS (Simple Knowledge Organization System) eine Öffnung gegenüber Konzepten und Verfahren der Bibliotheks- und Dokumentationswelt sowie die bessere Nutzung von bestehendem semantischen Wissen. Der stetig wachsende Anspruch an präziserer Semantik in den im Web verfügbaren Informationen macht daher ein Überdenken bisheriger Ansätze der Digital Library Community zur Behandlung semantischer Heterogenität und Interoperabilität notwendig.
Aufgrund dieser Entwicklung scheint auch eine Reformulierung des erstmals 1996 vorgeschlagenen Schalenmodells mit Tools und Standards des Semantic Web die plausible Konsequenz zu sein. Schließlich teilen sowohl das Schalenmodell als auch die Ontologie-basierten Ansätze des Semantic Web ohnehin Grundprämissen, die sich gegen die generelle Schwäche von traditionellen Suchmaschinen und die dort größtenteils fehlende Semantik richten. Für die Organisation und Integration von Wissen entstehen durch eine Kombination der Ansätze beider Lager neue und weitreichendere Möglichkeiten der Behandlung von semantischer Heterogenität und Interoperabilität. Wissensstrukturen und -konzepte, die vorher nicht oder nur unzureichend miteinander kombinierbar waren, können durch aktuelle Standards verbunden werden und gemeinsam, beispielsweise in einer integrierten Recherche, genutzt werden. Dieses Papier wird das Konzept, die Hintergründe und die Ziele der geplanten Reformulierung des Schalenmodells vorstellen.
Electronic Health Records (EHRs): Modelle, Komponenten, Standardisierung
Maria Zens, GESIS Leibniz-Institut für Sozialwissenschaften, Bonn
Vorgestellt wird ein besonderer Fall der Informationsverarbeitung und Wissensorganisation: die elektronische Gesundheitsakte – auch: elektronische Patientenakte, electronic health record, elektronische Fallakte – die Zielpunkt der eHealth-Entwicklung in vielen Ländern ist. Auch in Deutschland, wo derzeit die elektronische Gesundheitskarte als Politikum kontrovers diskutiert wird, herrscht über den Nutzen von EHRs weitgehend Konsens.
Im Beitrag soll ein wissenssoziologischer Blick auf einen medizininformatischen Gegenstand geworfen und nach den Modellen der Wissensorganisation und des Informationszugangs gefragt werden: wie werden personalisierte Informationen in Patientenakten aufbereitet, wie wird medizinisches Wissen in die Strukturen der EHR integriert – beispielsweise durch SOPs in der Versorgungskette, Arzneimittelinteraktionsprüfungen u.ä.? Und, in umgekehrter Perspektive: wie können die in EHRs gesammelten Daten in medizinisch verwertbares Wissen konvertiert werden (z.B. für das Monitoring chronischer Erkrankungen, für die Epidemiologie und Gesundheitsberichterstattung) und was ist hierbei zu beachten (Datenschutz, Anonymisierung)?
Im medizinischen Bereich müssen hohe Anforderungen an die Qualität der Daten, an ihre Sicherheit und zugleich Verfügbarkeit (Performance der Systeme) gestellt werden. Hier ist es tatsächlich von vitaler Bedeutung, dass Daten korrekt sind und bei Bedarf jederzeit abgerufen werden können, und noch weniger als in anderen Bereichen sollen diese sensiblen Informationen Unbefugten zugänglich werden.
Qualitätssicherung umfasst deshalb die Nowendigkeit zur Standardisierung, zur Herstellung technischer und semantischer Interoperabilität, zur Verfügbarkeit in unterschiedlichen Wissenskontexten (Stichwort: continuity of care record) und perspektivisch auch international. Das stellt Anforderungen an die Formatverarbeitung (Text, Bild, strukturierte Dokumente, Mailbarkeit), an die Standardisierung von Komponenten (z. B. Snomed CT, HL7, Dicom, PACS als Standards) oder die Verfügbarkeit über Web Services. Hierzu können verschiedene Initiativen und Projekte kurz vorgestellt werden (Q-Rec Repository, RIDE, GEHR, epSOS; European Commission Report 2006, EHTEL).
Beispiele für bereits genutzte EHR-Systeme, die ebenfalls vorgestellt werden können, sind: DMP dossier medicale personnel (Frankreich), eFA (elektronische Fallakten Rhön-Klinikum) als Web-ePA, CPRS computerized patient record system (USA).