Bestandsnachweise mit einem CIDOC CRM-Application Profile

Auf meinen Beitrag Bestandsnachweise von Bibliotheken als Linked Data gab es einige Anmerkungen. Neben einigen Retweets wurde insbesondere die Komplexität des CRM angesprochen. Beispielhaft greife ich hier eine Reaktion von Karen Coyle (@karencoyle) in der Mailing-Liste der Schema Bib Extend Community Group heraus1: „[…] Although a friend and I were joking the other day that FRBRoo diagrams look frighteningly like a London Tube Map. […]“.

Auch in vielen Gesprächen am Rande der SWIB13 zeigt sich, dass die Akzeptanz für die CIDOC CRM-Welt an der vermeintlichen Komplexität des Modells scheitert. Auf der SWIB13 zeigte sich aber auch, dass an einigen Stellen neue Ontologien entstehen, deren Inhalte auch schon im CIDOC CRM abgebildet sind.2

Sicherlich sieht der Ansatz im CIDOC CRM recht komplex aus. Doch was bleibt letztlich davon übrig, wenn beispielsweise für eine wissenschaftliche Bibliothek die zugehörige Universität bzw. die Bibliothek selbst die administrativen Informationen der Einrichtung als Linked Open Data bereitstellt?

Meine bisherigen Betrachtungen zeigen die Mächtigkeit des Modells und die Zusammenhänge für bibliographische Informationen eher abstrakt. Ich werde mich daher nun mit der Frage auseinandersetzen, ob auf Basis des CIDOC CRM ein „Application Profile“ definierbar ist, welches tatsächlich anwendbar ist. Im Sinne der Unterscheidung zwischen Referenz- und Anwednungsontologie3 sollte es möglich sein, ein „Application Profile“ auf Basis des CRM zu definieren, welches im Retrieval durch das CIDOC CRM als Referenzontologie nutzbar wird.

Im folgenden entwickelt sich eine Beschreibung der Bestandsnachweise, bei der die Komplexität des auf dem CIDOC CRM basierenden Modells durch eine „Aufgabenteilung“ deutlich abnimmt.

„Man-Made Features“ und „Sites“
Wie im Beitrag über die Bestandsnachweise beschrieben, lässt sich mittels der CRM-Entität E27_Site4, E26_Physical_Feature5 und E25_Man-Made_Feature6 eine beliebige Örtlichkeit beschreiben.
Die folgenden Beispiele zeigen einige Datensätze für die TU Dortmund.

@prefix rdf: <http://www.w3.org/1999/02/22-rdf-syntax-ns#> .
@prefix rdfs: <http://www.w3.org/2000/01/rdf-schema#> .
@prefix ecrm: <http://erlangen-crm.org/120111/> .
@prefix skos: <http://www.w3.org/2004/02/skos/core#> .
@prefix org: <http://www.w3.org/ns/org#>
@prefix lgd: <http://linkedgeodata.org/page/triplify/> .
@prefix osm: <http://www.openstreetmap.org/> .
@prefix data: <http://data.ub.tu-dortmund.de/resource/> .

data:site/TUDortmundUniversity 
  a ecrm:E27_Site , org:Site ;
  skos:prefLabel "Technische Universität Dortmund"@de , "TU Dortmund University"@en ;
  skos:altLabel "TU Dortmund" , "Universität Dortmund"@de , "Dortmund University"@en ;
  rdfs:isDefinedBy data:site/TUDortmundUniversity/about.rdf ;
  ecrm:P46i_forms_part_of lgd:relation1829065 ;
  ecrm:P46_is_composed_of data:site/NorthernCampus , data:site/SouthernCampus ;
  org:siteOf data:gnd/16039348-6 .
data:site/NorthernCampus 
  a ecrm:E27_Site, org:Site ;
  skos:prefLabel "Campus Nord"@de , "Northern Campus"@en ;
  rdfs:isDefinedBy data:site/NorthernCampus/about.rdf ;
  ecrm:P46i_forms_part_of data:site/TUDortmundUniversity ;
  ecrm:P46_is_composed_of data:feature/VP_76 , ... , data:feature/EF_50 ;
  owl:sameAs lgd:way130972690 ;
  rdfs:seeAlso osm:way/130972690 .
data:feature/VP_76
  a ecrm:E25_Man-Made_Feature, org:Site ;
  skos:prefLabel "Vogelpothsweg 76" ;
  skos:altLabel "Zentralbibliothek"@de , "Central Library"@en , "ZB"@de , "CL"@en , "VP 76" ;
  rdfs:isDefinedBy data:feature/VP_76/about.rdf ;
  ecrm:P46i_forms_part_of data:site/NorthernCampus ;
  ecrm:P46_is_composed_of data:feature/VP_76/ThirdFloor , ... , data:feature/VP_76/BasementLevel2 ;
  owl:sameAs lgd:way17059611 ;
  rdfs:seeAlso osm:way/17059611 . 
  org:siteOf data:organisation/DE-290 , data:organisation/DE-290/GB1 , ... .

Um präzise Lagerangaben bei Bestandsnachweisen zu beschreiben, sind weitere Kenntnisse innerhalb von Gebäuden, z.B. über Abschnitte oder Etagen, notwendig. Diese lassen sich mittels CRM als E25_Man-Made_Feature beschreiben. Die folgenden Beispiele zeigen das dritte Obergeschoss, das zweite Untergeschoss sowie den Zeitschriftenlesesaal im Erdgeschoss des Gebäudes Vogelpothsweg 76 (VP_76) auf Campus Nord.

data:feature/VP_76/ThirdFloor
  a ecrm:E25_Man-Made_Feature , org:Site ;
  skos:prefLabel "3. Obergeschoss"@de , "Third Floor"@en ;
  skos:altLabel "3.OG"@de ;
  rdfs:isDefinedBy data:feature/VP_76/ThirdFloor/about.rdf ;
  ecrm:P46i_forms_part_of data:feature/VP_76 ;
  ecrm:P46_is_composed_of data:collection/290/0/Sn .
data:feature/JournalsReadingRoom
  a ecrm:E25_Man-Made_Feature , org:Site ;
  skos:prefLabel "Zeitschriftenlesesaal"@de , "Journals Reading Room"@en ;
  ecrm:P46i_forms_part_of data:feature/VP_76/GroundFloor .
]  .

Damit auch Aussagen in Bezug auf eine der dem Ort zugeordneten Organisation getroffen werden können, sind die Objekte auch vom Typ Site der W3C Organization Ontology.

Sammlungen in der Bibliothek
Die physischen Bestände sind in Bibliotheken in der Regel systematisch in Sammlungsbereiche geordnet, z.B. als Sektionen basierend auf einer Systematik wie die Dewey Decimal Classification (DDC). Der Charakter dieser Sammlungen findet sich in der CRM-Entität E78_Collection wieder und kann mittels der Eigenschaft „forms part of“ einem „Feature“ und mittels „has current or former curator“ einer Einrichtung zugeordnet werden.
Die folgenden Code-Beispiele zeigen einerseits die Signaturgruppe Sn, welche in der „Freihand“-Sammlung verortet ist und andererseits die „Lehrbuchsammlung“. Beide sind Teil der gesamten Sammlung der Zentralbibliothek.

data:collection/290/0
  a ecrm:E78_Collection ;
  skos:prefLabel "Central Library"@en , "Zentralbibliothek"@de ;
  skos:altLabel "ZB"@de , "CL"@de ;
  rdfs:isDefinedBy data:collection/290/0/about.rdf ;
  ecrm:P46i_forms_part_of data:feature/VP_76 ;
  ecrm:P109_has_current_or_former_curator data:organisation/DE-290/Fachreferate .
data:collection/290/0/1
  a ecrm:E78_Collection ;
  skos:prefLabel "Freihand"@de ;
  rdfs:isDefinedBy data:collection/290/0/1/about.rdf ;
  ecrm:P46i_forms_part_of data:collection/290/0 ;
  ecrm:P46i_forms_part_of (data:feature/VP_76/SecondFloor data:feature/VP_76/ThirdFloor) ;  
  ecrm:P109_has_current_or_former_curator data:organisation/DE-290/Fachreferate .
data:collection/290/0/1/Sn
  a ecrm:E78_Collection ;
  skos:prefLabel "Signaturgruppe Sn"@de , "Shelf Mark Sn"@en ;
  rdfs:isDefinedBy data:collection/290/0/1/Sn/about.rdf ;
  ecrm:P46i_forms_part_of data:collection/290/0/1 ;
  ecrm:P46i_forms_part_of data:feature/VP_76/ThirdFloor; ;
  ecrm:P109_has_current_or_former_curator data:organisation/DE-290/Fachreferate/Informatik .
data:collection/290/0/2
  a ecrm:E78_Collection ;
  skos:prefLabel "Textbook Collection"@en , "Lehrbuchsammlung"@de ;
  rdfs:isDefinedBy data:collection/290/0/2/about.rdf ;
  ecrm:P46i_forms_part_of data:collection/290/0 ;
  ecrm:P46i_forms_part_of data:feature/VP_76/GroundLevel; ;
  ecrm:P109_has_current_or_former_curator data:organisation/DE-290/Fachreferate .

Bestandsnachweise konkret
Die bisherigen Daten werden nach ihrer initialen Erstellung relativ selten aktualisiert und stehen somit als administrative Daten bei der
Beschreibung der Bestandsnachweise zur Verlinkung zur Verfügung. Also was bleibt nun noch konkret für den eigentlichen Bestandsnachweis zu tun?
Das folgende Beispiel zeigt, dass bis auf die individuelle Signatur und den Status der zur Verfügung stehenden Services nur noch Links zu erfassen sind. Folgende Links werden benötigt7:

  • Link zum Besitzer
  • Link zur Kollektion
  • Link zur Manifestation*
  • Link zur Publication Expression*
  • ggf. Link zum Production Event*
data:item/13000956
  a efrbroo:F5_Item ;
  skos:prefLabel "Sn 23555" ;
  rdfs:isDefinedBy data:item/13000956/about.rdf ;
  ecrm:P52_has_current_owner data:organisation/DE-290 ;
  ecrm:P46I_forms_part_of data:collection/290/0/1/Sn ;
  efrbroo:R7_is_example_of data:manifestation/32d8f198-5ec0-4afc-8fe9-0b0388852459 ;
  efrbroo:R6_carries data:expression/c90e09d7 ;
  efrbroo:R28i_was_produced_by data:event/32d8f198-5ec0-4afc-8fe9-0b0388852459 ;
  ecrm:P70i_is_documented_in data:item/13000956/about.rdf .

Fazit und Ausblick
Die vermeintliche Komplexität der Modelle mittels CIDOC CRM und seinen Erweiterungen im Beitrag „Bestandsnachweise von Bibliotheken als Linked Data“ lässt sich somit bei genauerer Betrachtung in die vier Bereiche location, organization, collection und holding aufteilen und somit erheblich reduzieren.

Für die tatsächliche Erfassungsarbeit der Bestände durch Bibliothekarinnen und Bibliothekare können in dieser Form sehr einfach gehaltene Formulare dienen, die an den Linking-Felder mit „autosuggest„-Funktionen hinterlegt sind. Im Sinne der Forderung von Dorothea Salo bei der SWIB 138 nach Tools, wäre das ein sehr wertvolles Szenario und ein wesentlicher Schritt vom „Cataloging“ zum „Catalinking„.

  1. Mail vom 22.11.2013 im Mailarchiv []
  2. Ich meine hier nicht die zahlreichen „Application Profiles“ sondern die tatsächlich neuen Ontologien. []
  3. Zur Anwendung des CIDOC CRM als Referenzontologie bzw. Anwendungsontologie vergleiche auch Hohmann, Georg (2010): Die Anwendung des CIDOC CRM für die semantische Wissensrepräsentation in den Kulturwissenschaften. In: Ohly, Peter; Sieglerschmidt, Jörn (eds.): Wissensspeicher in digitalen Räumen. Nachhaltigkeit, Verfügbarkeit, semantische Interoperabilität. Proceedings der 11. Tagung der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation Konstanz 20.-22. Februar 2008. Würzburg: Ergon. pp. 210-222. []
  4. CRM: „This class comprises pieces of land or sea floor.“ []
  5. CRM: „This class comprises identifiable features that are physically attached in an integral way to particular physical objects.“ []
  6. CRM: „This class comprises physical features that are purposely created by human activity, such as scratches, artificial caves, artificial water channels, etc.“ []
  7. Für die mit * gekennzeichneten Links vgl. den Abschnitt „WEM + I im CIDOC CRM-Universum“ in Bestandsnachweise von Bibliotheken als Linked Data. []
  8. vgl. z.B. mein Tagungsbericht “In LOD we trust” – Ein Bericht von der SWIB13 []

Veröffentlichung von Forschungsdaten eines DFG-Projektes auf Zenodo – Ein Selbstversuch

Jede wissenschaftliche Einrichtung stellt – in der Regel basierend auf Empfehlungen von Drittmittelgebern wie der DFG – an sich den Anspruch, nach den Regeln guter wissenschaftlicher Praxis zu arbeiten. Hierzu heißt es beispielweise in den Regeln für die TU Dortmund:

Hierzu gehört es, lege artis zu arbeiten, korrekte Angaben zu machen, geistiges Eigentum anderer zu achten sowie andere in ihrer Forschungstätigkeit nicht zu beeinträchtigen. […]
Im Zusammenhang der Veröffentlichung schließt dies insbesondere Folgendes ein:
– Die nachvollziehbare Beschreibung der angewandten Methoden,
– die vollständige Dokumentation aller im Forschungsprozess erhobenen und für die Veröffentlichung relevanten Daten,
– eine nachprüfbare Darstellung der Forschungsergebnisse […]

Was bedeuten diese Forderungen nun für ein Projekt?

Die TU Dortmund hat bereits seit mehr als 15 Jahren ein Repositorium auf dem neben Hochschulschriften auch Projektberichte und andere Berichtsformen im Sinne des Open Access veröffentlicht werden können. Die fortschreitende Digitalisierung der Wissenschaftsdisziplinen erfordert aber heute weit mehr als „nur“ die Archivierung textueller Daten. Zunehmend werden auch die zur Publikation führenden sogenannten Primär- oder Rohdaten digital erzeugt bzw. erfasst. Diese zu erschließen und zu archivieren ist eine nicht triviale Herausforderung.

In den letzten Jahren wurden weltweit Projekte begonnen, die sich zum Ziel genommen haben, eine Infrastruktur für Forschungsdaten aufzubauen. Während einige Forschungsgebiete eigene Data Center oder Data Journals (z.B. Pangaea oder F1000 Research) gegründet haben, sind kleinere Forschungsbereiche eher auf der Strecke geblieben. Diese Lücke möchten nun Plattformen wie Zenodo, Dryad Digital Repository oder figshare schließen. Aber auch immer mehr Zeitschriftenverlage bieten die Möglichkeit der Datenablage an.1

Für einen Teil der Ergebnisse des DFG-Projekts ArcheoInf, an dem die Universitäsbibliothek Dortmund beteiligt war, habe ich die Plattform Zenodo getestet und die Datensätze sowie die im Projekt entstandene Software dort archiviert.

ArcheoInf-Logo

Das Projekt ArcheoInf und das zu archivierende Material der beteiligten Bibliotheken
Zum Projekt ArcheoInf wurde bereits an einigen Stellen publiziert2. Deshalb soll hier nur kurz über das Projekt selber berichtet werden.

Das Projekt wurde im Rahmen des Programms „Themenorientierte Informationsnetze“ seit dem Jahr 2008 von der Deutschen Forschungsgemeinschaft gefördert. Neben dem Archäologischen Institut der Georg-August-Universität Göttingen, dem Lehrstuhl für Software-Technologie der Technischen Universität Dortmund sowie dem Fachbereich Geoinformatik/Geodäsie der Hochschule Bochum arbeiteten die Universitätsbibliotheken Dortmund und Bochum in diesem Projekt an der Entwicklung eines Informationssystems für die Archäologie.

ArcheoInf zielte auf eine Verfügbarmachung wissenschaftlicher Forschungsdaten – also Karten, Bilder, Texte, schlicht alle zu den beteiligten archäologischen Grabungs- und Surveyprojekten verfügbaren Informationen – im Netz über eine einzige Oberfläche und von jedem Ort der Welt erreichbar. Es sollten hier nicht die Projekte isoliert durchsuchbar sein, sondern in einer Weise miteinander verknüpft werden, dass projektübergreifend Informationen zu einem gesuchten Thema gefunden und verbunden werden können.

Trotz des von Fachwissenschaftlern artikulierten Bedarfs einer derartigen Lösung, hat sich während der Projektlaufzeit gezeigt, dass die Freigabe von Projektdaten zur Bereitstellung über ein solches Portal aus verschiedenen Gründen häufig nicht zu erreichen ist. Insbesondere wurde deutlich, dass den Fachwissenschaftlern zunächst an Werkzeugen gelegen ist, die eine qualitativ hochwertige Verarbeitung von Primärdaten ermöglicht und diese somit erst publizierbar werden.

Das Resultat war, dass ArcheoInf kein Datenmaterial zur Verfügung stand und steht, mit dem einerseits die zu entwickelnden Instrumente ausgebaut werden konnten und andererseits eine oben beschriebene Plattform mit Inhalt gefüllt werden konnte. Dies gilt in besonders hohem Maße für archäologische Forschungsdaten, aber auch für die mit diesen verknüpften bibliographischen Daten.

Trotz dieser Schwierigkeiten ist es dem Projektteam gelungen, Werkzeuge, Programme und Datenmaterial zu entwickeln, um ein prototypisches Informationssystem zu erstellen.

Die am Projekt beteiligten Bibliotheken hatten unter anderem die Aufgabe, ein Dokumentenrepositorium – insbesondere für graue Literatur – mindestens aber eine Bibliographie der in den auf der ArchoInf-Plattform bereitgestellten Projekte zur Verfügung zu stellen. Dabei wurde schon sehr früh entschieden, dass als gemeinsamer Nenner das bibliographische Datenformat MODS dienen soll. Ferner wurden die Daten einerseits für die Indexierung in einer auf Apache Solr basierenden Suchmaschine und andererseits mittels der CIDOC CRM-Ontologien für die Verwendung als Linked Data aufbereitet.

Zenodo-Logo

Zenodo – An open digital repository for everyone and everything that isn’t served by a dedicated service
OpenAIRE und CERN haben dieses Repositorium im Jahr 2013 gestartet. Das von der Europäischen Kommission unterstützte Repositorium bietet einen zentralen Ort für die Speicherung und Recherche von Forschungsdaten und dient zusätzlich als
Orphan Repository für Publikationen, für die kein passendes institutionelles oder disziplinäres Repositorium zur Verfügung steht.

Auf der Webseite von Zenodo wird die Plattform wie folgt beschrieben:

Zenodo is an open dependable home for the long-tail of science, enabling researchers to share and preserve any research outputs in any size, any format and from any science.

Damit eignet sich die Plattform vor allem für die Archivierung von Materialien institutsübergreifender und kleinerer Projekte.

Zu den Funktionen gehören:

  • Community Collections inkl. OAI-PMH-Schnittstelle
  • Vergabe von bzw. Nachnutzung bereits vorhandener DOIs
  • flexible Lizensierung der Daten
  • Archivierung von GitHub-Software-Repositorien
  • Reporting zu Drittmittelgebern (derzeit nur EU-Projekte via OpenAIRE)

Zenodo speichert die beim Upload angegebenen Metadaten intern im MARC-Format ab, welches als ZENODO Metadata Schema dokumentiert ist. Als Exportformate stehen MARCXML, Dublin Core und DataCite Metadata Schema gemäß der OpenAIRE Guidelines zur Verfügung. Fachliche Metadaten (z.B. DDI Metadata zur Beschreibung von sozial- und wirtschaftswissenschaftlichen Daten) werden nicht erfasst.

Die Metadaten sind bis auf die E-Mail-Adressen unter der CC0-Lizenz veröffentlicht und können über OAI-PMH abgerufen werden (vgl. auch die Policy von Zenodo).

ArcheoInf auf Zenodo
Die Möglichkeit, eine Community Collection – also für eine spezielle Gruppe oder ein Projekt ein eigenes Repositorium – aufzusetzen, machte für ArcheoInf ohne Zweifel Sinn. So habe ich die Community Collection „ArcheoInf Projekt“ angelegt, um dort die zum Projekt gehörigen Daten abzulegen.

Wie bereits oben beschreiben, haben die am Projekt beteiligten Bibliotheken vor allem bibliographische Datensätze für zwei Anwendungsszenarien aufbereitet. Auf Zenodo habe ich für jede „Projektbibliographie“ ein Datenpaket bestehend aus den angereicherten MODS-Daten, den für die Indexierung in Apache Solr erzeugten und den Linked Data als RDF/XML abgelegt.

Die Datensätze haben durch die Ablage auf Zenodo einen DOI bekommen. Somit sind die Daten nun wie folgt publiziert:

Die Beschreibung der Datensätze sieht die Möglichkeit vor, Verknüpfungen zu anderen Publikationen zu erstellen. Beispielsweise ist es möglich, Datensätze als Supplement zu einer textuellen Publikation in Beziehung zu setzen. Von dieser Möglichkeit habe ich bei den fünf Datensätzen gebrauch gemacht, in dem ich sie als Supplements zu den beiden Publikationen von Maike Lins und mir im Sammelwerk „(Open) Linked Data in Bibliotheken“ zugeordnet habe. Insbesondere in dem Beitrag „Open Data und Linked Data in einem Informationssystem für die Archäologie“ wird auf die Erzeugung dieser Daten eingegangen und das Verfahren sowie die Verwendung der Daten beschrieben.

Die im Rahmen des Projektes entstandene Software zur Erzeugung bzw. Konvertierung der bibliographischen Daten wurde in einem Repositorium „ArcheoInf“ auf GitHub abgelegt. Zenodo bietet die Möglichkeit, die Releases aus dem GitHub-Repositorium automatisch als zip-Archiv zu archvieren und diesem ebenfalls einen DOI zu vergeben. Die finale Version der Software zur Erzeugung bzw. Konvertierung der bibliographischen Daten in ArcheoInf hat nun den DOI 10.5281/zenodo.11177.

Fazit
Um die Grundsätze der guten wissenschatlichen Arbeit im Sinne der eigenen Einrichtung aber auch der Drittmittelgeber zu erfüllen, ist die Plattform Zenodo sehr gut geeignet – insbesondere wenn es keine fachbezogene oder institutionelle Alternative gibt. Ein wesentlicher Vorteil von Zenodo liegt in der abgesicherten dauerhaften Finanzierung durch EU-Mittel und dem Betrieb durch das mit großen Datenmengen erfahrene CERN. Auch die Vergabe von DOIs und der automatischen Meldung der Publikationen an Drittmittelgeber (bisher nur für EU-Projekte via OpenAIRE) sind für Aspekte wie Sichtbarkeit und Vereinfachung von Verwaltungsaufgaben von Vorteil.
Ein Nachteil könnte sein, dass eine Beschreibung der Daten mittels fachspezifischer Metadaten fehlt. Allerdings ist fast davon auszugehen, dass es in einem Fachgebiet mit einem speziellen Metadatenschema auch ein Datenrepositorium exisitert (nach schlagen kann man dies im Verzeichnis Registry of Research Data Repositories (re3data).

  1. Hier ist aber Vorsicht geboten, da die Verlage teilweise fragwürdige Nutzungslizenzen vereinbaren wollen. []
  2. vgl. u.a. Open Data und Linked Data in einem Informationssystem für die Archäologie / Maike Lins, Hans-Georg Becker. In: (Open) Linked Data in Bibliotheken / hrsg. von Patrick Danowski, Adrian Pohl. De Gruyter Saur, 2013. – S. 201-223. DOI: 10.1515/9783110278736.201 []

„Bibliotheken: Wir öffnen Welten“ — Eindrücke vom Bibliothekartag 2014 in Bremen

Vom 3. bis 6. Juni fand in Bremen der 103. Bibliothekartag unter dem Motto „Bibliotheken: Wir öffenen Welten“ statt. Auch in diesem Jahr waren die Gespräche am Rande äusserst interessant und inspirierend und übertrafen die Vorträge in Sachen Informationsgehalt doch teilweise erheblich. Doch es gab auch Highlights unter den Beiträgen …

Es war nur eine Frage der Zeit, bis die Forderung nach Openness die Sessions erreichte. Am deutlichsten formulierte es Felix Lohmeier von SLUB Dresden. Er plädierte in diesem Vortrag für eine Positionierung der „Bibliotheken als Wächter für den (dauerhaft) freien Zugang zum Wissen“. Auf die heutige Zeit angewendet erfordert dies – so Lohmeier weiter – „eine konsequente Ausrichtung des eigenen Handelns an den Prinzipien von Open Science und Open Data“. Dem kann man eigentlich nur uneingeschränkt zustimmen!

Stand in Sachen Openness
Adrian Pohl hat einen sehr guten Überblick über den aktuellen Stand vorgestellt. In „Bibliotheken: Wir öffnen Daten. Zum Stand der Entwicklung einer offenen Dateninfrastruktur“ stellte er dar, dass schon viel erreicht wurde, aber auch, dass noch viel geschehen muss.

Postiv fiel in Bremen auf, dass immer mehr IT-basierte Projekte dazu tendieren, die Systeme als offene Infrastrukturen zu denken und aufzubauen, wobei immer mehr offene Schnittstellen (z.B. das API der Deutschen Digitalen Bibliothek oder von lobid.org) und sogar Open Source Software (z.B. die neuen Entwicklungen rund um Qucosa an der SLUB Dresden, invenio und auch wieder lobid.org) angeboten werden.

Während am Rande des Bibliothekartags zwei neue OA-Zeitschriften für die Bibliotheks- und Informationswelt gegründet wurden („Informationspraxis – Die Open Access-Zeitschrift der Fachcommunity aus Bibliothek, Archiv und Informationswesen“1 und „o-bib. Das offene Bibliotheksjournal / herausgegeben vom VDB“2) wurde in den Sessions zu Open Access deutlich, dass in anderen Bereichen Open Access schon erwachsen wird. Ein Beispiel dafür stellte Dirk Pieper in seinen Ausführungen „Open-Access-Clearing-Stelle an der Universität Bielefeld. Ein Beitrag zur Verstetigung von Publikationsfonds“ vor.

Insgesamt hat sich die Reise wieder einmal gelohnt. Wir dürfen gespannt sein, ob das diesjährige Motto bis zum nächsten Treffen der Bibliothekarinnen und Bibliothekare – vom 26. bis 29. Mai 2015 in Nürnberg – wirklich gelebt wird.

  1. Webseite der „Informationspraxis“ []
  2. o-bib, Pressemitteilung []

„In LOD we trust“ – Ein Bericht von der SWIB13

Wie die Zeit vergeht … Ich habe es endlich geschafft, auch meine Eindrücke von der SWIB 13 in Worte zu fassen. Viel Spaß damit!

In diesem Im letzten Jahr feierte die Konferenz „Semantic Web in Bibliotheken“ – kurz SWIB – in Hamburg ihren fünften Geburtstag.1
Ich hatte für mich den Schwerpunkt auf die Bereiche Datenanalyse, Linking und Distribution gelegt, da es für mich jetzt, nach der Zeit der Datenmodellierung, in die Phase der konkreten Datenerzeugung und Veröffentlichung geht.

Vorkonferenz/Workshops:
Schon bei der Anmeldung zur SWIB hatte ich die schwere Entscheidung zu treffen, welchen Workshop ich besuchen soll. Zum einen waren da die beiden Workshops zur Datenanalyse und -aufbereitung mittels Catmandu2 bzw. MetaFacture, deren Verwendung unsere Datenqualität erheblich verbessern könnten. Zum anderen war da der Workshop zum Thema Provanance Metadata, dessen Inhalte für die Publikation und Verwendung von Linked Data relevant sind.
Entschieden habe ich mich letztlich für den Workshop zu „Analysis of Library Metadata with Metafacture“ von Christoph Böhme, da die Datenanalyse und -aufbereitung der nächste notwendige Schritt vor der Veröffentlichung der Daten darstellt. Für MetaFacture habe ich mich entschieden, weil das Tool zum einen im Projekt lobid.org des hbz und zum anderen von CultureGraph verwendet wird und beide Projekte bzw. Plattformen für uns als UB Dortmund eine gewisse Relevanz haben.

MetaFacture ist ein Tool zur Analyse und Aufbereitung von Metadaten. Entwickelt wurde das Tool im Rahmen des Projekts „CultureGraph“ und setzt auf Einfachheit in der Anwendung. Es besteht dabei aus zwei Komponenten: Flux und Metamorph.
Die Idee des Werkzeugs ist, dass Daten durch sogenannte Pipes geleitet werden, dessen Module für kleine Aufgaben zuständig sind.
Das folgende Beispiel einer Flux-Datei illustriert diese Idee:

"in-file"
|open-file
|decode-pica
|morph("morph.xml")
|encode-json
|write("out-file");

Im Schritt morph wird die eigentliche Arbeit an den Daten definiert. Dazu dient eine XML-Datei, die mittels einfacher Befehle Daten manipulieren kann.

<?xml version="1.0" encoding="UTF-8"?>
 <metamorph xmlns="http://www.culturegraph.org/metamorph"
  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" 
  version="1" entityMarker=".">	
  <rules>
    <combine name="" value="${ID}, ${Lastname}, ${Firstname}, ${Birthdate}, ${Birthplace}" flushWith="record">
      <data source="_id" name="ID" />
      <data source="Firstname" />
      <data source="Lastname" />
      <data source="Birthdate" />
      <data source="Birthplace" />
    </combine>
  </rules>	
 </metamorph>

MetaFacture liefert schon ein paar Decoder und Encoder mit, sodass beispielsweise MARC-Daten einfach in Triples umgewandelt werden können.

Der Workshop hatte diese Bezeichnung wirklich verdient. Es wurde in kurzen und mit jeder Einheit inhaltlich anspruchsvolleren Abschnitten die Funktionsweise erläutert. Zwischen den Theorieabschnitten war sehr viel Zeit für praktische Übungen. Der Workshop kann daher nur als gelungen bewertet werden.

„Bringing People to Linked Data“
Der erste Tag der Hauptkonferenz startete mit einer ausgezeichneten Keynote von Dorothea Salo3.
Sie thematisierte in ihrem sehr unterhaltsamen Vortrag „Soylent SemWeb Is People! Bringing People to Linked Data“ das Verhältnis zwischen Bibliothekaren und Linked Data insbesondere aus Sicht der Ausbildung. Sie kam dabei zu dem Schluss, dass für die Akzeptanz von Linked Data in Bibliotheken dringend Anwendungen entwickelt werden müssen, um den Bibliothkaren aber auch den Entscheidern das Thema näher zubringen und die Vorteile aufzuzeigen (dies gilt insbesondere für öffentliche und „One-Person“-Bibliotheken4). Es ist für Linked Data nicht sonderlich förderlich, wenn hier die gleichen Fehler wie bei der Einführung von XML oder Institutional Repositories gemacht werden. Es wurde in ihrer Keynote nochmals sehr deutlich, dass die Sicht der Anwender der neuen Tools essentiell für den Erfolg der Produkte sind.5
In ihren Ausführungen legte Salo den Fokus bei Linked Data ganz deutlich auf die Generierung neuer Daten und nicht nur auf die Veröffentlichung von Altdaten als Linked Data.
Dorothea Salo hat es mit Ihrer Keynote geschafft, dass das folgende Progeamm der SWIB immer wieder auf dieses Forderung bezug genommen hat, wobei sich deutlich gezeigt hat, dass die geforderte Richtung bereits eingeschlagen wurde.

„From Cataloging to Catalinking“
In seinem Vortrag „Linked Data for Libraries: Great Progress, but What Is the Benefit?“ betrachtete Richard Wallis (OCLC)6 das Bibliotheksnutzerverhalten und stellte fest, dass Linked Data den Bibliotheken hilft, die Nutzerinnen und Nutzer dort zu erreichen, wo sie ihr Bedürfnis nach Informationen (zu) stillen (versuchen). Er stellte unter anderem die Frage, wie nach einem Wikipedia-Artikel gesucht wird. Nicht sonderlich überraschend ist die Antwort:

„Ich geben meinen Suchbegriff in Google ein und ergänze um den Begriff ‚wikipedia‘. Der erste Treffer ist dann das Gesuchte.“

Wenn man sich diese Aussage durch den Kopf gehen lässt, stellt man fest, dass die aktuellen Entwicklungen in den Bibliotheken rund um die Discovery Systeme nicht zukunftsweisend sind. Die Discovery Systeme in der heutigen Form sind somit maximal eine alternativlose Brückentechnologie auf dem Weg der Bibliotheken ins Web. Um so wichtiger ist die Aufgabe von Bibliotheken bzw. Bibliothearinnen und Bibliothekaren die releveanten Daten als Linked Open Data für das Semantic Web bereitzustellen, also „From Cataloging to Catalinking“.
Wallis stellte in diesem Zusammenhang die „schema.org“-Initiative7 vor, in der sich mittlerweise ein Untergruppe mit der Darstellung von bibliographischen Informationen beschäftigt.8
Die Frage nach einer möglichen Kollision mit der BIBFRAME-Initiative beantwortete Wallis mit der Feststellung, dass im Linked Data-Kontext verschiedene Modelle miteinander kollaborieren und nicht konkurieren.

Die aktuellen Entwicklungen rund um BIBFRAME wurden in der folgenden Session von Lars G. Svensson vorgestellt.9

„Decentralisation, Distribution, Disintegration“
Mit der Sicht von Richard Wallis auf bibliographische Daten ist klar, dass Linked Data ein dezentralisiertes System ist und somit eher „small data“ als „big data“. Auch Martin Malmsten stellte in seinem Beitrag „Decentralisation, Distribution, Disintegration – towards Linked Data as a First Class Citizen in Libraryland“ diesen Ansatz in den Vordergrund.

Martin Malmsten @ SWIB13

Martin Malmsten @ SWIB13

„In LOD we trust“
Der Workshop zum Thema Provanance Metadata wurde nun schon zum zweiten Mal bei der SWIB angeboten. Während der SWIB zeigte sich in vielen Bereichen, dass die Ebene der Vertrauenswürdigkeit im „Semantic Web Layer Cake“ immer mehr in den Fokus rückt.

Semantic Web Layer Cake (w3c)

Semantic Web Layer Cake (w3c)

Die beiden letztgenannten Beiträge zusammengefasst ergeben somit die Erkenntnis, dass unter der Tatsache „Linked Data = Small Data“ die Bereitstellung von „Provenance Metadata“ eine notwendige Bedingung für „Trust“ in der Linked Open Data Cloud und im Semantic Web ist.

Fazit
Die Konferenz war super 🙂 Die Entwicklung von einer lokalen zu einer internationalen Konferenz zeigt, wie wichtig das Thema „Semantic Web“ bzw. „Linked Data“ in Bibliotheken ist und das die Bibliothekswelt eine entscheidene Rolle darin spielt.

Um Entscheider und Bibliothekare für das Thema zu begeistern sind dringend konkrete Anwendungen notwendig, die die Vorteile näher bringen und nicht auf RDF-Level agieren. Allerdings handelt es sich hierbei um ein Henne-Ei-Problem: es müssen erst Modelle und Daten erzeugt werden, um erste Anwendungen zeigen zu können; es werden aber nur Ressourcen dazu geschaffen, wenn man zeigen kann, warum Linked Data wichtig und nützlich ist.

Martin Malmsten @ SWIB13

Martin Malmsten @ SWIB13

Es kann den Teilnehmern der Tagung und anderen Kolleginnen und Kollegen nicht hoch genug angerechnet werden, dass sie mit soviel Engagement und ohne große Ressourcen die Vorarbeiten leisten.

Weitere lesenswerte Tagungsberichte:

  1. Website; Twitterarchiv []
  2. Webseite des LibreCat-Projekts inkl. Backbone Catmandu []
  3. @LibSkrat, zur Person, Abstract []
  4. In öffentlichen, Museums- oder Archiv-Bibliotheken und in OPLs sind häufig sogar MARC und MAB zu „oversized“. Gerade hier kann mit neuen Systemen auf Linked Data-Basis viel erreicht werden. Der Vortrag „The ‚OpenCat‘ Prototype: Linking Public Libraries to National Datasets“ von Agnès Simon (Bibliothèque nationale de France) stellte auch genau diese Gruppe von Bibliotheken in den Fokus. []
  5. Als Beispiele nannte Salo, dass Institutional Repositories ohne die Wissenschaftler entwickelt und monierte, dass bisher Linked Data ohne die Bibliothekare stattfand, die die Daten letztlich erzeugen müssen bzw. sollten. []
  6. @rjw, zur Person, Abstract []
  7. schema.org []
  8. W3C Schema Bib Extend Community Group []
  9. Abstract []

Bestandsnachweise von Bibliotheken als Linked Data

English Version English Version

Lukas Koster formulierte in seinem Blog-Beitrag „Local library data in the new global framework“ sehr treffend:

It doesn’t really make sense if all libraries in the world publish identical metadata side by side, does it?
In essence only really unique data is worth publishing. You link to the rest.

Unter den wenigen Beispielen, in denen typische Bibliotheken unikale (Meta-)Daten als Linked Open Data veröffentlichen können, sind spezielle
Sammlungen und auch die immer wichtiger werdenden Forschungsinformationen wissenschaftlicher Einrichtungen. Eine wichtige Datenmenge, die alle Bibliotheken gemeinsam haben, ist aber tatsächlich die der Bestandsnachweise.
In Zeiten, in denen bibliographische Informationen direkt von den Verlagen in die Suchmaschinen des WWW wandern, sind die Bestandsnachweise als Quelle für vernetzte und insbesondere auch mobile Anwendungen interessantes Material.
So wundert es nicht, dass es mittlerweile mehrere Ansätze für die Beschreibung der Bestände gibt. Genannt seien hier:

Betrachtet man u.a. die bisherigen Beiträge dieses Blogs, so wurde die Flexibilität und Aussagekraft von CRM, FRBRoo und PRESSoo bereits bewiesen. Diese Beiträge haben sich bisher weitestgehend auf die Beschreibung von bibliographischen Objekten und Konzepten bezogen, wobei der Bereich des Bestandsnachweises nur kurz angerissen wurde.

Aber auch mit den Ontologien des CRM-Universums in Verbindung mit den Konzepten rund um DAIA können die Bestandsnachweise sehr gut beschrieben werden.

WEM + I im CIDOC CRM-Universum
Am Beispiel des Katalogs der UB Dortmund und des „hbz-Verbundkatalogs“3 soll zunächst gezeigt werden, wie eine zentrale Stelle identische Metadaten verschiedener Quellen — hier also konkret die Bereiche Work, Expression, Manifestation (WEM) — als Linked Data publizieren kann und die unikalen Metadaten der Items (I) durch die Lokalsysteme publiziert werden können.
Das folgende Diagramm stellt die Verlinkung der beiden Metabereiche dar. Dabei beschränkt es sich auf die wesentlichen Komponenten und setzt die Modelle aus FRBRoo — eine Anwendung voraus.

Verbund-Lokal-System

Das obige Diagramm zeigt auf der Seite der tatsächlichen Bestände nur das Konzept der F5 Item aus FRBRoo. Mit dem Erscheinen von PRESSoo gibt es auch für die Bestände von Zeitschriften ein geeignetes „Item“, nämlich Z9 Storage Unit. Auch für digitale Objekte gibt es mit der CRM-Erweiterung CRMdig eine geeignete Darstellung auf Exemplarebene.

Bestandsnachweise
Um nun die Bestandsnachweise mit dem CRM zu beschreiben, macht man sich die Eigenschaften der Eltern-Entitäten der Exemplar-Entitäten zu nutze. Es gilt:

  • F5 Item subClassOf E84 Information Carrier subClassOf E22 Man-Made Object
  • Z9 Storage Unit subClassOf E22 Man-Made Object
  • D13 Digital Information Carrier subClassOf E84 Information Carrier subClassOf E22 Man-Made Object
  • E22 Man-Made Object subClassOf E19 Physical Object subClassOf E18 Physical Thing

Üblicherweise werden solche physischen Dinge an bestimtmen Orten aufbewahrt und gegebenenfalls zugänglich gemacht. Die Aufbewahrungsorte können mit dem CRM-Konzept E27 Site beschrieben werden. Im CRM heißt es dazu:

In contrast to the purely geometric notion of E53 Place, this class describes constellations of
matter on the surface of the Earth or other celestial body, which can be represented by
photographs, paintings and maps.

Somit können Aufbewahrungsorte wie Zweigstellen, Sektionen, Abteilungen oder Magazine über E27 Site Aussagen über Zusammenhänge und Eigentumsverhältnissen zugeordnet werden. Dazu werden folgende Relationen des CRM verwendet (E27 Site subClassOf E18 Physical Thing):

  • E18 Physical Thing P46 is composed of (forms part of) E18 Physical Thing
  • E18 Physical Thing P52 has current owner (is current owner of) E39 Actor
  • E18 Physical Thing P58 has section definition (defines section) E46 Section Definition

Bestandsnachweis

Beispiel 1: The FRBR family of conceptual models

<http://data.ub.tu-dortmund.de/resource/item/20129967> [
  a frbroo:F5_Item ;
  rdfs:label "A 12726" ;
  ecrm:P52_has_current_owner <http://lobid.org/organisation/DE-290> ;				
  ecrm:P46i_forms_part_of [
	a ecrm:E27_Site ;
	ecrm:P58_has_section_definition [
		a ecrm:E46_Section_Definition ;
		rdfs:label "Second Floor"
	]  ;
	ecrm:P46i_forms_part_of [
		a ecrm:E27_Site ;
		ecrm:P58_has_section_definition [
			a ecrm:E46_Section_Definition ;
			rdfs:label "Central Library"
		] ;
		ecrm:P46i_forms_part_of [
		  a ecrm:E27_Site ;
		  ecrm:P58_has_section_definition [
			a ecrm:E46_Section_Definition ;
			rdfs:label "TU Dortmund, University Library"
		  ] ;
		] ;
	] ;
  ] ;  
] .

Das RDF beschreibt das Exemplar mit der Signatur „A 12726“, welches sich in der Zentralbibliothek der Universitätsbibliothek der TU Dortmund im zweiten Obergeschoß befindet. Die Beschreibung der Zentralbibliothek könnte beispielsweise noch um „Geoinformationen“ ergänzt werden, da es sich um einen von acht Standorten der gesamten Universitätsbibliothek handelt. Diese „Geoinformationen“ sind dann ein mit P53 has former or current location verknüpfter E53 Place.

Bei fortlaufenden Sammelwerken (F18 Serial Work) bzw. beim Spezialfall der Zeitschriften muss man zunächst die Praxis der Aufbewahrung betrachten. Die Exemplare von Zeitschriftenheften liegen — abgesehen von den aktuellsten Heften – meist als Reihe neu gebundener Einheiten vor. Diese Reihen sind in der Regel nicht näher spezifiziert, besitzen allerdings eine gemeinsame Signatur.4
Das nachstehende Diagramm zeigt, neben einem aktuellen Heft in Originalbindung, insbesondere das Ergebnis des Bindeprozesses und den Zusammenhang zur Z9 Storage Unit.
Durch die Transformation der Exemplare zu einem neuen Objekt, wird letzteres zu einem Exemplar eines neuen kumulativen Publication Work. Dieses Publication Work ist dabei ein Teil eines neuen fortlaufenden Sammelwerks in Form einer Reihe.

Items_of_Serial_Works

Der Beschreibung der Bestände verteilt sich jetzt auf zwei Objekte:

  • Die Z9 Storage Unit wird ähnlich wie das F5 Item in Beispiel 1 beschrieben.
  • Die Bestands-Chronologie wird mittels ECPO dem neu entstandenen F18 Serial Work zugeordnet.5

Im folgenden Beispiel wird der Bestandsnachweis einer Zeitschrift anhand eines Teils ihrer Z9 Storage Unit gezeigt, wobei die Chronology nicht mit aufgeführt wird.

Beispiel 2: Bibliotheksdienst
Diese Zeitschrift hat nach obigem Modell zwei Z9 Storage Unit, da Sie in zwei Standorten der Universitätsbibliothek Dortmund angeschafft wurde.

<http://data.ub.tu-dortmund.de/resource/storageunit/ZA_377> [
  a pressoo:Z9_Storage_Unit ;
  rdfs:label "ZA 377" ;
  ecrm:P52_has_current_owner <http://lobid.org/organisation/DE-290> ;	
  ecrm:P46I_forms_part_of [
	a ecrm:E27_Site ;
	ecrm:P58_has_section_definition [
		a ecrm:E46_Section_Definition ;
		rdfs:label "Basement Level 1"
	]  ;
	ecrm:P46I_forms_part_of [
		a ecrm:E27_Site ;
		ecrm:P58_has_section_definition [
			a ecrm:E46_Section_Definition ;
			rdfs:label "Central Library"
		] ;
		ecrm:P46I_forms_part_of [
		  a ecrm:E27_Site ;
		  ecrm:P58_has_section_definition [
			a ecrm:E46_Section_Definition ;
			rdfs:label "TU Dortmund, University Library"
		  ] ;
		] ;
	] ;
  ] ;  
] . 

<http://data.ub.tu-dortmund.de/resource/storageunit/Bibliotheksdienst> [
  a pressoo:Z9_Storage_Unit ;
  rdfs:label "Bibliotheksdienst" ;
  ecrm:P52_has_current_owner <http://lobid.org/organisation/DE-290> ;				
  ecrm:P46I_forms_part_of [
	a ecrm:E27_Site ;
	ecrm:P58_has_section_definition [
		a ecrm:E46_Section_Definition ;
		rdfs:label "R. 501"
	]  ;
	ecrm:P46I_forms_part_of [
		a ecrm:E27_Site ;
		ecrm:P58_has_section_definition [
			a ecrm:E46_Section_Definition ;
			rdfs:label "Bibl. Sozialforschungsstelle"
		] ;
		ecrm:P46I_forms_part_of [
		  a ecrm:E27_Site ;
		  ecrm:P58_has_section_definition [
			a ecrm:E46_Section_Definition ;
			rdfs:label "TU Dortmund, University Library"
		  ] ;
		] ;
	] ;
  ] ;  
] .

Services für die Exemplare
Bestandsnachweise sind eigentlich ohne die Angabe damit verbundener Dienste der Einrichtung in der Linked Open Data Cloud nicht viel wert. Erst durch die mit den Exemplaren verbundenen Services, wie beispielsweise der Ausleihmöglichkeit, werden Mehrwerte angeboten, die durch die bibliographische Beschreibung allein nicht darstellbar sind.

Wie schon im vorigen Beitrag bemerkt, entwickeln sich aktuell im deutschen Bibliothekswesen einige Mikroontologien rund um die Darstellung von Bibliotheksservices und bibliographischen Metadaten im Linked Data Kontext. Um die mit den tatsächlichen Beständen verbundenen Services und Status zu beschreiben, können die in diesem Rahmen entwickelten Ontologien DAIA, DSO und SSSO verwendet werden.

Das folgende Diagramm zeigt die Anbindung der Document Service Ontology an die Z9 Storage Unit mittels DAIA. Hierbei wird vorausgesetzt, dass der Document-Begriff in DSO und in DAIA auch Z9 Storage Unit berücksichtigt6

Z9-DAIA

Die zugeordneten Document Services werden mit der Simple Service Status Ontology beschreiben. Somit sind dann Aussagen wie „Das Exemplar A ist bis zum Datum X nicht ausleihbar.“ möglich.

Beispiel 3: ausleihbares Exemplar mittels daia:availableFor

<http://data.ub.tu-dortmund.de/resource/item/20129967> [
  a frbroo:F5_Item ;
  rdfs:label "A 12726" ;
  daia:availableFor [
    a dso:Loan ;
  ] ;
  ecrm:P52_has_current_owner <http://lobid.org/organisation/DE-290> ;				
  ecrm:P46I_forms_part_of [
	a ecrm:E27_Site ;
	ecrm:P58_has_section_definition [
		a ecrm:E46_Section_Definition ;
		rdfs:label "Second Floor"
	]  ;
        ...
  ] ;  
] .

Beispiel 4: Zeitschriftenbestand für die Präsenznutzung und Fernleihe

<http://data.ub.tu-dortmund.de/resource/storageunit/ZA_377> [
  a pressoo:Z9_Storage_Unit ;
  rdfs:label "ZA 377" ;
  daia:unavailableFor [
    a dso:Loan ;
  ] ;
  daia:availableFor [
    a dso:Presenation ;
  ] ;
  daia:availableFor [
    a dso:Interloan;
  ] ;
  ecrm:P52_has_current_owner <http://lobid.org/organisation/DE-290> ;	
  ecrm:P46I_forms_part_of [
	a ecrm:E27_Site ;
	ecrm:P58_has_section_definition [
		a ecrm:E46_Section_Definition ;
		rdfs:label "Basement Level 1"
	]  ;
        ...
  ] ;  
] .

Fazit
Es konnte gezeigt werden, dass ohne ein neues Vokabular und mit bereits bestehenden Ontologien ausgereifte Aussagen über Bestände gemacht werden können.
Übrigens ließen sich auch Erwerbungsinformationen durch die Modell-Familie des CIDOC CRM beschreiben. Als einfachste Variante nehme man für das Erwerbungsereignis das Konzept E8 Acquisition Event und beschreibe es mittels EDIFACT-Daten als E31 Document.

  1. Wiki der DINI-KIM-AG []
  2. EDINA is the Jisc-designated national data centre at the University of Edinburgh. []
  3. Der Katalog des Bibliotheksverbunds NRW wird vom
    Hochschulbibliothekszentrum NRW (hbz) betrieben und entsteht durch eine gemeinsame Katalogisierung der Verbundbibliotheken in ein zentrales
    Bibliothekssystem (ILS). Die in diesem System erfassten Daten werden anschließend in den Lokalsystemen repliziert. []
  4. Bei „einfachen“ Reihen oder Serien handelt es sich bei den Bänden in der Regel um Objekte in „klassischer Buchform“, die nicht in regelmäßigen Abständen zu neuen Einheiten gebunden werden. Sie werden daher aus dieser Betrachtung herausgelassen. []
  5. vgl. auch „PRESSoo und ECPO – Zwei weitere Ontologien zur Beschreibung von fortlaufenden Sammelwerken“ []
  6. In der Spezifikation zu DSO heißt es: „The set of documents is not limited to a specific class[…]“. Daher ist hier die Annahme berechtigt. Bei DAIA müsste die Spezifikation dahingehend erweitert werden, da hier nur frbr:items verwendet werden. []

PRESSoo und ECPO – Zwei weitere Ontologien zur Beschreibung von fortlaufenden Sammelwerken

Die Modellierung von fortlaufenden Sammelwerken mittels des Referenzmodells FRBR gestaltet sich schwierig. Als Gründe seien vor allem die Unvollständigkeit von fortlaufenden Sammelwerken und die Heterogenität der in fortlaufenden Sammelwerken enthaltenen Manifestationen genannt.

Unvollständigkeit von fortlaufenden Sammelwerken
In den FRBR ist festgelegt, dass eine Manifestation in dem Sinn abgeschlossen sein muss, dass man ein Exemplar kaufen und ins Regal stellen kann. Bei fortlaufenden Sammelwerken ist das nicht möglich, solange es weitere Hefte und Jahrgänge im Fall von Zeitschriften oder Bände im Fall von Reihen oder Serien gibt.

Heterogenität der in fortlaufenden Sammelwerken enthaltenen Manifestationen
Teile einer Buchreihe können in einer weiteren Auflage in einer anderen Reihe oder selbständig veröffentlicht werden; Zeitschriftenhefte können als Themenhefte wiederum als Buch veröffentlicht werden.

Denkt man die Werke eher vom Inhalt und weniger von der physikalischen Erscheinungsform, so lassen sich diese Probleme in der bibliographischen Beschreibung umgehen. Mittels FRBRoo ist genau dieser Ansatz möglich (siehe z.B. in FRBRoo — eine Anwendung oder FRBR, Serials und CIDOC CRM).

Fortlaufende Sammelwerke und insbesondere Zeitschriften sind allerdings noch wesentlich komplexer in der bibliographischen Beschreibung, da auch historische Zusammenhänge erfasst werden müssen. Zwar lassen sich diese Informationen auch mit FRBRoo modellieren, jedoch nur sehr abstrakt und umständlich.

PRESSoo
Im März 2013 ist nahezu unbemerkt eine erste Version einer Erweiterung der FRBRoo für fortlaufende Sammelwerke erschienen. Die Erweiterung nennt sich PRESSoo (Version 0.1) und betrachtet neben einer groben Darstellung der Zusammenhänge der bibliographischen Einheiten insbesondere die Veränderungen im Laufe des Lebens eines solchen Werkes.

Dadurch lassen sich folgende Transformationen modellieren:

  • Fortsetzungen (z.B. Titeländerungen)
  • Ersetzungen (Fortsetzung mit neuer Erscheinungsweise)
  • Aufgehen eines fortlaufendes Sammelwerks in ein anderes
  • Abspalten eines Teils zu einem neuen fortlaufenden Sammelwerk
  • Zusammenführen von mehreren fortlaufenden Sammelwerken
  • Aufteilen eines fortlaufendes Sammelwerks in mehrere Neue

Zusätzlich lassen sich auch temporäre Veränderungen modellieren.

Für Fortsetzungen wird der Prozesss in PRESSoo mittels einer neuen Ereignis-Entität Z1 Serial Transformation modelliert. Diese Ereignisse stehen in natürlicher Beziehung zu den letzten F30 Publication Events des Vorgängerwerkes bzw. zu den ersten F30 Publication Events des Nachfolgewerkes. Dabei werden diese F30 Publication Events mittels Z6 Starting of Publication und Z7 Ending of Publication präzisiert.

PRESSoo-Figure-4

Beispiel 1:
Förderschulmagazin : individuelle Förderung von Kindern mit Lernschwierigkeiten
früher: Sonderschulmagazin : Compacts, Arbeitsvorlagen, Verfahren, Formen, Techniken für d. Unterrichtspraxis
früher: Ehrenwirth-Sonderschulmagazin : Zeitschr. für d. Unterrichtspraxis

PRESSoo-Beispiel-1

PRESSoo-Beispiel-1b

<http://ld.zdb-services.de/resource/800272-1> [
  a frbroo:F18_Serial_Work ;
  rdaGr1:preferredTitleForTheWork "Ehrenwirth-Sonderschulmagazin : Zeitschr. für d. Unterrichtspraxis" ;
  pressoo:Y1i_was_continued_through [
    a pressoo:Z1_Serial_Transformation ;
	pressoo:Y2_initiated_as_continuation <http://ld.zdb-services.de/resource/798053-x> ;
  ] ;
  pressoo:Y29_evolved_to <http://ld.zdb-services.de/resource/798053-x> ;
] .

<http://ld.zdb-services.de/resource/798053-x> [
  a frbroo:F18_Serial_Work;
  rdaGr1:preferredTitleForTheWork "Sonderschulmagazin : Compacts, Arbeitsvorlagen, Verfahren, Formen, Techniken für d. Unterrichtspraxis" ;
  pressoo:Y1i_was_continued_through [
    a pressoo:Z1_Serial_Transformation ;
	pressoo:Y2_initiated_as_continuation <http://ld.zdb-services.de/resource/1217829-9> ;
  ] ;
  pressoo:Y29_evolved_to <http://ld.zdb-services.de/resource/1217829-9> ;
] .

<http://ld.zdb-services.de/resource/1217829-9> [
  a frbroo:F18_Serial_Work;
  rdaGr1:preferredTitleForTheWork "Förderschulmagazin : individuelle Förderung von Kindern mit Lernschwierigkeiten" ;
] .

PRESSoo ermöglicht neben den diversen Transformationen auch die Modellierung von Faksimiles, Digitalisierungen1 und sogar kumulierten Fassungen. Die Modellierung von Kumulationen kann bespielsweise für die Bindeeinheiten in Bibliotheksbeständen herangezogen werden. Dabei wird dann das zugehörige F30 Publication Event durch die Buchbinderei durchgeführt.

Beschreibung der Entität Z12 Issuing rule
Im deutschen Bibliothekswesen entwickeln sich derzeit einige Mikroontologien rund um die Darstellung von Bibliotheksservices und bibliographischen Metadaten im Linked Data Kontext. Als Beispiele seien hier DAIA, PAIA, DSO, SSSO, MWO und ECPO genannt. Letztere stellt eine Ontologie zur Beschreibung von Erscheinungsweisen und Bestandsverläufen bei fortlaufenden Sammelwerken dar.2 Somit lassen sich also Entitäten Z12 Issuing Rule aus PRESSoo mit Hilfe von ECPO beschreiben.

Beispiel 2: CCQ – Cataloging & classification quarterly
Erscheinungsverlauf nach ZDB: 1.1980/82; 2.1982; 3.1982/83 –

<http://ld.zdb-services.de/resource/801602-1> [
  a frbroo:F18_Serial_Work;
  rdaGr1:preferredTitleForTheWork "Cataloging & classification quarterly" ;
  pressoo:Y38_has_current_issuing_rule [
    a ecpo:CurrentChronology, pressoo:Z12_Issuing_Rule ;
    dct:hasPart [
      a ecpo:Chronology, pressoo:Z12_Issuing_Rule ;
      ecpo:hasItemizedVolumeNumbering "1" ;
      ecpo:hasItemizedTemporal "1980/82" ;
    ];
    dct:hasPart [
      a ecpo:Chronology, pressoo:Z12_Issuing_Rule ;
      ecpo:hasItemizedVolumeNumbering "2" ;
      ecpo:hasItemizeTemporal "1982" ;
    ];
    dct:hasPart [
      a ecpo:CurrentChronology, pressoo:Z12_Issuing_Rule ;
      ecpo:hasBeginVolumeNumbering "3" ;
      ecpo:hasBeginTemporal "1982/83" ;
    ];
  ];
] .

Fazit
Mit den beiden hier beschriebenen Ontologien ließe sich die deutsche Zeitschriftendatenbank (ZDB) CIDOC CRM-kompatibel als Linked Data veröffentlichen und würde so eine integrierte Verwendung im gesamten Bereich des kulturellen Erbes ermöglichen.

  1. Hier kommt auch die CIDOC CRM-Erweiterung CRMdig zum Einsatz. []
  2. Die Ontologie geht davon aus, dass auch von Zeitschriften Exemplare exisitieren („An Agent always holds a copy of a document called item.“). Im Sinne der FRBR ist das allerdings so nicht korrekt und gilt nur in dem Fall, dass ein fortlaufendes Sammelwerk sein Erscheinen eingestellt hat. Mit PRESSoo wurde daher eine Entität Z9 Storage Unit eingeführt, die die Bestände von z.B. Bibliotheken beschreibt. ECPO ist allerdings so definiert (es wird keine Aussage zur Domain bei den zentralen Relationen gemacht), dass die Konzepte auch für F18 Serial Work anwendbar sind. []

CRMdig und CRMgeo — zwei Erweiterungen für das CIDOC CRM

Über die Rolle und Mächtigkeit des CIDOC CRM für die Beschreibung von Zusammenhängen im Bereich des kulturellen Erbes habe ich u.a. im Beitrag FRBRoo — eine Anwendung geschrieben und gezeigt, dass auch bibliographische Zusammenhänge mittels der Erweiterung FRBRoo sehr gut darstellbar sind.
Doch es gibt auch noch offene bzw. nur unzureichend modellierte Fragestellungen. Zum einen ist die Ausgestaltung des Bereichs der Geoinformationen überraschend überschaubar. Zum anderen ist auch die wichtige Frage der Provenienz im Hauptmodell nicht weit genug gefasst.
Um die beiden Lücken zu schließen, wurden CRMdig („A generic digital provenance model for scientific observation“) und CRMgeo („A spatio-temporal refinement of the CIDOC CRM Model“) als Erweiterungen für das CRM entwickelt.

Informationen zur Provenienz im CRM

Wie seinerzeit auch im DFG-Projekt „ArcheoInf“ gesehen, macht eine Veröffentlichung von Forschungsdaten keinen Sinn, wenn diese nicht verstanden werden können. Um die Daten verstehen zu können sind Informationen zur inhaltlichen Bedeutung und zu den Umständen der Entstehung der Daten notwendig, also Angaben zur Provenienz. Die W3C Provenance Incubator Group schreibt dazu: „Provenance of a resource is a record that describes entities and processes involved in producing and delivering or otherwise influencing that resource.“
Was beduetet das nun im im Einzelnen? Welche Informationen müssen erfasst werden?
In ihrem auf der TaPP-Konferenz 2011 vorgestellten Papier „CRMdig: A generic digital provenance model for scientific observation“ beschreiben Doerr und Theodoridou fünf zu beantwortende Frage:

  • WER: Personen und Insitutionen, die bei der Entstehung der Daten beteiligt waren
  • WO: Orte, an denen die Daten entstanden sind
  • WANN: zeitliche Angaben zur Entstehung der Daten
  • WAS: Dinge, die in dem Prozess eine Rolle spielen
  • WIE: Beschreibung des Prozesses und der eventuell verwendeten Technik

Das folgende Bild zeigt das Netz von Objekten und Prozessen für zwei Digitaliserungsereignisse und die darauf folgenden Verarbeitungsschritte. Bei der Digitaliserung wurden zwei verschiedene Techniken verwendet, die letztlich zwei 3D Modelle des Objektes erzeugen.

Digitalisierung eines Objektes

Digitalisierung eines Objektes durch zwei Prozesse

Das CRMdig stellt bei der Beschreibung die Entität Digital Machine Event in den Mittelpunkt und geht davon aus, dass jedes dieser Ereignisse durch eine menschliche Person angestoßen wird. Das folgende Diagramm zeigt die Modellierung in der üblichen CRM-Manier, wobei hier die Entitäten mit einem vorangestellten D und die Eigenschaften mit einem vorangestellten L bezeichnet werden.

Erzeugen eines Objektes durch maschinelle Prozesse

Erzeugen eines Objektes durch maschinelle Prozesse

Für die Anwendung im Kontext von Linked Data wird auch eine RDFS-Version angeboten.

Geoinformationen im CRM

Die wachsenden Möglichkeiten des (Mobile) Webs wecken auch die Bedürfnisse nach Anreicherungen von Informationen des kulturellen Erbes, um präzise und gut identifizerbare Beschreibungen von Örtlichkeiten, Landschaften oder historischen Ereignissen oder Überbleibseln anzubeiten. Für die Beschreibung solcher Gegebenheiten gibt es auf der einen Seite die Geoinformationssysteme (GIS), die eher geschlossene Systeme darstellen und für die Vermessung und Repräsentation von kulturhistorischen und archäologischen Erscheinungen aber auch für Anwendungen anderer Geowissenschaften verwendet werden. Auf der anderen Seite sind Archive, Bibliotheken und Museen bemüht, detailierte Metadaten über physikalische und konzeptionelle Objekte zu erfassen, wobei Sie zwar stark auf Typologien, individuelle Objekte, Personen und Ereignisse sowie präzisen Datums- und Zeitraumangaben achten, aber wenig reichhaltige Ortsangaben verwenden.
Diese Praxis stößt sehr schnell an ihre Grenzen, wenn nun versucht wird, die Beschreibungen aus den Archiven, Bibliotheken und Musseen mit Stadtplänen o.ä. zu verbinden. Aussagen wie „Die Leute wissen schon wo Parthenon liegt.“ oder „Du wirst es sehen, wenn Du in Athen bist.“ sind im Bereich der Informationssysteme nicht wirklich hilfreich.
Beide Bereiche verfügen aber bereits über etablierte Standards zur Beschreibung von solchen Sachverhalten: im Bereich der Geowissenschaften ist dies der OGC/ISO Standard und im Bereich Archive, Bibliotheken und Museen ist es der ISO-Standard CIDOC CRM. Allerdings unterscheiden sich dabei die Sichtweisen und lassen sich zudem auch nicht so richtig in Einklang bringen.

Diese Erkenntnis hat man beim ICS-FORTH (Institute of Comupter Science, Foundation for Research and Technology, Griechenland) dazu genutzt, um diese Lücke zu schließen. Herausgekommen ist mit CRMgeo eine Erweiterung des CIDOC CRM. Die Idee dabei ist, dass Fragen wie „Ist das der Ort, an der die Varus Schlacht stattgefunden hat?“ oder „Ist das der Ort, an dem Lord Nelson starb?“ auf ihren Wahrheitsgehalt überprüft werden können. Es wird schnell klar, dass – wie im Beispiel der Varusschlacht – auch ungenaue Informationen bzw. – wie im Fall Lord Nelson – auch verschiedene Sichten auf einen Ortskontext berücksichtigt werden müssen.

Zentrale Ereignisse in der Diskussion um die Varausschlacht

Zentrale Ereignisse in der Diskussion um die Varausschlacht

Ereignisse der Trafalgar Schlacht aus Sicht des Schiffs und des Meeresgrunds

Ereignisse der Schlacht von Trafalgar aus Sicht des Schiffs und des Meeresgrunds

Der Report zu CRMgeo zeigt an den beiden genannten Beispielen die Zusammenhänge und die Mächtigkeit des Modells und erweitert das CRM so um eine weitere wichtige Komponente.

„Wissenswelten neu gestalten“ — Eindrücke vom 5. BID-Kongress in Leipzig

Vom 11. bis 14. März fand in Leipzig der 5. Bibliothekskongress unter dem Motto „Wissenswelten neu gestalten“ statt. Neben den wie immer äußerst interessanten Randgesprächen, habe ich mich in diesem Jahr den Themenfeldern „Forschungsdokumentation“, „Zukunft der Verbünde“ und „neue Wege in der Erschließung“ gewidmet.

Die Rolle der Bibliotheken bei der Forschungsdokumentation
Jede wissenschaftliche Einrichtung stellt an sich den Anspruch, nach den Regeln guter wissenschaftlicher Praxis zu arbeiten. Hierzu heißt es beispielweise in den Regeln für die TU Dortmund:

Hierzu gehört es, lege artis zu arbeiten, korrekte Angaben zu machen, geistiges Eigentum anderer zu achten sowie andere in ihrer Forschungstätigkeit nicht zu beeinträchtigen. […]
Im Zusammenhang der Veröffentlichung schließt dies insbesondere Folgendes ein:
– Die nachvollziehbare Beschreibung der angewandten Methoden,
– die vollständige Dokumentation aller im Forschungsprozess erhobenen und für die Veröffentlichung relevanten Daten,
– eine nachprüfbare Darstellung der Forschungsergebnisse […]

Neben dieser grundlegenden Motivation für die Forschungsdokumentation müssen Wissenschaftlerinnen und Wissenschaftler immer wieder für verschiedenste Zwecke ihre Forschungsaktivitäten neu erfassen und dokumentieren. Genannt seien hier beispielhaft Akkreditierungen, externe Evaluationen, aber auch bei der Beantragung von Projekten, Sonderforschungsbereichen und Exzellenz-Clustern. Wie wichtig ein einheitliches Vorgehen bei der Forschungsdokumentation ist, zeigt auch das vor wenigen Wochen veröffentlichte Papier „Empfehlungen zu einem
Kerndatensatz Forschung
“ des Wissenschaftsrates.
Seit Jahren unterstützen Bibliotheken einen Teilaspekt der Forschungsdokumentation durch die Bereitstellung von institutionellen Repositorien für die Veröffentlichung von Dokumenten.
Allerdings ist bekannt, dass eine weitreichende Nutzung durch die Wissenschaftlerinnen und Wissenschaftler in den meisten Fällen bisher nicht zu beobachten ist. Die Session „Quo vadis Repositorien in Deutschland?“ – veranstaltet von der DINI-AG Elektronisches Publizieren (12.03.2013 13:30-17:30) – ging daher der Frage nach, wohin die Reise mit den institutionellen Repositorien geht.
Nach der Vorstellung weiterer Ergebnisse aus dem „Census der Open Access Repositorien in Deutschland 2012“ (erste ernüchternde Ergebnisse wurden bereits auf der InetBib-Tagung in Berlin vorgestellt), wurde durch weitere Impulsreferate der Trend erkennbar, dass institutionelle Repositorien immer häufiger als für sich stehende Systeme abgelöst werden und viel mehr als Teil einer Plattform zur Forschungsdokumentation eingesetzt werden. So wurden Systeme gezeigt, die als Bibliographien die Publikationsleistungen der Wissenschaftlerinnen und Wissenschaftler einer Einrichtung möglichst vollständig dokumentieren und das Repositorium im Hintergrund „nur noch“ die zugehörigen Dokumente liefert. Rund um diese Bibliographien lassen sich wesentlich leichter Mehrwertdienste anbieten, die den Forschenden u.a. bei der Zusammenstellung von Publikationslisten für die verschiedensten Anwendungszenarien unter die Arme greifen.
In der Session „Forschungsdaten sammeln und strukturieren“ (12.03.2013 09:00-12:00) wurde der Trend zu allumfassenden Plattformen zur Forschungsdokumentation ebenfalls sichtbar, wobei hier noch der Aspekt der Sammlung und Aufbewahrung von Forschungsdaten hinzukam.

Was die Rolle von wissenschaftlichen Bibliotheken beim Aufbau von virtuellen Forschungsumgebungen angeht, gibt es verschiedene Ansichten. Doch davon unabhängig, ist das Thema Forschungsdaten und deren Infrastrukturen sehr relevant für die tägliche Arbeit.
Den Bibliotheken fällt – insbesondere durch die Fachreferentinnen und Fachreferenten – die Rolle zu, als Ansprechpartner und Berater für die Wissenschaftlerinnen und Wissenschaftler zu fungieren. Fragen nach geeigneten Metadaten für Forschungsdaten und zu für das Fachgebiet geeigneten Repositorien sowie virtuellen Forschungsumgebungen werden im Alltag immer häufiger gestellt. Dabei sehen die Forschenden die Bibliotheken als genau die richtigen Ansprechpartner an, da diese sich seit jeher mit Metadaten beschäftigen und durch den Betrieb von institutionellen Repositorien in der Regel auch Publikations- und Archivierungsservices für Dokumente bereithalten.
Es verwundert daher nicht, dass das Thema Forschungsdaten einen wichtigen Teil im Programm des Bibliothekskongresses in Leipzig bildete. Ein aus meiner Sicht sehr wichtiger Beitrag wurde durch die Session „Forschungsdaten-Repositorien – Infrastrukturen zur dauerhaften Zugänglichkeit von Forschungsdaten“ am Montagmorgen (11.03.2013 09:00-11:30 ) geliefert.
Die Session gab eine Einführung in das Themenfeld und stellte Typen und Entwicklungen der heterogenen Landschaft der Forschungsdaten-Repositorien vor. Weiterhin wurden Stand und Entwicklung des von der DFG geförderten Projektes re3data.org vorgestellt und diskutiert. Das Projekt verfolgt das Ziel, Forschungsdaten-Repositorien in einem web-basierten Verzeichnis zu erschließen und so eine Orientierung über bestehende Datensammlungen zu bieten.
Am Beispiel der Aktivitäten der Humboldt-Universität zu Berlin stellte Elena Simukovic heraus, dass es für eine gute Forschungsdokumentation einer Kooperation zwischen dem Hochschulreferat für Forschung, der Bibliothek, dem Rechenzentrum und des jeweiligen Fachbereichs bedarf. Ferner sollte sich die Einrichtung ein Bild darüber verschaffen, wie sich die Wissenschaftlerinnen und Wissenschaftler über die Fachgebiete verteilen. Daraus können dann Schlussfolgerungen in Bezug auf die Notwendigkeit von eigenen institutionellen Forschungsdateninfrastrukturen gezogen werden. Denn eines dürfte schnell klar werden: eine allumfassende Versorgung bei der Sammlung und Archivierung von Forschungsdaten durch eine Universität ist kaum realisierbar. Diese Entwicklung zeigte auch Jana Porsche vom IST Austria in der Session „Forschungsdaten sammeln und strukturieren“ auf.

Es lässt sich resümieren, dass das Thema Forschungsdaten und virtuelle Forschungsumgebungen auf jeden Fall für wissenschaftliche Bibliotheken relevant ist. In welcher Form – ob eher beratend oder sogar als Infrastruktur – ist sicherlich von der jeweiligen Einrichtung anhängig.

Neue Wege der Erschließung
Neben Vorträgen rund um die Entwicklungen zum neuen Katalogisierungsregelwerk RDA (Resource, Description and Access) gab es auch Vorträge zu automatischen Erschließungsverfahren. Ich möchte hier den Workshop „Anwendung von Clustering-Verfahren zur Verbesserung und Analyse von Katalogdaten“ (13.03.2013 09:00-12:00) hervorheben. In diesem Workshop wurde anschaulich dargestellt, welche neuen Möglichkeiten die als Open Data veröffentlichten bibliographischen Metadaten in Bezug auf die Anreicherung und Korrektur derselbigen bieten. Als Beispiele wurden u.a. Statistiken und Analysen zur Verwendung von RSWK/RVK, der Aufbau von Konkordanzen zwischen Klassifikationssystemen oder die teilautomatische Normierung von bisher als Freitext erfasster Informationen genannt. Solche Verfahren werden mit der stetig wachsenden Verbreitung der Discovery Services bzw. der dahinter liegenden großen Indizes immer wichtiger, da diese Daten häufig weder normiert noch sachlich erschlossen sind.
In der Veranstaltung blieb es aber nicht nur bei Lippenbekenntnissen, sondern es wurde auch ein Open Source-Framework zur Verarbeitung von großen Metadatenmengen vorgestellt. Die Software Metafacture wurde im Rahmen des Projektes CultureGraph entwickelt und stellt ein niederschwelliges Framework zur Metadatenanalyse und Konvertierung dar.

Zukunft der Verbünde
Die Entscheidung über die Vergabe der DFG-Mittel zur Neuausrichtung überregionaler Informationsservices und insbesondere die Entscheidung, welche Richtung die Bibliotheksdateninfrastruktur und die lokalen Bibliothekssysteme (Ausschreibung „Themenfeld 1“) einschlagen sollen, sorgte doch an einigen Stellen für Diskussionen und sogar ein gewisses Knistern war zu vernehmen. Es konkurrierten hier zwei Ansätze, die unterschiedlicher kaum sein konnten. Beide Ansätze wurden in der Session „Die Bibliotheksverbünde auf dem Weg in die Zukunft – Serviceleistungen und Dienste für Bibliotheken“ vorgestellt (13.03.2013 13:30-15:30) und teils kontrovers diskutiert.
Wer nun gewonnen hat, kann auf den Seiten der DFG nachgelesen werden. Ich enthalte mich jetzt hier weiterer Kommentare …

Weitere Informationen:
Empfehlungen zu einem Kerndatensatz Forschung des Wissenschaftsrates
Pressemitteilung der DINI zu den „Empfehlungen zu einem Kerndatensatz Forschung“
Beiträge BID 2013 im Opus-Server

FRBRoo und fortlaufende Sammelwerke

Bei der Definition der FRBRoo wurde darauf geachtet, dass die Begrifflichkeiten der ursprünglichen Functional Requirements for Bibliographic Records noch präzisiert werden. Diese begriffliche Abklärung ergibt sich in vielen Fällen aus der Darstellung der bibliographischen Information als Prozess. Als ein Beispiel wurde in FRBRoo — eine Anwendung schon die Klasse Work mit ihren präzisierenden Unterklassen dargestellt. Insbesondere wurde mit der Klasse F18 Serial Work eine Möglichkeit geschaffen, die Unklarheiten zu Serials, also den fortlaufenden Sammelwerken, in den FRBR zu beseitigen. In den FRBR ist eindeutig beschrieben, dass eine Manifestation in dem Sinn abgeschlossen sein muss, dass man ein Exemplar kaufen und ins Regal stellen kann. Bei fortlaufenden Sammelwerken ist das nicht möglich, solange es weitere Bände –- beispielsweise in Form von Jahrgängen und Heften -– gibt. In FRBRoo heißt es dazu:

This class comprises works that are, or have been, planned to result in sequences of manifestations with common features. Whereas a work can acquire new members over the time it evolves Expressions and Manifestations are identified with a certain state achieved at a particular point in time. Therefore there is in general no single expression or manifestation representing a complete serial work, unless the serial work is ended. […] Serial Works may or may not have a plan for an overall expression.

Es ist zu beachten, dass FRBRoo keine Unterscheidung zwischen Serien und Reihen bzw. Periodika macht, da der Unterschied „nur“ in der Art der Erscheinungsweise liegt und dies über andere Mechanismen modellierbar ist. Somit ergeben sich zwei Fälle:

  • fortlaufende Sammelwerke mit eingebetteten mehrbändigen Werken und
  • fortlaufende Sammelwerke ohne eingebettete mehrbändige Werke

Zu Ersteren zählen beispielsweise Zeitschriften mit Jahrgangzählung.

Fortlaufende Sammelwerke mit eingebetteten mehrbändigen Werken

Nachdem, was in dieser Beitragsreihe bisher gezeigt wurde, lässt sich ein mehrbändiges Werk innerhalb eines fortlaufenden Sammelwerks als F15 Complex Work beschreiben. Dass dies auch im Falle von Periodika gilt, in dem die Jahrgänge in der Regel Fortsetzungswerke sind, wird auch durch folgendes Zitat aus der Definition zu F15 Complex Work deutlich: „One part may not be finished when another is already revised.“
Die Komponente des unbestimmten Endes eines fortlaufenden Sammelwerks entsteht also bei der Einbindung der Complex Works der Mehrbänder in das Serial Work. In der folgenden Abbildung wird das F15 Complex Work zum Publikationsprozess dann noch zusätzlich um die Struktur des F18 Serial Work erweitert.

HGB_F18

Fortlaufende Sammelwerke ohne eingebettete mehrbändige Werke

Die letzte Abbildung zeigt auch, wie sich dieser Fall aus den vorherigen Modellen herleiten lässt. Da es sich hier um Einzelwerke und Sammelwerke handelt, die in einer Reihe erschienen sind, werden die Individual Works und somit auch die Aggregation Works als member eines Serial Work definiert.

Beispiel für fortlaufende Sammelwerke

Und nun?

In dieser Beitragsreihe habe ich gezeigt, dass man mittels FRBRoo bibliographische Daten als Linked Data darstellen kann. Ich hoffe, dass ich ebenfalls zeigen konnte, dass man vor den FRBRoo keine Angst haben muss 😉

Eines sollte man bei der Betrachtung solcher Modelle immer im Hinterkopf haben: Bibliographische Metadaten müssen nicht in dieser Form katalogisiert werden, sie werden lediglich so gespeichert!
Wir müssen uns im Bibliothekswesen von dem Gedanken verabschieden, dass wir die Datenfelder in den Formaten als MAB/MARC-Feld-Wert-Paare und deren Unterfeldern erfassen müssen, wie es in den einschlägigen integrierten Bibliothekssystemen derzeit der Fall ist.
Es sollten vielmehr Erfassungssysteme entwickelt werden, die eine semantisch reichhaltige Verknüpfung zu Daten aus der Linked Open Data Cloud zulassen und die wenigen noch übrig bleibenden Zeichenketten und Zahlen in einfachen Formularen erfassen. Die semantischen Netze der Datenmodelle, wie sie die FRBRoo darstellen, werden im Hintergrund und vom (bibliothekarischen) Nutzer verborgen angelegt.

Beispiele: FRBRoo und fortlaufende Sammelwerke

Beispiele für FRBRoo und fortlaufende Sammelwerke

Nachrichten für Dokumentation in Technik und Wissenschaft, Wirtschaft und Verwaltung. (Hauptsachtitel)

  • Nachrichten für Dokumentation : nfd ; Zeitschrift für Informationswissenschaft und -praxis ; Mitteilungsblatt des Normenausschusses Bibliotheks- und Dokumentationswesen im DIN, Deutsches Institut für Normung e.V., des VDD – Berufsverband Information, Dokumentation, Kommunikation e.V. und der Arbeitsgemeinschaft der Spezialbibliotheken (ASpB) / hrsg. von d. Deutschen Gesellschaft für Dokumentation e.V., Frankfurt am Main / Deutsche Gesellschaft für Dokumentation, Informationszentrum für Informationswissenschaft und -praxis .
    1.1950 – 48.1997,4. : Darmstadt : Hoppenstedt (Frankfurt, M. : Dt. Ges. für Dokumentation [1950-1973], Pullach bei München : Verl. Dokumentation [1974-1977], München [u.a.] : Saur [1978-1986], Weinheim : VCH [1987-1991]).
    ZDB-ID: 206965-9
  • Nfd : Information – Wissenschaft und Praxis ; Mitteilungsblatt des Normenausschusses Bibliotheks- und Dokumentationswesen im DIN, Deutsches Institut für Normung e.V. und der Arbeitsgemeinschaft der Spezialbibliotheken (ASpB) / hrsg. von der Deutschen Gesellschaft für Informationswissenschaft und Informationspraxis e.V. /
    Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis.
    48.1997,5 – 52.2001 : Frankfurt, M. : Gesellschaft (Heidelberg : Heidelberger Verl.-Anst. u. Dr. [1997,5]).
    ZDB-ID: 1399316-1.

Neben zahlreichen Verlagswechseln, kommen bei diesem fortlaufenden Sammelwerk mit eingebetteten mehrbändigen Werken noch einige Titeländerungen und Änderungen bei der herausgebenden Körperschaft hinzu. In der folgenden Abbildungen werden daher nur ein paar Änderungen verdeutlicht.

Beispiel Serial Work für eine Zeitschrift

Zu beachten ist, dass die Änderungen sämtlichst auf der Ebene der Zeitschriftenhefte erfasst wird, da die Zeitschrift ansich (das F18 Serial Work) keine eigene Manifestation besitzt.
Die Erfassung der Titeländerungen für die Zeitschrift können zusätzlich über Teilereignisse des F30 Publication Event des zugehörigen Heftes abgebildet werden. Diese Teilereignisse sind mittels CRM als E13 Attribute Assignment darstellbar und bilden den Prozess der Titelvergabe für das F18 Serial Work ab. Mit Hilfe von Vorgänger- und Nachfolgerrelationen der Ereignisse ist es dann möglich, dem fortlaufenden Sammelwerk den aktuellen Titel zuzuweisen („E13 Attribute Assignment enthält keine Eigenschft P120 occours before„).

Beispiel Serial Work Zeitschrift Titeländerung

Mögliche RDF-Darstellung

siehe / see: example5.ttl