“Bibliotheken: Wir öffnen Welten” — Eindrücke vom Bibliothekartag 2014 in Bremen

Vom 3. bis 6. Juni fand in Bremen der 103. Bibliothekartag unter dem Motto “Bibliotheken: Wir öffenen Welten” statt. Auch in diesem Jahr waren die Gespräche am Rande äusserst interessant und inspirierend und übertrafen die Vorträge in Sachen Informationsgehalt doch teilweise erheblich. Doch es gab auch Highlights unter den Beiträgen …

Es war nur eine Frage der Zeit, bis die Forderung nach Openness die Sessions erreichte. Am deutlichsten formulierte es Felix Lohmeier von SLUB Dresden. Er plädierte in diesem Vortrag für eine Positionierung der “Bibliotheken als Wächter für den (dauerhaft) freien Zugang zum Wissen”. Auf die heutige Zeit angewendet erfordert dies – so Lohmeier weiter – “eine konsequente Ausrichtung des eigenen Handelns an den Prinzipien von Open Science und Open Data”. Dem kann man eigentlich nur uneingeschränkt zustimmen!

Stand in Sachen Openness
Adrian Pohl hat einen sehr guten Überblick über den aktuellen Stand vorgestellt. In “Bibliotheken: Wir öffnen Daten. Zum Stand der Entwicklung einer offenen Dateninfrastruktur” stellte er dar, dass schon viel erreicht wurde, aber auch, dass noch viel geschehen muss.

Postiv fiel in Bremen auf, dass immer mehr IT-basierte Projekte dazu tendieren, die Systeme als offene Infrastrukturen zu denken und aufzubauen, wobei immer mehr offene Schnittstellen (z.B. das API der Deutschen Digitalen Bibliothek oder von lobid.org) und sogar Open Source Software (z.B. die neuen Entwicklungen rund um Qucosa an der SLUB Dresden, invenio und auch wieder lobid.org) angeboten werden.

Während am Rande des Bibliothekartags zwei neue OA-Zeitschriften für die Bibliotheks- und Informationswelt gegründet wurden (“Informationspraxis – Die Open Access-Zeitschrift der Fachcommunity aus Bibliothek, Archiv und Informationswesen” ((Webseite der “Informationspraxis”)) und “o-bib. Das offene Bibliotheksjournal / herausgegeben vom VDB” ((o-bib, Pressemitteilung))) wurde in den Sessions zu Open Access deutlich, dass in anderen Bereichen Open Access schon erwachsen wird. Ein Beispiel dafür stellte Dirk Pieper in seinen Ausführungen “Open-Access-Clearing-Stelle an der Universität Bielefeld. Ein Beitrag zur Verstetigung von Publikationsfonds” vor.

Insgesamt hat sich die Reise wieder einmal gelohnt. Wir dürfen gespannt sein, ob das diesjährige Motto bis zum nächsten Treffen der Bibliothekarinnen und Bibliothekare – vom 26. bis 29. Mai 2015 in Nürnberg – wirklich gelebt wird.

“In LOD we trust” – Ein Bericht von der SWIB13

Wie die Zeit vergeht … Ich habe es endlich geschafft, auch meine Eindrücke von der SWIB 13 in Worte zu fassen. Viel Spaß damit!

In diesem Im letzten Jahr feierte die Konferenz “Semantic Web in Bibliotheken” – kurz SWIB – in Hamburg ihren fünften Geburtstag. ((Website; Twitterarchiv))
Ich hatte für mich den Schwerpunkt auf die Bereiche Datenanalyse, Linking und Distribution gelegt, da es für mich jetzt, nach der Zeit der Datenmodellierung, in die Phase der konkreten Datenerzeugung und Veröffentlichung geht.

Vorkonferenz/Workshops:
Schon bei der Anmeldung zur SWIB hatte ich die schwere Entscheidung zu treffen, welchen Workshop ich besuchen soll. Zum einen waren da die beiden Workshops zur Datenanalyse und -aufbereitung mittels Catmandu ((Webseite des LibreCat-Projekts inkl. Backbone Catmandu)) bzw. MetaFacture, deren Verwendung unsere Datenqualität erheblich verbessern könnten. Zum anderen war da der Workshop zum Thema Provanance Metadata, dessen Inhalte für die Publikation und Verwendung von Linked Data relevant sind.
Entschieden habe ich mich letztlich für den Workshop zu “Analysis of Library Metadata with Metafacture” von Christoph Böhme, da die Datenanalyse und -aufbereitung der nächste notwendige Schritt vor der Veröffentlichung der Daten darstellt. Für MetaFacture habe ich mich entschieden, weil das Tool zum einen im Projekt lobid.org des hbz und zum anderen von CultureGraph verwendet wird und beide Projekte bzw. Plattformen für uns als UB Dortmund eine gewisse Relevanz haben.

MetaFacture ist ein Tool zur Analyse und Aufbereitung von Metadaten. Entwickelt wurde das Tool im Rahmen des Projekts “CultureGraph” und setzt auf Einfachheit in der Anwendung. Es besteht dabei aus zwei Komponenten: Flux und Metamorph.
Die Idee des Werkzeugs ist, dass Daten durch sogenannte Pipes geleitet werden, dessen Module für kleine Aufgaben zuständig sind.
Das folgende Beispiel einer Flux-Datei illustriert diese Idee:

"in-file"
|open-file
|decode-pica
|morph("morph.xml")
|encode-json
|write("out-file");

Im Schritt morph wird die eigentliche Arbeit an den Daten definiert. Dazu dient eine XML-Datei, die mittels einfacher Befehle Daten manipulieren kann.

<?xml version="1.0" encoding="UTF-8"?>
 <metamorph xmlns="http://www.culturegraph.org/metamorph"
  xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" 
  version="1" entityMarker=".">	
  <rules>
    <combine name="" value="${ID}, ${Lastname}, ${Firstname}, ${Birthdate}, ${Birthplace}" flushWith="record">
      <data source="_id" name="ID" />
      <data source="Firstname" />
      <data source="Lastname" />
      <data source="Birthdate" />
      <data source="Birthplace" />
    </combine>
  </rules>	
 </metamorph>

MetaFacture liefert schon ein paar Decoder und Encoder mit, sodass beispielsweise MARC-Daten einfach in Triples umgewandelt werden können.

Der Workshop hatte diese Bezeichnung wirklich verdient. Es wurde in kurzen und mit jeder Einheit inhaltlich anspruchsvolleren Abschnitten die Funktionsweise erläutert. Zwischen den Theorieabschnitten war sehr viel Zeit für praktische Übungen. Der Workshop kann daher nur als gelungen bewertet werden.

“Bringing People to Linked Data”
Der erste Tag der Hauptkonferenz startete mit einer ausgezeichneten Keynote von Dorothea Salo ((@LibSkrat, zur Person, Abstract)).
Sie thematisierte in ihrem sehr unterhaltsamen Vortrag “Soylent SemWeb Is People! Bringing People to Linked Data” das Verhältnis zwischen Bibliothekaren und Linked Data insbesondere aus Sicht der Ausbildung. Sie kam dabei zu dem Schluss, dass für die Akzeptanz von Linked Data in Bibliotheken dringend Anwendungen entwickelt werden müssen, um den Bibliothkaren aber auch den Entscheidern das Thema näher zubringen und die Vorteile aufzuzeigen (dies gilt insbesondere für öffentliche und “One-Person”-Bibliotheken ((In öffentlichen, Museums- oder Archiv-Bibliotheken und in OPLs sind häufig sogar MARC und MAB zu “oversized”. Gerade hier kann mit neuen Systemen auf Linked Data-Basis viel erreicht werden. Der Vortrag “The ‘OpenCat’ Prototype: Linking Public Libraries to National Datasets” von Agnès Simon (Bibliothèque nationale de France) stellte auch genau diese Gruppe von Bibliotheken in den Fokus.))). Es ist für Linked Data nicht sonderlich förderlich, wenn hier die gleichen Fehler wie bei der Einführung von XML oder Institutional Repositories gemacht werden. Es wurde in ihrer Keynote nochmals sehr deutlich, dass die Sicht der Anwender der neuen Tools essentiell für den Erfolg der Produkte sind. ((Als Beispiele nannte Salo, dass Institutional Repositories ohne die Wissenschaftler entwickelt und monierte, dass bisher Linked Data ohne die Bibliothekare stattfand, die die Daten letztlich erzeugen müssen bzw. sollten.))
In ihren Ausführungen legte Salo den Fokus bei Linked Data ganz deutlich auf die Generierung neuer Daten und nicht nur auf die Veröffentlichung von Altdaten als Linked Data.
Dorothea Salo hat es mit Ihrer Keynote geschafft, dass das folgende Progeamm der SWIB immer wieder auf dieses Forderung bezug genommen hat, wobei sich deutlich gezeigt hat, dass die geforderte Richtung bereits eingeschlagen wurde.

“From Cataloging to Catalinking”
In seinem Vortrag “Linked Data for Libraries: Great Progress, but What Is the Benefit?” betrachtete Richard Wallis (OCLC) ((@rjw, zur Person, Abstract)) das Bibliotheksnutzerverhalten und stellte fest, dass Linked Data den Bibliotheken hilft, die Nutzerinnen und Nutzer dort zu erreichen, wo sie ihr Bedürfnis nach Informationen (zu) stillen (versuchen). Er stellte unter anderem die Frage, wie nach einem Wikipedia-Artikel gesucht wird. Nicht sonderlich überraschend ist die Antwort:

“Ich geben meinen Suchbegriff in Google ein und ergänze um den Begriff ‘wikipedia’. Der erste Treffer ist dann das Gesuchte.”

Wenn man sich diese Aussage durch den Kopf gehen lässt, stellt man fest, dass die aktuellen Entwicklungen in den Bibliotheken rund um die Discovery Systeme nicht zukunftsweisend sind. Die Discovery Systeme in der heutigen Form sind somit maximal eine alternativlose Brückentechnologie auf dem Weg der Bibliotheken ins Web. Um so wichtiger ist die Aufgabe von Bibliotheken bzw. Bibliothearinnen und Bibliothekaren die releveanten Daten als Linked Open Data für das Semantic Web bereitzustellen, also “From Cataloging to Catalinking”.
Wallis stellte in diesem Zusammenhang die “schema.org”-Initiative ((schema.org)) vor, in der sich mittlerweise ein Untergruppe mit der Darstellung von bibliographischen Informationen beschäftigt. ((W3C Schema Bib Extend Community Group))
Die Frage nach einer möglichen Kollision mit der BIBFRAME-Initiative beantwortete Wallis mit der Feststellung, dass im Linked Data-Kontext verschiedene Modelle miteinander kollaborieren und nicht konkurieren.

Die aktuellen Entwicklungen rund um BIBFRAME wurden in der folgenden Session von Lars G. Svensson vorgestellt. ((Abstract))

“Decentralisation, Distribution, Disintegration”
Mit der Sicht von Richard Wallis auf bibliographische Daten ist klar, dass Linked Data ein dezentralisiertes System ist und somit eher “small data” als “big data”. Auch Martin Malmsten stellte in seinem Beitrag “Decentralisation, Distribution, Disintegration – towards Linked Data as a First Class Citizen in Libraryland” diesen Ansatz in den Vordergrund.

Martin Malmsten @ SWIB13

Martin Malmsten @ SWIB13

“In LOD we trust”
Der Workshop zum Thema Provanance Metadata wurde nun schon zum zweiten Mal bei der SWIB angeboten. Während der SWIB zeigte sich in vielen Bereichen, dass die Ebene der Vertrauenswürdigkeit im “Semantic Web Layer Cake” immer mehr in den Fokus rückt.

Semantic Web Layer Cake (w3c)

Semantic Web Layer Cake (w3c)

Die beiden letztgenannten Beiträge zusammengefasst ergeben somit die Erkenntnis, dass unter der Tatsache “Linked Data = Small Data” die Bereitstellung von “Provenance Metadata” eine notwendige Bedingung für “Trust” in der Linked Open Data Cloud und im Semantic Web ist.

Fazit
Die Konferenz war super 🙂 Die Entwicklung von einer lokalen zu einer internationalen Konferenz zeigt, wie wichtig das Thema “Semantic Web” bzw. “Linked Data” in Bibliotheken ist und das die Bibliothekswelt eine entscheidene Rolle darin spielt.

Um Entscheider und Bibliothekare für das Thema zu begeistern sind dringend konkrete Anwendungen notwendig, die die Vorteile näher bringen und nicht auf RDF-Level agieren. Allerdings handelt es sich hierbei um ein Henne-Ei-Problem: es müssen erst Modelle und Daten erzeugt werden, um erste Anwendungen zeigen zu können; es werden aber nur Ressourcen dazu geschaffen, wenn man zeigen kann, warum Linked Data wichtig und nützlich ist.

Martin Malmsten @ SWIB13

Martin Malmsten @ SWIB13

Es kann den Teilnehmern der Tagung und anderen Kolleginnen und Kollegen nicht hoch genug angerechnet werden, dass sie mit soviel Engagement und ohne große Ressourcen die Vorarbeiten leisten.

Weitere lesenswerte Tagungsberichte:

“Wissenswelten neu gestalten” — Eindrücke vom 5. BID-Kongress in Leipzig

Vom 11. bis 14. März fand in Leipzig der 5. Bibliothekskongress unter dem Motto “Wissenswelten neu gestalten” statt. Neben den wie immer äußerst interessanten Randgesprächen, habe ich mich in diesem Jahr den Themenfeldern “Forschungsdokumentation”, “Zukunft der Verbünde” und “neue Wege in der Erschließung” gewidmet.

Die Rolle der Bibliotheken bei der Forschungsdokumentation
Jede wissenschaftliche Einrichtung stellt an sich den Anspruch, nach den Regeln guter wissenschaftlicher Praxis zu arbeiten. Hierzu heißt es beispielweise in den Regeln für die TU Dortmund:

Hierzu gehört es, lege artis zu arbeiten, korrekte Angaben zu machen, geistiges Eigentum anderer zu achten sowie andere in ihrer Forschungstätigkeit nicht zu beeinträchtigen. […]
Im Zusammenhang der Veröffentlichung schließt dies insbesondere Folgendes ein:
– Die nachvollziehbare Beschreibung der angewandten Methoden,
– die vollständige Dokumentation aller im Forschungsprozess erhobenen und für die Veröffentlichung relevanten Daten,
– eine nachprüfbare Darstellung der Forschungsergebnisse […]

Neben dieser grundlegenden Motivation für die Forschungsdokumentation müssen Wissenschaftlerinnen und Wissenschaftler immer wieder für verschiedenste Zwecke ihre Forschungsaktivitäten neu erfassen und dokumentieren. Genannt seien hier beispielhaft Akkreditierungen, externe Evaluationen, aber auch bei der Beantragung von Projekten, Sonderforschungsbereichen und Exzellenz-Clustern. Wie wichtig ein einheitliches Vorgehen bei der Forschungsdokumentation ist, zeigt auch das vor wenigen Wochen veröffentlichte Papier “Empfehlungen zu einem
Kerndatensatz Forschung
” des Wissenschaftsrates.
Seit Jahren unterstützen Bibliotheken einen Teilaspekt der Forschungsdokumentation durch die Bereitstellung von institutionellen Repositorien für die Veröffentlichung von Dokumenten.
Allerdings ist bekannt, dass eine weitreichende Nutzung durch die Wissenschaftlerinnen und Wissenschaftler in den meisten Fällen bisher nicht zu beobachten ist. Die Session “Quo vadis Repositorien in Deutschland?” – veranstaltet von der DINI-AG Elektronisches Publizieren (12.03.2013 13:30-17:30) – ging daher der Frage nach, wohin die Reise mit den institutionellen Repositorien geht.
Nach der Vorstellung weiterer Ergebnisse aus dem “Census der Open Access Repositorien in Deutschland 2012” (erste ernüchternde Ergebnisse wurden bereits auf der InetBib-Tagung in Berlin vorgestellt), wurde durch weitere Impulsreferate der Trend erkennbar, dass institutionelle Repositorien immer häufiger als für sich stehende Systeme abgelöst werden und viel mehr als Teil einer Plattform zur Forschungsdokumentation eingesetzt werden. So wurden Systeme gezeigt, die als Bibliographien die Publikationsleistungen der Wissenschaftlerinnen und Wissenschaftler einer Einrichtung möglichst vollständig dokumentieren und das Repositorium im Hintergrund “nur noch” die zugehörigen Dokumente liefert. Rund um diese Bibliographien lassen sich wesentlich leichter Mehrwertdienste anbieten, die den Forschenden u.a. bei der Zusammenstellung von Publikationslisten für die verschiedensten Anwendungszenarien unter die Arme greifen.
In der Session “Forschungsdaten sammeln und strukturieren” (12.03.2013 09:00-12:00) wurde der Trend zu allumfassenden Plattformen zur Forschungsdokumentation ebenfalls sichtbar, wobei hier noch der Aspekt der Sammlung und Aufbewahrung von Forschungsdaten hinzukam.

Was die Rolle von wissenschaftlichen Bibliotheken beim Aufbau von virtuellen Forschungsumgebungen angeht, gibt es verschiedene Ansichten. Doch davon unabhängig, ist das Thema Forschungsdaten und deren Infrastrukturen sehr relevant für die tägliche Arbeit.
Den Bibliotheken fällt – insbesondere durch die Fachreferentinnen und Fachreferenten – die Rolle zu, als Ansprechpartner und Berater für die Wissenschaftlerinnen und Wissenschaftler zu fungieren. Fragen nach geeigneten Metadaten für Forschungsdaten und zu für das Fachgebiet geeigneten Repositorien sowie virtuellen Forschungsumgebungen werden im Alltag immer häufiger gestellt. Dabei sehen die Forschenden die Bibliotheken als genau die richtigen Ansprechpartner an, da diese sich seit jeher mit Metadaten beschäftigen und durch den Betrieb von institutionellen Repositorien in der Regel auch Publikations- und Archivierungsservices für Dokumente bereithalten.
Es verwundert daher nicht, dass das Thema Forschungsdaten einen wichtigen Teil im Programm des Bibliothekskongresses in Leipzig bildete. Ein aus meiner Sicht sehr wichtiger Beitrag wurde durch die Session “Forschungsdaten-Repositorien – Infrastrukturen zur dauerhaften Zugänglichkeit von Forschungsdaten” am Montagmorgen (11.03.2013 09:00-11:30 ) geliefert.
Die Session gab eine Einführung in das Themenfeld und stellte Typen und Entwicklungen der heterogenen Landschaft der Forschungsdaten-Repositorien vor. Weiterhin wurden Stand und Entwicklung des von der DFG geförderten Projektes re3data.org vorgestellt und diskutiert. Das Projekt verfolgt das Ziel, Forschungsdaten-Repositorien in einem web-basierten Verzeichnis zu erschließen und so eine Orientierung über bestehende Datensammlungen zu bieten.
Am Beispiel der Aktivitäten der Humboldt-Universität zu Berlin stellte Elena Simukovic heraus, dass es für eine gute Forschungsdokumentation einer Kooperation zwischen dem Hochschulreferat für Forschung, der Bibliothek, dem Rechenzentrum und des jeweiligen Fachbereichs bedarf. Ferner sollte sich die Einrichtung ein Bild darüber verschaffen, wie sich die Wissenschaftlerinnen und Wissenschaftler über die Fachgebiete verteilen. Daraus können dann Schlussfolgerungen in Bezug auf die Notwendigkeit von eigenen institutionellen Forschungsdateninfrastrukturen gezogen werden. Denn eines dürfte schnell klar werden: eine allumfassende Versorgung bei der Sammlung und Archivierung von Forschungsdaten durch eine Universität ist kaum realisierbar. Diese Entwicklung zeigte auch Jana Porsche vom IST Austria in der Session “Forschungsdaten sammeln und strukturieren” auf.

Es lässt sich resümieren, dass das Thema Forschungsdaten und virtuelle Forschungsumgebungen auf jeden Fall für wissenschaftliche Bibliotheken relevant ist. In welcher Form – ob eher beratend oder sogar als Infrastruktur – ist sicherlich von der jeweiligen Einrichtung anhängig.

Neue Wege der Erschließung
Neben Vorträgen rund um die Entwicklungen zum neuen Katalogisierungsregelwerk RDA (Resource, Description and Access) gab es auch Vorträge zu automatischen Erschließungsverfahren. Ich möchte hier den Workshop “Anwendung von Clustering-Verfahren zur Verbesserung und Analyse von Katalogdaten” (13.03.2013 09:00-12:00) hervorheben. In diesem Workshop wurde anschaulich dargestellt, welche neuen Möglichkeiten die als Open Data veröffentlichten bibliographischen Metadaten in Bezug auf die Anreicherung und Korrektur derselbigen bieten. Als Beispiele wurden u.a. Statistiken und Analysen zur Verwendung von RSWK/RVK, der Aufbau von Konkordanzen zwischen Klassifikationssystemen oder die teilautomatische Normierung von bisher als Freitext erfasster Informationen genannt. Solche Verfahren werden mit der stetig wachsenden Verbreitung der Discovery Services bzw. der dahinter liegenden großen Indizes immer wichtiger, da diese Daten häufig weder normiert noch sachlich erschlossen sind.
In der Veranstaltung blieb es aber nicht nur bei Lippenbekenntnissen, sondern es wurde auch ein Open Source-Framework zur Verarbeitung von großen Metadatenmengen vorgestellt. Die Software Metafacture wurde im Rahmen des Projektes CultureGraph entwickelt und stellt ein niederschwelliges Framework zur Metadatenanalyse und Konvertierung dar.

Zukunft der Verbünde
Die Entscheidung über die Vergabe der DFG-Mittel zur Neuausrichtung überregionaler Informationsservices und insbesondere die Entscheidung, welche Richtung die Bibliotheksdateninfrastruktur und die lokalen Bibliothekssysteme (Ausschreibung “Themenfeld 1”) einschlagen sollen, sorgte doch an einigen Stellen für Diskussionen und sogar ein gewisses Knistern war zu vernehmen. Es konkurrierten hier zwei Ansätze, die unterschiedlicher kaum sein konnten. Beide Ansätze wurden in der Session “Die Bibliotheksverbünde auf dem Weg in die Zukunft – Serviceleistungen und Dienste für Bibliotheken” vorgestellt (13.03.2013 13:30-15:30) und teils kontrovers diskutiert.
Wer nun gewonnen hat, kann auf den Seiten der DFG nachgelesen werden. Ich enthalte mich jetzt hier weiterer Kommentare …

Weitere Informationen:
Empfehlungen zu einem Kerndatensatz Forschung des Wissenschaftsrates
Pressemitteilung der DINI zu den “Empfehlungen zu einem Kerndatensatz Forschung”
Beiträge BID 2013 im Opus-Server