Kapitel 7 ergänzt

This commit is contained in:
Felix Lohmeier 2018-01-29 23:47:45 +01:00
parent 5c7d130450
commit ad2685857a
38 changed files with 493 additions and 4 deletions

View File

@ -70,7 +70,17 @@ Kapitel 6: Metadaten in Repositorien und Crosswalks \(14.12.2017\)
* [6.3 Installation von MarcEdit](/kapitel-6/63_installation-von-marcedit.md)
* [6.4 Harvesting mit MarcEdit](/kapitel-6/64_harvesting-mit-marcedit.md)
Kapitel 7: Linked Data, weitere Metadatenstandards, Abschluss \(11.01.2018\)
Kapitel 7: Linked Data und weitere Metadatenstandards \(11.01.2018\)
* [7.1 Semantische Daten](/kapitel-7/71_semantische-daten-fuer-webauftritt.md)
* [7.2 Linked Data nach dem Hype](/kapitel-7/72_linked-data-nach-dem-hype.md)
* [7.3 Projekt Linked swissbib](/kapitel-7/73_projekt-linked-swissbib.md)
* [7.4 Datenmodell und Datentransformation](/kapitel-7/74_datenmodell-und-datentransformation.md)
* [7.5 Übung: RDF mit Metafacture generieren](/kapitel-7/75_uebung-rdf-mit-metafacture-generieren.md)
* [7.6 Verlinkung und Anreicherung](/kapitel-7/76_verlinkung-und-anreicherung.md)
* [7.7 Übung: Linking mit Limes](/kapitel-7/77_uebung-linking-mit-limes.md)
* [7.8 Oberfläche: Projektresultate und Integration](/kapitel-7/78_oeberflaeche-projektresultate-integration.md)
* [7.9 Publikation und Nachnutzung](/kapitel-7/79_publikation-und-nachnutzung.md)
## Lerntagebücher

View File

@ -40,6 +40,14 @@
* [6.3 Installation von MarcEdit](/kapitel-6/63_installation-von-marcedit.md)
* [6.4 Harvesting mit MarcEdit](/kapitel-6/64_harvesting-mit-marcedit.md)
* [Kapitel 7](kapitel-7.md)
* [7.1 Semantische Daten](/kapitel-7/71_semantische-daten-fuer-webauftritt.md)
* [7.2 Linked Data nach dem Hype](/kapitel-7/72_linked-data-nach-dem-hype.md)
* [7.3 Projekt Linked swissbib](/kapitel-7/73_projekt-linked-swissbib.md)
* [7.4 Datenmodell und Datentransformation](/kapitel-7/74_datenmodell-und-datentransformation.md)
* [7.5 Übung: RDF mit Metafacture generieren](/kapitel-7/75_uebung-rdf-mit-metafacture-generieren.md)
* [7.6 Verlinkung und Anreicherung](/kapitel-7/76_verlinkung-und-anreicherung.md)
* [7.7 Übung: Linking mit Limes](/kapitel-7/77_uebung-linking-mit-limes.md)
* [7.8 Oberfläche: Projektresultate und Integration](/kapitel-7/78_oeberflaeche-projektresultate-integration.md)
* [7.9 Publikation und Nachnutzung](/kapitel-7/79_publikation-und-nachnutzung.md)
* [Lerntagebücher](lerntagebucher.md)
* [Lösungen](losungen.md)

BIN
images/boehme-2014.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 81 KiB

BIN
images/bohne-lang-2016.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 61 KiB

BIN
images/eckert-2015.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 512 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 207 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 139 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 66 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 139 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 133 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 173 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 139 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 70 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 141 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 108 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 52 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 21 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 6.9 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 29 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 268 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 137 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 117 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 137 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 137 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 368 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 194 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 108 KiB

View File

@ -1,4 +1,23 @@
# Kapitel 7: Linked Data, weitere Metadatenstandards, Abschluss \(11.01.2018\)
# Kapitel 7: Linked Data und weitere Metadatenstandards \(11.01.2018\)
Nach einer grundlegenden Einführung in Linked Data (Kap. 7.1 und 7.2) haben Günter Hipler (Systems Architect) und Silvia Witzig (Metadata Specialist) von der UB Basel die Sitzung vom 11. Januar gestaltet (Kap. 7.3 bis 7.9). Sie haben das Projekt [Linked swissbib](http://linked.swissbib.ch) vorgestellt und anhand von Praxisbeispielen erläutert, wie die Projektergebnisse derzeit in die produktive Umgebung von swissbib integriert werden.
Bitte nehmen Sie sich für die folgenden Abschnitte insgesamt etwa 6 Stunden Zeit:
* [7.1 Semantische Daten](/kapitel-7/71_semantische-daten-fuer-webauftritt.md)
* [7.2 Linked Data nach dem Hype](/kapitel-7/72_linked-data-nach-dem-hype.md)
* [7.3 Projekt Linked swissbib](/kapitel-7/73_projekt-linked-swissbib.md)
* [7.4 Datenmodell und Datentransformation](/kapitel-7/74_datenmodell-und-datentransformation.md)
* [7.5 Übung: RDF mit Metafacture generieren](/kapitel-7/75_uebung-rdf-mit-metafacture-generieren.md)
* [7.6 Verlinkung und Anreicherung](/kapitel-7/76_verlinkung-und-anreicherung.md)
* [7.7 Übung: Linking mit Limes](/kapitel-7/77_uebung-linking-mit-limes.md)
* [7.8 Oberfläche: Projektresultate und Integration](/kapitel-7/78_oeberflaeche-projektresultate-integration.md)
* [7.9 Publikation und Nachnutzung](/kapitel-7/79_publikation-und-nachnutzung.md)
Beiträge in den Lerntagebüchern der Studierenden:
* Elena Capelli: (folgt)
* Marina Hess: (folgt)
* Franziska Neuenschwander: (folgt)
* Moreno Pontoriero: (folgt)
* Aline Strauss: (folgt)

View File

@ -0,0 +1,26 @@
# 7.1 Semantische Daten für Webauftritt
## Wozu Linked Data?
Linked Data dient der Verknüpfung zwischen Datensilos: Der Computer kann Verweisen in den Daten folgen und Zusatzinformationen aus externen Quellen automatisch heranziehen. Ein möglicher Anwendungsfall ist die Anzeige von Zusatzinformationen im Bibliothekskatalog über Personen, die nicht in den Katalogdaten stehen und beim Aufruf live aus einer Personendatenbank geladen werden.
Der [Fachinformationsdienst Performing Arts](http://www.performing-arts.eu) nutzt den Dienst [Entity Facts der Deutschen Nationalbibliothek](http://www.dnb.de/EN/Wir/Projekte/Abgeschlossen/entityFacts.html), um Personeninformationen im Katalog anzuzeigen. Hier das [Beispiel für Johann Wolfgang von Goethe](http://www.performing-arts.eu/Search/AuthorityResults?lookfor=gnd_118540238&type=agentID):
[![](/images/fid-performing-arts-entity-facts-goethe.png)](http://www.performing-arts.eu/Search/AuthorityResults?lookfor=gnd_118540238&type=agentID)
Die Informationen im blauen Kasten über die Person Johann Wolfgang von Goethe werden live beim Aufruf der Katalogsuche über den Dienst Entity Facts geladen.
## Präsentation zu semantischen Daten von Andreas Bohne-Lang \(2016\)
Eine notwendige Voraussetzung für die Nutzung von Linked Data ist die semantische Auszeichnung der Daten mit einem übergreifenden Standard-Vokabular. Bevor wir näher auf Bibliothekskataloge eingehen, betrachten wir zunächst die Chancen für Webauftritte der Bibliotheken.
[![](../images/bohne-lang-2016.png)](https://www.umm.uni-heidelberg.de/bibl/ueberuns/vortraege_folien/vortraege_bl_semandaten_agmb_2016.pdf)
Quelle: <https://www.umm.uni-heidelberg.de/bibl/ueberuns/vortraege_folien/vortraege_bl_semandaten_agmb_2016.pdf>
Vgl. auch [Kapitel 5.5](/kapitel-5/55_suchmaschinenoptimierung.md)
## Literatur
* Danowski, Patrick; Pohl, Adrian (Hrsg.) (2013): (Open) Linked Data in Bibliotheken. <http://dx.doi.org/10.1515/9783110278736>.
* Stettler, Niklaus; Aschwanden, Michael; Mastrandrea, Elena; Süsstrunk, Norman; Wenk, Bruno (2015): Linked (Open) Data - Von der Theorie zur Praxis. <http://linkeddata.fh-htwchur.ch>.

View File

@ -0,0 +1,28 @@
# 7.2 Linked Data nach dem Hype
## Präsentation von Kai Eckert (2015)
[![](/images/eckert-2015.png)](https://www.slideshare.net/kaiec/linked-data-nach-dem-hype)
Quelle: <https://www.slideshare.net/kaiec/linked-data-nach-dem-hype>
## Potentiale von Linked Data für Bibliotheken
Im Seminar haben wir versucht die praktischen Potentiale von Linked Data am Flipchart zu sammeln. Herausgekommen sind folgende Punkte:
* Katalogisierungsprinzip (z.B. in [BIBFRAME](https://www.loc.gov/bibframe/))
* übergreifende Suche
* Verwandtes/Zusammengehöriges entdecken
* Statistische Analysen
* Einheitlichkeit und Effizienz
Ermöglicht werden diese Potentiale durch die Verknüpfung von bisher unverbundenen Datensilos mit Bezug auf gemeinsame Identifier.
* Grundlegendes Datenmodell ist das [Resource Description Framework (RDF)](https://www.w3.org/RDF/) in verschiedenen Serialisierungsformen (Turtle, N-Triples, N-Quads und aktuell besonders [JSON-LD](https://json-ld.org/)).
* Ein Austausch wird ermöglicht durch die Nutzung standardisierter Vokabulare wie [dcterms](http://lov.okfn.org/dataset/lov/vocabs/dcterms), [schema](http://lov.okfn.org/dataset/lov/vocabs/schema), [foaf](http://lov.okfn.org/dataset/lov/vocabs/foaf), [bibo](http://lov.okfn.org/dataset/lov/vocabs/bibo) und so weiter.
* Die Daten werden in sogenannten Triple-Stores abgelegt und sind über die Abfragesprache SPARQL abrufbar. Was mit SPARQL möglich ist, zeigt eindrücklich der [Wikidata Query Service](https://query.wikidata.org).
## Literatur
* [Einführungsartikel zu Resource Description Framework (RDF)](http://linkeddata.fh-htwchur.ch/Grundlagen-StrukturierteBeschreibung.html)
* [Einführungsartikel zur Abfragesprache SPARQL](http://linkeddata.fh-htwchur.ch/Grundlagen-SPARQL.html)

View File

@ -0,0 +1,66 @@
# 7.3 Projekt Linked swissbib
Artikel zu Linked Swissbib
https://www.frontiersin.org/articles/10.3389/fdigh.2017.00005/full
## Swissbib Architektur
Die Grafik zeigt die Systemarchitektur von swissbib im Jahre 2014, bevor das Projekt Linked swissbib gestartet ist. Besonderer Wert wurde auf die Trennung verschiedener Layer gelegt, die über Schnittstellen miteinander interagieren. Dadurch wurde es möglich, kommerzielle Software (OCLC CBS) mit Open-Source-Software zu mischen.
[![](/images/linked-swissbib-01-ausgangslage.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-01-ausgangslage.png)
## Ziele von linked.swissbib
1. Konversion des swissbib data sets in ein RDF Datenmodell (als Grundlage für Datenverknüpfungen)
2. Nutze die Möglichkeiten von verlinkten Informationen in eigenen Services und biete sie anderen zur Nachnutzung an
3. Verwendung von freier (möglichst erprobter) Software, entwickelt durch vergleichbare Institutionen. Entwicklungen sollten durch andere nachgenutzt werden können
Das Projekt startete 2014 als das Thema Linked Data für Bibliotheken noch vergleichsweise neu war und überwiegend theoretisch diskutiert wurde. Swissbib war prädestiniert für einen Praxistest, weil das Datenset von Swissbib schon umfassend ist und verschiedene Datenquellen beinhaltet. Die Nachnutzung der Projektergebnisse von linked swissbib für die Produktivumgebung von swissbib war von Beginn an ein erklärtes Ziel.
Das Projekt wurde von [swissuniversities](https://www.swissuniversities.ch) gefördert und gemeinsam von drei Partnern durchgeführt:
* Haute école de gestion de Genève: Schwerpunkt Datengenerierung
* Hochschule für Technik und Wirtschaft Chur: Schwerpunkt Oberfläche
* Universitätsbibliothek Basel: Schwerpunkt Infrastruktur
## Resultate
### Datentransformation
Aus etwa 29 Mio. MARC Aufnahmen wurden etwa 125 Mio. Dokumente in JSON-LD generiert, die in 6 Konzepte aufgeteilt sind:
1. Bibliographic Resource
2. Document
3. Item
4. Work
5. Person
6. Organisation
### Oberfläche
1. Suche
[![](/images/linked-swissbib-02-suche.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-02-suche.png)
2. Personenseiten
[![](/images/linked-swissbib-03-personenseite.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-03-personenseite.png)
### RESTful API
CC-0 Daten stehen unter der Adresse <http://data.swissbib.ch> zur Nachnutzung zur Verfügung.
[![](/images/linked-swissbib-04-api.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-04-api.png)
## Systemarchitektur mit linked.swissbib
Die folgende Grafik zeigt die Systemarchitektur von swissbib inklusive der neuen Komponenten von linked.swissbib. Anstelle eines üblichen SPARQL-Endpoints wurde eine eigene RESTFUL API auf Basis von Elasticsearch implementiert.
[![](/images/linked-swissbib-05-systemarchitektur.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-05-systemarchitektur.png)
## Workflow und Komponenten
* Die Datentransformation erfolgt mit Metafacture, zukünftig ergänzt um die Big-Data-Technologie Spark (dazu mehr in Kap. 7.4).
* Die Anreicherung erfolgt mit LIMES (dazu mehr in Kap. 7.6).
* Die Daten werden in einem Elasticsearch-Suchindex lokal gespeichert. Mehr Informationen zur Verwendung von Elastic Search ist einem Vortrag auf einem Meetup vom August 2016 zu entnehmen (vgl. [Video](https://www.elastic.co/videos/elasticsearch-as-hub-for-linked-bibliographic-metadata-zurich-meetup-august-2016) und [Folien](http://files.meetup.com/7646592/20160831 Elasticsearch as Hub for Linked Bibliographic Metadata.pdf))
[![](/images/linked-swissbib-06-workflow.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-06-workflow.png)

View File

@ -0,0 +1,116 @@
# 7.4 Datenmodell und Datentransformation
## Datenmodell
Das Datenmodell von linked.swissbib wurde anhand der Frage "Was wollen wir auf der Oberfläche anbieten?" nutzergesteuert entwickelt:
* Aggregationsseiten (eigener und angereicherter Inhalt)
* Knowledge Cards (Inspiration: Google Knowledge Graph), jeweils zu Autoren, Werken und Themen
* Erweitertes Autocomplete
Die MARC-Datensätze wurden dazu in 6 bibliographische Konzepte aufgeteilt:
1. Bibliographic Resource
2. Document
3. Item
4. Work
5. Person
6. Organisation
Siehe auch: Dokumentation des Datenmodells unter <https://linked-swissbib.github.io/datamodel/>
## Vokabularien
Es wurde der Ansatz verfolgt, möglichst bekannte, viel genutzte Vokabulare zu verwenden. Letztlich wurden folgende Vokabulare nachgenutzt:
* Dublin Core (dc/dct)
* Bibliographic Ontology (bibo)
* Bibframe (bf)
* RDA unconstrained properties (rdau)
* Friend of a friend (foaf)
* DBpedia (dbp)
* Schema (sch)
* Web Ontology Language (owl)
* RDF Schema (rdfs)
* Simple Knowledge Organisation System (skos)
Darüber hinaus wurde ein eigenes Vokabular "Linked swissbib (lsb)" verwendet, um Literale aus DBpedia zu speichern.
## Datentransformation
Das folgende Beispiel [Jane Austen's letters](https://www.swissbib.ch/Record/260865931) wurde aus einer MARC-Aufnahme von swissbib gebildet (d.h. mit der Software CBS bereits aus verschiedenen Bibliothekssystemen zusammengeführte Daten).
[![](/images/linked-swissbib-07a-jane-austen-katalog.png)](https://www.swissbib.ch/Record/260865931)
[![](/images/linked-swissbib-07b-jane-austen-marc.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-07b-jane-austen-marc.png)
### Bibliographic Resource
Um auszuwählen, welche MARC-Felder für das Konzept "Bibliographic Resource" genutzt werden sollen, wurde wie folgt vorgegangen:
* Die am häufigsten vorkommenden MARC Felder werden transformiert.
* Die für die Oberfläche notwendigen MARC Felder werden transformiert.
Daraufhin wurden 22 MARC-Felder ausgewählt. Bei der Transformation werden Links unter anderem auf die folgenden externen Webseiten gesetzt:
- geonames.org für Länder
- d-nb.info/gnd/ für Sachschlagworte
- lexvo.org für Sprache
[![](/images/linked-swissbib-08-bibliographic-resource.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-08-bibliographic-resource.png)
### Document und Item
Es erfolgte eine Trennung von bibliografischen Daten und administrativen Daten:
* Document: Metadaten über die bibliografischen Daten
* Item: Exemplar in einer Bibliothek
[![](/images/linked-swissbib-09-document.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-09-document.png)
[![](/images/linked-swissbib-10-item.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-10-item.png)
### Work
Das Werk-Konzept von Linked Swissbib ist aktuell nicht mit dem Werk aus [FRBR](https://en.wikipedia.org/wiki/Functional_Requirements_for_Bibliographic_Records) gleichzusetzen. Abgebildet werden weitere Ausgaben auf swissbib.ch. Das Clustering erfolgt in CBS mittels der Kriterien Titel, Autoren, ISBN und ISSN.
[![](/images/linked-swissbib-11-work.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-11-work.png)
### Person und Organisation
Personen werden, wenn möglich, als identisch erkannt und mit einer einheitlichen URI versehen. Die Dublettenerkennung erfolgt über einen "Author Hash" mit den folgenden Kriterien (in dieser Reihenfolge):
* GND
* Name, Titel der Person und Lebensdaten
* Name, Titel der Person und Titel der Publikation
Organisationen werden mit den Kriterien Name, Abteilung, Datum und Ort zusammengeführt, wenn möglich.
[![](/images/linked-swissbib-12-person.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-12-person.png)
Das Resultat der Datentransformation (vor der Anreicherung) auf einen Blick:
[![](/images/linked-swissbib-13-resultat-vor-anreicherung.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-13-resultat-vor-anreicherung.png)
## Umsetzung mit Metafacture
Für das Erstellen der RDF-Konzepte aus einem MARC-Satz wird das Werkzeug [Metafacture](https://github.com/metafacture/metafacture-core) genutzt. In linked.swissbib wird MarcXML in RDF (als JSON-LD) transformiert. Besonderheiten von Metafacture:
* Metafacture bietet die Möglichkeit, Workflows aus einzelnen Komponenten zusammenzubauen.
* Die Datentransformationen werden mit einer Domain Specific Language (DSL) konfiguriert. Durch die Verwendung einer DSL zur Erstellung von Konfigurationsdateien ist Metafacture prinzipiell auch für NichtprogrammiererInnen geeignet (die dann vielleicht Lust auf Mehr bekommen).
* Neben der Datentransformation ist auch die Analyse von Metadaten ein wichtiges Einsatzfeld.
Ein vergleichbares Werkzeug ist [Catmandu](http://librecat.org).
## Präsentation von Christoph Böhme (2015)
Im folgenden Kapitel 7.5 werden wir mit einer vorbereiteten Arbeitsumgebung mit Metafacture Beispieldaten in RDF transformieren. Um die Übung besser einordnen zu können, schauen Sie sich zunächst die folgende Präsentation an, die in die Konzepte von Metafacture einführt. Relevant sind hier die Folien 4 bis 18.
[![](/images/boehme-2014.png)](https://github.com/guenterh/htwChur20180111/blob/master/machwas/metafacture/dokus/presentation.cb.dnb.pdf)
Quelle: Präsentation von Christoph Böhme (Deutsche Nationalbibliothek) auf dem Metafacture-Workshop der SWIB 2014 in Bonn. Bereitgestellt von Günter Hipler auf GitHub unter <https://github.com/guenterh/htwChur20180111/blob/master/machwas/metafacture/dokus/presentation.cb.dnb.pdf>. Siehe auch komplette Workshop-Materialien unter <http://swib.org/swib14/slides/christoph_swib14_40.zip>
## Literatur zur Transformation von Bibliotheksmetadaten
* Beispiel für Mapping von MARC21 zu RDF <https://wiki.dnb.de/display/DINIAGKIM/MARC+21-RDF-Mapping>
* Christina Harlow (2015): Data Munging Tools in Preparation for RDF: Catmandu and LODRefine. <http://journal.code4lib.org/articles/11013>

View File

@ -0,0 +1,49 @@
# 7.5 Übung: RDF mit Metafacture generieren
## Vorgehen in der Übung
* ein Marc Record dient als Input
* wir benutzen die vorbereiteten Shellscripte zur Steuerung der Abläufe
## Download der Arbeitsumgebung
Starten Sie ein Terminal und geben Sie die folgenden Befehle ein:
```
wget https://felixlohmeier.de/htw/htwChur.linked.swissbib.tar.gz
tar -xzf htwChur.linked.swissbib.tar.gz
```
## Übung
Folgen Sie der Übung und versuchen Sie anhand der vorhergehenden Einführung in Metafacture die Datentransformation grob nachzuvollziehen.
1. Schauen Sie sich den Ausgangsdatensatz an
```
pluma ~/htwChur.linked.swissbib/machwas/metafacture/data.in/single.record.xml
```
2. Schauen Sie sich die Flux-Konfiguration an
```
pluma ~/htwChur.linked.swissbib/machwas/metafacture/transform2RDF.all.flux
```
3. Schauen Sie sich die Metamorph-Konfiguration an
```
pluma ~/htwChur.linked.swissbib/machwas/metafacture/morph/*.xml
```
4. Starten Sie das vorbereitete Shellscript
```
~/htwChur.linked.swissbib/machwas/metafacture/start.transform2RDF.all.sh
```
5. Öffnen Sie die Ergebnisse in einem Texteditor
```
pluma ~/htwChur.linked.swissbib/machwas/metafacture/data.out/rdfdump_$(date +%Y%m%d)*
```

View File

@ -0,0 +1,62 @@
# 7.6 Verlinkung und Anreicherung
## Vorgehen
* Nur Personen werden verlinkt
* Verlinkung mit VIAF und DBpedia
* Matching über Vorname / Nachname / Lebensdaten oder GND-Nummer
* swissbib-Person wird angereichert mit den Informationen aus VIAF und DBpedia
## Person: VIAF, DBpedia, swissbib
[![](/images/linked-swissbib-14-person.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-14-person.png)
## Person: VIAF, DBpedia, swissbib - Matching (GND-ID)
[![](/images/linked-swissbib-16-person-matching-gnd.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-16-person-matching-gnd.png)
## Person: VIAF, DBpedia, swissbib - Matching (Name, Lebensdaten)
[![](/images/linked-swissbib-17-person-matching-lebensdaten.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-17-person-matching-lebensdaten.png)
## Person: Anreicherung
[![](/images/linked-swissbib-15-person-anreicherung.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-15-person-anreicherung.png)
## Resultat
[![](/images/linked-swissbib-18-resultat-nach-anreicherung.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-18-resultat-nach-anreicherung.png)
## Verlinkung mit LIMES
[LIMES](http://aksw.org/Projects/LIMES.html) ist ein Open-Source-Projekt der Uni Leipzig. Es dient der automatisierten Verknüpfung von identischen Ressourcen.
Das Ziel ist hier Übereinstimmungen zwischen den 25 Mio. swissbib-Personen und den Personen in DBPedia und VIAF herzustellen.
Technisch werden diese Übereinstimmungen über eine sameAs-Beziehung gekennzeichnet. Beispiel für ein generiertes RDF triple:
```
<http://data.swissbib.ch/person/8004f8a7-66e6-3880-a4fc-b2b8ae136084>
<owl:sameAs>
<http://dbpedia.org/resource/Waldo_Rudolph_Wedel>
```
## Schritte des linking workflows bei swissbib
* Download eines Datendumps von DBPedia / VIAF im RDF Format
* Aufbereitung beider Datendumps (Stichwort: sortierte n-triples)
* Transformation des kompletten swissbib Bestandes nach RDF mit Metafacture und Vorbereitung der Personentriples zum Vergleich mit Limes (auch hier im Format n-triples)
* Suche nach owl:same Verbindungen mit limes
* "Nachbereitung" der gefunden Verbindungen (zum Beispiel Speicherung im Triple-Store)
## Datenqualität
* Projekt zeigt was mit den vorhandenen Daten möglich ist... und was nicht
* Matching von Personen ist schwierig, da oft nur Name und Vorname vorhanden
* Für die Mehrheit der Personen kann kein Match erzielt werden
* Gute Datenqualität ist Voraussetzung für Verlinkung!
## Literatur
* Dokumentation der einzelnen Schritte: <https://guenterh.gitbooks.io/dokumentation-ablauf-linking-mit-limes/content/ubersicht-gesamter-workflow.html>
* Bensmann, F., Zapilko, B., & Mayr, P. (2017). Interlinking Large-scale Library Data with Authority Records. Frontiers in Digital Humanities, 4. <https://doi.org/10.3389/fdigh.2017.00005>

View File

@ -0,0 +1,30 @@
# 7.7 Übung: Linking mit Limes
## Vorgehen in der Übung
* In der in Kapitel 7.5 heruntergeladenen Arbeitsumgebung sind auch Beispieldaten (u.a. DBpedia) für die Verlinkung enthalten
* Wir starten ein vorbereitetes Shellscript, dass die Verlinkung durchführt
## Übung
Folgen Sie der Übung und versuchen Sie anhand der vorhergehenden Einführung in LIMES die Verlinkung grob nachzuvollziehen.
1. Schauen Sie sich die Konfiguration an
```
pluma ~/htwChur.linked.swissbib/machwas/linking/linking/configs/limes_config_u57_1-u57_1.xml
```
2. Starten Sie das vorbereitete Shellscript
```
~/htwChur.linked.swissbib/machwas/linking/start.linking.sh
```
3. Prüfen Sie das Ergebnis
Mit den bereitgestellten Testdaten generiert LIMES genau einen Link. Öffnen Sie das Ergebnis in einem Texteditor:
```
pluma ~/htwChur.linked.swissbib/machwas/linking/linking/configs/accept_u57_1-u57_1.nt
```

View File

@ -0,0 +1,27 @@
# 7.8 Oberfläche: Projektresultate und Integration
## Prototyp Linked Swissbib
Prototyp: <http://linked.swissbib.ch>
* Autocomplete
* Personen: Knowledge Cards, Detailseiten, Tab
* Themen: Knowledge Cards und Detailseiten
* Problem mit Dubletten
* Aktuell nicht mehrsprachig
## Integration in swissbib.ch
Testsystem: <http://devlinked.swissbib.ch>
Siehe auch: Was ist neu in Swissbib? <http://swissbib.blogspot.de/2017/12/was-ist-neu-in-swissbib.html>
### Autocomplete
Anders als im Prototyp auf Solr basierend, damit keine Daten ausgeschlossen werden
[![](/images/linked-swissbib-19-integration-autocomplete.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-19-integration-autocomplete.png)
### Knowledge Cards und Detailseiten für Personen und Themen
[![](/images/linked-swissbib-20-integration-knowledge-cards.png)](https://raw.githubusercontent.com/felixlohmeier/kurs-bibliotheks-und-archivinformatik/master/images/linked-swissbib-20-integration-knowledge-cards.png)

View File

@ -0,0 +1,48 @@
# 7.9 Publikation und Nachnutzung
## Linked Open Data
* Im Projekt: Open Data Call
* Ca. 80% unter CC0 lizenziert
* Kennzeichnung der nicht-CC0 Daten in den Verbünden
* Ausschluss dieser Daten für die Schnittstelle data.swissbib.ch
## Schnittstellen für Maschinen
<http://data.swissbib.ch>
* auf REST und Hydra Prinzipien basierend
* SPARQL hat oft eine geringe Verfügbarkeit, deshalb bisher nicht eingesetzt
Beispiel für SPARQL-Abfrage: [Suche nach allen Autoren in DBPedia mit ihren bemerkenswerten Werken und dem Publikationsdatum der Werke](http://dbpedia.org/sparql?default-graph-uri=http%3A%2F%2Fdbpedia.org&qtxt=PREFIX+rdf%3A+%3Chttp%3A%2F%2Fwww.w3.org%2F1999%2F02%2F22-rdf-syntax-ns%23%3E%0D%0APREFIX+rdfs%3A+%3Chttp%3A%2F%2Fwww.w3.org%2F2000%2F01%2Frdf-schema%23%3E%0D%0APREFIX+dbo%3A+%3Chttp%3A%2F%2Fdbpedia.org%2Fontology%2F%3E%0D%0APREFIX+dbp%3A+%3Chttp%3A%2F%2Fdbpedia.org%2Fproperty%2F%3E%0D%0APREFIX+xsd%3A+%3Chttp%3A%2F%2Fwww.w3.org%2F2001%2FXMLSchema%23%3E%0D%0A%0D%0ASELECT+%3Fauthor+%3Fwork+%3Fdate+%0D%0AFROM+%3Chttp%3A%2F%2Fdbpedia.org%2F%3E+%0D%0AWHERE+%7B%0D%0A+++++++%3Fauthor+rdf%3Atype+dbo%3AWriter+.%0D%0A+++++++%3Fauthor+dbo%3AnotableWork+%3Fwork+.%0D%0A+++++++%3Fwork+dbp%3AreleaseDate+%3Fdate+%0D%0A%7D+ORDER+BY+DESC%28%3Fdate%29%0D%0ALIMIT+100%0D%0A&format=text%2Fhtml&CXML_redir_for_subjs=121&CXML_redir_for_hrefs=&timeout=30000&debug=on) (Quelle: [Kurs Semantic Web 2016 auf OpenHPI](https://open.hpi.de/courses/semanticweb2016))
## Übung: Lokale SPARQL-Abfrage
Starten Sie das vorbereitete Shellscript in der Arbeitsumgebung
```
~/htwChur.linked.swissbib/machwas/linking/lokale.sparql.abfrage.sh
```
## Wie weiter?
* Daten verbessern: Personen, Werk
* Nutzung ermöglichen
* Oberfläche ausbauen
## Quellen und Links
* GitHub: <https://github.com/swissbib> und <https://github.com/linked-swissbib>
* linked.swissbib.ch: Prototype User Interface <http://linked.swissbib.ch>
* linked.swissbib.ch: Beta RESTful API <http://data.swissbib.ch>
* Blog series "swissbib data goes linked" <http://swissbib.blogspot.ch/2016/04/swissbib-data-goes-linked-teil-1.html>
* Interlinking Large Scale Library Data with Authority Records / Felix Bensmann, Benjamin Zapilko and Philipp Mayr <http://journal.frontiersin.org/article/10.3389/fdigh.2017.00005/full>
* Datenmodell linked.swissbib <https://linked-swissbib.github.io/datamodel/>
* Elasticsearch as Hub for Linked Bibliographic Metadata <http://files.meetup.com/7646592/20160831%20Elasticsearch%20as%20Hub%20for%20Linked%20Bibliographic%20Metadata.pdf> und <https://www.elastic.co/videos/elasticsearch-as-hub-for-linked-bibliographic-metadata-zurich-meetup-august-2016>
* Suominen, Osma, & Nina Hyvönen. "From MARC silos to Linked Data silos?.". In: o-bib 4.2 (2017): 1-13. <https://www.o-bib.de/article/view/2017H2S1-13/5854>
* Beschreibung des Metamorph Datenmodells: <http://b3e.net/metamorph-book/latest/datamodel.html>
## Kontakt
* [Günter Hipler](mailto:guenter.hipler@unibas.ch), Systems Architect, Project swissbib, Universitätbibliothek Basel
* [Silvia Witzig](mailto:silvia.witzig@unibas.ch), Metadata Specialist, Project swissbib, Universitätbibliothek Basel

View File

@ -59,7 +59,7 @@
},
{
"id": "https://felixlohmeier.gitbooks.io/kurs-bibliotheks-und-archivinformatik/kapitel-7.html",
"name": "Kapitel 7: Linked Data, weitere Metadatenstandards, Abschluss"
"name": "Kapitel 7: Linked Data und weitere Metadatenstandards"
}
],
"url": "https://felixlohmeier.gitbooks.io/kurs-bibliotheks-und-archivinformatik/",