2
0
Derivar 0

Struktur für Frühlingssemester 2020

Este cometimento está contido em:
Felix Lohmeier 2020-03-09 23:20:05 +01:00
ascendente b2e16f0c53
cometimento cd2bb95ec5
25 ficheiros modificados com 99 adições e 1941 eliminações

Ver ficheiro

@ -1,176 +0,0 @@
# Installation und Grundlagen
## Vorstellungsrunde und Organisatorisches
Die Studierenden haben in der Vorstellungsrunde folgende Motivation bzw. Erwartungshaltung genannt:
* Mehr über Bibliotheks- und Archivsysteme zu wissen
* Systeme evaluieren zu können in bibliotheks- und archivspezifischen Projekten
* Aufbau der Systeme kennenzulernen
* Wissen, wie man selber ein System entwickeln könnte (z.B. Dokumentenablage)
* Übertragen der Informatikkenntnisse auf andere Informationsbranchen ("nicht nur Bibliothek")
* Sicherheit bei diesem Thema erhalten
* Tools anzuwenden
## Einführung in Markdown (und CodiMD)
### Markdown
* Von Aaron Swartz und John Gruber entwickelte Auszeichnungssprache für das Web.
* Ziel war ein Dateiformat, das für Menschen ebenso wie für Maschinen lesbar ist.
* Es ist ein "Plain Text"-Dateiformat, das mit wenigen Steuerzeichen (z.B. `#` für Überschriften oder `*` für Aufzählungen) arbeitet.
* Markdown lässt sich gut in andere Dateiformate (HTML, PDF, DOCX, EPUB, ...) konvertieren und wird in vielen Online-Tools verwendet.
* Mehr Infos bei Wikipedia: https://de.wikipedia.org/wiki/Markdown
* Dokumentarfilm zu Aaron Swartz:
* Eintrag in der IMDB: https://www.imdb.com/title/tt3268458/
* Vollständiger Film auf deutsch: https://www.youtube.com/watch?v=dJl1vVbK49Q
* Vollständiger Film auf englisch: https://www.youtube.com/watch?v=3Q6Fzbgs_Lg
* Markdown CheatSheet: https://www.markdownguide.org/cheat-sheet/ (mit Basis Syntax und Erweiterung)
* Empfehlung für Markdown-Editor: [Typora](https://typora.io)
* Empfehlung für Dokumentenkonvertierung: [Pandoc](https://pandoc.org)
### CodiMD
* Basiert auf dem Markdown-Standard
* Ermöglicht gleichzeitige Bearbeitung von Texten (wie bei Google Docs)
* Mehr Infos in folgenden Präsentationen:
* Reader: https://felixlohmeier.de/slides/2019-06-13_oercamp-reader.html
* Slides: https://felixlohmeier.de/slides/2019-06-13_oercamp-slides.html
* CodiMD-Installation ohne Registrierung zum Ausprobieren zum Beispiel unter https://hackmd.okfn.de (heißt dort noch HackMD)
* Dokument erstellen oben rechts über Button `Neue Gast Notiz`
* Direktlink für neues Dokument: https://hackmd.okfn.de/new
### Markdown Tutorial
Bitte bearbeiten Sie das folgende Online-Tutorial, um Markdown besser kennenzulernen: https://www.markdowntutorial.com (englisch, Empfehlung für Übersetzungs-Tool: [DeepL](https://www.deepl.com/translator))
Fehlt Ihnen eine Funktion, die sie sonst (in Word oder ähnlich) benutzen? Hier die von den Studierenden genannten Punkte und einige Antworten:
* Abbildungsverzeichnis
* Inhaltsverzeichnis:
* Nur mit Erweiterungen, z.B. mit Markdown-Editor Typora, der die händische Arbeit übernimmt. Manche Plattformen haben eigene Erweiterungen, hier bei CodiMD funktioniert `[TOC]`
* durchgestrichenen Text:
* `~~text~~`
* ~~text~~
* hochgestellter und tiefergestellter Text:
* `x<sup>2</sup> x<sub>2</sub>`
* x<sup>2</sup> x<sub>2</sub>
* farbiger Text: eigentlich nicht im Sinne von Markdown, aber mit HTML-Code möglich:
* `<span style="color:blue">some *blue* text</span>`
* <span style="color:blue">some *blue* text</span>
* mehrere Spalten, Rahmen und Tabellen: Tabellen sind nur mit Erweiterungen möglich, CodiMD unterstützt ein paar Formen, z.B. mit Senkrechtstrichen:
```
| Column 1 | Column 2 | Column 3 |
| -------- | -------- | -------- |
| Text | Text | Text |
```
| Column 1 | Column 2 | Column 3 |
| -------- | -------- | -------- |
| Text | Text | Text |
## Einführung in die Arbeitsumgebung JupyterLab
Wir nutzen eine vorkonfigurierte Arbeitsumgebung mit [Lubuntu 18.04 LTS](https://lubuntu.me/) und [JupyterLab](https://jupyterlab.readthedocs.io).
Zur Einführung: Mike Driscoll (2019-04-17): [Getting Started With JupyterLab](https://dzone.com/articles/getting-started-with-jupyterlab)
![virtualbox-jupyterlab](virtualbox-jupyterlab.png)
### Option 1: VirtualBox
Die Software [VirtualBox](https://www.virtualbox.org/) ermöglicht es Ihnen, verschiedene Arbeitsumgebungen auf Ihrem Computer zu installieren, ohne dass Ihr gewohntes Betriebssystem verändert wird. VirtualBox ist kostenfrei für Windows, macOS und Linux erhältlich.
Laden Sie VirtualBox von der Webseite herunter, installieren Sie das Programm und importieren Sie dann die folgende Virtual Appliance: [lubuntu-jupyter-bain.ova](https://drive.switch.ch/index.php/s/DI5qngSao8SOs9b) (2,4 GB)
* user: `bain`
* pass: `bain2019`
Anleitung für Lehrende: [VirtualBox Appliance erstellen](notes_virtualbox-appliance-erstellen.md)
### Option 2: Booten von USB-Stick
In einigen Fällen erfüllten die mitgebrachten Laptops nicht die Anforderungen (2 GB freier Arbeitsspeicher, 20 GB freier Festplattenspeicher, Unterstützung für Hardware-Virtualisierung VT-X oder AMD-V) für die bereitgestellte VirtualBox Appliance. Meist lässt sich dies durch eine Konfiguration (Festplatte aufräumen, Aktivierung VT-X / AMD-V in der UEFI-Firmware, Deinstallation von Windows-Feature Hyper-V) beheben.
Für die verbleibenden Fälle, in denen VirtualBox nicht verwendet werden kann, wurden bootfähige USB-Sticks bereitgestellt, auf denen die gleiche Arbeitsumgebung installiert ist wie in der VirtualBox Appliance.
Bei einigen Laptops lässt sich vor dem Windows-Startvorgang ein Boot-Manager aufrufen. Dazu ist je nach Hersteller eine andere Taste notwendig. Probieren Sie F8 oder F12. Falls das nicht funktioniert, dann versuchen Sie folgende weitere Tasten: Esc, Entf, F2, F9, F10, F11. Eventuell landen Sie dabei im BIOS, wo es ggf. auch eine Boot-Einstellung gibt.
Alternativ können Sie auch aus einem laufenden Windows von einem USB-Stick booten. Über **Einstellungen > Problembehandlung > Erweiterter Start** können Sie eine Funktion **Gerät verwenden** aufrufen, um vom USB-Stick zu booten.
Anleitung für Lehrende: [Bootfähige USB-Sticks erstellen](notes_bootfaehige-usb-sticks-erstellen.md)
## Einführung in Virtualisierungstechnologie
### Computer-Bestandteile
Wir schrauben einen Laptop auf und finden darin:
- Prozessor (CPU)
- Arbeitsspeicher (RAM)
- Festplatte (HDD)
- Grafikkarte mit HDMI-Anschluss
- Soundkarte mit Kopfhörerbuchse
- Netzwerkkarte mit Netzwerkanschluss
- USB-Anschlüsse
- Mainboard
- ...
### Virtualisierung
![Ansatz der Systemvirtualisierung](https://upload.wikimedia.org/wikipedia/commons/f/f2/Ansatz_der_Systemvirtualisierung_zur_Schaffung_virtueller_Betriebsumgebungen.png)
Abbildung: Daniel Hirschbach (2006), Diplomarbeit "Vergleich von Virtualisierungstechnologien", CC-BY 2.0 [via Wikimedia Commons](https://commons.wikimedia.org/wiki/File:Ansatz_der_Systemvirtualisierung_zur_Schaffung_virtueller_Betriebsumgebungen.png)
Literaturempfehlung: Artikel Virtualisierung in "Elektronik Kompendium". https://www.elektronik-kompendium.de/sites/com/1101011.htm (abgerufen am 8.10.2019)
## Einführung in die Kommandozeile
Wir bearbeiten gemeinsam die Lernmaterialien von [Library Carpentry zur Unix Shell](https://librarycarpentry.org/lc-shell/):
1. Öffnen Sie die Datei `01-lc-shell.ipynb` in JupyterLab
2. Führen Sie die Zellen im Notebook aus (Play-Button), um die Beispieldaten für die Übung zu laden. Nachdem Sie alle Zellen ausgeführt haben, erscheint links ein neuer Ordner `shell-lesson`.
3. Jetzt haben Sie zwei Möglichkeiten:
* Option 1: Geben Sie die Befehle direkt im Notebook unten ein.
* Option 2: Starten Sie ein neues Terminal in JuypterLab über den Dialog `File` > `New` > `Terminal`. Ein paar der in den Übungen verwendeten Funktionen wie die Tab-Taste für Autovervollständigung, die Befehlshistorie mit Pfeiltasten und die Anzeige von Dateien (z.B. mit `less` und `nano`) funktionieren nur im Terminal, nicht im Notebook.
4. Wir bearbeiten gemeinsam die Kapitel 2 und 3 sowie einen Teil von Kapitel 5 (Kapitel 4 überspringen wir).
* Kapitel 2: https://librarycarpentry.org/lc-shell/02-navigating-the-filesystem/index.html
* Kapitel 3: https://librarycarpentry.org/lc-shell/03-working-with-files-and-folders/index.html
* Kapitel 5 (teilweise): https://librarycarpentry.org/lc-shell/05-counting-mining/index.html
### Aufgaben zu Kapitel 3
Aufgabe 1: Datei kopieren
* Kommando: `cp` (steht für copy)
* Wie erstellen Sie eine Kopie `gulliver-backup.txt` von der Datei `gulliver.txt`?
Aufgabe 2: Datei in Verzeichnis verschieben
* Kommando: `mv` (steht für move)
* Erstellen Sie ein neues Unterverzeichnis `backup`
* Versuchen Sie die Datei `gulliver-backup.txt` in das Unterverzeichnis `backup` zu verschieben.
Aufgabe 3: Datei löschen
* Kommando: `rm` (steht für remove)
* Löschen Sie die Datei `gulliver-backup.txt`
Aufgabe 4: Verzeichnis löschen
* Hinweis: Zum Löschen von Verzeichnissen benötigen Sie den zusätzlichen Parameter `-r` (steht für rekursiv)
* Löschen Sie das Verzeichnis `backup`
### Aufgaben zu Kapitel 5
Aufgabe 1: Wie können Sie alle Spaltennamen in der Datei `2014-01_JA.tsv` ermitteln?
Aufgabe 2: Wieviele Zeilen haben jeweils die vier Dateien mit der Endung `.tsv`
* Hinweis: Nutzen Sie das Kommando `wc` (steht für word count)
Aufgabe 3: Versuchen Sie herauszufinden, welche der folgenden Reiseorte in Gulliver's Travels am häufigsten vorkommen:
* Hinweis: Nutzen Sie das Kommando `grep` mit dem Parameter `-c` (steht für count)
### Anwendungsfälle für Shell-Scripte
- Aus Library Carpentry Lesson: Kapitel 5 [Counting and mining](https://librarycarpentry.org/lc-shell/05-counting-mining/index.html) (hatten wir nur teilweise bearbeitet) und Kapitel 6 [Working with free text](https://librarycarpentry.org/lc-shell/06-free-text/index.html)
- Einige Beispiele aus der "Wildnis":
- Extract EXIF Metadata and Output to a Text File: https://saaers.wordpress.com/2018/08/23/bash-how-to-extract-exif-metadata-and-output-to-a-text-file/
- Mit Mono, Marcedit und Bash MARCXML in USMARC wandeln https://www.mactopics.de/2016/03/05/mit-mono-marcedit-und-bash-marcxml-in-usmarc-wandeln/
- Bash Scripting: automating repetitive command line tasks (hier geht es um Langzeitarchivierung) https://acrl.ala.org/techconnect/post/bash-scripting-automating-repetitive-command-line-tasks/
- Basis, um weitere Tools verwenden zu können (Beispiel [ELAG2019 bootcamps](https://www.elag2019.de/bootcamps.html): "Participants should be familiar with command line interfaces (CLI)")

7
01_technische-grundlagen.md Ficheiro normal
Ver ficheiro

@ -0,0 +1,7 @@
# Technische Grundlagen
## Einrichtung der Arbeitsumgebung (Linux)
## Grundlagen der Unix Shell
## Versionskontrolle mit Git

Ver ficheiro

@ -1,67 +0,0 @@
# Bibliothekssystem Koha
## Einführung in Koha
* Name "Koha" = Geschenk, bei dem man ein Gegengeschenk erwartet
* Webseite: https://koha-community.org
* Weltweites Open Source Projekt, gegründet 1999 in Neuseeland, heute mit Beteiligung von Unternehmen wie ByWater Solutions, Biblibre, Catalyst IT, PTFS Europe, Theke Solutions
* Status des Projekts (Statistik bei Open Hub): https://www.openhub.net/p/koha
* Professionelle Entwicklungsstrukturen, vgl. Dashboard: https://dashboard.koha-community.org/
* Release Notes zur Version 19.05: https://koha-community.org/koha-19-05-04-release/
* Handbuch zur Version 19.05: [englisch](https://koha-community.org/manual/19.05/en/html/), [deutsch](http://koha-community.org/manual/19.05/de/html/index.html) (und weitere Sprachen!)
## Koha Demo
* MARC21, Koha 19.05 bereitgestellt von Unternehmen "Admin Kuhn"
* [OPAC](http://koha.adminkuhn.ch/)
* [Staff Interface](http://koha.adminkuhn.ch:8080/) mit Benutzername `demo` / Passwort `demo`
## Koha Installation und Tutorial
Erstellen Sie zunächst in VirtualBox einen Snapshot vom aktuellen System. Diesen Stand können Sie wiederherstellen falls Probleme auftreten.
Für die Installation steht ein Jupyter Notebook bereit.
1. Öffnen Sie das Jupyter Notebook `02-koha-install.ipynb`
2. Führen Sie alle Zellen der Reihe nach aus
3. Starten Sie mit dem folgenden Tutorial.
## Notizen zum Koha Tutorial
Stephan Tetzel (2018): [Wie man Koha installiert und für Schulen einrichtet](https://zefanjas.de/wie-man-koha-installiert-und-fuer-schulen-einrichtet-teil-1/) (Kapitel 1-6)
Zu Kapitel 1:
* Datenbank einrichten
* im Testsystem ungesichert und ohne Passwort!
* MARC21: International verbreiteter Metadaten-Standard, begründet von der Library of Congress 1999: https://www.loc.gov/marc/bibliographic/
* wird zukünftig voraussichtlich von BIBFRAME abgelöst
* Koha und alle anderen großen Bibliothekssysteme basieren in der Regel auf MARC21
* Benutzer: In der Installation angelegt, Benutzernummer 1
* Medientyp: Buch angelegt
Zu Kapitel 2:
* Export/Import:
* Dateiformate CSV, ODS, XML
* Programme: Tabellenverarbeitung (Gnumeric/Excel/Libre Office), Text Editor (Leafpad, Editor, TextEdit, Notepad++)
* Führende Nullen werden in Tabellenverarbeitungen verschluckt, das sorgt hier bei den MARC-Feldern für ein Problem, weil `020` nicht gleich `20` ist.
## Koha Literatur
* Koha Anwenderhandbuch des Bibliothekservice-Zentrum Baden-Württemberg: https://wiki.bsz-bw.de/doku.php?id=l-team:koha:koha-handbuch:start (für ältere Versionen geschrieben)
* Implementation Checklist: https://koha-community.org/manual/19.05/en/html/implementation_checklist.html
* Fred King: How to use Koha, MarcEdit, a Raspberry Pi, and a Chicken (optional) to create an ILS for under $100 (September 2019, Vortrag auf Koha-Konferenz): http://avengingchicken.online/misc/installing_koha_on_raspberry-pi-4.pdf
## Diskussion
* Wechsel von Bibliothekssystemen: Datenimport möglich?
* Ja, aber je nach Bibliothekssystem unterschiedliche Datenformate. Unterschiedliche Tabellen für Nutzer\*innen, Titeldaten, offene Gebühren, etc.
* Beispiel aus einem laufendem Projekt zur Zusammenführung von Bibliothekssystemen: Neues Bibliothekssystem erwartet Titeldaten in MARC21 und alle anderen Daten in CSV mit Senkrechtstrichen als Trennzeichen.
## Vergleich mit anderen Bibliothekssystemen
Kommerzielle Alternativen: Ex Libris Aleph, Ex Libris Alma, Explore, Kuali OLE, Winmedio etc.
* Swiss Library Service Platform (SLSP) wird Alma (reines Cloud-Angebot, Server wird in Amsterdam stehen) einführen
* OCLC WorldShare Management Service
* größte Open-Source-Alternative in Entwicklung: FOLIO https://www.folio.org
Literaturempfehlung: Marshall Breeding (1.5.2019): Library Systems Report 2019. Cycles of innovation. In: American Libraries Magazine. https://americanlibrariesmagazine.org/2019/05/01/library-systems-report-2019/

Ver ficheiro

@ -0,0 +1,7 @@
# Funktion und Aufbau von Bibliothekssystemen
## Installation und Konfiguration von Koha
## Metadatenstandards in Bibliotheken (MARC21)
## Marktüberblick Bibliothekssysteme

Ver ficheiro

@ -1,156 +0,0 @@
# Archivsystem ArchivesSpace
## Nachträge zu Fragen und Hinweisen aus den Lerntagebüchern
* Markdown ist formal betrachtet eine [Auszeichnungssprache](https://de.wikipedia.org/wiki/Auszeichnungssprache) ähnlich wie HTML, keine Programmiersprache.
* Was ist der Sinn von Referenz-Links in Markdown? Hier ein Argument: "The point of reference-style links is not that theyre easier to write. The point is that with reference-style links, your document source is vastly more readable." https://daringfireball.net/projects/markdown/syntax#link
* Speicherpunkte in VirtualBox heißen Snapshots (Momentaufnahme des Systems), nicht zu verwechseln mit Screenshots (Bildschirmfoto). Siehe auch Wikipedia-Artikel zu [Schnappschuss_(Informationstechnik)](https://de.wikipedia.org/wiki/Schnappschuss_(Informationstechnik))
* Wir haben den Befehl `git pull` verwendet, um die aktuellen Lehrmaterialien zu laden, aber die Software `git` noch gar nicht kennengelernt. Bei Library Carpentry gibt es bei Interesse [eine ganze Übung dazu](https://librarycarpentry.org/lc-git/) und [in Kapitel 1 auch eine Erklärung](https://librarycarpentry.org/lc-git/01-what-is-git/index.html)
* Koha beinhaltet kein Modul für die Verwaltung von elektronischen Ressourcen, lässt sich aber mit anderen Tools kombinieren. Siehe dazu Vortrag von Katrin Fischer [Koha und ERM - Optionen für die Verwaltung von elektronischen Ressourcen](https://nbn-resolving.org/urn:nbn:de:0290-opus4-35840) auf dem Bibliothekartag 2018.
* Zu MARC21: Stimmt, die hohe internationale Verbreitung ist ein starkes Argument. Bessere Standards, die sich dann nicht durchsetzen, machen die Lage vielleicht schlimmer. Siehe dazu auch xkcd comic: https://xkcd.com/927/
## Metadatenstandards in Archiven
### ISAD(G)
* Als digitale Archivsysteme entwickelt wurden, orientierte sich die Datenstruktur an analogen Findmitteln wie Findbüchern und Zettelkästen
* Ein wichtiger Verzeichnungsstandard im Archivwesen wurde 1994 (Revision 2000) eingeführt, die "International Standard Archival Description (General)" - kurz [ISAD(G)](https://de.wikipedia.org/wiki/ISAD(G)). Grundsätzlich gibt es hier eine mehrstufige Verzeichnung im Provenienzprinzip, um den Entstehungszusammenhang abzubilden.
* Siehe Guidelines ab S. 19 und Anhang 2 S. 54: https://www.ica.org/sites/default/files/CBPS_2000_Guidelines_ISAD%28G%29_Second-edition_DE.pdf
* Grenzen von ISAD(G):
1. Ein einzelner Datensatz ist unter Umständen nur im Kontext verständlich (z. B. nur "Protokoll" als Titel)
2. Die Tektonik ist eindimensional (keine Mehrfachzuordnung möglich)
3. Der Standard enthält keine Vorgaben zur Digitalisierung oder zur digitalen Langzeitarchivierung
* Um Normdateien verzeichnen zu können, wurde später ein ergänzender Standard "International Standard Archival Authority Record for Corporate Bodies, Persons, and Families" - kurz [ISAAR(CPF)](https://de.wikipedia.org/wiki/ISAAR%28CPF%29) verabschiedet. Dieser wird in der Praxis wegen dem Zusatzaufwand bei der Erschließung jedoch nur selten verwendet.
* Aktuell ist ein neuer Standard ["Records in Contexts" (RIC)](https://de.wikipedia.org/wiki/Records_in_Contexts) in Entwicklung.
### EAD
* [Encoded Archival Description](https://de.wikipedia.org/wiki/Encoded_Archival_Description) (EAD) ist ein XML-Standard
* Verschiedene Versionen: EAD2002 und EAD3 (August 2015 veröffentlicht)
* Lässt viele Wahlmöglichkeiten, daher gibt es oft Anwendungsprofile, die genauer spezifizieren welche Werte zugelassen sind.
* Anwendungsfälle: [Archives Portal Europa](https://www.archivesportaleurope.net/de/), Archivportal-D, Kalliope
## Gastbeitrag Michael Gasser (Leiter Archive ETH-Bibliothek)
ORCID: http://orcid.org/0000-0003-0390-1448
Twitter: https://twitter.com/m_gasser
Womit beschäftigt er sich aktuell?
* Sessionvorschlag von Michael Gasser zum [Archivcamp](https://archive20.hypotheses.org/) kommende Woche: Wikidata Nutzungsmöglichkeiten für Archive https://archive20.hypotheses.org/7358
* Archive der ETH-Bibliothek Zürich umfassen sowohl Bildarchiv als auch das Hochschularchiv
Präsentationsfolien in Moodle:
https://moodle.fhgr.ch/mod/resource/view.php?id=245427 (zugriffsbeschränkt)
**Überblick über die Systemlandschaft: Trennung zwischen Metadatenhaltung, Discovery, Online-Präsentation, digitaler Langzeitarchivierung**
* Schaubild Metadatenflüsse der ETH-Bibliothek: Daten-Verbindungen zwischen den Systemen genauso wichtig geworden, wie die Systeme selbst
* [x] Das Schaubild werden wir in der letzten Sitzung (10.12.) noch einmal mit den kennengelernten Open-Source-Tools vergleichen
* Systeme werden von der ETH aktuell selbst gehostet und von der ETH Bibliothek administriert, ändert sich durch Projekt SLSP
* Hochschularchiv: CMI Star; Bildarchiv: Canto Comulus (wird heute aus Zeitgründen nicht behandelt)
* für die Online-Präsentation verschiedene Tools und darüber noch das übergreifende Suchportal der ETH-Bibliothek
**Archivinformationssystem CMI STAR: Möglichkeiten und Grenzen von ISAD(G)**
* In der Schweiz vor allem zwei kommerzielle Anbieter: scopeArchiv und CMI STAR
* Wesentliche Elemente von ISAD(G): Provenienz, Tektonik
**Aufgabe**
«Einstein» im [Online Archivkatalog des Staatsarchivs BS](https://query.staatsarchiv.bs.ch/query/suchinfo.aspx)
«Einstein Ehrat» in der [Archivdatenbank Online, Hochschularchiv ETH Zürich](http://archivdatenbank-online.ethz.ch/)
Siehe auch ISAD(G) Guidelines: https://www.ica.org/sites/default/files/CBPS_2000_Guidelines_ISAD%28G%29_Second-edition_DE.pdf
1. Welche Informationen werden auf der Trefferliste präsentiert?
2. Welche Verzeichnungsstufen sind vertreten?
* Mehrere Stufen vertreten, nach ISAD(G): Bestand, Serie/Aktengruppe, Untergruppe, Akte, Einzelstück/Einheit
3. Sind die ISAD(G)-Informationsbereiche erkennbar?
4. Decken sich die grundlegenden Informationen oder gibt es bemerkenswerte Unterschiede?
5. Worin liegen die zentralen Unterschiede zu einem Bibliothekskatalog?
**Weiter zu CMI STAR**
* Im "Rich-Client" (Programm für die Mitarbeiter\*innen) wird die Erschließung anhand der ISAD(G) Informationsbereiche kategorisiert
* Beinhaltet ein grafisches Mapping-Tool für den Import von Excel oder CSV. Wird verwendet, um Eingaben von Hilfskräften in Excel in das System zu importieren.
**Grenzen von ISAD(G)**
* Projektgruppe [ENSEMEN](https://vsa-aas.ch/arbeitsgruppen/projektgruppe-ensemen/) arbeitet an einer schweizerischen Ausprägung des neuen Standards [Records in Contexts](https://www.ica.org/en/records-contexts-german) (RiC), mit Beteiligung von Niklaus Stettler (FH Graubünden)
* [x] Anfrage Niklaus Stettler für die Sitzung Linked Data am 11.12. zu RiC
**Normdaten**
* Wegen dem Bibliothekskontext (Archive der ETH-Bibliothek) ist die [GND](https://de.wikipedia.org/wiki/Gemeinsame_Normdatei)-ID von besonderer Bedeutung.
* ETH Zürich ist eine selbständig archivierende Einheit der Bundesarchive *(ist das die formal korrekte Bezeichnung?)*, Unterlagen werden in Zürich gelagert (nicht in Bern)
**Datenaustausch: Einbindung archivischer Verzeichungsinformationen in Discovery Systeme**
* GND-basierte Verlinkungen: über [Entity Facts](https://www.dnb.de/DE/Professionell/Metadatendienste/Datenbezug/Entity-Facts/entity-facts_node.html) und über Vernetzungsinitiative [Metagrid](https://metagrid.ch)
* Beispiel www.e-manuscripta.ch ist angebunden an verschiedene Quellsysteme: Aleph, scopeArchiv und CMI STAR
* Anderes System in der Schweiz für Handschriften (Schwerpunkt auf Materialien vor 1600): https://www.e-codices.unifr.ch
* Standard zum Austausch von Digitalisaten [IIIF](https://iiif.io/) hier auch implementiert
* Langzeitarchivierung-Lösung: ETH Data Archive nutzt Infrastruktur
**Informationsverlust Informationsgewinn: Transformation und Anreicherung von Metadaten**
... (bearbeiten wir später im Discovery-Teil)
**Ausblick**
* Swiss Library Service Platform (SLSP) soll 2021 live gehen und wird viele Grundfunktionalitäten abbilden
* Umstieg von ISAD(G) auf RiC wird mit viel Aufwand verbunden sein, auch mit einem Systemwechsel. Wichtige Herausforderung dabei ist die Einbindung in die Linked Data Cloud.
* Generierung von mehr Volltexten ist von Benutzerwartungen getrieben. Pilotprojekt zu Handwritten Text Recognition (s.o. Transkribus in e-manuscripta)
* Automatisierte Anreicherung von Volltext: Projekte zu Named Entity Recognition bzw. Named Entity Linking
* Virtueller Lesesaal: Bevorstehende Einführung beim Schweizerischen Bundesarchiv (Einsicht nach Anfrage)
* Wikidata zunehmend interessant. Online-Findmittel werden verknüpft mit Wikidata-Einträgen über Property [Archives at](https://www.wikidata.org/wiki/Property:P485). Beispiel Albert Einstein: https://www.wikidata.org/wiki/Q937 (siehe unten "Archives at")
**Diskussion**
* Literaturempfehlung: Was sich Historiker*innen von Archiven wünschen: eine Umfrage Digital Humanities am DHIP: https://dhdhi.hypotheses.org/6107
## ArchivesSpace
* Offizielle Beschreibung im Wiki: https://archivesspace.atlassian.net/wiki/spaces/ADC/overview
* basiert auf den Standards [DACS](https://en.wikipedia.org/wiki/Describing_Archives:_A_Content_Standard), ISAD(G) und ISAAR(CPF)
* unterstützt Import/Export in EAD, MARCXML und METS
Aus [Fortbildungsmaterialien der NYU](https://guides.nyu.edu/ld.php?content_id=23461999):
> What ASpace does and how do we use it:
> * System of record for archival materials. Not everything is public, or open to staff, nor is it intended to be.
> * Perform core archival functions: accessioning, arrangement and description
> * Aid in public services
> * Record and report location holdings information; stacks management
> * Manage digital objects
> * Produce access tools
> * Statistics gathering, prioritization, holistic planning
> * Contribute to various interdepartmental processes (preservation and digitization)
### Installation
Erstellen Sie zunächst vom aktuellen Stand einen Snapshot in VirtualBox, falls Sie Koha später noch weiter nutzen wollen. Stellen Sie dann den Snapshot vor der Installation von Koha wieder her.
Für die Installation von ArchivesSpace steht wieder ein Notebook als Installationshilfe bereit: https://nbviewer.jupyter.org/github/felixlohmeier/bibliotheks-und-archivinformatik/blob/ed5b5aaa41528a91b3ffa40770c1d459a21395ac/03-archivesspace.ipynb
### Anwenden
* Einführungsvideos: https://www.youtube.com/playlist?list=PL3cxupmXL7WiXaHnpVquPrUUiLiDAMhg0
* Beispieldaten für den Import von EAD: http://eadiva.com/ead-sample-prudence-wayland-smith-papers/
### Alternativen
* Access to Memory (Atom): https://www.accesstomemory.org
## Zusammenfassung
* Unterschiede zwischen Bibliotheks- und Archivsystemen
* Bibliothek
* Medium, Benutzerinteraktion (Ausleihe)
* Software medienzentriert
* Metadatenformat: MARC21, zukünftig BIBFRAME?
* Archiv
* Entstehungszusammenhang, eher stehender Bestand (auf Anfrage)
* Software orientiert sich an analogen Findmitteln
* Metadatenformat: EAD, zukünftig RiC
* Herausforderung: Digitalisierung (Virtueller Lesesaal), Verknüpfungen/Mehrfachzuordnungen (Linked Data)
* Herausforderung: Vernetzung von Systemen, Datenaustausch zwischen den Systemen (kommen wir später darauf zurück)

Ver ficheiro

@ -0,0 +1,7 @@
# Funktion und Aufbau von Archivsystemen
## Installation und Konfiguration von ArchivesSpace
## Metadatenstandards in Archiven (ISAD(G) und EAD)
## Marktüberblick Archivsysteme

Ver ficheiro

@ -1,207 +0,0 @@
# Metadaten transformieren mit OpenRefine und MarcEdit
Auszug aus den Lernzielen:
* Bibliothekarische und archivarische Metadaten (z.B. MARC, MARCXML, MODS, Dublin Core, EAD, BIBFRAME) zu modellieren und diese mit entsprechenden Protokollen / Anwendungen zu übertragen
* Crosswalks zwischen unterschiedlichen Metadatenformaten zu programmieren
## Nachträge zu Punkten aus den Lerntagebüchern
* Nach dem Start von ArchivesSpace gab es weitere Meldungen im Terminal. Wir sollten noch einmal klären, was das bedeutet. Bei OpenRefine ist es nämlich ähnlich.
* Es handelt sich um Webanwendungen. Im Terminal läuft die Server-Applikation. Über den Browser greifen wir darauf zu. Wenn das Terminal geschlossen wird, dann wird auch der Server beendet und die Webseite im Browser ist nicht mehr erreichbar.
* Spracheinstellung von ArchivesSpace: Es gibt noch keine deutsche Übersetzung aber Spanisch, Französisch und Japanisch
* Konfiguration: https://archivesspace.github.io/archivesspace/user/configuring-archivesspace/#Language
* Sprachdateien: https://github.com/archivesspace/archivesspace/tree/master/common/locales
* Warum hat der Import der Beispielkollektion so lange gedauert?
* Vermutlich, weil wir nur die mitgelieferte Datenbank (für Testzwecke) verwendet haben und keine separate MySQL-Datenbank
* Außerdem ist EAD ein komplexes Dateiformat, was etwas aufwendiger auszuwerten ist (daher auch die mehreren "Cycles" in der Log-Datei)
* Dokumentation zu "Tuning": http://archivesspace.github.io/archivesspace/user/tuning-archivesspace/
* Wie kann ich ein Objekt in ArchivesSpace von Grund auf anlegen?
* Video von ArchivesSpace: https://www.youtube.com/watch?v=WrZB0Fj2pIU&list=PL3cxupmXL7WiXaHnpVquPrUUiLiDAMhg0&index=4&t=0s
* Workflow Overview bei Orbis Cascade Alliance: https://www.orbiscascade.org/achivesspace-workflow-overview/
* Walkthrough Criss Library, University of Nebraska at Omaha: https://www2.archivists.org/sites/all/files/UNO_ArchivesSpace_Walkthroughs_2015.pdf
* ArchivesSpace Manual for Local Usage at NYU: https://docs.google.com/document/d/11kWxbFTazB6q5fDNBWDHJxMf3wdVsp8cd7HzjEhE-ao/edit#
* Wie wird der virtuelle Lesesaal in Archiven funktionieren?
* Meldung zur Veröffentlichung des Konzepts des VSA von 2016: https://archive20.hypotheses.org/3348
* Technische Zugriffsbeschränkungen spielen dort gar keine große Rolle, vgl. Kapitel 4.4 Aufbereitung und Auslieferung auf S. 44: http://vsa-aas.ch/wp-content/uploads/2016/04/Konzept_und_Anforderungskatalog_Virtueller_Lesesaal.pdf
## Transformation von Metadaten mit OpenRefine
* Notebook mit Installationsanleitung: https://nbviewer.jupyter.org/github/felixlohmeier/bibliotheks-und-archivinformatik/blob/master/04-lc-openrefine.ipynb
* Als Hausaufgabe haben die Studierenden die [Library Carpentry Lesson zu OpenRefine](https://librarycarpentry.github.io/lc-open-refine/) bearbeitet. Fragen dazu:
* Automatischer Start im Browser funktioniert nicht unter Lubuntu? Im Browser Adresse http://127.0.0.1:3333 oder http://localhost:3333 aufrufen
* Arbeitsspeicher: VirtualBox Einstellung prüfen, OpenRefine verwendet standardmäßig bis zu 1400M (1,4 GB)
* OpenRefine beenden: `STRG`+`C` im Terminal
* Für welche Zwecke und Formate eignet sich OpenRefine?
* Besonders geeignet für tabellarische Daten (CSV, TSV, XLS, XLSX und auch TXT mit Trennzeichen oder festen Spaltenbreiten)
* Einfaches "flaches" XML (z.B. MARCXML) oder JSON ist mit etwas Übung noch relativ einfach zu modellieren
* Komplexes XML mit Hierarchien (z.B. EAD) ist möglich, aber nur mit Zusatztools, siehe beispielsweise:
* Lightning Talk auf einem Workshop zu OpenRefine und EAD: https://felixlohmeier.de/slides/2017-05-05_dini-ag-kim_ead-lightning-talk.html
* Adventures in metadata hygiene: using Open Refine, XSLT, and Excel to dedup and reconcile name and subject headings in EAD https://blogs.library.duke.edu/bitstreams/2015/05/01/metadata-adventures/
* Video zu einem komplexen Anwendungsfall: https://www.orbiscascade.org/using-openrefine-for-cleanup/
* Export von XML mit OpenRefine Templating
* Vorlage: http://www.loc.gov/standards/marcxml/xml/collection.xml
* Menü Export / Templating (oben rechts)
* Prefix: `<collection xsi:schemaLocation="http://www.loc.gov/MARC21/slim http://www.loc.gov/standards/marcxml/schema/MARC21slim.xsd">`
* Row Template:
```
<record>
<leader></leader>
<controlfield tag="001"></controlfield>
<datafield tag="020" ind1=" " ind2=" ">
<subfield code="a">{{cells["ISSNs"].value.escape("xml")}}</subfield>
</datafield>
<datafield tag="100" ind1=" " ind2=" ">
<subfield code="a"></subfield>
</datafield>
<datafield tag="245" ind1=" " ind2=" ">
<subfield code="a">{{cells["Title"].value.escape("xml")}}</subfield>
</datafield>
</record>
```
* Row Separator: (Zeilenumbruch)
* Suffix: `</collection>`
* Import von XML mit OpenRefine
* MARC21: Beispieldaten unter http://www.loc.gov/standards/marcxml/ ("MARCXML Example Documents")
* MARCXML Collection (mehrere Dokumente): http://www.loc.gov/standards/marcxml/xml/collection.xml
* Dublin Core (aus MARC21 transformiert, ein Dokument): http://www.loc.gov/standards/marcxml/Sandburg/sandburgdc.xml
* MODS (aus MARC21 transformiert, ein Dokument): http://www.loc.gov/standards/marcxml/Sandburg/sandburgmods.xml
* EAD: Prudence Wayland Smith Papers (hatten wir in ArchivesSpace importiert): http://eadiva.com/sampleEAD/syr-wayland-smith_p.xml
* Import von JSON funktioniert ähnlich
* OpenRefine ist auch für Windows und Mac verfügbar!
## XSLT Crosswalks mit MarcEdit
* MarcEdit installieren
* Offizielle Webseite: https://marcedit.reeset.net
* Notebook mit Installationsanleitung: https://nbviewer.jupyter.org/github/felixlohmeier/bibliotheks-und-archivinformatik/blob/master/04-marcedit.ipynb
* Übungen zu MarcEdit bei Library Carpentry (work in progress): https://librarycarpentry.org/lc-marcedit/01-introduction/index.html
* MarcEdit ist auch für Windows und Mac verfügbar!
* Anwendungsfälle
* EAD zu MARC21
* DC zu MARC21
* MARC21 zu DSpaceDC
* MARC21 zu MODS
* Anleitung für XML Conversion mit MarcEdit von der Unibibliothek aus Illinois: https://guides.library.illinois.edu/c.php?g=463460&p=3168159
* Von MarcEdit verwendete XSLT Dateien liegen auch hier: https://github.com/reeset/marcedit_xslt_files und https://github.com/reeset/marcedit-xslts
* Achtung: Die Voreinstellungen in der Linux-Version von MarcEdit sind fehlerhaft. Sie können wie folgt korrigiert werden:
* MarcTools
* Button Tools / Edit XML Function List
* Für alle benötigten Funktionen:
* Im Menü "Defined Functions" die gewünschte Funktion auswählen und Modify klicken
* Unter XSLT/XQuery Path `XSLT\` durch `xslt/`
* Wir testen mit unseren Beispieldaten:
* http://eadiva.com/ead-sample-prudence-wayland-smith-papers/
* http://www.loc.gov/standards/marcxml/
* Literaturempfehlung für Einstieg in XSLT: https://programminghistorian.org/en/lessons/transforming-xml-with-xsl
## Schnittstellen SRU, OAI-PMH und Z39.50 harvesten
Es gibt zahlreiche Übertragungsprotokolle im Bibliotheks- und Archivbereich. Drei davon sind besonders weit verbreitet:
* Z39.50 (Library of Congress)
* SRU - Search/Retrieve via URL (Library of Congress)
* OAI-PMH - Open Archives Initiative Protocol for Metadata Harvesting (Open Archives Initiative)
Z39.50 ist sehr alt, aber immer noch im Einsatz. Meist wird das modernere SRU als Ergänzung angeboten.
Während Z39.50 und SRU sich besonders für Live-Abfragen oder gezielten Datenabruf mit vielen Parametern eignet, zielt OAI-PMH vor allem auf größere Datenabzüge und regelmäßige Aktualisierungen. Das Schöne an SRU und OAI-PMH ist, dass die Anfragen als Internetadresse (URL) zusammengestellt werden können und direkt über den Browser ohne Zusatzsoftware aufrufbar sind.
### SRU und OAI am Beispiel von Swissbib
Das Projekt swissbib sammelt Metadaten aller schweizer Universitätsbibliotheken, der Nationalbibliothek und einiger Kantonsbibliotheken sowie weiterer Institutionen. Der gemeinsame Katalog ermöglicht eine übergreifende Suche, gleichzeitig bietet swissbib auch Schnittstellen an, über welche Metadaten der teilnehmenden Institutionen zentral bezogen werden können.
* Dokumentation Swissbib SRU: http://www.swissbib.org/wiki/index.php?title=SRU
* Dokumentation Swissbib OAI: http://www.swissbib.org/wiki/index.php?title=Swissbib_oai
**Aufgabe 0**
Lesen Sie die [Dokumentation zur SRU-Schnittstelle von Swissbib](http://www.swissbib.org/wiki/index.php?title=SRU) und stellen Sie eine Abfrage mit folgenden Parametern zusammen:
* Katalog der Bibliothek der FH Graubünden
* Suche über alle Felder nach Suchbegriff: open
* Format:MARC XML - swissbib
Sie können dazu das Formular auf der Webseite http://sru.swissbib.ch verwenden oder die URL anhand der Dokumentation selbst zusammenbauen.
**Aufgabe 1**
Laden Sie die gleichen Daten in anderen Formaten (z.B. Dublin Core) und vergleichen Sie
Tipp: Öffnen Sie zwei Browserfenster nebeneinander, um die Unterschiede leichter sehen zu können.
Was ist Ihnen aufgefallen (kleine Wiederholung)?
* MARC21 umfangreich, Dublin Core eher kompakt
Swissbib nutzt XSL Stylesheets, um live bei einer Suchanfrage, die Daten in verschiedene Metadatenformate zu konvertieren.
**Aufgabe 2**
Laden Sie 100 Datensätze der ETH-Bibliothek (Hauptbibliothek Rämistrasse 101, 8092 Zürich) für den Suchbegriff Albert Einstein (über alle Felder) im Format MARC21. Speichern Sie die Daten in der Datei `einstein.xml`.
Lösung:
* dc.possessingInstitution = E01
* dc.anywhere = Albert Einstein
URL:
```
http://sru.swissbib.ch/sru/search/defaultdb?
query=+dc.possessingInstitution+%3D+E01+AND+dc.anywhere+%3D+Albert+Einstein
&operation=searchRetrieve
&recordSchema=info%3Asrw%2Fschema%2F1%2Fmarcxml-v1.1-light
&maximumRecords=100
&startRecord=0
&recordPacking=XML
&availableDBs=defaultdb
&sortKeys=Submit+query
```
Alternativ mit curl:
```
curl "http://sru.swissbib.ch/sru/search/defaultdb?query=+dc.possessingInstitution+%3D+E01+AND+dc.anywhere+%3D+Albert+Einstein&operation=searchRetrieve&recordSchema=info%3Asrw%2Fschema%2F1%2Fmarcxml-v1.1-light&maximumRecords=100&startRecord=100&recordPacking=XML&availableDBs=defaultdb&sortKeys=Submit+query" > einstein.xml
```
**Aufgabe 3**
Lesen Sie die [Dokumentation zur OAI-Schnittstelle von Swissbib](http://www.swissbib.org/wiki/index.php?title=Swissbib_oai).
Laden Sie einige Datensätze aus dem gesamten Swissbib-Verbund, die seit dem 11.11.2019 verändert wurden im Format MARC21. Speichern Sie die Daten in der Datei `swissbib-2019-11-01.xml`.
Lösung:
http://oai.swissbib.ch/oai/DB=2.1/?verb=ListRecords&metadataPrefix=m21-xml%2Foai&from=2019-11-11
**Bonusaufgabe**
Finden Sie heraus, nach welchen Regeln die SRU-Schnittstelle von Swissbib MARC21 in Dublin Core transformiert.
Lösung:
* Explain-Befehl der SRU-Schnittstelle: http://sru.swissbib.ch/sru/explain?operation=explain
* Dort Informationen zum Schema unter `ns:schemaInfo`
* Link zum XSL Stylesheet: http://sru.swissbib.ch/sru/xslfiles/MARC21slim2OAIDC.swissbib.xsl
## Weitere Tools für Metadatentransformationen
**Zur Motivation:**
Metadaten-Management in der Praxis, hier beim Leibniz-Informationszentrum Wirtschaft (ZBW) in Hamburg:
* Infoseite: https://www.zbw.eu/de/ueber-uns/arbeitsschwerpunkte/metadaten/
* Videointerview mit Kirsten Jeude: https://www.youtube.com/watch?v=YwbRTDvt_sA
**Tools:**
Prof. Magnus Pfeffer (2016): Open Source Software zur Verarbeitung und Analyse von Metadaten. Präsentation auf dem 6. Bibliothekskongress. <http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:0290-opus4-24490>
* Catmandu (Perl): https://librecat.org
* Metafacture (Java): https://github.com/metafacture/metafacture-core
* OAI harvester für die Kommandozeile: https://github.com/miku/metha
* siehe auch die vielen Tools zu MARC21: https://wiki.code4lib.org/Working_with_MARC

Ver ficheiro

@ -0,0 +1,7 @@
# Repository-Software für Publikationen und Forschungsdaten
## Installation und Konfiguration von DSpace
## Open Access und Open Data
## Marktüberblick Repository-Software

Ver ficheiro

@ -1,147 +0,0 @@
# Discovery-System VuFind und Suchmaschine Solr
## Nachträge zu Themen aus den Lerntagebüchern
Zu Tag 4 (06.11., OpenRefine, MarcEdit, SRU, OAI, ...):
* Unterscheidung von Programmen (z.B. MarcEdit, OpenRefine) und Standards (z.B. XSLT, SRU) ist wichtig:
* Ein Standard wird von einem Gremium spezifiziert oder entwickelt sich mit der Zeit durch die hohe Verbreitung zu einem Industriestandard (auch De-facto Standard genannt, Beispiel: SQL).
* Entwickler*innen von Programmen implementieren dann diese Standards (im Idealfall vollständig, manchmal aber auch nur teilweise).
* Auf welchen Wegen können Sie a) XSLT-Crosswalks schreiben und b) anwenden?
* Mit welchen Anwendungen können Sie eine SRU-Schnittstelle abfragen?
* Ein Lerntagebuch hat den Wikipedia-Eintrag zu SRU diskutiert: https://de.wikipedia.org/wiki/Search/Retrieve_via_URL. Im Prinzip ein Pluspunkt für das Bewertungskriterium "Kontextualisierung", aber achten Sie dabei auf die Details. Hinterfragen Sie die Angaben oder prüfen Sie ggf. noch eine zweite Quelle, bevor etwas übernehmen:
* Welches Protokoll beinhaltet SOAP: SRU oder SRW?
* Wer hat den Standard entwickelt? Vgl. Artikel im Fachmagazin D-LIB von 2009: http://www.dlib.org/dlib/january09/denenberg/01denenberg.html
* Übrigens, das hatte ich nicht erklärt: Die Spezifikation des SRU-Standards beinhaltet auch eine Abfragesprache CQL (Contextual Query Language), die auch anderswo verwendet wird (z.B. beim Kalliope Verbundkatalog: http://kalliope.staatsbibliothek-berlin.de/de/support/cql.html)
* Was ist der Unterschied zwischen kostenfreier Software wie MarcEdit und Open-Source-Software?
* Offizielle Definition: https://opensource.org/osd
* Für Daten und Inhalte: https://opendefinition.org
## Gastvortrag von Noémie Ammann (ETH-Bibliothek) zu Primo und SLSP
LinkedIn Profil: <https://www.linkedin.com/in/noémie-ammann-4aa18418b/>
* seit über 5 Jahren IT-Spezialistin an der ETH-Bibliothek
* Diploma of Advanced Studies in Bibliotheks- und Informationswissenschaft (2013) und Master in Germanistik (2008)
* Dozentin an der Uni Zürich im MAS Bibliotheks- und Informationswissenschaft
* zertifiziert für Alma und Primo
ETH wird im Rahmen von SLSP nicht nur von Aleph zu Alma, sondern auch von Primo zu Primo VE migrieren. Primo VE ist eine in Alma integrierte Discovery Lösung, für welche zwar das gleiche User Interface eingesetzt wird, die aber im Hintergrund ganz anders konzipiert ist.
### Präsentation
Präsentationsfolien in Moodle: https://moodle.fhgr.ch/mod/resource/view.php?id=247387 (zugriffsbeschränkt)
### Ergänzungen zur Präsentation
Primo-PNX anzeigen (funktioniert bei allen Primos): Am Ende der Internetadresse (URL) Folgendes anfügen:
```
&showPnx=true
```
Normalisierung und Anreicherung wird zukünftig in Alma umgesetzt (nicht mehr in Primo) - hier gibt es Überschneidungen zwischen den Produkten, weil Primo (ohne VE) auch mit anderen Bibliothekssystemen eingesetzt werden kann
Videotrainings in Dokumentation zu [Alma im Ex Libris Knowledge Center](https://knowledge.exlibrisgroup.com/Alma/Training/Getting_to_Know_Alma)
## Marktüberblick Discovery-Systeme
Jährlicher Library Systems Report von Marshall Breeding im ALA Magazine: https://americanlibrariesmagazine.org/2019/05/01/library-systems-report-2019/
## Funktionen von Suchmaschinen am Beispiel von Solr
Die Studierenden hatten die Aufgabe das offizielle Solr Tutorial zu bearbeiten: https://lucene.apache.org/solr/guide/8_2/solr-tutorial.html
Im Tutorial wird das Programm curl verwendet, dass bei uns noch nicht installiert ist. Mit folgendem Befehl kann es installiert werden:
```
sudo apt install curl
```
Aus der Diskussion:
* Datenimport: Solr kann verschiedene Dateiformate (.doc, .xml .json, .ppt usw.) importieren
* Schema: Üblicherweise sollte vor Import der Daten in einem Schema festgelegt werden welche Felder existieren und welche Datentypen diese beinhalten dürfen
* Solr hat zwar eine integrierte Suchoberfläche, aber die ist nur zu Demo-Zwecken gedacht
* Primo und VuFind basieren beide auf Solr
## VuFind
Zur Einführung:
* VuFind Internetseite: https://vufind.org
* VuFind Code bei GitHub: https://github.com/vufind-org/vufind
* Deutsche VuFind Anwendergemeinschaft: https://vufind.de
* Präsentation “10 Jahre VuFind” (2017): https://felixlohmeier.de/slides/2017-09-28_vufind-anwendertreffen-keynote.html
VuFind-Installationen weltweit: https://vufind.org/wiki/community:installations
- Beispiel TU Hamburg: https://katalog.tub.tuhh.de
- Beispiel Beluga Hamburg: https://katalog.tub.tuhh.de
- Beispiel UB Leipzig: https://katalog.ub.uni-leipzig.de
### Tutorial
Wir bearbeiten die Kapitel 3-9 von folgendem Tutorial:
https://felixlohmeier.gitbooks.io/vufind-tutorial-de/content/03_Installation_VuFind.html
Das Tutorial wurde ursprünglich von Stefan Niesner im Rahmen einer [Projektarbeit](http://malisprojekte.web.th-koeln.de/wordpress/stefan-niesner/) entwickelt und von mir für VuFind 4.1 aktualisiert.
**Achtung:** VuFind 4.1 läuft nicht unter Lubuntu 18.04 (im Tutorial ist vorgesehen VuFind unter 16.04 zu installieren). Unter 18.04 wird automatisch eine neuere Java-Version (11) installiert, VuFind benötigt aber eine ältere Version (8). Es gibt auch noch weitere Probleme. Wir installieren daher VuFind 6.0.1 abweichend vom Tutorial nach der offiziellen Installationsanleitung.
* VirtualBox Snapshot wiederherstellen
* Gemeinsame Installation nach Anleitung für Ubuntu: https://vufind.org/wiki/installation:ubuntu
* Nach dem Start des Solr Index geht es hier weiter: https://felixlohmeier.gitbooks.io/vufind-tutorial-de/content/03_Installation_VuFind.html
## Gruppenarbeit zu Metadatenflüssen
Konzeption Metadatenflüsse für Gruppenarbeit
* Gemeinsam mit Tool Mermaid https://mermaidjs.github.io/mermaid-live-editor/
* Diagramm: https://mermaidjs.github.io/mermaid-live-editor/#/edit/eyJjb2RlIjoiZ3JhcGggVERcbmRvYWotYXJ0aWNsZS1zYW1wbGUuY3N2IC0tPiBPcGVuUmVmaW5lXG5Td2lzc2JpYi1PQUkgLS0-IE1hcmNFZGl0XG5PcGVuUmVmaW5lIC0tIE1BUkMyMS1YTUwgLS0-IFZ1RmluZFxuTWFyY0VkaXQgLS0gTUFSQzIxIC0tPiBWdUZpbmQiLCJtZXJtYWlkIjp7InRoZW1lIjoiZGVmYXVsdCJ9fQ
* Gruppenarbeit
1. Gruppe "VuFind": Abwarten, bis die anderen beiden Gruppen Daten anliefern. Dann Daten importieren wie in Kapitel 4 (.mrc) und 12 (.xml) beschrieben. Zwischenzeitlich können Sie mit Testdaten experimentieren oder die Konfiguration von VuFind fortsetzen.
* https://felixlohmeier.gitbooks.io/vufind-tutorial-de/content/04_Installation_Testimport.html
2. Gruppe "OpenRefine": Aus Beispieldaten (DOAJ wie in der OpenRefine Übung) mit Templating MARC21-XML generieren und an Gruppe VuFind übergeben.
* OpenRefine Server: http://167.172.188.147
* Daten: https://raw.githubusercontent.com/LibraryCarpentry/lc-open-refine/gh-pages/data/doaj-article-sample.csv
* Export von XML mit OpenRefine Templating
* Vorlage: http://www.loc.gov/standards/marcxml/xml/collection.xml
* Menü Export / Templating (oben rechts)
* Prefix: `<collection xsi:schemaLocation="http://www.loc.gov/MARC21/slim http://www.loc.gov/standards/marcxml/schema/MARC21slim.xsd">`
* Row Template:
```
<record>
<leader></leader>
<controlfield tag="001"></controlfield>
<datafield tag="020" ind1=" " ind2=" ">
<subfield code="a">{{cells["ISSNs"].value.escape("xml")}}</subfield>
</datafield>
<datafield tag="100" ind1=" " ind2=" ">
<subfield code="a"></subfield>
</datafield>
<datafield tag="245" ind1=" " ind2=" ">
<subfield code="a">{{cells["Title"].value.escape("xml")}}</subfield>
</datafield>
</record>
```
* Row Separator: (Zeilenumbruch)
* Suffix: `</collection>`
* Link zum erarbeiteten Template: https://send.firefox.com/download/92464306f4503345/#eyJl9oLYo9vMY034ZDY2OA
3. Gruppe "MarcEdit": Mit MarcEdit Swissbib OAI abrufen, in MARC21 (.mrc) konvertieren und an Gruppe VuFind übergeben
* MarcEdit Anleitung: https://guides.library.illinois.edu/c.php?g=463460&p=3168068
* Swissbib OAI Dokumentation: http://www.swissbib.org/wiki/index.php?title=Swissbib_oai
* **Achtung:** Das Harvesting der OAI-Schnittstelle von Swissbib hatte nur teilweise funktioniert, weil MarcEdit und die Swissbib OAI-Schnittstelle nicht richtig harmonieren. Die anschließend mit MarcEdit exportierte MARC-Datei (.mrc) war daher unvollständig und konnte deshalb auch nicht in MarcEdit importiert werden. Zumindest für SRU ist es ein bekanntes Problem, vgl. Ticket bei GitHub https://github.com/swissbib/sruServer/issues/28.
Einfache Möglichkeit für Datentransfer: https://send.firefox.com
## Exkurs: Architektur der Suchmaschine DuckDuckGo
- DuckDuckGo verwendet vorrangig Programmierschnittstellen (APIs) von anderen, größeren Suchmaschinen (Yahoo, Bing, Yandex, Wolfram Alpha) aber auch zahlreiche weitere Quellen und auch eigene Webcrawler. Nach eigener Angabe sollen es über 400 verschiedene Quellen sein.
- Genaue Informationen zur aktuellen Systemarchitektur sind nicht zu finden. Nur ein Teil des Codes ist Open Source. Aus einem Artikel von 2013 ist zu entnehmen, dass damals Solr und PostgreSQL für die Datenhaltung eingesetzt wurden. Es wird so dargestellt, dass manche Quellen in Solr und manche in PostgreSQL und weitere in anderer Form abgelegt werden.
- Bei der eigenen Datenhaltung handelt es sich ohnehin offenbar nur um einen Cache, um Suchanfragen zu beschleunigen. Der Cache wird vermutlich spätestens nach 24 Stunden erneuert, um aktuelle Suchtreffer anbieten zu können.
- Google wird offenbar überhaupt nicht als Datenquelle genutzt. Das Layout und die Funktionen sehen zwar ähnlich aus, aber es ist offenbar alles "nachgebaut".
Quellen:
- Offizielle Hilfeseite von DuckDuckGo zum Thema "Sources": https://help.duckduckgo.com/duckduckgo-help-pages/results/sources/
- Artikel von 2013 auf Basis eines Interview mit dem Geschäftsführer von DuckDuckGo, Gabriel Weinberg: http://highscalability.com/blog/2013/1/28/duckduckgo-architecture-1-million-deep-searches-a-day-and-gr.html
- Englische Wikipedia: https://en.wikipedia.org/wiki/DuckDuckGo
- Deutsche Wikipedia: https://de.wikipedia.org/wiki/DuckDuckGo

Ver ficheiro

@ -0,0 +1,9 @@
# Metadaten modellieren und Schnittstellen nutzen
## Transformation von Metadaten mit OpenRefine
## XSLT Crosswalks mit MarcEdit
## Austauschprotokolle für Metadaten (OAI-PMH, SRU)
## Nutzung von JSON-APIs

Ver ficheiro

@ -1,56 +0,0 @@
# Repository-Software DSpace-CRIS
## Nachträge zu Themen aus den Lerntagebüchern
Zu Tag 5 (13.11., Solr, Primo, VuFind, ...):
* Was macht das Programm `curl`? Warum wird es in Tutorials von bekannter Software (z.B. Apache Solr) oft als Beispiel verwendet?
* Das Programm lädt Dateien (und Webseiten) aus dem Netzwerk/Internet. Es ist hilfreich, um Daten herunterzuladen oder mit Unix Tools auf der Kommandozeile direkt weiterzuverarbeiten.
* Zum Solr Tutorial:
* Was ist ein two-node-cluster?
* Was machen die folgenden beiden Befehle (und wo ist der Unterschied?)?
> bin/post -c films example/films/films.json
> C:\solr-8.2.0> java -jar -Dc=films -Dauto example\exampledocs\post.jar example\films\*.json
* Was bedeutet das voreingestellte `*:*` im Query-Feld in der Administrationsoberfläche?
* Was ist das "Back Office" von Primo?
* "The Primo Back Office is where all configurations to the Primo Front End and the rest of the system are made." (vgl. https://knowledge.exlibrisgroup.com/Primo/Training/Primo_Training/Primo_Certification/01_Primo_Back_Office_Overview)
* Begriffe werden unterschiedlich verwendet, siehe beispielsweise das Content-Management-System TYPO3: https://docs.typo3.org/m/typo3/tutorial-getting-started/master/en-us/GeneralPrinciples/BackendAndFrontend/Index.html
* Screenshots (Bildschirmfoto) in VirtualBox erstellen
* Menü: View (Anzeige) > Take Screenshot
* Tastaturkürzel: Host-Taste (in der Standardeinstellung STRG bzw. CTRL rechts) + E
* Falls Sie im Vollbildmodus arbeiten, ist das Menü unten in der Mitte erreichbar
Informationsquellen für aktuelle Entwicklungen im Bibliotheks- und Archivwesen:
* Zeitschriften: Welche kennen Sie?
* Präsentationen auf Konferenzen: Diese Woche gleich zwei spannende Konferenzen:
* SWIB19 http://swib.org/swib19/programme.html
* Heute Vortrag der SWIB19 per Livestream anschauen? 10:40 - 11:05 gibt es einen Vortrag "Data modeling in and beyond BIBFRAME"
* Europeana 2019 https://pro.europeana.eu/page/europeana-2019
* Social Media: Insbesondere Twitter (und neu: Mastodon), ggf. mit Zusatztools wie Nuzzle http://nuzzel.com
* Blogs: Siehe "Blogroll" unter https://plan3t.info/
* Übrigens: https://www.aubib.de veröffentlicht auch gerne Gastbeiträge (gestartet als Projekt von Studierenden des Bachelorstudiengangs Bibliotheks- und Informationsmanagement am Fachbereich Archiv- und Bibliothekswesen der Hochschule für den öffentlichen Dienst in Bayern)
## Repository-Software für Publikationen und Forschungsdaten (+ Forschungsinformationssysteme)
* Publikationen
* Open Access
* Statistik zu Open-Access-Repositorien: https://v2.sherpa.ac.uk/view/repository_visualisations/1.html
* Fokus: Zweitveröffentlichungen ("grüner Weg") und Hochschulschriften
* Forschungsdaten
* Open Data
* Verzeichnis von Forschungsdaten-Repositorien: https://www.re3data.org
* Fokus: Primärdaten, die bei der Forschung entstehen. Oft Daten als Anhang zu Zeitschriftenartikeln.
* Forschungsinformationen
* Informationen über Forschende, Drittmittelprojekte, Patente usw.
* Ziel ist die Forschungsberichterstattung. Um die Daten zusammenzuführen und Berichte erstellen zu können, werden oft Forschungsinformationssysteme an den Universitäten eingeführt.
* Beispiel "Kerndatensatz Forschung" in Deutschland: https://kerndatensatz-forschung.de/version1/technisches_datenmodell/ER-Modell.html
* Zum Stand in der Schweiz: Ackermann Krzemnicki, Sonia and Hägele, Bernd F. (2016): Die Standardisierung von Forschungsinformationen an Schweizer universitären Hochschulen. https://edoc.unibas.ch/54788/
* Beispiele
* Zenodo https://zenodo.org
* TUHH Open Research https://tore.tuhh.de
* DSpace-CRIS
* Öffentliche Demo-Installation von DSpace-CRIS (DSpace inkl. Modul für Forschungsinformationen): https://test.dspace-cris.4science.it

Ver ficheiro

@ -0,0 +1,9 @@
# Repository-Software DSpace-CRIS
## Transformation von Metadaten mit OpenRefine
## XSLT Crosswalks mit MarcEdit
## Austauschprotokolle für Metadaten (OAI-PMH, SRU)
## Nutzung von JSON-APIs

Ver ficheiro

@ -1,133 +0,0 @@
# Linked Data und Fazit
## Nachträge zu Themen aus Lerntagebüchern
* Unterschied zwischen upgrade und dist-upgrade
> `dist-upgrade` bringt die installierten Pakete auf den neuesten in den Paketquellen verfügbaren Stand. Hierbei werden im Gegensatz zu upgrade neue Pakete installiert und durch neue Abhängigkeiten unnötig gewordene Pakete ersetzt, auch wenn dies alte Abhängigkeiten beeinflusst. `dist-upgrade` benötigt keine Angabe von Paketnamen.
> https://wiki.ubuntuusers.de/apt/apt-get/#apt-get-dist-upgrade
* Nochmal rekapitulieren: Was haben wir beim Ausflug in die MySQL-Konfiguration eingestellt?
> If you wish to connect to the root account through the web-based installer in order to set up VuFind's database, you will need to disable the root account's “auth_socket” plugin, which prevents regular logins.
> https://vufind.org/wiki/installation:ubuntu#database_issues
* Hat Zenodo auch Nachteile?
* Jeder Record bekommt gleich bei Erstellung zwei DOIs, um Versionierung zu unterstützen. Eine DOI verweist stets auf die "aktuellste" Version (variabel), die andere auf exakt diese hochgeladene Version (fix). Ob das ein Vorteil oder Nachteil ist, ist Ansichtssache.
* Details: https://help.zenodo.org
## Metadaten aus Wikidata anreichern mit OpenRefine
Wir haben OpenRefine auf einem temporärem Webserver genutzt. Installationsanleitung: https://gist.github.com/felixlohmeier/0ec8b2e8241356ed52af072d9102b391
Wir bearbeiten gemeinsam Teile des Tutorials https://libjohn.github.io/openrefine/hands-on-reconciliation.html (nur Wikidata):
Make a New Project, Import Author Data
* `Create Project > Web Addresses (URLs)` > https://raw.githubusercontent.com/libjohn/openrefine/master/data/AA-authors-you-should-read.csv
* `Next` >>
* You many want to give your project a pretty title
* `Create Project` >>
* Change Show: to 25 to see all 11 records.
Reconciliation:
* `author > Reconcile > Start reconciling…`
* Under Services, click Wikidata Reconciliation for OpenRefine (en)
* Under Reconcile each cell to an entity of one of these types:, choose, `human`
* Click, `Start Reconciling`
* By clicking the approriate single checkbox in each cell of the authors column, manually slect the most appropriate author for our topic. (Our topic is African American Authors everyone should read). Not every cell has an author for which you must make a selection. Cells 2, 10 need your intervention.
* In Cell 2, James Baldwin, select the first option which a match of “(100)”
* In cell 10, Click on the first name, then the second name. Do you see an African-American writer? Choose him by clicking the corresponding single check-mark
Add more metadata from Wiki Data (only works for Wikidata as of this writing)
* `authors > Edit column > Add columns from reconciled values…`
* Under Suggested Properties, click place of birth and place of death
* OK
Übrigens: Es gibt auch einen Reconciliation-Endpoint für die Gemeinsame Normdatei (GND), vgl. http://blog.lobid.org/2018/08/27/openrefine.html
## Gastbeitrag Niklaus Stettler zu Records in Context (RiC)
Gastbeitrag Niklaus Stettler
Links:
* Thesaurus Termdat: https://www.bk.admin.ch/bk/de/home/dokumentation/sprachen/termdat.html
* Arbeitsgruppe ICA EGAD https://www.ica.org/en/about-egad
* RiC Ontologie 0.2 (2019): http://purl.org/ica/ric
* Access To Memory (AtoM) - Alternative zu ArchivesSpace, näher dran an RiC-Entwicklung: https://www.accesstomemory.org
* Archival Linked Open Data (aLOD): http://www.alod.ch
* Projektgruppe ENSEMEN: https://vsa-aas.ch/arbeitsgruppen/projektgruppe-ensemen/
## Suchanfragen mit SPARQL am Beispiel des Wikidata Query Service
Query-Service: https://query.wikidata.org (dort integrierte Beispiele)
Weitere Beispiele: https://blog.wikimedia.de/2016/10/30/10-coole-wikidata-abfragen-die-dir-neue-horizonte-eroeffnen-nummer-7-wird-dich-schockieren/
Tutorial:
* https://medium.com/freely-sharing-the-sum-of-all-knowledge/writing-a-wikidata-query-discovering-women-writers-from-north-africa-d020634f0f6c
Mehr zu SPARQL:
* https://programminghistorian.org/en/lessons/intro-to-linked-data
* https://programminghistorian.org/en/lessons/graph-databases-and-SPARQL
Linked Data Rechercheportal und Schnittstelle für die Daten der GND: https://lobid.org/gnd
## Evaluation
Methode: Kärtchenabfrage mit Pinnwandtechnik
> Die Gruppendiskussion wird mit zwei bis drei Fragen in Gang gebracht:
>
> 1. Wie beurteilen Sie die Lehrveranstaltung insgesamt?
Skala: sehr gut (4), gut (3), genügend (2). ungenügend (1)
Farbe: rund, orange
> 2. Was/Welches Verhalten der Lehrperson hat Ihnen das Lernen in diesem Kurs leicht/schwer gemacht? Bitte nennen Sie 1 bis 2 Beispiele.
Farbe: rechteckig, grün
> 3. Machen Sie bitte ein bis zwei konkrete Vorschläge, welche die Lehrperson umsetzen könnte, um Ihren Lernerfolg in diesem Kurs zu unterstützen.
Farbe: rechteckig, gelb
> Die Lehrperson (oder eine Moderation) schreibt die Fragen auf die Tafel oder eine Folie. Die Studierenden werden gebeten, die Antworten zunächst auf Kärtchen zu schreiben. Die Kärtchen werden (anonym) eingesammelt und vorgestellt. Die Lehrperson gruppiert die gesammelten Antworten, um Schwerpunkte bei den Antworten herauszufinden (Abb. 1).
>
> Es ist darauf zu achten, dass am Ende der Diskussion oder am Beginn der nächsten Veranstaltung ein abschliessendes Feedback zur Diskussion gestellt wird und dass realistische und konkrete Ziele formuliert werden.
## Diagramm zu Kursinhalten erstellen
Wir haben im Kurs verschiedene Software, Metadatenstandards und Schnittstellen kennengelernt. Versuchen Sie aus dem Gedächtnis einen Flowchart zu möglichen Datenflüssen zwischen den im Kurs kennengelernten Systemen (ähnlich dem Metadatenflussdiagramm der ETH-Bibliothek) zu skizzieren.
Nutzen Sie dazu den Mermaid live editor: https://mermaid-js.github.io/mermaid-live-editor/ oder alternativ ein Blatt Papier
## Install-Party
Welches Tool war für Sie persönlich am nützlichsten? Bitte wählen Sie eins aus und installieren Sie das in Gruppenarbeit dauerhaft auf Ihrem Rechner.
Gruppe 1: VirtualBox
* Neue Virtuelle Maschine mit Standard-Linux-Installation erstellen, z.B. mit Standard Ubuntu https://ubuntu.com/download oder einem anderen Linux (vgl. https://distrowatch.com)
* Vorgefertigte VirtualBox Appliances bei TurnKey Linux: https://www.turnkeylinux.org
Gruppe 2: OpenRefine unter Windows / MacOS
* Download: http://openrefine.org/download.html
* Installationsanleitung: https://github.com/OpenRefine/OpenRefine/wiki/Installation-Instructions
* benötigt Java https://www.java.com/de/download/
Gruppe 3: Eigenen temporären Webserver bei einem Cloud-Hoster einrichten (z.B. mit OpenRefine)
* Anleitung mit Authentifizierung: https://blog.ouseful.info/2019/01/07/running-openrefine-on-digital-ocean-using-simple-auth/ (dort auch Link für $100 Startkredit bei Digital Ocean)
* Anleitung ohne Authentifizierung (wie heute Vormittag): https://gist.github.com/felixlohmeier/0ec8b2e8241356ed52af072d9102b391
Gruppe 4: Ein guter Texteditor
* Typora (Markdown, Win/Mac/Linux): https://www.typora.io
* Pandoc für Import/Export: http://support.typora.io/Install-and-Use-Pandoc/
* Notepad++ (Win): https://notepad-plus-plus.org
* Atom (Win/Mac/Linux) https://atom.io
* Visual Studio Code (Win/Mac/Linux) https://code.visualstudio.com
## Empfehlenswerte Tutorials zum Selbstlernen
* Library Carpentry: https://librarycarpentry.org/lessons/
* Programming Historian: https://programminghistorian.org/en/lessons/
* openHPI: https://open.hpi.de/courses
* Datenschule: https://datenschule.de/lernmaterialien/

5
07_linked-data.md Ficheiro normal
Ver ficheiro

@ -0,0 +1,5 @@
# Linked Data und Fazit
## Suchanfragen mit SPARQL am Beispiel des Wikidata Query Service
## Metadaten anreichern mit OpenRefine und Wikidata

Ver ficheiro

@ -1,86 +1,75 @@
# Skript zum Kurs "Bibliotheks- und Archivinformatik"
Dieses Skript entstand in der Zeit von September 2019 bis März 2020 im Rahmen der folgenden Lehrveranstaltung:
Dieses Skript entsteht in der Zeit von März bis Mai 2020 im Rahmen der folgenden Lehrveranstaltung:
- Kurs "Bibliotheks- und Archivinformatik"
- Dozent: [Felix Lohmeier](http://felixlohmeier.de)
- Herbstsemester 2019
- Frühlingssemester 2020
- Lehrauftrag an der [FH Graubünden - Studiengang Information Science](https://www.fhgr.ch/studium/bachelorangebot/wirtschaft-und-dienstleistung/information-science/)
- Bachelor, 4. Semester, 4 ECTS
## Gemeinsames Dokument
Für Notizen und zum Austausch verwenden wir ein gemeinsames Dokument in einer [CodiMD](https://github.com/codimd/server)-Installation [bei der GWDG](https://pad.gwdg.de/). Alle, die den Link kennen, können es bearbeiten. Zur Formatierung wird [Markdown](https://de.wikipedia.org/wiki/Markdown) verwendet.
* [Gemeinsames Dokument](https://pad.gwdg.de/-r6PYpRjScC-w0JuI_Ovcg?both)
## Inhalte
1. [Installation und Grundlagen](01_installation-und-grundlagen.md) (25.09.2019)
- Einführung in Markdown (und CodiMD)
- Einführung in die Arbeitsumgebung JupyterLab
- Einführung in Virtualisierungstechnologie
- Einführung in die Kommandozeile
2. [Bibliothekssystem Koha](02_bibliothekssystem-koha.md) (09.10.2019)
1. [Technische Grundlagen](01_technische-grundlagen.md) (13.03.2020)
- Einrichtung der Arbeitsumgebung (Linux)
- Grundlagen der Unix Shell
- Versionskontrolle mit Git
2. [Funktion und Aufbau von Bibliothekssystemen](02_funktion-und-aufbau-von-bibliothekssystemen.md) (13.03.2020/03.04.2020)
- Installation und Konfiguration von Koha
- Vergleich mit anderen Bibliothekssystemen
3. [Archivsystem ArchivesSpace](03_archivsystem-archivesspace.md) (30.10.2019)
- Metadatenstandards in Archiven (ISAD(G) und EAD)
- Gastbeitrag Michael Gasser (ETH) zu CMI STAR und Systemlandschaft der ETH-Bibliothek
- Metadatenstandards in Bibliotheken (MARC21)
- Marktüberblick Bibliothekssysteme
3. [Funktion und Aufbau von Archivsystemen](03_funktion-und-aufbau-von-archivsystemen.md) (03.04.2020)
- Installation und Konfiguration von ArchivesSpace
4. [Metadaten transformieren mit OpenRefine und MarcEdit](04_metadaten-transformieren-mit-openrefine-und-marcedit.md) (06.11.2019)
- Metadatenstandards in Archiven (ISAD(G) und EAD)
- Marktüberblick Archivsysteme
4. [Repository-Software für Publikationen und Forschungsdaten](04_repository-software-fuer-publikationen-und-forschungsdaten.md) (15.05.2020)
- Installation und Konfiguration von DSpace
- Open Access und Open Data
- Marktüberblick Repository-Software
5. [Metadaten modellieren und Schnittstellen nutzen](05_metadaten-modellieren-und-schnittstellen-nutzen.md) (15.05.2020)
- Transformation von Metadaten mit OpenRefine
- XSLT Crosswalks mit MarcEdit
- Schnittstellen SRU, OAI-PMH und Z39.50 harvesten
- Weitere Tools für Metadatentransformationen
5. [Discovery-System VuFind und Suchmaschine Solr](05_discovery-system-vufind-und-suchmaschine-solr.md) (13.11.2019)
- Gastvortrag von Noémie Ammann (ETH) zu Primo und SLSP
- Marktüberblick Discovery-Systeme
- Funktionen von Suchmaschinen am Beispiel von Solr
- Austauschprotokolle für Metadaten (OAI-PMH, SRU)
- Nutzung von JSON-APIs
6. [Suchmaschinen und Discovery-Systeme](06_suchmaschinen-und-discovery-systeme.md) (05.06.2020)
- Funktion von Suchmaschinen am Beispiel von Solr
- Installation und Konfiguration von VuFind
- Gruppenarbeit zu Metadatenflüssen
- Architektur der Suchmaschine DuckDuckGo
6. [Repository-Software DSpace-CRIS](06_repository-software-dspace-cris.md) (27.11.2019)
- Repository-Software für Publikationen und Forschungsdaten (+ Forschungsinformationssysteme)
7. [Linked Data und Fazit](07_linked-data-und-fazit.md) (11.12.2019)
- Metadaten aus Wikidata anreichern mit OpenRefine
- Gastbeitrag von Niklaus Stettler (FHGR) zu Records in Context (RiC)
- Marktüberblick Discovery-Systeme
7. [Linked Data](07_linked-data.md) (06.06.2020)
- Suchanfragen mit SPARQL am Beispiel des Wikidata Query Service
- Evaluation, Diagramm zu Kursinhalten, Install-Party
- Empfehlenswerte Tutorials zum Selbstlernen
Hinweise für Lehrende:
* [VirtualBox Appliance erstellen](notes_virtualbox-appliance-erstellen.md)
* [Bootfähige USB-Sticks erstellen](notes_bootfaehige-usb-sticks-erstellen.md)
- Metadaten anreichern mit OpenRefine und Wikidata
## Lerntagebücher
Als Prüfungsleistung schreiben Studierende Blogs, in denen sie von ihren Erkenntnissen berichten und sich mit den Inhalten des Seminars auseinandersetzen.
* Markus Barten: <https://informatik168014933.wordpress.com>
* Sabrina Berner: <https://powernappers.wordpress.com/sabrina/>
* Nadine Bolliger: <https://bain-iw17-nb.blogspot.com/search/label/deutsch>
* Adrienn Duff: <https://bainundich.jimdofree.com/berichte/>
* Sophie Emsberger: <https://sophieemachtbain.jimdofree.com/blog/>
* Bruno Frey: <https://brunos-bain-blog.jimdofree.com/bain-blog-1/>
* Olivia Gruber: <https://not-brains-bain.jimdofree.com/unterrichtseinheiten/>
* Christian Hirth: <https://asterixblogbain.jimdofree.com/blog/>
* Kelly Ann Kuster: <https://bain-blog.jimdofree.com>
* Debora Messerli: <https://bainhart.jimdofree.com>
* Jonathan Ott: <https://joni-ott.jimdofree.com>
* Jannis Raetz: <https://powernappers.wordpress.com/jannis/>
(folgt)
## Modulbeschreibung
Im Modul Bibliotheks- und Archivinformatik lernen die Studierenden die in Bibliotheken und Archiven eingesetzten Softwares und Technologien kennen. Funktionsweisen von Bibliothekskatalogen \(bis hin zu Cloud-Konzepten\), von Publikationsplattformen, Repositories etc. werden erläutert. Verschiedene Suchtechnologien werden analysiert und im Einsatz über unterschiedliche Datenbestände angewandt. Es wird gezeigt, wie Metadatenstandards und Austauschprotokolle eingesetzt und genutzt werden.
Im Modul Bibliotheks- und Archivinformatik lernen die Studierenden die in Bibliotheken und Archiven eingesetzten Softwares und Technologien kennen. Funktionsweisen von Bibliothekskatalogen (bis hin zu Cloud-Konzepten), von Publikationsplattformen, Repositories etc. werden erläutert. Verschiedene Suchtechnologien werden analysiert und im Einsatz über unterschiedliche Datenbestände angewandt. Es wird gezeigt, wie Metadatenstandards und Austauschprotokolle eingesetzt und genutzt werden.
Nach erfolgreicher Teilnahme am Modul sind die Studierenden in der Lage:
* die Funktionsweise spezifischer Bibliothekssoftware zu verstehen
* die richtige Software für eine spezifische Aufgabe zu evaluieren
* Suchmaschinen zu konfigurieren
* Webseiten für Suchmaschinen zu optimieren \(SEO\)
* Bibliothekarische und archivarische Metadaten \(z.B. MARC, MARCXML, MODS, Dublin Core, EAD, BIBFRAME\) zu modellieren und diese mit entsprechenden Protokollen / Anwendungen zu übertragen
* Bibliothekarische und archivarische Metadaten (z.B. MARC, MARCXML, MODS, Dublin Core, EAD, BIBFRAME) zu modellieren und diese mit entsprechenden Protokollen / Anwendungen zu übertragen
* Crosswalks zwischen unterschiedlichen Metadatenformaten zu programmieren
## Skripte der Vorjahre
Herbstsemester 2019:
* Zenodo: [10.5281/zenodo.3701841](https://zenodo.org/record/3701841)
* GitHub: [v2.0](https://github.com/felixlohmeier/bibliotheks-und-archivinformatik/releases/tag/v1.0)
Herbstsemester 2017:
* Zenodo: [10.5281/zenodo.3383051](https://doi.org/10.5281/zenodo.3383051)

Ver ficheiro

@ -1,10 +1,8 @@
* [Einleitung](README.md)
* [1. Installation und Grundlagen](01_installation-und-grundlagen.md)
* [2. Bibliothekssystem Koha](02_bibliothekssystem-koha.md)
* [3. Archivsystem ArchivesSpace](03_archivsystem-archivesspace.md)
* [4. Metadaten transformieren mit OpenRefine und MarcEdit](04_metadaten-transformieren-mit-openrefine-und-marcedit.md)
* [5. Discovery-System VuFind und Suchmaschine Solr](05_discovery-system-vufind-und-suchmaschine-solr.md)
* [6. Repository-Software DSpace-CRIS](06_repository-software-dspace-cris.md)
* [7. Linked Data und Fazit](07_linked-data-und-fazit.md)
* [VirtualBox Appliance erstellen](notes_virtualbox-appliance-erstellen.md)
* [Bootfähige USB-Sticks erstellen](notes_bootfaehige-usb-sticks-erstellen.md)
* [1. Technische Grundlagen](01_technische-grundlagen.md)
* [2. Funktion und Aufbau von Bibliothekssystemen](02_funktion-und-aufbau-von-bibliothekssystemen.md)
* [3. Funktion und Aufbau von Archivsystemen](03_funktion-und-aufbau-von-archivsystemen.md)
* [4. Repository-Software für Publikationen und Forschungsdaten](04_repository-software-fuer-publikationen-und-forschungsdaten.md)
* [5. Metadaten modellieren und Schnittstellen nutzen](05_metadaten-modellieren-und-schnittstellen-nutzen.md)
* [6. Suchmaschinen und Discovery-Systeme](06_suchmaschinen-und-discovery-systeme.md)
* [7. Linked Data](07_linked-data.md)

Ver ficheiro

@ -1,9 +1,9 @@
<!DOCTYPE html>
<html>
<head>
<title>VuFind Tutorial (de)</title>
<title>Bibliotheks- und Archivinformatik FS2020</title>
<meta name="author" content="Felix Lohmeier">
<meta name="description" content="Skript zum Kurs Bibliotheks- und Archivinformatik an der FH Graubünden im Herbstsemester 2019">
<meta name="description" content="Skript zum Kurs Bibliotheks- und Archivinformatik an der FH Graubünden im Frühlingssemester 2020">
<meta http-equiv="X-UA-Compatible" content="IE=edge,chrome=1">
<meta name="viewport" content="width=device-width,initial-scale=1">
<meta charset="UTF-8">
@ -14,7 +14,7 @@
<div id="app"></div>
<script>
window.$docsify = {
name: "BAIN HS19",
name: "BAIN FS20",
repo: "felixlohmeier/bibliotheks-und-archivinformatik",
subMaxLevel: 2,
search: 'auto',

Ver ficheiro

@ -1,99 +0,0 @@
{
"cells": [
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Library Carpentry: Unix Shell"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"<https://librarycarpentry.org/lc-shell/>"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Setup"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### In das Home-Verzeichnis wechseln"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"cd"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Archiv `shell-lesson.zip` von Library Carpentry herunterladen"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"wget https://librarycarpentry.org/lc-shell/data/shell-lesson.zip"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Archiv in den Ordner `shell-lesson` entpacken und Archiv löschen"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"unzip shell-lesson.zip -d shell-lesson && rm shell-lesson.zip"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Los geht's...\n",
"\n",
"Öffnen Sie ein Terminal (`File` > `New` > `Terminal`) und beginnen Sie mit Kapitel 2 \"Navigating the Filesystem\":\n",
"\n",
"<https://librarycarpentry.org/lc-shell/02-navigating-the-filesystem/index.html>"
]
}
],
"metadata": {
"kernelspec": {
"display_name": "Bash",
"language": "bash",
"name": "bash"
},
"language_info": {
"codemirror_mode": "shell",
"file_extension": ".sh",
"mimetype": "text/x-sh",
"name": "bash"
}
},
"nbformat": 4,
"nbformat_minor": 4
}

Ver ficheiro

@ -1,198 +0,0 @@
{
"cells": [
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Bibliothekssystem Koha"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Die folgenden Befehle orientieren sich an der [offiziellen Installationsanleitung](http://wiki.koha-community.org/wiki/Debian)."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Installation von Koha 19.05"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Paketquellen für Koha registrieren"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"echo 'deb http://debian.koha-community.org/koha 19.05 main' | sudo tee /etc/apt/sources.list.d/koha.list\n",
"wget -q -O- http://debian.koha-community.org/koha/gpg.asc | sudo apt-key add -\n",
"sudo apt-get update"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Koha und die Datenbank MariaDB installieren"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"sudo apt-get install -qq -y koha-common mariadb-server"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Domain `meine-schule.org` für Koha konfigurieren"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"sudo sed -i 's/DOMAIN=\".myDNSname.org\"/DOMAIN=\".meine-schule.org\"/' /etc/koha/koha-sites.conf"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Apache Konfiguration"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"sudo a2enmod rewrite\n",
"sudo a2enmod cgi\n",
"sudo service apache2 restart"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Eine Bibliothek in Koha erstellen"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"sudo koha-create --create-db bibliothek"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Deutsche Übersetzung für Koha installieren"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"sudo koha-translate --install de-DE"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Host-Datei ergänzen"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"echo '# Koha\n",
"127.0.0.1 bibliothek.meine-schule.org\n",
"127.0.0.1 bibliothek-intra.meine-schule.org\n",
"' | sudo tee -a /etc/hosts"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Befehl, um generiertes Passwort herauszufinden"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"sudo xmlstarlet sel -t -v 'yazgfs/config/pass' /etc/koha/sites/bibliothek/koha-conf.xml;echo"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Los geht's...\n",
"\n",
"Wir verwenden ein Tutorial von Stephan Tetzel, das auf deutsch und englisch verfügbar ist:\n",
"* Deutsch: https://zefanjas.de/wie-man-koha-installiert-und-fuer-schulen-einrichtet-teil-1/\n",
"* Englisch: https://openschoolsolutions.org/how-to-install-and-set-up-koha-for-schools-part-1/\n",
"\n",
"Das Tutorial besteht aus 6 Kapiteln (die Links zu den weiteren Kapiteln sind immer am Anfang der Blogartikel):\n",
"\n",
"1. Installation und Einrichtung einer ersten Bibliothek\n",
"2. Das bibliografische Framework\n",
"3. Grundeinstellungen\n",
"4. Buchaufnahme\n",
"5. Drucken von Etiketten\n",
"6. Ausleihkonditionen\n",
"\n",
"Die im Tutorial erwähnte Grundinstallation haben wir oben bereits durchgeführt. Bitte starten Sie in Kapitel 1 unter der Überschrift \"Koha einrichten\":\n",
"https://zefanjas.de/wie-man-koha-installiert-und-fuer-schulen-einrichtet-teil-1/"
]
}
],
"metadata": {
"kernelspec": {
"display_name": "Bash",
"language": "bash",
"name": "bash"
},
"language_info": {
"codemirror_mode": "shell",
"file_extension": ".sh",
"mimetype": "text/x-sh",
"name": "bash"
}
},
"nbformat": 4,
"nbformat_minor": 4
}

Ver ficheiro

@ -1,132 +0,0 @@
{
"cells": [
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Archivinformationssystem ArchivesSpace"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"<https://archivesspace.org>"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Installation von ArchivesSpace 2.7.0\n",
"\n",
"Die folgenden Befehle basieren auf den offiziellen Anleitungen unter:\n",
"* <https://archivesspace.github.io/archivesspace/user/getting-started-with-archivesspace/>\n",
"* <https://github.com/archivesspace/archivesspace/releases/tag/v2.7.0>"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### In das Home-Verzeichnis wechseln"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"cd"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Java 8 installieren"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"sudo apt-get install -qq -y openjdk-8-jre-headless"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Zip-Archiv herunterladen und entpacken"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"wget https://github.com/archivesspace/archivesspace/releases/download/v2.7.0/archivesspace-v2.7.0.zip\n",
"unzip -q archivesspace-v2.7.0.zip"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### ArchivesSpace starten\n",
"\n",
"JupyterLab verwendet die gleiche Adresse wie ArchivesSpace, daher müssen wir JupyterLab beenden bevor wir ArchivesSpace starten.\n",
"\n",
"Bitte öffnen Sie ein Terminal (**nicht in JupyterLab**, sondern über Start > Systemwerkzeuge > LXTerminal) und geben Sie dort die folgenden Befehle ein:"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"sudo systemctl stop jupyter\n",
"archivesspace/archivesspace.sh"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Los geht's...\n",
"\n",
"Nach ein paar Minuten sollte ArchivesSpace unter folgenden URLs erreichbar sein:\n",
"* http://localhost:8080/ the staff interface\n",
"* http://localhost:8081/ the public interface\n",
"* http://localhost:8082/ the OAI-PMH server\n",
"* http://localhost:8089/ the backend\n",
"* http://localhost:8090/ the Solr admin console\n",
"\n",
"Zugangsdaten für das \"Staff Interface\" sind:\n",
"* Username: `admin`\n",
"* Password: `admin`"
]
}
],
"metadata": {
"kernelspec": {
"display_name": "Bash",
"language": "bash",
"name": "bash"
},
"language_info": {
"codemirror_mode": "shell",
"file_extension": ".sh",
"mimetype": "text/x-sh",
"name": "bash"
}
},
"nbformat": 4,
"nbformat_minor": 4
}

Ver ficheiro

@ -1,147 +0,0 @@
{
"cells": [
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Library Carpentry: OpenRefine"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"<https://librarycarpentry.org/lc-open-refine/>"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Installation von OpenRefine 3.2"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### In das Homeverzeichnis wechseln"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"cd"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Java 8 installieren"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"sudo apt-get install -qq -y openjdk-8-jre-headless"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Daten von Library Carpentry herunterladen"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"scrolled": true
},
"outputs": [],
"source": [
"wget https://github.com/LibraryCarpentry/lc-open-refine/raw/gh-pages/data/doaj-article-sample.csv"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### OpenRefine herunterladen und in den Ordner `openrefine` entpacken"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"scrolled": false
},
"outputs": [],
"source": [
"wget https://github.com/OpenRefine/OpenRefine/releases/download/3.2/openrefine-linux-3.2.tar.gz\n",
"mkdir -p openrefine\n",
"tar -xzf openrefine-linux-3.2.tar.gz -C openrefine --strip 1 --totals\n",
"rm openrefine-linux-3.2.tar.gz"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### OpenRefine starten"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"scrolled": false
},
"outputs": [],
"source": [
"openrefine/refine"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Los geht's..."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Die Adresse von OpenRefine <http://127.0.0.1:3333> sollte sich nach max. 1 Minute automatisch im Browser öffnen.\n",
"\n",
"OpenRefine läuft solange, wie der obige Startbefehl ausgeführt wird. Daten werden automatisch alle 5 Minuten gespeichert.\n",
"\n",
"Bearbeiten Sie nun die Library Carpentry Lesson zu OpenRefine: <https://librarycarpentry.org/lc-open-refine/>. Die für Kapitel 2 benötigten Beispieldaten haben wir mit einem der Befehle oben bereits heruntergeladen. Die Datei `doaj-article-sample.csv` sollte in Ihrem Benutzerverzeichnis liegen."
]
}
],
"metadata": {
"kernelspec": {
"display_name": "Bash",
"language": "bash",
"name": "bash"
},
"language_info": {
"codemirror_mode": "shell",
"file_extension": ".sh",
"mimetype": "text/x-sh",
"name": "bash"
}
},
"nbformat": 4,
"nbformat_minor": 2
}

Ver ficheiro

@ -1,129 +0,0 @@
{
"cells": [
{
"cell_type": "markdown",
"metadata": {},
"source": [
"# Metadaten transformieren mit MarcEdit"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"<https://marcedit.reeset.net/>"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Installation von MarcEdit 7"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### In das Homeverzeichnis wechseln"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"cd"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### Mono installieren"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"sudo apt-key adv --keyserver hkp://keyserver.ubuntu.com:80 --recv-keys 3FA7E0328081BFF6A14DA29AA6A19B38D3D831EF\n",
"echo \"deb https://download.mono-project.com/repo/ubuntu stable-bionic main\" | sudo tee /etc/apt/sources.list.d/mono-official-stable.list\n",
"sudo apt-get install -qq -y mono-complete"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### MarcEdit Installationsdatei herunterladen"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"scrolled": true
},
"outputs": [],
"source": [
"wget https://marcedit.reeset.net/software/marcedit7/marcedit7.run"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"### MarcEdit installieren"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {
"scrolled": false
},
"outputs": [],
"source": [
"chmod +x marcedit7.run\n",
"./marcedit7.run"
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"## Los geht's..."
]
},
{
"cell_type": "markdown",
"metadata": {},
"source": [
"Auf dem Desktop sollte nach erfolgreicher Installation ein Shortcut sein, um MarcEdit aufzurufen.\n",
"\n",
"Beim ersten Start erscheint ein Wizard, in dem Sie die Standardeinstellungen übernehmen können. Die empfohlenen Schriftarten können bei Bedarf anhand der Hinweise unter https://marcedit.reeset.net/replacement-unicode-fonts installiert werden.\n",
"\n",
"Bearbeiten Sie nun die Library Carpentry Lesson zu MarcEdit: <https://librarycarpentry.org/lc-marcedit/>. Die Lesson ist noch ein einem sehr frühen Stadium, daher können Fehler auftreten."
]
}
],
"metadata": {
"kernelspec": {
"display_name": "Bash",
"language": "bash",
"name": "bash"
},
"language_info": {
"codemirror_mode": "shell",
"file_extension": ".sh",
"mimetype": "text/x-sh",
"name": "bash"
}
},
"nbformat": 4,
"nbformat_minor": 2
}

Ver ficheiro

@ -1,85 +0,0 @@
## Bootfähige USB-Sticks erstellen
Als Alternative zu VirtualBox bei Hardware-Problemen.
Wir nutzen das Tool [mkusb](https://help.ubuntu.com/community/mkusb), um USB-Sticks zu erstellen, die mit BIOS und UEFI (inkl. Secure Boot) bootbar sind. Es werden USB-Sticks mit USB 3.0, schneller Schreibgeschwindigkeit und mindestens 16 GB Speicherplatz benötigt. Im Kurs wurde verwendet: [Sandisk Ultra Fit 32GB](https://www.idealo.de/preisvergleich/OffersOfProduct/4524027_-ultra-fit-32gb-sandisk.html).
1. Als erstes wird ein bootbarer Ubuntu USB stick benötigt. Folgen Sie der offiziellen Anleitung
- Windows: https://tutorials.ubuntu.com/tutorial/tutorial-create-a-usb-stick-on-windows
- macOS: https://tutorials.ubuntu.com/tutorial/tutorial-create-a-usb-stick-on-macos
- Linux: https://tutorials.ubuntu.com/tutorial/tutorial-create-a-usb-stick-on-ubuntu
2. Booten Sie vom USB-Stick und installieren Sie mkusb
```
sudo add-apt-repository universe # only for standard Ubuntu
sudo add-apt-repository ppa:mkusb/ppa # and press Enter
sudo apt-get update
sudo apt-get install mkusb mkusb-nox usb-pack-efi
```
3. Zweiten USB-Stick einstecken und mkusb starten
- Option `Install` / `Persistent Live` wählen
- Einstellung `msdos` auswählen
4. Herunterfahren, ersten USB-Stick entfernen und vom verbliebenen (zweiten) USB-Stick im Modus Run Lubuntu - persistent live" booten
1. Tastatur einstellen
- System Tools > Fcitx starten.
- Unten rechts erscheint ein Tastatur-Icon. Dort `configure` aufrufen.
- Bei Available Input Method `German` > `Keyboard - German` auswählen und Button Pfeil nach rechts anklicken. Dann `Keyboard - English (US)` rechts anklicken und Button Pfeil nach links anklicken.
2. Spracheinstellungen
- Preferences > Language Support starten.
- Tab `Language`
- Deutsch (Deutschland) vor English schieben
- System der Tastatureingabemethode: `fcitx`
- Button `Apply System-Wide` drücken
- Tab `Regional Formats`
- Deutsch (Deutschland) auswählen
- Button `Apply System-Wide` drücken
3. Zeiteinstellungen:
- System Tools > Time and Date starten
- Time Zone: `Europe/Berlin` auswählen
4. Neustarten und beim anschließenden Dialog `Namen aktualisieren` wählen.
5. Internetverbindung herstellen über Network Manager Icon unten rechts
6. Systemupdates
```
sudo apt update && sudo apt upgrade
```
5. Neustarten, wieder im Modus "Run Lubuntu - persistent live" booten und dann Schritte 7-12 aus der obigen Anleitung zu VirtualBox ausführen
6. Konfiguration Browser
- Startseite auf http://localhost:8888/lab/tree/home/lubuntu/bibliotheks-und-archivinformatik setzen
7. Passwörter löschen (z.B. WLAN-Passwort)
8. Im Modus "Try Lubuntu without installing" booten
1. Datei `media/lubuntu/usbboot/boot/grub` bearbeiten
1. Menüeintrag `Try Lubuntu without installing` umbenennen in `Run Lubuntu - without changes (backup & restore)`
2. Die beiden Menüeinträge für Installation entfernen
2. Backup erstellen
```
cd /media/lubuntu/usbdata
bash backup
```
Bei Bedarf können Backups auf die gleiche Weise wiederhergestellt werden (mit `bash restore`). Die Partition `usbdata` ist in anderen Betriebssystemen lesbar (NTFS), so dass die Backups auch anderswo gespeichert werden können.
Zur Vervielfältigung der USB-Sticks bietet sich ein Disk Utility an, unter Gnome beispielsweise "Disks". Damit lässt sich ein Image erstellen und anschließend auf weitere USB-Sticks aufspielen.

Ver ficheiro

@ -1,148 +0,0 @@
## VirtualBox Appliance erstellen
Den Studierenden wird eine vorkonfigurierte Arbeitsumgebung mit JupyterLab in Form einer VirtualBox Appliance (.ova) bereitgestellt. Hier wird dokumentiert, wie diese Appliance hergestellt wird:
1. Neue Virtuelle Maschine erstellen
- Name: lubuntu-bain
- Type: Linux / Ubuntu (64-bit)
- Memory: 2048 MB
- Hard Disk: VDI, dynamically allocated, 20 GB
2. VM settings
- General > Advanced > Shared Clipboard: Bidirectional
- General > Advanced > Shared Clipboard: user: bain, pass: bain2019
- System > Processor: 2 CPUs, Enable PAE/NX
3. Installation Lubuntu 18.04
1. Download der ISO-Datei: http://cdimage.ubuntu.com/lubuntu/releases/18.04.2/release/lubuntu-18.04.3-desktop-amd64.iso
2. VM starten und heruntergeladene ISO-Datei auswählen
3. Standardinstallation mit folgenden Parametern:
- Language: Deutsch
- Minimale installation
- Ort: Berlin
- Name: bain
- Passwort: bain2019
- Automatisch anmelden aktivieren
4. Installation Gasterweiterungen
1. Abhängigkeiten installieren
```
sudo apt update && \
sudo apt install build-essential dkms linux-headers-$(uname -r)
```
2. VirtualBox Fenstermenü > Devices > Insert Guest Addtions CD image... abbrechen und eingeben:
```
sudo /media/$USER/VBox*/VBoxLinuxAdditions.run
```
3. Nutzer der Gruppe vboxsf hinzufügen (für shared folder)
```
sudo adduser $USER vboxsf
```
4. CD auswerfen im Dateimanager und neustarten
5. Sudo ohne Passwort erlauben
```
sudo echo "$USER ALL=(ALL) NOPASSWD: ALL" | sudo tee --append /etc/sudoers
```
6. Updates installieren und neustarten
```
sudo apt update && \
sudo apt upgrade && \
sudo shutdown -r now
```
7. Installation JupyterLab via pip mit jupyter-server-proxy und bash_kernel
```
sudo apt install python3-pip python3-dev && \
sudo -H pip3 install --upgrade pip && \
sudo -H pip3 install jupyter && \
sudo -H pip3 install jupyterlab && \
sudo -H pip3 install jupyter-server-proxy && \
sudo -H pip3 install bash_kernel && \
sudo -H python3 -m bash_kernel.install
```
8. Jupyter einmal manuell starten für den Cookie im Browser
```
jupyter notebook
```
9. JupyterLab als Systemd Service einrichten
```
echo "[Unit]
Description=JupyterLab
[Service]
User=$USER
ExecStart=/usr/local/bin/jupyter-lab
ExecStop=/usr/local/bin/jupyter-notebook stop
WorkingDirectory=/
Restart=always
[Install]
WantedBy=default.target" | sudo tee /etc/systemd/system/jupyter.service
sudo systemctl enable jupyter.service
sudo systemctl start jupyter.service
```
10. GitHub Repo clonen
```
sudo apt install git && \
git clone https://github.com/felixlohmeier/bibliotheks-und-archivinformatik.git
```
11. Desktop-Links
1. Jupyter Notebook
```
echo "[Desktop Entry]
Encoding=UTF-8
Name=JupyterLab
Type=Link
URL=http://localhost:8888/lab/tree/home/$USER/bibliotheks-und-archivinformatik
Icon=text-html" >> ~/Desktop/jupyter-notebook
```
2. Gemeinsames Dokument
```
echo "[Desktop Entry]
Encoding=UTF-8
Name=Gemeinsames Dokument
Type=Link
URL=https://pad.gwdg.de/7X8eCDVoQB2Ng6DZlG40LQ?both
Icon=text-html" >> ~/Desktop/gemeinsames-dokument
```
3. Ordner
```
ln -s ~/bibliotheks-und-archivinformatik ~/Desktop/bibliotheks-und-archivinformatik
```
12. Konfiguration Startleiste
- Leafpad starten und mit rechter Maustaste zum Starter hinzufügen
- LX-Terminal starten und mit rechter Maus zum Starter hinzufügen
13. Konfiguration Browser
- Startseite auf http://localhost:8888/lab/tree/home/bain/bibliotheks-und-archivinformatik setzen
14. Virtuelle Maschine als Appliance exportieren über Dialog im Menü `Machine` > `Export to OCI`

Ficheiro binário não mostrado.

Antes

Largura:  |  Altura:  |  Tamanho: 70 KiB