Lerntagebuch

Fühl dich wie daheim

Hallo und Willkommen auf diesem Trümmerhaufen von einer Website Ich schreibe hier über meine Erfahrungen im Kurs Bibliotheks- und Archivinformatik. Zumindest wenn ich nicht damit beschäftigt bin, irgendwelche selbstausgelösten Bugs zu korrigieren.

Posts

  • Lektion 7

    Abstract

    Fortsetzung der letzten Stunde, Bearbeitung

    Lektion im Detail

  • OAI-PMH

    ALs etwas ärgerlich stellte sich der Umstand heraus, dass DSpace übers WOchenende jeweils seine EInträge zurücksetzt (zumindest in der Demo-VErsion). Angesichts der relativ langen Zeit zwischen Lektion und Bearbeitung der AUsgabe erwies sich das Wiederholen des Uploads als guter Refresher, worum es in der Lektion überhaupt ging. Nachteilig erwies sich aber die Zeitdauer zwischen Upload und Anzeige auf der OAI-PMH-Schnittstelle. Mein zweiter Versuch übers WOchenene verlief dementsprechend nicht sonderlich erfolgreich. Mein dritter ist derzeit noch offen.

  • Lektion 6

    Abstract

    Besprechung der DSpace-Hausaufgabe, Metadaten modellieren und Schnittstellen nutzen

    Lektion im Detail

    OPAC = Online Public Access Catalog Discovery-System = Marketingbegriff für neue Generation von OPACs, die nach dem Schema von Google, Amazon etc. aufgebaut sind (?). Schaubild aus der ersten Lektion brachte Dinge wieder in gemeinsamen Kontext. Installation und Harvesting der bisher angesammelten Daten der Bibliotheks-/Archivoberflächen und Repositories in ein einheitliches MARC21-Format mit VuFindHarvest Crosswalks = Begriff für Konvertierung zwischen verschiedenen Metadatenstandards. bestimmt die Regeln, wie die Elemente und WErte der einzelnen Regelwerke einander zugeordnet wird (mapping). Im idealfall verlustfre, in der Praxis meist keine direkte Entsprechung. XSLT = Programmiersprache für diese Konvertierungen ABer wie macht man diese Zuordnungen? Mit Mapping! WHooo! Im Grossen und Ganzen werden hier die einzelnen Felder manuell einander zugeordnet. Als Skriptsprache für das Mapping wird XSLT verwendet. Leider blieb im Rahmen des Kurses keine Zeit fürs Lernen der XSLT-SPrache. Ist vielleicht besser so. Als einfache und kostenlose Lösung für solche Crosswalks ist das etwas hakelige Programm MarcEdit. THEORETISCH sollte es die verschiedenen FOrmate konvertieren. In der Praxis hatte das Programm bei der Übung, die EAD- und MARC-Formate in MARC21XML umzuwandeln, mehrfach den Geist aufgegeben. ANscheinend gibt es Probleme mit dem Programm auf Linux-Oberflächen.

  • Lektion 5

    Abstract

    Fortsetzung Archivinformatik: Marktüberblick Archivsysteme. Hauptthema: Online-Repositories und Publikation von Forschungsdaten

    Lektion im Detail

    DSpace (Open SOurce-Applikation für die Darstellung von Publikationen und Forschungsdaten) mit Beispielen Standard: DUblin Core, kompatibel mit DataCite. Zwei VErsionen (6.x (nicht mehr fortgesetzt), 7.x (modernere Technologie, aber noch nicht voller Funktionsumfang von 6)) In diesem Zusammenhang vielleicht interessant (und auch fortführend von der letzten Sitzung mit Alma): Wann ist der beste Zeitpunkt, um von einer VErsion oder Plattform auf eine andere zu wechseln? Durch meine Arbeit kenne ich mit etwas mit ZENODO aus, habe mich aber nie genauer mit der darunterliegenden Infrastruktur auseinandergesetzt. Bei der Bearbeitung von Aufgabe mit dem SUbmission Review sind mir einige kleine Fehler unterlaufen, da ich versucht habe, möglichst viel voraus zu bearbeiten. Mein erster Versuch war über das XML-UI, wobei mir vor allem die unheimliche Langsamkeit des Systems aufgefallen ist. GLücklicherweise liessen sich die Daten einfach übertragen. Mein zweiter Versuch via JSPUI verlief wesentlich besser, auch wenn ich dort beim AUsfüllen der Submission irgendwie den Kontrollprozess vorweg genommen habe. Von der Arbeit her bin ich es mich gewohnt, nur dann CC-Lizenzen auszuschreiben, wenn ich sie auch nachweisen kann. Alternativ könnte es ein Folgefehler aufgrund meines Starts im XML-UI sein, falls ich für meine COllection keinen Workflow deffiniert habe.

  • Lektion 4

    Abstract

    Gastvortrag über Alma mit Live-Demo, Einführung in Archivinformatik mittels ArchiveSpace

    Lektion im Detail

  • Lektion 3

    Abstract

    Einführung in Bibliothekssysteme via Koha, Erklärung von Regelwerken mit Beispielen wie RDA. Nebenbei wurde auch der Unterschied zwischen Regelwerken und Datenformaten genauer erklärt. Anschliessend wurden die Hausaufgaben des vorherigen Kapitels genauer besprochen und gemeinsam Schritt für Schritt durchgearbeitet. Zuletzt wurde noch ein kurzer Überblick über den Bibliothekssoftwaremarkt gegeben. In besonderem Fokus standen hierbei Aleph (RIP), Koha und Alma, wobei auf letzteres in der SItzung vom 11.05. genauer eingegangen werden sollte.

  • Lektion 2

    Abstract

    In dieser Lektion wurden erst einige Ergebnisse und Erkenntnisse aus den ersten Tagebucheinträgen ausgewertet, wie zum Beispiel besondere Erwartungen oder unsere beruflichen Hintergründe. Danach wurde der Einrichtungsprozess in GitHub aus der vorherigen Lektion fortgesetzt und unser Lerntagebuch in einem fünfschrittigen Verfahren mit dem Repository des BAIN-Kurses verknüpft. Anschliessend tauschten wir unsere Erfahrungen mit und Eindrücke vom Katalogformat MARC21 aus. Zu guter Letzt wurde noch das Open Source Bibliotheksprogramm im Kollektiv eingerichtet.

    Eindrücke

    Die Auswertungen unserer ersten Tagebucheinträge waren insofern hilfreich, da ich wie bereits im letzten Artikel erwähnt ohne grosse Erwartungen an den Kurs rangegangen bin und die Dinge einfach auf mich zukommen lassen wollte. Rückblickend macht es natürlich Sinn, dass im Verlauf des Kurses verschiedene Bibliotheks- und Archivinfrastrukturen (bestehend aus Datenformaten, Bibliotheks-/Archisoftware) vorgestellt werden. Das Einrichten der Verknüpfung mit dem BAIN-Repository war ein ziemlicher Kopfschmerz, teilweise erschwert durch die umständlichere Navigation in Ubuntu. Dank der Supportsitzung mit Herrn Meier konnten die Probleme aber auch während der Sitzung behoben werden. Ich freunde mich trotz allem langsam mit Linux an, obwohl ich mir manchmal nicht sicher bin, ob ich die Terminal-Inputs richtig verstehe. Für den Fachgebrauch ist es sicher nützlich, aber ich könnte mir nicht vorstellen, dieses Interface auch privat gebrauchen zu können. Der kaum lesbare Output, den man nach der Ausführung eines Befehls zu sehen kriegt, ist allerdings ein seltsam angenehmes Feedback. Ich rechne damit, dass sich einige Inhalte mit denen anderer Fächer überschneiden werden. So haben wir beispielsweise MARC21 und Dublin Core schon im ersten Semester oberflächlich behandelt. Auch beruflich arbeite ich täglich viel mit MARC und kenne daher von einer rein zweckmässigen Perspektive das Format recht gut. Über eventuelle Funktionalitäten auf einer Ebene, die das blosse Katalogisieren übersteigt, weiss ich aber nur wenig. Als sich einige über die zahlenbasierte Auflistung der einzelnen Gesichtspunkte beschwert habe, habe ich erst gemerkt, wie unintuitiv das eigentlich ist. Ich kenne längst nicht alle Werte, kann mir aber gut vorstellen, wie irritierend das für jemanden sein muss, der zum ersten Mal damit arbeiten muss. Und zugegeben ist es manchmal mühsam, wenn Katalogisierungstools wie Aleph Fehlermeldungen für Felder ausspucken, die ich noch nie gesehen habe. Die Installation von Koha verlief wesentlich einfacher als die Verknüpfung des Tagebuchs mit der BAIN-GitHub-Page. Wobei ich auch hier sagen muss, dass ich nicht immer den vollen Kontext zu den Inputs hatte.

    Hausaufgabe

    Hausaufgaben für diese Lektion waren einerseits das Verfassen des Tagebucheintrags und andererseits das Durcharbeiten der ersten Koha-Kapitel zum Setup. Kapitel 1 war recht aufwändig. Wiederholt gab es einen Fehler bei der Erstellung meiner Bibliotheksinstanz, den ich jetzt nicht mehr rekonstruieren kann. Das Problem liess sich nicht beheben, kam aber nach einer kompletten Neuinstallation nicht mehr vor. Nach dem taffen ersten Kapitel verliefen die folgenden beiden ohne grössere Komplikationen.

  • Wer zur Hölle schreibt hier überhaupt?

    Hallo du! Mein Name ist Sebastian Preher. Ich wurde 1993 geboren und bin zum Zeitpunkt des Schreibens 27 Jahre alt. Derzeit wohne ich in Zofingen, arbeite in Luzern, besuche in Zürich (und manchmal Chur) die Fachhochschule und trainiere in Basel. Wie ihr euch vorstellen könnt, sehe ich mehr vom Inneren eines Eisenbahnwagens als so mancher anderer. Das mag für manchen fürchterlich unpraktisch klingen, stört mich aber jetzt nicht mal so. Aber nochmal von vorn:

  • Lektion 1

    Abstract

    Kurze Vorstellungsrunde, Klärung der Erwartungen, Backgrounds und Schwerpunkte, Grobe Einführung in den Stoff, der uns die kommenden Wochen beschäftigen wird, Erläuterung und Einrichtung der für das Fach notwendigen Tools (Horizon VDI, Ubuntu, GitHub, Library Carpentry).

    Erwartungen

    Ich war während den Semesterferien zu sehr damit beschäftigt, mein Gehirn mit allem AUSSER dem Unterricht zu beschäftigen, um vor der allerersten Lektion irgendwelche Erwartungen zu definieren. Dennoch hatte ich vermutlich unbewusst einige Sachen vorweg genommen, die ich von anderen Kursen als normal erwartet habe. Vor allem ausgehend von meiner Erfahrung mit ARIS bin ich vom üblichen folienbasierten Unterricht ausgegangen, ergänzt durch einige praktische Übungen mit Software, die ich wahrscheinlich nur in diesem einen Kurs benötige. Zumindest die zweite Hälfte meiner Vermutung scheint sich wohl oder übel bestätigt zu haben.

    Eindrücke

    Die erste Doppellektion hat viele meiner Erwartungen über den Haufen geworfen, vor allem im Zusammenhang mit der Unterrichtsstruktur. Der Shift weg vom üblichen folienbasierten Unterricht zu HedgeDoc war wohl die grösste Umstellung und anfangs etwas ungewohnt. Meine Befürchtung, dass ein Grossteil des Unterrichts die Arbeit mit neuen Plattformen und Software beinhaltet, hat sich zwar bestätigt. Und ich war anfangs nicht gerade begesitert, als ich hörte, dass wir wieder mit einer Linux-basierten virtuellen Maschine/einem virtuellen Interface arbeiten würden, da das Setup von den Dingern in bisherigen Kursen immer eine Menge Zeit und Nerven gekostet hat. Glücklicherweise läuft dieses Mal die VM/VDI via Browser, so dass ein Grossteil des Installationsaufwands wegfällt. Als sehr positiv wurde auch die erneute Einführung in Ubuntu und die Navigation via Console Commands erlebt. Die Navigation ohne GUI wurde uns zwar schon in anderen Fächern gezeigt. Jedoch hatte ich bislang immer Schwierigkeiten, die Erklärungen der Dozenten zu verstehen. Der Syntax will mir immer noch nicht ganz in den Kopf, aber das wird schon noch.

subscribe via RSS