10.05.2017
18:30-20:30 Uhr: Treffen der Expertengruppe im Kartoffelhaus
11.05.2017
09:30 – 10:00 | Registrierung/Ankunft |
10:00 | Begrüßung |
10:00 – 11:00 | coli-conc-Berichte:
U. Balakrishnan, Morsheda Akter, Jana Agne, Jakob Voss (VZG) Die Präsentationen des coli-conc-Teams behandeln zuerst den Projektstand des DFG-geförderten Mapping-Projekts nach einem Jahr, welche sowohl in dem Zeitraum erzielte Ergebnisse resümiert als auch die Perspektiven hinsichtlich des zweiten Projektjahres und einer möglichen Fortsetzung aufzeigt. Der zweite Vortrag veranschaulicht die Ergebnisse der ersten Evaluation einiger Mapping- und Sacherschließungs-Projekten in Deutschland als mögliche Anreicherungsquelle für coli-conc. Die weiteren beiden Vorträge umfassen zum einen eine Ausführung über die Terminologie-Dienste auf Basis der JSKOS-API als Dienste, die im Rahmen des coli-conc-Projekts entwickelt wurden und zum anderen die Normdaten-Mappings in Wikidata, dabei soll demonstriert werden, wie Normdaten-Mappings in Wikidata verwaltet werden und sich für weitere Anwendungen nutzen lassen. |
11:00 – 11:30 | BARTOC und coli-conc
Andreas Ledl (UB Basel) Der Vortrag schildert die Entwicklung des „Basel Register of Thesauri, Ontologies & Classifications“ (BARTOC) von einem lokalen Projekt zur Vermittlung von Informationskompetenz zu einem vollwertigen Terminologieregister mit internationaler Ausstrahlung. Er geht dabei besonders auf die Rolle ein, welche das Projekt coli-conc bei der Entwicklung von BARTOC spielte und bis heute spielt und zeigt die Ergebnisse dieser Kooperation auf. Darüber hinaus werden erste Resultate einer Zusammenarbeit mit der Semantic Web Company (Wien) zur Visualisierung von Wissensorganisationssystemen in BARTOC präsentiert. |
11:30 – 12:00 | Projektantrag TEASER – Entwicklung einer Plattform für die kollaborative Thesauruspflege und -verknüpfung am Beispielbereich ‚Industrie 4.0‘
Anna Kasprzik (TIB) Die TIB Hannover, TH Wildau und Fraunhofer IOSB beantragen ein Projekt zur Entwicklung einer Plattform und einer Sammlung von Workflows und Werkzeugen für die Bereitstellung, kollaborative Pflege und fächerübergreifende Verknüpfung von Thesauri. Mit Hilfe des entstehenden Begriffsnetzes können etwa unterstützende Suchfunktionen in Querschnittsthemen realisiert werden. Als inhaltliches Beispiel wird das transdisziplinäre Themenfeld „Industrie 4.0“ gewählt, das aufgrund seiner Aktualität für Wissenschaft und Wirtschaft von hohem Interesse ist. Die TIB bringt einen für die Industrie 4.0 relevanten, zur Weiterverarbeitung geöffneten Ausschnitt aus dem Thesaurus „Technik und Management“ ein und die TH Wildau stellt ihren zweisprachigen Thesaurus für die Informatik und Verkehrslogistik zur Verfügung, an diesen beiden Thesauri wird exemplarisch ein Verknüpfungsverfahren durchgeführt. Hierfür werden die relevanten Teilmengen in ein gemeinsames, SKOS-basiertes Format überführt und durch Matching-Relationen verbunden. So entsteht ein disziplinenübergreifender Begriffsraum, der in Rechercheanwendungen gewinnbringend genutzt werden kann. Auf der technischen Ebene wird der Prototyp einer modularen Plattform zur Vorhaltung der Vokabulare implementiert. Das dort angebotene Portfolio an Best Practices und niederschwelligen Diensten zur Umwandlung von Wortschätzen in SKOS, deren Verknüpfung und Weiterverarbeitung richtet sich primär an Entwickler von Fachvokabularen, während die Inhalte der Plattform über entsprechende Schnittstellen durch Bibliotheken und andere Informationseinrichtungen nachgenutzt und über Visualisierungen auch zur Exploration und Interaktion offengelegt werden können. Als Anwendungsbeispiel soll ein virtuelles Literaturrepositorium mit einem intelligenten Suchinterface entstehen, das Bestände zum Bereich Industrie 4.0 zusammenführt. |
12:00 – 12:30 | „Über sieben Brücken musst Du gehn‘…“ – Erfahrungsbericht zu Aufbau und Pflege von Crosskonkordanzen des Standard-Thesaurus Wirtschaft zu anderen Vokabularen
Andreas Oskar Kempf, Joachim Neubert, Manfred Faden (ZBW Leibniz-Informationszentrum Wirtschaft) Der Vortrag behandelt die langjährigen Erfahrungen an der Deutschen Zentralbibliothek für Wirtschaftswissenschaften (ZBW) Leibniz-Informationszentrum Wirtschaft beim Aufbau und der Pflege von Crosskonkordanzen des Standard-Thesaurus Wirtschaft (STW) zu anderen Vokabularen. Die bisherigen Erfahrungen lassen sich nach der Art des Zusammenspiels zwischen prozessunterstützenden und intellektuell erbrachten Arbeitsschritten in unterschiedliche Mapping-Ansätze unterteilen. Den Beginn markierte das Projekt „Crosskonkordanz STW-SWD“ (2002-2004). Erstellt wurde eine Verbindung der Schlagwortnormdatei (SWD) im Bereich Wirtschaft mit STW, um eine integrierte Suche in Dokumentenbeständen zu ermöglichen, die mit dem einen oder dem anderen Vokabular inhaltlich erschlossen sind. Nach einem automatischen Dublettencheck erfolgte die sich daran anschließende Bearbeitung vorwiegend intellektuell. Seitdem wird die sog. Crosskonkordanz Wirtschaft von der DNB und der ZBW gemeinsam fortlaufend aktualisiert. Mit Veröffentlichung kontrollierter Vokabulare im Web erfolgte der Mapping-Aufbau stärker automatisch unterstützt, so etwa in Form eines String-Match beim Aufbau einer Crosskonkordanz zum AGROVOC Thesaurus der Welternährungsorganisation, die im Anschluss intellektuell bewertet wurde. Das Mapping zur DBpedia wurde vollständig automatisch erstellt. Erst für ein Nachfolge-Mapping zu Wikidata ist eine intellektuelle Verifizierung vorgesehen. Zuletzt wurde mit dem web-basierten Mapping Tool AMALGAME ein stärker workflow-orientierter, semi-automatischer Ansatz zum Aufbau einer Crosskonkordanz zwischen der Klassifikation des Journal of Economic Literature (JEL) und der Systematik des STW getestet. Vor dem Hintergrund dieser Mapping-Erfahrungen deutet sich an, dass es einen „Königsweg“ zur Erstellung und Pflege von Mappings nicht gibt. Insbesondere die Mapping-Pflege wird bisher kaum von bestehenden Tools unterstützt. Auch für die Zukunft erscheint es sinnvoll, die Auswahl des Mapping-Ansatzes auf Basis des spezifischen Anwendungsszenarios des Mappings vorzunehmen. |
12:30 – 14:00 | MITTAGSPAUSE |
14:00 – 14:30 | „Die Guten ins Töpfchen…“. Bericht vom Test des „Digitalen Assistenten 2“, einem halbautomatischen Tool zur Inhaltserschließung, an der Staatsbibliothek zu Berlin.
Regine Beckmann (SPK-SB Berlin) Im Rahmen des LIS-Workshops wurde auf dem Bibliothekskongress 2016 in Leipzig durch die UB Stuttgart und die Schweizer Entwicklerfirma „Eurospider“ erstmals einer breiteren Fachcommunity das vielversprechende, webbasierte Tool zur semi-automatischen Inhaltserschließung vorgestellt, der sog. „Digitale Assistent DA-2“. Er bietet nicht nur vorhandene GND Schlagwörter aus anderen Bibliotheksverbünden zur unkomplizierten Übernahme per Mausklick in die eigene Verschlagwortung an, sondern unter einer Oberfläche verschiedene nützliche und zukunftsweisende Funktionen wie z.B. Übersetzungen aus anderen Vokabularien in GND Schlagwörter, ähnlichkeitsbasierte Schlagwortvorschläge oder eine komfortable Recherche in der integrierten Web-GND. Zukünftig soll auch die Vergabe von RVK- und BK Notationen möglich sein. Im SWB bereits in einigen Bibliotheken genutzt, wird der DA-2 zurzeit in der Staatsbibliothek zu Berlin für den möglichen Einsatz in einer GBV Bibliothek getestet. Eine erfolgreiche Anpassung an GBV-spezifische Anforderungen durch die Entwicklerfirma und die VZG eröffnet die Perspektive, dass auch andere GBV Bibliotheken das Tool ohne großen Zusatzaufwand nutzen könnten. Der Vortrag gibt einen Überblick über die Funktionen, stellt die bisherigen Testergebnisse vor und eröffnet einen kleinen Ausblick auf die mögliche Weiterentwicklung des Digitalen Assistenten. |
14:30 – 15:00 | Predicting LCSH: Comparing the output of predicted Library of Congress subject headings for politics and physics
Michael Franke-Maier (UB FU Berlin), Christian Wartena (FH Hannover) An Hand von Titeldatensätzen aus dem Verbundkatalog Bayern-Berlin-Brandenburg (B3Kat) trainieren wir einen Classifier für die Vorhersage von Library of Congress Subject Headings (LCSH). Um eine sinnvolle Menge an Titeldatensätzen zu gewinnen, benutzen wir nur solche Datensätze, die ein englisches Abstract und eine Beschlagwortung mit LCSH besitzen. Der Textkorpus für den Classifier wird aus den Inhaltswörtern in Abstract, Titel und Untertitel gewonnen. Die vorhergesagten Schlagwörter werden mit den vorgefundenen LCSH unter Verwendung der Maße Precision, Recall und F1 verglichen. Anschließend selektieren wir an Hand der Großgruppen der RVK und anderen Klassifikationen die Fachgebiete Physik, Medizin und Politische Wissenschaft. Diese werden erneut unter Verwendung der oben genutzten Maße Precision, Recall und F1 miteinander verglichen. Ziel ist es zu bestimmen, ob der Classifier in Abhängigkeit zum gewählten Fachgebiet signifikant unterschiedliche Ergebnisse produziert. |
15:00 – 15:30 | Multilinguality of Metadata – Measuring the Multilingual Degree of Europeana’s Metadata
Juliane Stiller (HU Berlin) und Péter Király (GWDG) Digital cultural heritage portals provide universal access to cultural objects and associated metadata originating in divers countries and language milieus. Offering an equally heterogeneous audience access to this content is a challenging endeavour. To ensure accessibility for audiences with different linguistic backgrounds, it is crucial that the underlying metadata offers the same information in several languages. This presentation describes the conceptualisation and implementation of a metric for measuring the multilinguality in the digital cultural heritage portal Europeana. For every field in each record across the entire collection, the level of multilinguality can be assessed. Quantifying the multilingual richness of data has significant benefits for increasing metadata quality, improving multilingual access to cultural collections and reaching multilingual audiences. |
15:30 – 16:00 |
Werkstattbericht – Eine Autocompletion-Lösung für Agrovoc-Schlagworte mit JSKOS und Elasticsearch Jan Schnasse (HBZ)Um im Fachrepositorium der ZBMED eine Sacherschließung auf Basis von Agrovoc zu ermöglichen, wurde am hbz ein Webservice namens skos-lookup erstellt. Der Webservice lädt SKOS Daten, indexiert sie in einem Elasticsearch-Suchindex und macht sie für jQuery Autocomplet e-Widgets verfügbar. Dieser Praxisbericht zeigt Aufbau und Funktionsweise eines leichtgewichtigen Services zur Anbindung an HTML Formulare. Zur Umwandlung der SKOS Daten in ein indexierbares Format kommt der, im Zusammenhang mit JSKOS entwickelte JSONLD-Kontext zum Einsatz. |
16:00 – 16:45 | Diskussion über die Zukunft der Basisklassifikation: Grundlage dafür ist diese BK-Umfrage Zusammenfassung der Umfrageergebnisse |