MITTWOCH  I  DONNERSTAG FREITAG

8.30–9.00

Ankommen

Ort: Eingang Otto-von-Simson-Straße 26 (Seminarzentrum)

9.00–10.00

Keynote 2: Das Große denken: Wie eine offene Forschung zwischen Wissenschaft, Kunst und Gesellschaft Transformationsprozesse beschleunigen kann

Ort: Hörsaal 1a (+ Livestream)

Vera Meyer

Technische Universität Berlin, Germany

Frau Prof. Dr.-Ing. Vera Meyer leitet seit 2011 den Lehrstuhl für Molekulare und Angewandte Mikrobiologie an der TU Berlin. Ihre inter- und transdisziplinären Forschungsvorhaben verbinden Natur- und Ingenieurswissenschaften mit Kunst, Design und Architektur und entwerfen biobasierte Szenarien für mögliche Lebens- und Wohnwelten der Zukunft. Vera Meyer ist auch als bildende Künstlerin unter dem Pseudonym V. meer aktiv und macht durch die Mittel der Kunst das Potential von Pilzen für eine nachhaltige Zukunft in der Gesellschaft bekannter.

Moderation: Christina Riesenweber

10.00–11.00

Postersession

Die (noch unvollständige) Sammlung der Poster kann in der Zenodo Community der OAT23 eingesehen werden.

Voting: tba

Ort: Seminarzentrum

A Search Tool for Aggregated Information on Open Access

Lothar Nunnenmacher, Frank Hösli

Lib4RI - Library for the Research Institutes within the ETH Domain: Eawag, Empa, PSI & WSL, Switzerland

Lib4RI has developed a search tool that brings together results from numerous sources in a clear and easily accessible way. The tool also provides information on options and funding possibilities for Open Access (OA) publishing of journal articles. The information is presented at the level of individual journal titles and tailored to the situation at the user’s own institution. In this way, the Lib4RI Search Tool makes the previously scattered information conveniently available to our researchers. By combining content discovery with publishing services, the tool is the central starting point for information from Lib4RI and helps to further increase the OA share of publications.

Berlin Universities Publishing

Michael Kleineberg1, 5, Marc Lange2,5, Katharina Schulz3,5, Robert Wiese4, 5

1Freie Universität Berlin, Germany; 2Humboldt-Universität zu Berlin, Germany; 3Charité - Universitätsmedizin Berlin, Germany; 4Technische Universität Berlin, Germany; 5Berlin Universities Publishing, Germany

Eine visualisierte Übersicht der Entstehung und des Leistungsangebots von Berlin Universities Publishing (BerlinUP), dem Open-Access-Verlag der Freien Universität Berlin, der Humboldt-Universität zu Berlin, der Technischen Universität Berlin und der Charité – Universitätsmedizin Berlin.

PID Network Deutschland – Vision einer vernetzten und offenen Wissenschaftslandschaft

Antonia Schrader1, Felix Burger2, Andreas Czerniak3, Barbara Fischer4, Stephanie Glagla-Dietz4, Lena Messerschmidt1, Heinz Pampel1, 5, Jochen Schirrwagen3, Paul Vierkant6, Frauke Ziedorn2

1Helmholtz-Gemeinschaft Potsdam, Germany; 2Technische Informationsbibliothek (TIB), Germany; 3Universität Bielefeld, Universitätsbibliothek, Germany; 4Deutsche Nationalbibliothek (DNB), Germany; 5Humboldt-Universität zu Berlin, Institut für Bibliotheks- und Informationswissenschaft (IBI), Germany, 6DataCite, Germany

In einer zunehmend digitalen Wissenschaftslandschaft ist die dauerhafte und verlässliche Identifizierung der mit Forschungsprozessen verknüpften Ressourcen, seiner Akteure und ihrer Forschungsprodukte mittels Persistent Identifiern (PIDs) unerlässlich geworden.

Mit der wachsenden Bedeutung von PIDs im Forschungsalltag und zunehmend auch in kulturellen Kontexten erhöhen sich aber auch die Anforderungen an deren effiziente Nutzbarkeit. Gleichzeitig werden die Nutzenden mit einer großen Vielfalt sehr unterschiedlicher Angebote an PID-Systemen und ihrer Einsatzmöglichkeiten konfrontiert.

Das von der Deutschen Forschungsgemeinschaft (DFG) für 36 Monate geförderte Projekt „PID Network Deutschland“ verfolgt daher das Ziel, ein Netzwerk bereits bestehender und sich aktuell formierender Agierender rund um die persistente Identifikation von Personen, Organisationen, Publikationen, Ressourcen und Infrastrukturen im Bereich der digitalen Kommunikation in Wissenschaft und Kultur zu etablieren. Hierdurch soll nicht nur die Verbreitung und Vernetzung von PID-Systemen in Deutschland, sondern auch deren Einbettung in internationale Infrastrukturen, wie Wissensgraphen, optimiert werden. Die Erkenntnisse aus dem Projekt werden in Empfehlungen in einer nationalen PID-Roadmap für Deutschland münden und somit die Vision einer vernetzten und offenen Wissenschaftslandschaft schärfen. Unter diesem Leitsatz gibt das Poster einen Überblick über die verschiedenen Anwendungsfälle von PIDs, die im Projektkontext fokussiert werden. Dadurch sollen der Status Quo der gegenwärtigen PID-Landschaft veranschaulicht und potenzielle Handlungsbedarfe identifiziert werden.

Partnerinstitutionen im Projekt sind DataCite, die Deutsche Nationalbibliothek, das Helmholtz Open Science Office, die Universitätsbibliothek Bielefeld und die Technische Informationsbibliothek (TIB).

mdwPress: Strategien und Ziele eines institutionellen OA-Verlags an einer Kunstuniversität

Max Bergmann

Universität für Musik und darstellende Kunst, mdw, Austria

mdwPress ist der Open-Access-Wissenschaftsverlag der mdw – Universität für Musik und darstellende Kunst. Er hat das Ziel, das volle Spektrum der Forschung der mdw im Sinne des gesellschaftlichen Auftrags sichtbarer und zugänglicher zu machen. Er ist nicht-kommerziell und unabhängig. Die Qualitätssicherung übernimmt ein wissenschaftliches Kuratorium aus internen und externen Forschenden. Die Anbindung an eine Kunstuniversität bringt dabei sowohl Chancen als auch Herausforderungen mit sich.

Das Poster stellt neben den Leistungsangeboten besonders die Strategien und Ziele des Verlags dar, die sich im Laufe des Aufbaus herausgebildet haben. Neben der Sichtbarkeit der Forschung sowie der Stärkung von Open Access in den Geistes- und Sozialwissenschaften, liegt ein Augenmerk auf Kooperation und Kollaboration. mdwPress steht für ein Modell des institutionellen Publizierens, welches vielfältige Verbindungen zwischen der Wissenschaft, öffentlichen Institutionen und dem privaten Publikationssektor nutzt, um sich für eine offene Zukunft wissenschaftlicher Publikationen einzusetzen. Statt auf Wachstum und Profit liegt der Fokus somit auf den Publikationen selbst sowie auf dem Wissensaustausch und der Zusammenarbeit mit den Autor:innen und Kooperationspartner:innen.

Kartierung und Beschreibung der Open-Access-Dienste in Deutschland

Maria Stalla1, Jan Biela1, Lukas Hohmann1, Sebastian Witteler1, Angela Cornelia Holzer2, Kristine Hillenkötter3, Hildegard Schäffler4, Lea Maria Ferguson5, Olaf Siegert6, Marco Tullney7

1Technopolis Deutschland GmbH, Germany; 2Deutsche Forschungsgemeinschaft (DFG), Germany; 3Staats- und Universitätsbibliothek Göttingen, Germany; 4Bayerische Staatsbibliothek, Germany; 5Helmholtz-Gemeinschaft Potsdam, Germany, 6Leibniz-Informationszentrum Wirtschaft, Germany; 7Technische Informationsbibliothek (TIB), Germany

Die Studie „Kartierung und Beschreibung der Open-Access-Dienste in Deutschland“ wurde im Kontext der Arbeitsgemeinschaft (AG) „Wissenschaftliches Publikationssystem“ der Schwerpunktinitiative „Digitale Information“ der Allianz der deutschen Wissenschaftsorganisationen von der Deutsche Forschungsgemeinschaft beauftragt. Technopolis Deutschland führte die explorative Kartierungsstudie von September 2022 bis August 2023 durch. Ziel der Studie ist es, einen Überblick über den Status Quo der für Open-Access-Publikationen unerlässlichen Infrastrukturen in öffentlich-rechtlicher Trägerschaft zu schaffen. Dabei soll die Anzahl der verfügbaren Angebote, ihre Finanzierungsmodell und internationale Anschlussfähigkeit sowie vorliegende Bedarfe untersucht werden.

Zur Datenerhebung wurden verschiedene Methoden angwandt, darunter Online-Umfragen, Desk Research, Expert*innen-Workshops und Fallstudien-Interviews. Die Studie wurde von einer Task Group, die sich aus Mitgliedern der AG zusammensetzt, begleitet. Auf Basis der Studienergebnisse wird die Task Group Handlungsempfehlungen zur Unterstützung von gemeinnützigen Diensten im Sinne der Open-Access-Strategie der Allianz formulieren.

Community-driven pathways to equitable open scholarly publishing

Malte Dreyer1, Tabea Klaus1, Hanna Varachkina1, Ursula Rabar2

1Staats- und Universitätsbibliothek Göttingen, Germany; 2open scholarly communication in the european research area for social sciences and humanities (OPERAS), Germany

Opening up science can only be successful if the needed processes, products and policies are developed and applied by science itself. Therefore, ways to involve science in the transformation towards open science must continue to be found. With CRAFT-OA, DIAMAS and PALOMERA, the European Union is funding three projects that will specifically design and test tools and strategies for science-driven publishing of journals and books. The interplay of these projects will create a powerful tool for empowering the science community to shape science communication strategically and technically on its own again.

CRAFT-OA: In Diamond Open Access, authors can publish free of charge in the institutional sector. The aim of the CRAFT-OA project is to consolidate the fragmented Diamond Open Access landscape throughout Europe and to strengthen the institutional publishing. The project will provide technical improvements for journal platforms and software, build communities of practice, increase visibility, discoverability and recognition for Diamond Open Access publishing and integrate it with large-scale data aggregators such as EOSC.

DIAMAS will establish an aligned, high-quality and sustainable institutional Diamond OA publication ecosystem. After mapping the landscape of Institutional Publication Service Providers with a survey to determine challenges and needs, a new extensible quality standard will be established, sustainable available in the community-based developed Capacity Centre.

PALOMERA will contribute to the opening of the book market by making recommendations for the design of a policy for open access books at the European level based on a detailed analysis of the political preconditions and the interests of all stakeholders involved. In doing so, the differences in the publishing culture of European countries must be harmonised with the requirements for an ERA-wide binding policy for open access books.

#kulturgutdigital für Berlin

Xenia Kitaeva, Anja Müller, Alexander Winkler

Forschungs- und Kompetenzzentrum Digitalisierung Berlin (digiS) / Zuse-Institut Berlin (ZIB), Germany

The poster presents the key areas of activity of digiS, the Research and Competence Center Digitalization Berlin.

Making scholarly blogs permanently accessible

Martin Fenner1, Heinz Pampel2, 3

1Front Matter, Germany; 2Humboldt-Universität zu Berlin, Institut für Bibliotheks- und Informationswissenschaft (IBI), Germany; 3Helmholtz Gemeinschaft, Helmholtz Open Science Office Potsdam, Germany

Scholarly blogs are an essential part of scholarly communication. They can be started and maintained without major technical or financial hurdles, making them a good platform for publishing Open Access content. But they also typically lack important features common to other formats of scholarly publishing.

In order for scholarly blogs to become a bigger part of Open Access publishing, we decided to identify the major shortcomings, and implement an initial solution.

Kostentransparenz und Informationsbudget: Projekte, Initiativen und Infrastrukturen, die die finanzielle Dimension der OA-Transformation in den Blick nehmen

Margit Schön1, Irene Barbers1, Lea Maria Ferguson2, Marcel Meistring2, Paul Schultze-Motel2

1Forschungszentrum Jülich, Germany; 2Helmholtz-Gemeinschaft Potsdam, Germany

Die Open-Access-Transformation stellt wissenschaftliche Einrichtungen in Deutschland vor die Herausforderung, zentral und dezentral anfallende Kosten für das Publizieren und die Literaturversorgung systematisch zu erfassen und auszuwerten. Dafür werden geeignete Werkzeuge benötigt und Prozesse für ein transparentes Publikations- und Kostenmonitoring müssen angepasst oder entwickelt werden.

Die auf dem Poster dargestellten Projekte und Initiativen setzen sich mit der Forderung nach einem transparenten Kosten- und Publikationsmonitoring im Kontext der Open-Access-Transformation auseinander. Sie entwickeln Werkzeuge und Strategien für transparente Prozesse.

DOI: doi.org/10.5281/zenodo.8198940

Normierung von Verlagsdaten mit Wikidata - offen und mit Hilfe der Community!

Anna Laetitia Hikl1, Ursula Ulrych2, Michaela Achleitner3, Patrick Danowski4, Christian Erlinger5, Daniel Formanek6, Johanna Hubweber7, Lothar Hölbling2, Michael Kranewitter8, Martin Rösel9, Michael Zojer10

1Universität für Bodenkultur Wien, Austria; 2Universität Wien, Austria; 3Technische Universität Wien, Bibliothek, Austria; 4Institute of Science and Technology Austria (ISTA), Austria; 5Zentral- und Hoschschulbibliothek Luzern (ZHB), Austria; 6Medizinische Universität Wien, Austria; 7Wirtschaftsuniversität Wien, Austria; 8Johannes Kepler Universität Linz, Austria; 9Dr. Martin Rösel, Softwareentwicklung und IT Beratung, Austria; 10Universität Klagenfurt, Austria

Im dynamischen Feld des Verlagswesens den Überblick zu behalten ist eine riesige Herausforderung. Es gibt permanent Veränderungen, Wechsel und Übernahmen und bis dato fehlen in diesem Bereich verlässliche Metadaten.

Eine kleine Arbeitsgruppe des nationalen Projekts Austrian Transition to Open Access Two (AT2OA²) hat sich vor einem Jahr dazu entschlossen, diese Lücke zu schließen und die Verlagsdatennormierung in Angriff zu nehmen.

Ein zentrales Element von AT2OA² ist der „Austrian Datahub for Open Access Negotiations and Monitoring", der als OA Monitor konzipiert ist. Zusätzlich soll der Datahub Verhandlungen von Open Access Agreements unterstützen, was die Normierung von Verlagsdaten sehr bald in den Fokus der Arbeiten gerückt hat. In diesem Zusammenhang war es uns ein Anliegen, nicht nur eine Momentaufnahme festzuhalten, sondern die Entwicklung des Publikationsaufkommens eines bestimmten Verlags abbilden und vergleichen zu können (Thema Imprints).

Mit Wikidata ist es möglich, genau diese Aspekte wie Parent-Child-Relations darzustellen und mit einer Zeitrelation zu verknüpfen. Zusätzlich haben uns erfolgreiche Beispiele wie die Wikidata ID und die Möglichkeit, vollkommen kollaborativ zu arbeiten überzeugt, unsere Projektidee mit Wikidata umzusetzen.

Nach extrem positiven Gesprächen mit Wikimedia Austria, Wikimedia Deutschland sowie regem Austausch mit den Kolleg*innen des OA Monitor Deutschland, haben im März 2023 die ersten Arbeiten in Wikidata gestartet. Im Zuge eines internen Workshops wurde auf der Projektseite unter anderem bereits unser Datenmodell dokumentiert. Wir hoffen, auf diesem Weg eine breite Community zu erreichen und zur Mitarbeit zu motivieren, um die herausfordernde Aufgabe der Normierung von Verlagsdaten gemeinsam bewältigen zu können!

www.wikidata.org/wiki/Wikidata:WikiProject_Academic_Publisher

Thoth Open Metadata Management and Distribution Service for OA Books

Tobias Steiner

Thoth Open Metadata, United Kingdom

Our poster will showcase Thoth Open Metadata (https://thoth.pub/), a non-profit open metadata management and dissemination service for OA books and book chapters.

The difficulties associated with open access book and chapter metadata are well recognised: siloed or platform-specific metadata or metadata that is not openly licensed or tailored to OA books. This is particularly problematic for small and scholar-led publishers, who are required to submit metadata in multiple different formats to an array of different parties. This data is then often overwritten or degraded across the book distribution system. This is also problematic for third parties interested in creating services for users that rely on metadata records maintained across multiple platforms or publishers.

Thoth seeks to help smaller publishers with creating and disseminating truly open, CC0-licensed metadata of their Open Access books via an open-source one-stop platform. Several publishers have now adopted Thoth as their metadata manager to create, manage and distribute metadata in multiple formats including platform-specific flavours of ONIX, MARC, JSON, and KBART that fulfil requirements of e.g. OAPEN, Project MUSE, JSTOR, Google Books, and others, while also being able to submit book and chapter-level metadata to CrossRef for DOI registration, and to archive content in university repositories and the Internet Archive via the Thoth Archiving Network prototype. Third-party applications such as by the Open Book Collective, the ScholarLed consortium, and Open Book Publishers have also begun to utilise Thoth’s open APIs as a trusted and open source of book metadata to create novel content and services.

DOI: doi.org/10.5281/zenodo.8273948

openCost: Transparenz von Publikationskosten durch neue Funktionen in der Elektronischen Zeitschriftenbibliothek (EZB)

Colin Sippl

Universitätsbibliothek Regensburg, Germany

Die EZB wird im Rahmen des openCost-Projekts (DFG-Projektnr. 457354095) um neue Funktionen, Daten und Informationen zu Publikationskosten erweitert. Diese Neuerungen beziehen sowohl EZB-Daten als auch externe Informationen ein. Ziel ist es, den EZB-Nutzern sowohl einrichtungsunabhängige als auch einrichtungsspezifische Informationen zur Übernahme von Publikationskosten bereitzustellen und ferner mehr Kostentransparenz zu schaffen. Hierzu werden Zeitschriften in der EZB um weitere Informationen angereichert und mit neuen Kategorien ausgezeichnet. Beispiele hierfür sind "Indexed in DOAJ" oder „Mirror Journal“, wobei dazu etablierte Quellen, etwa die Titelliste der Mirror Journal Working Group oder das DOAJ nachgenutzt werden. Zeitschriftenkategorien, für die es hingegen keine Datenquelle gibt, werden in der EZB manuell vergeben und dann zur Nachnutzung bereitgestellt, wie z.B. „Subscribe to Open-Journals“.

Neben der Auszeichnung von Zeitschriften werden in der EZB zentral gepflegte Titellisten, sogenannte EZB-Kollektionen, die Teil eines Transformationsvertrags sind, gekennzeichnet und mit der zugehörigen ESAC-ID verknüpft. Ferner sollen zu einem späteren Zeitpunkt für ausgewählte Pilotbibliotheken Kosteninformationen aus OpenAPC abgerufen und in die EZB-Benutzeroberfläche eingebunden werden. Dadurch erhalten die Nutzer Kosteninformationen zu einer Zeitschrift, wie etwa die durchschnittlichen APCs einer Zeitschrift als zusätzliche Information in der EZB-Detailseite.

Schließlich soll für EZB-Einrichtungen eine Eingabemöglichkeit geschaffen werden, um individuelle Vereinbarungen mit Verlagen, wie z.B. Mitgliedschaften, zu hinterlegen. Diese Informationen sollen in der EZB einrichtungsspezifisch für die einzelnen Zeitschriften angezeigt und zur weiteren Nutzung bereitgestellt werden.

Warum hat mir das keiner gesagt?

Diana Slawig

Technische Informationsbibliothek (TIB), Germany

Bibliotheksreferendar*innen kommen meist direkt aus der universitären Forschung und können diese doppelte Perspektive, aus Forschungs- und Bibliothekssicht, nutzen um beispielsweise Beratungsangebote von Bibliotheken zu bewerten. Aus dieser Überlegung heraus wurden an der TIB Hannover die Beratungsangebote für Wissenschaftler*innen in Zusammenarbeit des Bereichs Publikationsdienste und einer Bibliotheksreferendarin untersucht.

Aus der Perspektive der Forschenden konnte wichtige Punkte bezüglich der Veranstaltungstätigkeiten herausgearbeitet und in ersten konkreten Punkten umgesetzt werden. Dabei liegt ein besonderes Augenmerk auf der Publikationsberatung für Nachwuchswissenschaftler*innen. Beispielsweise wurde eine Veranstaltung im Rahmen des Pflichtseminars eines strukturierten Promotionsprogramms durchgeführt, um die Problematik von Zeit- und Ressourcenknappheit unter Promovierenden anzugehen.

Auch die Struktur und der Zuschnitt von Seminaren wurden hinsichtlich der Bedürfnisse angepasst, so wurden die benötigten Informationen für Doktorand*innen, die kurz vor Veröffentlichung ihrer Dissertation stehen anders eingeschätzt als der Informationsbedarf von Wissenschaftler*innen, die noch ganz am Anfang ihrer Forschungslaufbahn stehen.

Zusätzlich werden Überlegungen hinsichtlich Multiplikatoren und der Weitergabe von Informationen innerhalb der Forschungs- und Fachcommunity vorgestellt und konkrete Handlungsmöglichkeiten getestet.

Green Open Access During and After the COVID-19 Pandemic

Ralf Toepfer, Kristin Biesenbender

ZBW - Leibniz-Informationszentrum Wirtschaft, Germany

In the COVID-19 pandemic, it became much more critical for many researchers to disseminate preliminary versions of their results from one day to the next. This kind of “save the world” feeling prompted a search for ways to circumvent the lengthy publication procedures for journal articles, and many researchers decided to post preprints as upstream publication opportunities. We investigate whether this is a temporary phenomenon or the beginning of a cultural shift in publishing behaviour in the scholarly communication system. The poster presents first results of our research

open-access.network. Wie gestalten wir die Zukunft?

Martina Benz1, 3, Andreas Kirchner1, 3, Emilia Mikautsch1, 3, Helene Strauß2, 3

1Universität Konstanz, Kommunikations-, Informations-, Medienzentrum (KIM), Germany; 2Technische Informationsbibliothek (TIB), Germany; 3BMBF-Projekt open-access.network, Germany

Auf dem Kompetenz- und Vernetzungsportal open-access.network werden zentral und zuverlässig Informationen sowie frei zugängliche Materialien, Fortbildungs- und Schulungsangebote zum Thema Open Access zur Verfügung gestellt. Nach der zweiten BMBF-Förderphase soll das Portal ab 2026 auf Grundlage eines Community-basierten Organisations-und Finanzierungsmodells verstetigt werden. Wie kann dies konkret aussehen? Welche Angebote müssen unbedingt erhalten bleiben? Welche sind optional? Das Poster stellt die wichtigsten Element von open-access.network und die zentralen Schritte zum Nachhaltigkeitskonzept dar. Es lädt die Betrachter*innen ein, die Wichtigkeit der verschiedenen Angebote von open-access.network zu bewerten und Ideen, Wünsche und Anregungen zum Prozess mitzuteilen.

Mapping networks of scholar-led publishing initiatives: The case of the Radical Open Access Collective

Christoph Schimmel

Universität Innsbruck, Austria

What role do networks, sociospatial strategies and open infrastructures play during the digital transformation of the scholarly publishing system? In a highly contested field where the die seems already cast of how to publish and read, many scholars band together in a common struggle against an enclosure and co-optation of knowledge infrastructures and disrupt solid power geometries. As one of these recently created coalitions, the so-called Radical Open Access Collective (ROAC) tries to build horizontal alliances internationally and strengthen vertical collaborations on smaller scales.

This poster depicts networks on three levels and its strategic relevance for stakeholders being involved in Open Access publishing. The aim of the study is to explore networks of scholar-led publishing initiatives and facilitate an extended understanding of sociospatial theory from a Lefebvrian perspective with reference to the scholarly publishing system in transition.

As a case study, the ROAC with more than 70 members of publishing initatives is explored in a mixed methods research design. The focus of the qualitatively-driven mixed methods research and social network analysis is the Collective’s sociospatial strategies e.g. networking, strengthening vertical collaborations and promoting horizontal alliances. A systematic literature research and qualitative interviews with experts in the field of scholar-led publishing provide the main data set, being triangulated with desk-based research on the Radical Open Access Collective.

The results show networking strategies of the ROAC on three different levels building on a social network analysis. In addition, this poster contributes to a deeper understanding of a specific network of scholar-led publishing initiatives indicating their key sociospatial strategies in order to tackle challenges in a contentious struggle between scalability and nonscalability.

Concluding, this poster emphasises the importance of sociospatial strategies for non-profit publishing initiatives in order to create a knowledge commons around open and equitable infrastructures.

SOCIOS - Publication Platform for Collaborative Writing and Open Peer Review in the Social Sciences

Franciska Heenes, Stephan Henn

Universitäts- und Stadtbibliothek, Germany

As open and collaborative research practices are attracting increasing attention in the field of social sciences, UCL Cologne develops a new publication platform `SOCIOS´ for collaborative writing and open peer review in the social sciences. The platform guides researchers from draft to final paper submission and open peer review, thus exploiting the full potential of preprint publishing. Besides preprints, researchers can submit research posters, and single journal or book chapters for open peer review. Social scientists and those interested in the social sciences can contribute their thoughts on the submissions openly in the form of comments, thus initiating a scientifically informed discussion with authors and reviewers. The poster presents the platform’s functionality to promote open scientific communication in the social sciences.

Data Mining aus Open-Access Publikationen zur Bestimmung von Materialparametern unterstützt durch Machine Learning // OpenMinIng

Carina Schauer, Prof. Dr.-Ing. Klaus Drechsler

Technische Universität München, Germany

Ziel des OpenMinIng Konzepts ist die Generierung eines automatisierten Data Mining Prozesses zur Aggregation von Inhalten aus Open-Access veröffentlichten Publikationen und die Analyse der Daten mittels Machine Learning Algorithmen. Obwohl Publikation öffentlich digital zur Verfügung stehen, ist die Nutzbarkeit der Inhalte, aufgrund der Fülle und des für eine manuelle Suche verbundenen Zeitaufwandes, eingeschränkt. Daher werden anhand von Open-Access veröffentlichten Forschungspublikationen am Beispiel von Faserverbundwerkstoffen (z.B. CFK) Parameter, wie mechanische Kennwerte, extrahiert.

Mithilfe eines entsprechend programmierten Codes werden die PDFs automatisiert eingelesen, Keywords der Publikation ermittelt und relevante materialspezifische Ergebnisse extrahiert. Die Daten werden in Tabellen exportiert und gespeichert. Zur Validierung der gefilterten Daten wird eine Benchmark-Studie der mechanischen Kennwerte durchgeführt. Dabei wird zusätzlich eine Energie- und Kostenanalyse durchgeführt, sodass neben dem Vergleich der Akkuratesse der extrahierten gegenüber experimentell ermittelten Daten, die Höhe der potentiellen Ressourceneinsparungen evaluiert werden kann. Mit Data Mining und Machine Learning Algorithmen werden Zusammenhänge zwischen Materialien und Kennwerten ermittelt. Damit können nichtvorhandene Datenpunkte extrapoliert und als synthetische Daten dem Datensatz hinzugefügt werden.

Mithilfe des OpenMinIng Ansatzes wird die Nutzbarkeit Open-Access veröffentlichter Publikationen gesteigert. Durch den erhöhten Nutzen wird ein Anreiz für vermehrte und qualitativ hochwertige Open-Access Veröffentlichungen geschaffen. Bereits erarbeitetes und publiziertes Wissen wird hiermit einen Beitrag für ressourcenschonende Entwicklungen, z.B. in der Material- oder Prozessentwicklung, leisten.

Baroque AI

Simon Worthington, Ina Blümel

Technische Informationsbibliothek (TIB), Germany

Publication prototype: A computational publishing and AI assisted writing course unit with students of the Open Knowledge class – at Hochschule Hannover with the Open Science Lab, TIB.

Poster DOI: doi.org/10.5281/zenodo.8056869

The prototype publication exercise involves creating a fi ctional ‘exhibition catalogue’ drawing on Wikidata based cataloguing of seventeenth century painting deposited by the Bavarian State Painting Collections. The prototype demonstrates how computational publishing can be used to bring together different distributed linked open data (LOD) sources. Additionally AI tools are used for assisted essay writing. Then both are encapsulated in a multiformat computational publication — allowing for asynchronous collaborative working. Distributed LOD sources include: Wikidata/base, Nextcloud, Thoth, Semantic Kompakkt, and TIB AV Portal. AI tools used for essay writing are — OpenAI and Perplexity.

Eleven students completed the class unit which was carried out over March to April 2023. An open access OER guide to running the class, a template publication for use in the class are online on GitHub and designed for OER reuse. Full class information and resources are on Wikiversity. The open source software used is brought together in the ADA Pipeline.

Prototype series: Baroque TOC

Coordinated by Simon Worthington NFDI4Culture @Open Science Lab, TIB, Hannover and Professor Dr Ina Blumel (Open Knowledge course leader HsH) — HsH, NFDI4Culture @Open Science Lab, TIB, Hannover

Geisteswissenschaftliche Grundlagenforschung auf dem Weg zu Open Science

Markus Schnöpf

Berlin-Brandenburgische Akademie der Wissenschaften (BBAW), Germany

Das Poster zeigt am Beispiel einer vorwiegend geisteswissenschaftlich ausgerichteten Forschungsinstitution verschiedene Stationen auf, die bei der Ausrichtung auf Open Science hilfreich sind. Archiv, Bibliothek, Informationstechnologie, Digital Humanities und Forschungsdatenmanagement arbeiten bei der Umsetzung der FAIR-Prinzipien Hand in Hand. Dennoch ist Open Science kein Zustand, der erreicht werden kann, sondern bleibt ein Ziel, welches zu erreichen gilt. Auch wenn die Berlin Declaration on Open Access schon zwanzig Jahre her ist, so sind die Ziele der Erklärung noch nicht erreicht und es bedarf kontinuierliche Arbeit, um weiter zu kommen. Die Verabschiedung des Leitbilds Open Science der Berlin-Brandenburgischen Akademie der Wissenschaften 2019 sowie anderer Policies steckt den formalen Rahmen ab, in dem Open Science an der Akademie umgesetzt werden kann.

Wohin mit dem DINI-Zertifikat 2025?

Daniel Beucke2, Isabella Meinecke1, Thomas Severiens3

1Staats- und Universitätsbibliothek Hamburg, Germany; 2Staats- und Universitätsbibliothek Göttingen, Germany; 3Jade Hochschule Wilhelmshaven, Oldenburg, Elsfleth, Germany

Nach einer 20-jährigen Erfolgsgeschichte steht das DINI-Zertifikat für Open-Access-Publikationsdienste auf dem Prüfstand: Neue Dienste, Ausrichtungen und Anforderungen machen es nötig, über aktuelle Schwerpunkte nachzudenken. Wir, Vertreter*innen der DINI-AG Elektronisches Publizieren, wollen die Open-Access-Tage nutzten, um über das interaktive Plakat mit der Community vor Ort über diese Herausforderungen zu sprechen. Das DINI-Zertifikat als Angebot aus der Fachgemeinschaft für die Fachgemeinschaft braucht die wertvollen Impulse und das Feedback jede*r einzelnen.

Unveiling the Path to Equitable Knowledge. Challenging Knowledge Monopoly: Access, Equity, and Quality in the Digital Era.

Mina Lahlal1, 2, Tobias Kerzenmacher3

1Klinik Ottakring, Trauma surgery department, Wien, Austria; 2Global Surgery, Germany; 3Karlsruhe Institut für Technologie (KIT), Institute for Meteorology and Climate Research, Germany

In the digital age, the privatization and monopolization of knowledge have become prominent issues, particularly in the field of medical education and practice. Influential platforms like Amboss and the Association for the Study of Internal Fixation AO have emerged as gatekeepers, controlling access to medical knowledge through paywalls and potentially shaping treatment approaches. Concerns arise due to the selective dissemination of information, where conservative treatment approaches may be downplayed. In contrast initiatives that prioritize equal access to knowledge have been introduced, such as the WHO Surgery at the District Hospital program and internationally renowned textbooks like "Primary surgery" and "War surgery."

Another area of concern is authorship, with a growing emphasis on advocating for equal cooperative authorship and challenging hierarchical structures. Alternative models promoting inclusivity and diversity in the authorship process are being explored. Additionally, there is a pressing need to prioritize quality over quantity in scientific publications. Strategies such as rigorous peer review processes and emphasizing impactful research are being discussed to address this issue.

The implications of knowledge monopolization and dissemination are not limited to developed countries. Russian pirate platforms have significant implications for knowledge dissemination, copyright protection, and research availability, particularly in the Global South. Language barriers and biases against certain regions or nations further amplify the underrepresentation of voices in the scientific community.

Interdisciplinary dialogue is crucial in advancing equitable knowledge access and exploring alternative approaches in the digital era. By fostering open discussions, the aim is to deepen the understanding of knowledge monopolies, encourage equal access to information, and seek innovative solutions in authorship, publication, and knowledge dissemination. The ultimate goal is to create a more inclusive and accessible landscape for the advancement of knowledge across various disciplines.

11.00–11.30

11.30–13.00

Session 5: Partizipation und Kollektive

Ort: Hörsaal 1a
Moderation: Andreas Kirchner

Fair, gebührenfrei und in den Händen der Wissenschaft: Ergebnisse einer Studie zur Zukunft des wissenschaftsgeführten Publizierens

Marcel Wrzesinski

Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG), Germany

Faires, gebührenfreies und wissenschaftsgeführtes Open Access ist nach Ansicht der Forschungs-, Förderungs- und Bibliothekscommunity der Idealzustand wissenschaftlicher Kommunikation. Mit diesem Prädikat sind besondere Hürden verbunden, die nur zögerlich adressiert werden: Publikationstechnologien sind oft nicht frei verfügbar, infrastrukturelle Dienste zu dezentral organisiert, Rechtsunsicherheiten sind allgegenwärtig, Datenschutz steht oft an letzter Stelle, Arbeitsabläufe sind ausgebremst, die Außenkommunikation verfehlt die Zielgruppe, finanzielle wie personelle Ressourcen fehlen und die Organisationsstruktur ist nicht ausreichend dokumentiert.

Der Vortrag setzt an diesen und weiteren Problemlagen an und stellt die Ergebnisse der Delphi-Studie “Zur Zukunft des wissenschaftsgeführten Open-Access-Publizierens” vor. Im Zeitraum von Januar bis April 2023 haben wir in einer zweistufigen Umfrage Expert:innen aus den Bereichen Wissenschaftskommunikation, Publikationsprojekte, Forschungsinfrastrukturen, Wissenschaftsförderung und Wissenschaftsmanagement (1. Stufe: n=171, RQ: 70%; 2. Stufe: n=71, RQ: 75%) zum Stand, zu den Rahmenbedingungen, zur gesellschaftlichen Bedeutung und zur Zukunftsfähigkeit von wissenschaftlichem Publizieren und Open Access im allgemeinen, sowie wissenschaftsgeführten Open Access im Besonderen befragt. Ziel der Umfrage war es, die wichtigsten Herausforderungen für wissenschaftsgeführtes Publizieren zu identifizieren, zu priorisieren und darauf aufbauend Entwicklungspfade für eine nachhaltige, wissenschaftsgeführte Open Access Publikationskultur zu erkunden und zu gewichten.

Die Delphi-Studie hat gezeigt, dass ein Großteil der Befragten die OA-Transformation für gescheitert hält, dies aber durchaus unterschiedlich begründet. Als zentrale Herausforderungen sahen die Befragten beispielsweise die Etablierung von nachhaltigen Haushaltsplänen und effizienten Strukturen zur Verantwortungsübernahme. Große Uneinigkeit herrschte demgegenüber zur Rolle von Open Source im Redaktionsbetrieb, zur Verantwortung von disziplinären Einzelcommunities oder zu Strategien der Aufwertung der Redaktionsarbeit. Im Vortrag wird auf diese und weitere Befunde zum wissenschaftsgeführten Publizieren in Deutschland eingegangen und entlang der Daten Ideen zur Weiterentwicklung dieses Segments des wissenschaftlichen Publizierens vorgestellt. Die Studie befindet sich aktuell in der Auswertung, daher können in diesem Abstract noch keine Ergebnisse angeführt werden.

Zum Wohle Aller – Kollektive Ansätze zur nachhaltigen Finanzierung von Open-Access-Büchern

Katharina Baier1, Tom Grady2

1Central European University (CEU) Press, United Kingdom; 2Birkbeck, University of London, United Kingdom

Die Zahl der Verlage, die Open-Access-Bücher veröffentlichen, hat in den letzten zehn Jahren zugenommen - die Anzahl der Modelle zur Finanzierung von OA wächst stetig. In Europa hat cOAlition S/Plan S eine zukünftige OA-Bücherpolitik angedeutet, und auch global werden staatliche Mandate für OA immer richtungsweisender. Forscher/innen werden sich bei Fragen zum Open Access immer mehr auf die Unterstützung der Bibliotheken verlassen müssen.

Es ist für Bibliotheken und akademische Verlage dringend erforderlich, sich jetzt mit den Herausforderungen und Chancen auseinanderzusetzen. Die vielleicht größte Herausforderung ist die Frage, wie OA-Bücher finanziert werden können. Der Übergang zu OA sollte kleinere und mittelgroße Verlage nicht zurücklassen; und er sollte sich nicht auf die Finanzierung über BPCs verlassen, weil dadurch das Risiko bestünde, dass Autoren/innen ohne spezifische Finanzierung ausgeschlossen werden.

In diesem Vortrag werden wir einige Non-BPC-Modelle hervorheben, die in den letzten Jahren entstanden sind (Opening the Future bei CEU Press, MITs D2O, Michigans Fund to Mission usw.) und die Vorteile kollektiver Ansätze zur Reduzierung der inhärenten Ungleichheiten in BPC Modellen ansprechen. Thema sind weiterhin die Herausforderungen, vor denen kleine Verlage wie unserer stehen, und wir wollen Diskussionen zu organisatorischen Änderungen anregen, die innerhalb der Bibliotheken erforderlich sind, um Open Access zielgerichtet zu unterstützen und weiterzuentwickeln. Die Finanzierung von OA-Büchern muss nicht nur für Verlage, sondern auch für Bibliotheken nachhaltig sein.

Wir werden ansprechen, wie Bibliotheksbudgets strukturiert sind, damit sie sinnvolle Eingriffe vornehmen können: Wenn Bibliotheken OA immer durch nicht konkret budgetiertes oder "übrig gebliebenes" Geld finanzieren, wie kann ein Verlag wie unserer Publikationen planen, um unsere wissenschaftliche Mission fortzusetzen? Welche praktischen Schritte können Bibliotheken und Verlage unternehmen, um innovative und gleichberechtigte Wege zur Öffnung der akademischen Forschung zu unterstützen? Bibliotheksbudgets können statt ein Hindernis für Innovationen ein Werkzeug für Veränderungen sein - jetzt ist es an der Zeit, dass der Sektor die Lösungen gemeinsam diskutiert.

Partizipative Ansätze für den Erhalt offener Infrastrukturen: Die Discovery-Plattform Open Knowledge Maps

Peter Kraker1, Chris Schubert2, Lars Kaczmirek3, Oliver Lehner2, Franziska Krauss3

1Open Knowledge Maps, Austria; 2Technische Universität Wien, Bibliothek, Austria; 3Universität Wien, Austria

In der Debatte um die Öffnung der wissenschaftlichen Kommunikation haben sich offene Infrastrukturen als veritable Alternativen zu proprietären Verlagsplattformen etabliert. Doch wenn der erste Enthusiasmus verflogen ist, stellt sich für die Betreiber*innen die Frage: Wie lässt sich eine Infrastruktur erhalten, die alle ihre Dienste umsonst anbietet?

Als Antwort auf diese Frage stellen wir in diesem Beitrag den partizipativen Ansatz von Open Knowledge Maps vor. Open Knowledge Maps (https://openknowledgemaps.org) ist eine visuelle Discovery-Infrastruktur. Alle von der gemeinnützigen Organisation angebotenen Dienste sind kostenlos. Zudem stehen Daten, Quellcode und Inhalte unter offenen Lizenzen. Die Finanzierung von Open Knowledge Maps erfolgt durch Projekte und zunehmend auch durch Fördermitglieder. Die Fördermitglieder sind ein integraler Bestandteil der Organisation: sie werden Teil der Governance und haben ein verbrieftes Recht, ein Drittel der technischen Roadmap zu gestalten.

Ein Hauptergebnis dieses partizipativen Ansatzes ist eine Reihe von institutionellen Services, die sogenannten Custom Services. Mit den Custom Services können Dritte ihre Discovery-Angebote um visuelle Suchkomponenten von Open Knowledge Maps erweitern. An der TU Wien Bibliothek wurde Open Knowledge Maps beispielsweise als erweiterte Suchmöglichkeit in den Bibliothekskatalog „Katalog PLUS“ (https://catalogplus.tuwien.at/) integriert. Benutzer*innen können ihre PRIMO-Anfrage an Open Knowledge Maps als externe Ressource senden und dabei zwischen unterschiedlichen Visualisierungsarten wählen. An der Universität Wien wurde Open Knowledge Maps im Rahmen eines Pilotprojekts in das Datenarchiv von AUSSDA – The Austrian Social Science Data Archive eingebunden (https://aussda.at/ueber-aussda/projekte/open-knowledge-maps/). Die Integration gibt einen Überblick über die vielfältigen Themen im AUSSDA Dataverse und bietet intuitive Interaktionsmöglichkeiten zur Navigation und zur Auswahl einzelner Studien.

Zusammenfassend lässt sich sagen, dass dieser Ansatz ein Win-Win-Win-Szenario für Forschende, Bibliotheken und die offene Infrastruktur selbst schaffen kann. Eine große Herausforderung bleibt jedoch bestehen: die Anfangsphase zu überwinden, genügend Fördermitglieder zu gewinnen, um eine Grundfinanzierung für die Infrastruktur bereitzustellen. Wir werden unsere Präsentation mit mehreren Ansätzen zur Bewältigung dieser Herausforderung abschließen.

 

Session 6: Metadaten für Publikationen und Publikationssysteme

Ort: Hörsaal 1b
Moderation: Olaf Siegert

Optimierte Erfassung und Veröffentlichung von Artikelmetadaten für eine nachhaltige Metadatenallmende im Open-Access-Ökosystem zur Unterstützung von Auffindbarkeit und Evaluation

Daniel Nüst1, Christian Hauschke2, Anette Cordts2, Gazi Yücel2

1Technische Universität Dresden, Germany; 2Technische Informationsbibliothek (TIB), Germany

Die Metadatenallmende ist ein wichtiger Baustein für den Wandel hin zu einem diversen Open-Access-Ökosystem. Nur mit offenen und hochwertigen Metadaten, die mindestens die gleiche oder sogar höhere Qualität und Abdeckung als die Metadaten-Silos etablierter kommerzieller Verlage erreichen, können unabhängige Zeitschriften auf Augenhöhe Themen wie Auffindbarkeit und faire Evaluation von Forschenden angehen. Wir stellen einen Arbeitsablauf und Werkzeuge vor, die eine Professionalisierung der Metadatenprozesse von unabhängigen, scholar-led OA-Journals unterstützen. Diese Journals können damit ihre Sichtbarkeit im Wissenschaftssystem und ihre Bedeutung als Publikationsort erhöhen. Dazu wird die global verbreitete Free and Open Source Software (FOSS) Open Journal Systems (OJS) um Funktionen erweitert, die a) Eingabe, Kuratierung und Anreicherung von artikelbezogenen Metadaten durch Autor:innen und Editor:innen und b) den Export dieser Metadaten an offene Datenquellen wie z. B. Wikidata ermöglichen. Diese Erweiterung wird durch OJS-Plugins und auch Anpassung der OJS-Kernsoftware in den folgenden Anwendungsfällen umgesetzt:

Erstens ermöglicht die Integration von validierten persistenten Identifikatoren (PIDs) und geographischen Metadaten als Teil der Publikationsmetadaten eine bessere Auffindbarkeit und von Artikeln aus Open-Access-Zeitschriften. PIDs und Geometadaten stellen Verbindungen zu anderen Publikationen, akademischen Events, physischen Proben und wissenschaftlichen Instrumenten her und verknüpfen so verwandte Artikel über Zeitschriften und Wissenschaftsdisziplinen hinweg. Auf Basis dieser Metadaten werden zum Beispiel eine Suchplattform realisiert, die wissenschaftliche Artikel über Disziplingrenzen und Publikationsplatformen hinweg als offene Daten interaktiv auf einer Karte darstellt, und semantisch bedeutsame Links in Artikeln und ihren Landing Pages eingefügt.

Zweitens werden Zitationsmetadaten während des Einreichungs- und Begutachtungsprozesses strukturiert erfasst und frei in standardisierten Formaten veröffentlicht. Durch die innovative und benutzerfreundliche Metadatenerfassung im Zuge des wissenschaftlichen Ver­????​öffent​​lichungs​prozesses können Open-Access-Artikel in transparenten zitationsbasierten Evaluationsmetriken verwendet werden. Diese Neuerungen unterstützen eine offene Publikationskultur und -praxis.

In diesem Beitrag berichten wir vom aktuellen Arbeitsstand zu den Anwendungsfällen und beschreiben eine Vision für eine neuartige verteilte Erfassung und Veröffentlichung offener Metadaten.

Mehr als PDFs im Internet – Alternative Publikationsplattformen

Xenia van Edig1, Daniel Beucke2

1Technische Informationsbibliothek (TIB), Germany; 2Staats- und Universitätsbibliothek Göttingen, Germany

Immer neue Publikationsplattformen mit unterschiedlichsten Funktionalitäten und Zielen entstehen und bieten ihre Services an. Viele Ansätze bilden dabei ein Gegengewicht zu den “klassischen” Abläufen im Verlagswesen. Die Einbeziehung von Preprints, die Verknüpfung unterschiedlicher Forschungs-Outputs (wie Daten, Laborprotokolle oder Softwarecode), offene Begutachtungsverfahren oder neue Geschäftsmodelle sind nur einige Aspekte, die von den unterschiedlichen Plattformen adressiert werden. Im Rahmen einer Task and Finish Group von Knowledge Exchange (KE) wird eine Taxonomie über solche alternativen Publikationsplattformen erstellt. Diese Taxonomie soll dabei helfen, einen besseren Überblick über die diversen Plattformen zu erhalten und sie sichtbarer zu machen.

Der erste Schritt der T&F Group war die Erstellung eines Scoping-Papers (https://doi.org/10.21428/996e2e37.3ebdc864), in dem sich diesem Thema genähert wurde. Das Dokument selbst ist auf der “alternativen” Plattform PubPub entstanden, die eine aktive Mitarbeit der Community erlaubt und die Versionierung des Dokuments übernimmt.

Im Frühjahr 2023 hat die T&F Group zur Beteiligung an einer Umfrage aufgerufen, um in einem zweiten Schritt eine Taxonomie der unterschiedlichen Plattformen zu erstellen. Die Umfrage richtete sich an alle Plattformen, die im Bereich des Open-Access-Publizierens tätig sind und in die Taxonomie der alternativen Publikationsplattformen von der Knowledge Exchange aufgenommen werden möchten.

Der Vortrag beleuchtet die verschiedenen Wege alternativer Publikationsplattformen und präsentiert erste Ergebnisse aus der Umfrage und gibt somit einen Ausblick auf die angestrebte Taxonomie.

Did you get what you paid for? Monitoring von Verlagsdaten in DeepGreen

Tomasz Stompor, Stefan Lohrum

Zuse-Institut Berlin, Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV), Germany

DeepGreen ist eine Datendrehscheibe, die Zeitschriftenartikel von Verlagen bezieht, um sie bei entsprechender Berechtigung an Repositorien weiter zu verteilen, die sie im Open Access zur Verfügung stellen. Für die Gewährleistung vertraglich vereinbarter und verlässlicher Datenlieferungen an teilnehmende Repositorien und die Vermeidung von Nachfragen (z.B. wann kommt die nächste Charge von Lieferungen eines Verlags) ist ein entsprechendes Monitoring der Verlagsdaten notwendig.

Die Komplexität eines solchen Monitorings speist sich aus dem Umstand, dass die Verlagsdaten aktuell in heterogener Qualität und unvorhersehbaren Zyklen bereitgestellt werden (z.B. Mehrfachlieferungen, Versionen in unterschiedlichen Stadien der Produktionsstrecke, fehlende Artikel trotz Erscheinen im Chargenlieferungszeitraum). Während in der Verwaltung von Print-Zeitschriften in Bibliotheken sogenannte prediction patterns die Erscheinungsweisen dokumentieren und als Hilfsmittel dienen, um fehlende Hefte beim Lieferanten zu reklamieren (oder um Lücken im Bestand zu identifizieren bzw. Datensätze noch nicht gelieferter Hefte im Voraus zu erzeugen), stellt sich solch ein vorausschauendes Management serieller Publikationen im elektronischen Bereich schwieriger dar, da elektronische Zeitschriften weniger stringenten Erscheinungsweisen unterliegen (z.B. rolling articles).

Als einen ersten Ansatz zur Überprüfung der Vollständigkeit der Datenlieferungen haben wir einen Vergleich zwischen den von den Verlagen bzw. der EZB und der MPDL Services gGmbH bereitgestellten Zeitschriftenlisten und den bei CrossRef registrierten DOIs unternommen. Die ersten Erfahrungen zeigen, dass solche Vergleiche erhebliche Diskrepanzen zwischen den angekündigten und den tatsächlich verfügbaren Open Access-Inhalten zu Tage fördern. Im Vortrag möchten wir über die vorgenannten Herausforderungen bei der Implementierung eines transparenten Verlagsdatenmonitorings im DeepGreen-Router eingehen, erste Lösungswege aufzeigen und dabei auch über weitere aktuelle Entwicklungen bei DeepGreen berichten.

Zielgruppe des Vortrags sind an DeepGreen teilnehmende Repositorien sowie Akteure aus dem Open Access-Bereich, die sich mit dem Themenfeld Monitoring beschäftigen.

 

Workshop 5: Von Open Access zu Open Science Policies: Was sind neue Inhalte und Wege der Umsetzung?

Ort: Seminarraum L115
Anzahl Teilnehmende: max. 30
Anmeldung geschlossen - max. Teilnehmendenzahl erreicht

Stefan Skupien

Berlin University Alliance, Germany

Open-Access-Policies von Hochschulen und Forschungseinrichtungen sind weit verbreitet und haben sich bewährt. Auch wenn jüngst der genaue Beitrag dieser Policies zum Anstieg von Open-Access-Publikationen im Vergleich zu anderen Maßnahmen als geringer eingeschätzt wird (Taubert et.al. 2022), so bieten die Policies doch konkrete Orientierung und Hilfestellungen für Forschende und bringen ein Wertebekenntnis zu offener Wissenschaft zum Ausdruck.

Als zweites Thema folgten Forschungsdaten-Policies, die ebenfalls einen Beitrag zu zugänglicher Wissenschaft und besonders zur Überprüfbarkeit und Qualitätssicherung von Forschungsergebnissen leisten. Jüngere Policies und Leitbilder auf institutioneller und auf regionaler Ebene widmen sich noch umfassender dem Thema Open Science bzw. Open Research oder Open Scholarship. Beispiele für diese neueren Zugänge finden sich in Konstanz, Erlangen-Nürnberg, Potsdam (Helmholtz-Gemeinschaft), Wien und Zürich. Dieser Workshop widmet sich dieser "dritten Welle" und fragt, welche neuen Inhalte, Strategien und Anforderungen es Open-Science-Policies gibt und welche Erfahrungen aus den Open-Access-Policies fortwirken.

Der Workshop richtet sich an Mitarbeitende aus dem wissenschaftsunterstützenden Bereich und Forschende, die für vergleichbare Policy-Prozesse verantwortlich waren oder es derzeit sind. Im Workshop soll in interaktiven Formaten (Open-Space-Methodik) und Plenumsdiskussionen die Erfahrungen gesammelt werden und in einen kurzen Leitfaden für zukünftige Strategieprozesse an Hochschulen und Forschungseinrichtungen einfließen. Dabei sollen die häufigsten Inhalte neuerer Open-Science-Policies benannt und wo möglich Techniken, Chancen und Schwierigkeiten identifiziert werden, derartige Policies zu erstellen und umzusetzen.

Zur Vorbereitung wird auf Zotero eine Bibliothek mit Beispielen und Sekundärliteratur bereit gestellt, die gemeinsam erweitert werden kann. Der Leitfaden als Ergebnis des Workshops wird im Anschluss veröffentlicht.

 

Workshop 6: Think. Check. Support. – Publikationsfonds als Kommunikations- und Steuerungsinstrument einsetzen

Ort: Seminarraum L116
Anzahl Teilnehmende: max. 30
Anmeldung geschlossen - max. Teilnehmendenzahl erreicht

Juliane Brosowsky1, Claudia Frick2, Stefan Schmeja3, Katharina Schulz4, Florian Strauß5

1Freie Universität  Berlin, Germany; 2Technische Hochschule Köln, Germany; 3Technische Informationsbibliothek (TIB), Germany; 4Charité – Universitätsmedizin Berlin, Germany; 5Technische Universität Clausthal, Germany

Befürchtungen seitens Wissenschaffenden über möglicherweise mangelnde Qualität von Open-Access-Veröffentlichungen sind nichts Neues. Verlage wie MDPI (Multidisciplinary Digital Publishing Institute) sind einerseits sehr beliebt bei Forschenden, befeuern andererseits durch manche Praktiken die Debatte. So stehen die dortigen Special Issues in der Kritik, weil anerkannte Qualitätssicherungsmaßnahmen wie Peer Review scheinbar teilweise umgangen werden. An der TU Clausthal sind z. B. von den bei MDPI eingereichten Publikationen ihrer Wissenschaffenden in den letzten beiden Jahren etwa 70 % in Special Issues erschienen. Sollten diese tatsächlich als predatory identifiziert werden, besteht ein Handlungsbedarf aufseiten der Einrichtungen. Die Technische Informationsbibliothek (TIB) wählt bereits den Ansatz, MDPI insgesamt unter Beobachtung zu stellen und die Article Processing Charges (APC) nicht mehr in voller Höhe zu fördern. Die Charité legt strenge Qualitätskriterien für Publikationsdienstleistungen an, die sie fördert, und orientiert sich dabei am DOAJ (Directory of Open Access Journals) Seal.

Publikationsfonds zeigen sich also erneut als ein Werkzeug, mit dem wissenschaftliche Bibliotheken ihr Gestaltungspotenzial am Publikationsmarkt ausüben und die Open-Access-Transformation mitgestalten. Sie schaffen dadurch Möglichkeiten, auf Probleme aufmerksam zu machen und mit den Wissenschaffenden ins Gespräch zu kommen.

Gemeinsam soll im Workshop erarbeitet werden, wie die Community auf derartige Entwicklungen gegenüber den Wissenschaffenden reagieren kann. Wie können Bibliotheken mit Verlagen umgehen, die zwar nicht eindeutig als predatory kategorisiert werden können, jedoch teilweise zweifelhafte Praktiken anwenden? Welche Werkzeuge stehen uns zur Verfügung? Wie identifizieren wir nachhaltig für die Community problematische Verlage?

Der Workshop richtet sich an alle Interessierten, insbesondere Personen, die Forschende beraten oder Publikationsfonds mitgestalten.

Lernziele:

Nach Abschluss des Workshops können die Teilnehmenden …

  • verschiedene Kriterien zur Beurteilung der Qualität von Open-Access-Publikationen beschreiben.
  • Maßnahmen zur Steuerung der Qualität von Open-Access-Publikationen über einen Publikationsfonds umsetzen.

Struktur und Methoden:

  • Impulsvortrag (10 Minuten)
  • Diskussion von Arbeitshypothesen, 5 Kleingruppen à 6 Personen (jeweils 12 Minuten)
  • Vorstellung der protokollierten Ergebnisse (10 Minuten)

 

13.00–14.30

Mittagspause

Ort: Mensa

14.30–16.00

Session 7: Publikationspraxis: Zeitschriften und Konferenzbände

Ort: Hörsaal 1b
Moderation: Daniela Hahn

Keine zwei verschiedenen Systeme mehr: Konferenzbeiträge auf der Zeitschriftenplattform (OJS) veröffentlichen

Dulip Withanage, Marco Tullney, Xenia van Edig

Technische Informationsbibliothek (TIB), Germany

Der Vortrag präsentiert die Arbeiten von TIB Open Publishing zur Veröffentlichung von Konferenzbänden mittels angepasster und erweiterter Funktionen von Open Journal Systems (OJS).

Konferenzpublikationen sind ein quantitativ und qualitativ wichtiger Teil des publizierten wissenschaftlichen Outputs. Sie werden auf unterschiedlichen Wegen und mit unterschiedlichen Standards veröffentlicht. Open-Access-Veröffentlichungen von Konferenzbänden, die an aktuellen Publikations- und Qualitätsstandards orientiert sind, erhöhen die Zugänglichkeit und Nachnutzbarkeit der auf Konferenzen vorgestellten Erkenntnisse.

TIB Open Publishing ist ein neuer Diamond-Open-Access-Verlag für Zeitschriften und Konferenzpublikationen, der OJS nutzt. OJS ist mit weltweit mehr als 30.000 Installationen die am weitesten verbreitete freie Open-Source-Software zur Veröffentlichung von Zeitschriften. Basierend auf den eigenen Anforderungen und im engen Austausch mit der weltweiten OJS-Community entwickelt die TIB eine bessere Unterstützung von OJS für Konferenzreihen und verwandte Komponenten und Workflows. Die Lösungen werden als freie Software zur Verfügung gestellt.

Im Vortrag stellen wir das technische Konzept, ein Anwendungsbeispiel, die Zusammenarbeit mit verschiedenen Akteuren sowie das Modell für eine nachhaltige Weiterentwicklung vor. Darüber hinaus möchten wir die Kosteneinsparungen durch die Wiederverwendung vorhandener Ressourcen und durch ein einheitliches System für Zeitschriften und Konferenzpublikationen thematisieren.

Zwischen Ideal und Praxis – Herausforderungen beim Ausbau der Diamond Open Access Publikationsinfrastruktur. Ein Werkstattbericht der SLUB Dresden

Josephine Hartwig, Elfi Hesse

Staats-, Landes und Universitätsbibliothek Dresden, Germany

Die SLUB Dresden beschäftigt sich intensiv mit dem Ausbau ihrer Publikationsinfrastruktur für qualitätsgesicherte wissenschaftliche Erstveröffentlichungen im Diamond Open Access. Um die angebotenen Services sinnvoll und nachhaltig weiterentwickeln zu können, ist eine Auseinandersetzung mit verschiedenen Anforderungen an eine zeitgemäße Infrastruktur notwendig. Die Herausforderung besteht vor allem darin, die Bedürfnisse der Forschenden aufzugreifen und gleichzeitig die Anerkennung durch nationale und internationale Fördermittelgeber durch Einhaltung von inhaltlichen und formalen Qualitätsstandards sicherzustellen. Dabei scheinen insbesondere die Anforderungen für eine Plan S-Kompatibilität, welche relevant für zukünftige Veröffentlichungen im Zuge europäisch geförderter Forschung ist, weit auseinander zu liegen mit den Bedarfen und Möglichkeiten der Herausgebenden wissenschaftlicher Zeitschriften. Als Beispiele seien hier die Befürchtungen bezüglich Fremdverkauf der Veröffentlichungen bei Vergabe einer Lizenz ohne NC-Einschränkung oder auch fehlende Kenntnisse zur Erstellung einer nach DSGVO rechtssicher zulässigen Datenschutzvereinbarung genannt. Mittels einer Bestandsaufnahme der aktuell über die SLUB gehosteten Zeitschriften werden diese und weitere Diskrepanzen aufgezeigt und diskutiert, wie damit umgegangen werden kann. Darauf aufbauend und darüber hinausgehend wird im Vortrag thematisiert, welche Services die SLUB als Infrastrukturanbieter etablieren möchte, um Herausgebende von Diamond Open Access Zeitschriften besser unterstützen und entlasten zu können. Dies betrifft neben der technischen Bereitstellung einer Plan S-kompatiblen Softwarelösung (OJS von PKP) und Unterstützung bei der korrekten Einrichtung dieser, u.a. auch die Unterstützung der Herausgebenden bei der korrekten Formulierung von Policies und Datenschutzinformationen durch ein Baukastensystem sowie die Bereitstellung von Autor*innen-Verträgen. Für eine echte Alternative zum Angebot profitorientierter und datensammelnder Verlage sind vielseitige Unterstützungsangebote für Herausgebende zwingend notwendig, um den Mehraufwand einer Journalgründung und -betreibung ohne etablierten Verlag abzufedern. Mit dem Auf- und Ausbau einer Diamond Open Access Publikationsplattform möchte die SLUB genau dies erreichen.

BerlinUP Journals: Wissenschaftsgeleitete Publikationsdienstleistungen für Zeitschriften aufbauen

Michael Kleineberg, Ronald Steffen

Freie Universität Berlin, Germany

Institutionelles Publizieren wird von vielen Hochschulenbibliotheken bereits als Kernaufgabe verstanden. Der im letzten Jahr gegründete Open-Access-Verlag Berlin Universities Publishing (BerlinUP), gemeinschaftlich getragen von den Bibliotheken der Freien Universität Berlin, der Humboldt-Universität zu Berlin, der Technischen Universität Berlin und der Charité – Universitätsmedizin Berlin, ist ein Beispiel für öffentlich geförderte Publikationsinfrastrukturen.

Der Vortrag bietet Einblicke in den Aufbau von Infrastrukturen und Dienstleistungen zum Publizieren wissenschaftlicher Zeitschriften. Die Zeitschriftensparte BerlinUP Journals wird von der FU Berlin verantwortet und kann auf langjährige Erfahrungen im Hosting mit Open Journal Systems (OJS) aufbauen. Im Fokus der Präsentation liegt die Weiterentwicklung von technischen und verlegerischen Dienstleistungen sowie von unterstützenden Beratungs- und Schulungsangeboten.

Aufgrund der dynamischen Entwicklung der Publikationslandschaft wird vor allem das Monitoring und die Umsetzung von sich etablierenden Standards und Empfehlungen zum wissenschaftlichen Publizieren immer wichtiger, um Zeitschriftenredaktionen zu unterstützen. Hierzu gehören beispielsweise die DOI-Vergabe, die ORCID-Integration, das DOAJ-Siegel, die Plan-S-Kompatibilität, die COPE-Kernpraktiken oder die OASPA-Transparenzprinzipien. Zusätzlich müssen auch die rechtlichen Anforderungen im Kontext des Datenschutzes und der Barrierefreiheit kontinuierlich sichergestellt werden.

Die Services von BerlinUP Journals orientieren sich dabei an den Werten einer offenen Wissenschaft und umfassen sowohl die Neugründung von Zeitschriften als auch die Transformation bestehender Zeitschriften in ein Open-Access-Publikationsmodell, das ohne Publikationsgebühren auskommt und für Angehörige der vier tragenden Einrichtungen kostenlos ist. Daraus resultieren zugleich gewisse strukturelle Besonderheiten, auf die beispielsweise die Open-Access-Förderlandschaft noch nicht immer adäquat eingestellt scheint.

In erster Linie richtet sich der Vortrag an Interessierte von Einrichtungen, die ähnliche Publikationsdienstleistungen aufbauen oder planen. Erst in der Praxis zeigen sich die konkreten Herausforderungen und formen sich realistische Ansprüche für die Zukunft. Das Team von BerlinUP Journals möchte diese Erfahrungen vorstellen und strategische Entscheidungen gern mit der Community diskutieren.

 

Session 8: Podiumsdiskussion DEAL

Ort: Hörsaal 1a
Moderation: Dr. Angela Holzer (DFG)

Gegenstand der Podiumsdiskussion ist ein kritisch-konstruktiver Blick auf die aktuellen Entwicklungen bei DEAL, dem nationalen Projekt zum Abschluss von Open Access Transformationsverträgen mit Wissenschaftsverlagen.

Für das Podium haben zugesagt (in alphabetischer Reihenfolge):

  • Dr. Jens-Peter Gaul - Generalsekretär der Hochschulrektorenkonferenz
  • Dr. Karin Ilg - Leiterin der Hochschulbibliothek der Hochschule Bielefeld
  • Dr. Irina Sens - Stellvertretende Direktorin der Technischen Informationsbibliothek (TIB)
  • Prof. Dr. Thomas Stäcker - Direktor der Universitäts- und Landesbibliothek Darmstadt
  • Dr. Arne Upmeier - Direktor der Bibliothek des Karlsruher Instituts für Technologie (KIT)

 

16:00–16.30

16.30–18.00

Session 9: Publikation PLUS

Ort: Hörsaal 1b
Moderation: Steffen Amling

Zwischen Forschungsdaten und Buchveröffentlichung: Die Plattform Open Text Collections

Sebastian Nordhoff, Mandana Seyfeddinipur, Christian Döhler

Berlin-Brandenburgische Akademie der Wissenschaften (BBAW), Germany

Bei der OA-Transformation lag bisher das Hauptaugenmerk auf Artikeln und, mit einigem Abstand, Büchern. Auf der anderen Seite findet sich im Open-Data-Bereich Forschungsdatenmanagement. Dieser Vortrag wird das Projekt „Open Text Collections“ (OTC) vorstellen, das diese beiden Ansätze verbindet und Texte aus (bedrohten) Sprachen als Forschungsdaten begreift und sie strukturiert und versioniert unter einer offenen Lizenz zugänglich macht.

Neben Wörterbuch und Grammatik stellen Textsammlungen das dritte Element der sogenannten Boas’schen Trilogie der Sprachbeschreibung dar. Während für Grammatiken und Wörterbücher bereits gute OA-Möglichkeiten existieren, sind Textsammlungen eher ein Stiefkind des linguistischen Publikationswesens. Weiterhin sind Textsammlungen zwar natürlich Texte, auf der anderen Seite aber auch hochstrukturierte Daten mit Satz-für-Satz- und Wort-für-Wort-Übersetzungen mit standardisierten Glossierungen. OTC speichert die Daten daher im Backend versioniert als CSV, stellt aber verschiedene Schnittstellen bereit, um die Daten zielgruppengereicht anzubieten. Dazu gehörten ein HTML-Frontend mit ElasticSearch, JSON und Print-on-Demand-Bücher.

Kuratiert wird OTC von 5 Regional Boards mit einem Schwerpunkt am Endangered Language Archive an der Berlin-Brandenburgischen Akademie der Wissenschaften. Als Publikationspartner dient der renommierte Open-Access-Verlag Language Science Press. Hierbei wird auf bewährte Prinzipien des Scholar-Led- und Community-based-Publishing sowie der konsortialen Finanzierung zurückgegriffen.

Die Plattform Open Text Collections weist neue Wege für die Umsetzung von Open-Access-Prinzipien, über den engen Rahmen von Zeitschriften und Artikeln hinaus (Bibliodiversität), und zeigt, wie eine Integration von Forschungsdaten und klassischen Publikationen im OA-Bereich auch bei einer Kulturerbeeinrichtung wie der BBAW möglich ist. Open Access führt dadurch weit über den traditionellen Artikelbereich hinaus, und es ergibt sich ein Kontinuum zwischen granularen Forschungsdaten auf Wort- oder sogar Morphemebene einerseits und mehrere hundert Seiten umfassenden Büchern andererseits. Politische Forderungen im OA-Bereich sollten das gesamte Kontinuum berücksichtigen.

Neben dem technischen und sozialen Setup wird der Vortrag auch auf Fragen des Urheberrechts, Persönlichkeitsrechts und Datenschutzes im Kontext von Sprechergemeinschaften, die sich außerhalb des westlichen Rechtskreises bewegen, eingehen.

Innovation, Automation, Tradition: Wieso es sich lohnen kann, aus Blog-Texten Bücher und Journals zu machen

Evin Dalkilic, Keanu Dölle

Verfassungsblog, Germany

Wissenschaftsblogs gelten noch immer als innovative Publikationsformate, obwohl es sie bereits seit mehr als 15 Jahren gibt. In der Wissenschaft haben sie zwar mittlerweile ihren Platz gefunden, werden aber nach wie vor oft als nicht gleichwertig gegenüber traditionellen Publikationen angesehen. Auch Hochschulbibliotheken tun sich – vor allem wenn es um die Finanzierung geht – nicht immer leicht damit, Wissenschaftsblogs als Publikationen anzuerkennen, die klassischen Formaten wie Büchern oder Journals entsprechen.

Um zu testen, inwiefern klassische Publikationsformate die Akzeptanz in beiden Hinsichten stärken und so auch die Zugänglichkeit erleichtern können, hat der Verfassungsblog im BMBF-geförderten Projekt „Offener Zugang zu Öffentlichem Recht“ Blog-Texte als Sammelbände und Journals gebündelt. In der Folge wurde ein Workflow entwickelt, der weitestgehend automatisiert funktioniert und die über die Blog-Software Wordpress veröffentlichten Texte mit nur wenigen Klicks in die neuen Formate überführt.

Hierbei werden Blogbeiträge inkl. Metadaten in maschinenlesbare Datenformate exportiert, durch ein eigens entwickeltes Python-Skript angepasst und mit bestehender Open-Source-Software in LaTeX konvertiert. Durch das Textsatzsystem LaTeX und hierfür erstellte Vorlagen können die Beiträge dann in verschiedenen Layouts und Formaten aufbereitet werden. In wenigen Minuten können so aus Blogbeiträgen Journals oder Bücher als PDF, ePub oder Printversion erzeugt werden.

Die entwickelten Tools sollen zur Nachnutzung frei zur Verfügung gestellt werden und bieten anderen Wissenschaftsblogs, die Wordpress nutzen, so die Möglichkeit, ihre Publikationsformate auf einfache Art zu diversifizieren.

Die Gründe für den Schritt zurück ins „Traditionelle“ sowie der Workflow sollen vorgestellt und erläutert und anschließend zur Diskussion gestellt werden.

Mehr als einfach Bücher: Mit xml und IIIF zu ungewöhnlichen Publikationen

Elio Pellin, Jan Stutzmann

Universität Bern, Switzerland

Die Universitätsbibliothek Bern betreibt mit Bern Open Publishing Open-Access-Plattformen für begutachtete Zeitschriften (BOP Serials) und Bücher (BOP Books).
Für Bern Open Publishing streben wir einen xml-first-Workflow an, für den wir den Herausgeber*innen verschiedene Möglichkeiten anbieten. Der xml-Workflow macht es möglich, die Nachnutzbarkeit, die Verbreitung sowie die Nachhaltigkeit der Publikationen zu verbessern. Neben Zeitschriften, Monografien oder Sammelbänden können auf den BOP-Plattformen auch nicht-alltägliche Publikationen erscheinen, die von den Forschenden gewünscht werden.

Anhand von zwei Publikationen in einem speziellen Format zeigen wir, wie ein solcher Workflow die Möglichkeit zur Nachnutzung und die Nachhaltigkeit verbessern kann.

Der Inkunabelkatalog, den wir auf BOP Books für das Zentrum Historische Bestände der UB Bern publizieren, soll die Sammlung der Historischen Drucke bis ins Jahr 1500 als Sammlung besser sichtbar machen. Die Inkunabeln der UB Bern sind zwar in swisscollections verzeichnet. Als Sammlung mit einer spezifischen Geschichte sind sie aber kaum erkennbar. Und nur bei volldigitalisierten Exemplaren sind Abbildungen eingebunden.
Der Inkunabelkatolog auf BOP besteht aus einer wissenschaftlichen Einleitung und aus den kodikologischen Beschreibungen der frühen Drucke. Sie werden angereichert mit ausgewählten und hochaufgelösten Bildern, die über einen IIIF-Server angesteuert in hoher Auflösung angeschaut und nachgenutzt werden können.

Für den Katalogteil wurden die Marc 21-Dateien aus swisscollections/Alma in Jats-xml-Dateien konvertiert. Angezeigt wird der Katalog im html- Format.

In einem weiteren Katalog wird eine Sammlung von mongolischen Handschriften vollständig über den IIIf-Server zugänglich gemacht und mit den wissenschaftlichen Beschreibungen im Katalogteil auf BOP verbunden. Damit bietet BOP eine Alternative zu einer manuellen Vollkatalogisierung der Sammlung. Die bisher von den Forschenden als Findmittel erstellten Word-Dateien werden in xml-Dateien konvertiert und können so künftig mit überschaubarem Aufwand auch in anderer Form genutzt werden.

 

Spontan-Session zu DEAL

Ort: Seminarraum L115
Moderation: Martina Benz, Emilia Mikautsch, Helene Strauß

BMBF-Projekt open-access.network, Germany

Die Spontan-Session, organisiert vom BMBF-geförderten Projekt open-access.network, stellt die Frage "Was bedeutet DEAL für uns?" in den Vordergrund. Eingeladen sind alle Interessierten, die sich über die aktuellen Entwicklungen im Kontext DEAL austauschen möchten.

 

Tool-Marktplatz

Ort: KL 29/110, KL 29/111, KL 29/135, KL 29/137, KL 29/139

 

FOLIO Open Access App

Ort: KL 29/135

Martin Bauschmann, Björn Muschall

Universität Leipzig, Germany

FOLIO gehört zur neuen Generation plattformbasierter Bibliothekssysteme, welche sich durch eine serviceorientierte Softwarearchitektur, die Nutzung von APIs und Erweiterbarkeit durch funktionale Modularisierung in Form von Apps auszeichnen. Als einzige Open-Source-Plattform erlaubt FOLIO dabei sowohl Eigenentwicklungen als auch die Nachnutzung freier oder kommerzieller Anwendungen.

Im Rahmen des Tool-Marktplatzes möchten wir eine App zur Open-Access-Administration (OA App) für FOLIO vorstellen. Als Teil eines durch Mittel des Europäische Fonds für regionale Entwicklung (EFRE) geförderten Projektes an der Universität Leipzig wurde die Entwicklung der OA App angeschoben und von der britische Firma Knowledge Integration in kooperativer Begleitung durch erfahrene Open-Access-Administratoren aus der FOLIO-Community umgesetzt.

Die OA App führt eine Reihe neuer Funktionen in die FOLIO-Plattform ein, die Bibliotheken bei der Erfassung, Verwaltung und Auswertung von Open-Access-Publikationen und publikationsbezogenen Kosten unterstützen.

Zum momentanen Funktionsumfang zählen u.a.: Erfassung der Komponenten und Bedingungen von Open-Access-Vereinbarungen Erfassung von Anträgen/Finanzierungsanfragen für Open-Access-Publikationen inklusive relevanter Metadaten zur Publikation Verknüpfung von Publikationen und Open-Access-Vereinbarungen Erfassung von Publikationsgebühren mit Aufteilung nach zahlenden Personen/Institutionen Workflow- und Prozess-Unterstützung mittels Checklisten Verknüpfung mit Apps zur Rechnungs- und Budgetverwaltung Reporting an OpenAPC

Neben einer Demonstration der bereits vorhandenen produktiven Einsatzmöglichkeiten, soll der Austausch während des Tool-Marktplatzes helfen, die in den nächsten Entwicklungszyklen geplante Anbindung der App an externe Datenschnittstellen und -aggregatoren (z.B. OA Switchboard, Open Cost) mit Feedback aus der Community zu unterfüttern. Die FOLIO OA App kann damit langfristig dem standardisierten, offenen Austausch von Publikations- und Kosten­metadaten dienen und wichtige Impulse für einen kulturellen Wandel hin zu größerer Interoperabilität in der Publikationskostenverwaltung liefern.

Softwarelizenz: Apache License, Version 2.0 Link zum Code von Folio / der OA-App auf Github: https://github.com/folio-org / https://github.com/folio-org/mod-oa Lauffähige Demo-Version von FOLIO inkl. OA-App (username: diku_admin, password: admin): https://folio-snapshot.dev.folio.org/

Das „Charité Open Access Dashboard“

Ort: KL 29/137

Jenny Delasalle, Ursula Flitner, Elena Gandert, Jan Taubitz

Charité – Universitätsmedizin Berlin, Germany

Die Medizinische Bibliothek der Charité – Universitätsmedizin Berlin hat im Rahmen des Monitorings von Open-Access-Publikationen und der Berliner Open-Access-Strategie ein neues Tool entwickelt: das „Charité Open Access Dashboard“ (https://medbib-charite.github.io/oa-dashboard/).

Die Medizinische Bibliothek spricht mit dem Dashboard Wissenschaftler*innen der Charité an und informiert über den Stand von Open-Access-Veröffentlichungen an der eigenen Institution. Somit stellt das Dashboard ein wichtiges Instrument für die einrichtungsinterne Öffentlichkeitsarbeit zu Open Access dar.

Das „Charité Open Access Dashboard“ bietet einen Überblick über den Anteil von Open-Access-Publikationen am Gesamtaufkommen wissenschaftlicher Zeitschriftenartikel der Charité seit 2017. Die Daten werden in unterschiedlichen Diagrammen visualisiert. Dabei wird auch zwischen Korrespondenzautorschaft und Ko-Autorschaft unterschieden, nicht nur, um etwaige unterschiedliche Trends hier wahrnehmen zu können, sondern vor allem um diejenigen Publikationen gesondert in den Blick nehmen zu können, für die Autor*innen oder die Charité als deren Arbeitgeber aufgrund der Korrespondenzautorschaft bezahlen müssen. Daneben werden auch die von der Medizinischen Bibliothek zentral erfassten Publikationskosten (derzeit Publikationsfonds und DEAL-Verträge) dargestellt. Das Kostenbewusstsein von Autor*innen zu steigern und Kostentransparenz herzustellen, sind erklärte Ziele der Charité als vielpublizierende Einrichtung und Aufgaben, derer sich Bibliotheken im Rahmen des DFG-Programms „Open-Access-Publikationskosten“ verstärkt annehmen müssen.

Grundlage sind Erhebungen der Medizinischen Bibliothek in den Datenbanken Web of Science sowie Embase. Die Daten werden zusammengeführt, bereinigt und mithilfe von DOI und PMID dedupliziert. Der OA-Status der Artikel stammt von Unpaywall. Die automatisierten Arbeitsschritte und die Erstellung des Dashboards erfolgen mit der Programmiersprache R.

Im Sommer 2023 erfolgt die Aktualisierung mit den im Jahr 2022 veröffentlichten Artikeln von Charité-Autor:innen. Im Zusammenhang mit dieser Aktualisierung planen wir, den Prozess der Datenaufbereitung weiter zu automatisieren und zu standardisieren. Es ist geplant, den Code des Dashboards unter einer entsprechenden Lizenz zur Nachnutzung zur Verfügung zu stellen.

Open Encyclopedia System – Eine Plattform zur Erstellung und Pflege von Online-Referenzwerken

Ort: KL 29/139

Maren Strobl, Bart Soethaert, Brigitte Grote

Freie Universität Berlin, Germany

Das Open Encyclopedia System (OES, https://www.open-encyclopedia-system.org) ist eine webbasierte Plattform zur Erstellung, Publikation und Pflege von lemmabasierten Online-Publikationen in den Geistes- und Sozialwissenschaften. OES ergänzt die Angebote für elektronisches Publizieren – wie sie für Zeitschriften mit dem Open Journal System (OJS) und für Buchpublikationen mit OMP vorliegen – um eine weitere Lösung für die Umsetzung von Open-Access-Publikationen, und reagiert damit auf Anforderungen aus der Wissenschaft (https://doi.org/10.57674/fyrc-vb61). Ursprünglich im Rahmen einer DFG-Förderung (LIS) am Center für Digitale Systeme der Freien Universität Berlin als eine standardisierte Software-Lösung für wissenschaftliche Online-Enzyklopädien entwickelt, wird das OES derzeit ebenso für verwandte Publikationsformate wie Online-Handbücher und -Lexika sowie in interdisziplinären Forschungsgruppen zur (kollaborativen) Verschriftlichung, Diskussion und Präsentation der theoretischen und methodischen Leitbegriffe in Living Handbooks eingesetzt. Im engen Austausch mit den OES-Anwender:innen wird OES kontinuierlich entlang deren Bedarfe weiterentwickelt (https://www.open-encyclopedia-system.org/use-cases/index.html).

Die OES-Anwendung ist als WordPress-Plugins mit zugehörigem Theme konzipiert und realisiert, und erweitert das freie Content Management System WordPress um redaktionelle Funktionen: OES unterstützt die Ausgestaltung lemmabasierter Publikationsformate und redaktioneller Workflows, die inkrementelle Verwaltung von Inhalten und Metadaten bis hin zur Einbettung von multimedialen Elementen, Normdaten und bibliographischen Informationen, die automatische Registererstellung, die Lizenzvergabe und die Veröffentlichung mehrsprachiger zitierfähiger Artikel, die Bereitstellung vielfältiger Such- und Filteroptionen sowie eine flexible Ausgestaltung der Navigation und der Präsentationsformen für lemmabasierte Inhalte (https://doi.org/10.5281/zenodo.7715797).

Der OES-Code ist seit 2020 unter einer GPLv2-Lizenz verfügbar: https://github.com/open-encyclopedia-system/.

dg_md_agg.py – Ein DeepGreen-Metadaten-Aggregator

Ort: KL 29/135

Sebastian Dittmann

Humboldt-Universität zu Berlin, Germany

Über das DeepGreen-Projekt werden teilnehmenden Bibliotheken Publikationen, an denen sie (wahrscheinlich) Zweitveröffentlichungsrechte haben, in ihr Repositorium eingespielt, dies umfasst das PDF und Metadaten. Damit die Metadaten den bibliothekarischen Ansprüchen genügen, müssen sie von Menschen kontrolliert, korrigiert und angereichert werden, wofür (Vergleichs-)Daten aus verschiedenen Quellen notwendig sind. Das vorzustellende Python-Skript sammelt Daten aus mehreren Quellen (Stand Juni 2023: Crossref-, OpenAlex-, ZDB-API und wo zugelassen auch von der Verlagshomepage), führt diese zusammen und speichert sie in übersichtlicher Form ab. Damit kann die Bearbeitung beschleunigt werden.

Das Skript wird als work-in-progess an der Humboldt-Universität zu Berlin entwickelt und steht auf https://scm.cms.hu-berlin.de/dittmans/dg_md_agg/ unter der Unlicense-Lizenz zur freien Verfügung, Verwendung, Anpassung und Weiterentwicklung.

Bei der Präsentation soll kurz die Idee des Scripts präsentiert und es dann anhand einer Live-Demo vorgestellt werden.

Datenbankgestütztes Monitoring von Publikationskosten

Ort: KL 29/137

Jennifer Franke, Simone Gruner, Eloisa Deola Schennerlein, Michael Wohlgemuth

Sächsische Landes- und Universitätsbibliothek Dresden, Germany

Die Erfassung von Publikationskosten ist mit zunehmenden Herausforderungen verbunden. Während in der Etablierungsphase der Publikationsfonds in vielen Einrichtungen Excel-Tabellen als einfach nutzbare Verwaltungsinstrumente zum Einsatz kamen, zeichnen sich die Grenzen dieses Ansatzes immer deutlicher ab. Neben einfachen Kosteninformationen zu zentral finanzierten Artikelbearbeitungsgebühren (APC) müssen heute auch die Publikationskosten aus Rahmen- und Transformationsverträgen bzw. Mitgliedschaften abgebildet werden. Darüber hinaus gewinnt die Abbildung weiterer Kostenarten sowie dezentral finanzierter Publikationsgebühren an Bedeutung. Die zunehmende wissenschaftspolitische Relevanz des Handlungsfeldes Publikationsfinanzierung führt zu steigenden Anforderungen an das Kostenmonitoring und erfordert variable Zugriffsmöglichkeiten auf den Datenbestand.

Vor diesem Hintergrund ergeben sich eine Reihe von zentralen technischen Herausforderungen: Datensicherheit (Datenschutz!) Datenintegrität und -konsistenz Mehrbenutzerbetrieb mit differenzierten Zugriffsrechtemanagement Hohe Datenverfügbarkeit und Flexibilität Effektiver und performanter Zugriff auf Datensätze Skalierbare und transparente Datenarchitektur.

Bewährt hat sicher der Einsatz von datenbankgestützten Erfassungssystemen. Dass hier vorgestellte System ist eine Eigenentwicklung, das einen zehn Jahre gewachsenen Zoo an Excel-Tabellen ablöst. Als Backend dient das leistungsfähige Datenbankmanagementsystem PostgreSQL und als Frontend kommt Base aus dem LibreOffice-Paket zum Einsatz. Dieser Ansatz erlaubt mehr als die Speicherung, Anreicherung und Überarbeitung von Daten. Der Mehrbenutzungszugriff mit spezifischen Zugriffsrechten ermöglicht einen einrichtungs- und plattformunabhängigen Zugriff als Voraussetzung für verschiedene Nutzungsszenarien (Datenmigration, Erstellung von Analysen und Reports im Rahmen des Kostenmonitoring).

Das Ziel der Systempräsentation ist es, einen technisch einfach umsetz- sowie individuell anpassbaren Lösungsansatz hin zu einer sicheren und flexiblen Erfassung von Publikationskosten vorzustellen. Ausgehend von einem übersichtlichen Datenmodell mit nur vier Tabellen (Request, Cost, Invoice und Budget) ermöglicht das System ein effizientes und skalierbares Kostenmonitoring. Eine lauffähige Version der Anwendung kann auf individuelle Nachfrage bereitgestellt werden. Das System basiert auf Software, die unter offenen Lizenzen veröffentlicht wurde und somit frei nachgenutzt werden kann (PostgreSQL-License bzw. Mozilla Public License Version 2.0).

NextGenBooks Publishing Pipeline

Ort: KL 29/110

Simon Worthington, Lambert Heller

Technische Informationsbibliothek (TIB), Germany

Software: https://write.handbuch.io/ GNU General Public License v3.0 and other OSI compliant open licences.

The objective of the technology is to facilitate the rapid publishing of books and textbooks, maintain academic high quality standards, and utilise easy to deploy modern cloud infrastructure. We aim to automate as many parts of a publishing workflow as possible.

The technology is built from existing open-source software modules, which are connected as an extensible pipeline, where we maintain active research relationships with the maintainers. Packages include: Fidus Writer, Vivliostyle, GitLab, Wikibase/Data, and more.

The pipeline is already deployed and in production to run a book and textbook service by the Open Science Lab at TIB called NextGenBooks. The service is involved in projects for manuscript creation, for co-creation and book sprints, as well maintaining publication with ongoing review processes and release - for example in the release of updated textbook versions.

The focus of the technology are: 1. Realtime online academic rich text collaboration using both Fidus Writer and NextClouds Markdown editors. It is important to note that Fidus Writer is one of the few academic open source web based editors that is still on the market and can fully deal with citation management using CSL. 2. Paged Media multi-format automated heuristic typesetting using Vivliostyle which can equal PDF layout without the destructive effects of using PDFs. 3. Using GitLab/GitHub for storage as well as for their infrastructure and versioning.

Multi-format outputs: PDF, EPUB, HTML, LaTex, JATS, JSON.

Recently the pipeline has been developed in the context of NFDI4Culture and is in use for publication creation by researchers in this consortium. The NFDI4Culture consortium has also been contributing to the pipeline adding FAIR data components, mapping publication metadata using Wikidata LOD, and evaluating the pipeline connection to its SAML SSO infrastructure.

Alles neu: der DINI-OAI-Validator 2.0. Ein Tool zur Qualitätsprüfung von Open-Access-Publikationsdiensten

Ort: KL 29/139

Daniel Beucke2, Isabella Meinecke1, Thomas Severiens3

1Staats- und Universitätsbibliothek Hamburg, Germany; 2Niedersächsische Staats- und Universitätsbibliothek Göttingen, Germany; 3Jade Hochschule Wilhelmshaven, Oldenburg, Elsfleth, Germany

Die Deutsche Initiative für Netzwerkinformation (DINI e.V.) fördert mit dem DINI-Zertifikat (https://doi.org/10.18452/24678) die praktische Anwendung von allgemeingültigen Standards und Empfehlungen für Open-Access-Publikationsdienste und trägt damit seit fast zwanzig Jahren zu einer offenen Wissenschaft bei.

Der DINI-OAI-Validator ermöglicht es der Fachgemeinschaft, die OAI-PMH-Schnittstelle eines Publikationsdienstes automatisiert auf die Einhaltung dieser Standards zu prüfen. Das Tool hat sich auch über den Zertifizierungsprozess hinaus als wertvolles Werkzeug etabliert.

Die Webanwendung wurde von Grund auf neu erstellt und bietet nun neben der Unterstützung für die aktuelle Version des DINI-Zertifikats eine zeitgemäße und barrierefreie Weboberfläche in englischer und deutscher Sprache, eine verbesserte Performance und übersichtlichere Validierungsergebnisse.

Das 12-monatige, von der DFG geförderte Projekt wird geleitet von ZB MED – Informationszentrum Lebenswissenschaften und der DINI-AG Elektronisches Publizieren. Die technische Konzeption, Gestaltung und Programmierung übernimmt der IT-Dienstleister Aspectis (https://aspectis.net), wobei umfangreiches Feedback aus der Wissenschaftscommunity einfließt. Der Quelltext wird unter einer Open-Source-Lizenz veröffentlicht.

Wir laden Sie ein, auf den OA-Tagen die Premiere des neuen OAI-Validators mit uns zu feiern. Auf dem Tool-Marktplatz präsentieren wir die neue Webanwendung und erproben gemeinsamen mit allen Interessierten die Funktionsweise.

Der neue Validator wird unter dem bekannten Link ab den OA-Tagen verfügbar sein: https://validator.dini.de/

BookMetaHub: Enriching Book DOIs for European University Presses

Ort: KL 29/111

Stephanie Dawson, Nina Tscheke

ScienceOpen Berlin, Germany

DOIs as persistent identifiers for books and chapters are essential for citation tracking, aggregation in discovery environments, and alternative metrics. Open Access books are particularly dependent on online discoverability as they often miss out on standard avenues into library catalogues and databases. Nevertheless, adoption of DOIs for books is relatively low and the associated metadata often minimal. The BookMetaHub (https://bookmetahub.scienceopen.com/), funded by a grant from the Germany Ministry for Education and Research, offers an easy-to-use interface to create Crossref-ready XML to support smaller presses in creating DOIs for books and chapters with rich and interoperable metadata. Already have DOIs? Publishers can also merge rich ONIX XML files with Crossref or Datacite records to create more discoverable records The BookMetaHub has an interface to add further persistent identifiers such as BISAC codes, ORCID IDs for authors, ROR IDs for institutions, and FundRef IDs via the Crossref Funder Registry. The BookMetaHub is also integrated with the Thoth Open Access Metadata platform to link content even further. This demonstration will present the different ways DOIs can be created and enriched with the BookMetaHub tool. While the code is not open source, all data can be easily accessed and built upon via an open API for other projects. Create a feed to your own website or metadata hub!

The Association of European University Presses (AEUP) has created an innovative new catalogue based on DOIs and associated metadata. The BookMetaHub is an essential part of their support structure for member presses with no DOIs or only very basic levels of metadata richness. This tool will help European university presses to create FAIR Open Access books that meet and exceed industry standards for discoverability.

BITS to Crossref: Eine automatisierte DOI-Registrierung monographischer Werke bei Crossref

Ort: KL 29/111

Nicole Brune1, Matthias Flasko1, Christian Kurrat1, Franziska Deller2

1ZB MED - Informationszentrum Lebenswissenschaften, Germany; 2Verlag Barbara Budrich

Im Rahmen des Projekts „OAPEnz – Open-Access-Publikation von enzyklopädischen Handbüchern“ (https://budrich.publisso.de/) wird einerseits die PUBLISSO-Familie der Living-Formate durch ein jederzeit aktualisierbares enzyklopädisches Handbuch erweitert. Andererseits wird der bisherige lebenswissenschaftliche Fokus von PUBLISSO, dem ZB MED-Publikationsportal für Lebenswissenschaften, um eine geistes- und sozialwissenschaftliche Ebene ergänzt. Auf der Publikationsplattform können barrierearme PDF-Dokumente automatisiert erstellt werden. Als PDF und zukünftig auch HTML stehen die Publikationen dann allen Interessierten zur Verfügung.

Um eine gute Auffindbarkeit der Publikationen zu gewährleisten, werden automatisiert Persistente Identifikatoren in Form von Digital Object Identifiers (DOIs) via Crossref vergeben. Anstelle einzelner Angaben in Formularen können so gleichzeitig mehrere Publikationen registriert werden. Für Journal-Publikationen, für die die XML-Auszeichnungssprache JATS (Journal Article Tag Suite) genutzt wird, liegen bereits Konvertierungsspezifika in Crossref-XML vor. Doch wie verhält es sich mit XML monographischer Publikationen? Hierfür greift die Erweiterung von JATS, BITS (Book Interchange Tagging Set), allerdings bislang ohne eine BITS-to-Crossref-Konvertierung. Diese Lücke schließen wir, um auch monographische (Teil-)Publikationen schnell und einfach registrieren zu können.

Im Rahmen der Open-Access-Tage 2023 soll eine Beispielpublikation in Crossref-XML konvertiert sowie anschließend bei Crossref registriert werden. Während das Drupal-Modul die Publikationsverwaltung übernimmt, wurde nun der Web-Service „Transformer Service“ für diverse Konvertierungen (u. a. Word-to-JATS, JATS-to-PDF) um eine BITS-to-Crossref-Transformation erweitert. Mit dem Transformer Service können Publikationsdaten in andere Formate umgewandelt und zurück an das Modul übermittelt werden. Diese Prozesse erfolgen mittels XSLT, einer Programmiersprache zur Konvertierung von XML-Dokumenten. Für die XML-Auszeichnungssprachen wurden die frei verfügbaren Dokumentationen der National Library of Medicine (https://jats.nlm.nih.gov/extensions/bits/) und Crossref (https://www.crossref.org/xml-samples/) herangezogen, entsprechende XSLT-Stylesheets geschrieben und in den Transformer Service eingebunden. Daraufhin werden die in der Transformation erstellten Crossref-XML per REST-Schnittstelle bei Crossref registriert. So verfolgen wir das Ziel, Publikationen, die auf PUBLISSO hochgeladen werden, zukünftig schnell und zuverlässig bei Crossref (und DataCite) registrieren zu können.

Die Software wird via Github frei zur Verfügung gestellt: https://github.com/zbmed/Bits2Crossref/

DataCite Fabrica: Management von Digital Object Identifiern und den dazugehörigen Metadaten

Ort: KL 29/111

Paul Vierkant, Britta Dreyer

DataCite, Germany

DataCite Fabrica ist ein innovatives Tool, das die effiziente Verwaltung von Digital Object Identifiern (DOIs) und den dazugehörigen Metadaten ermöglicht. In der heutigen Forschungslandschaft spielt die Referenzierbarkeit von wissenschaftlichen Ressourcen eine entscheidende Rolle für die Reproduzierbarkeit, Zitation und Transparenz wissenschaftlicher Erkenntnisse. DataCite als non-profit Organisation und offene, community-basierende Infrastruktur bietet mit DataCite Fabrica Einrichtungen weltweit eine benutzerfreundliche Oberfläche zur Registrierung und Verwaltung von persistenten Identifikatoren (DOIs) für wissenschaftliche Ressourcen. Das Tool bietet eine Vielzahl von Funktionen, darunter Metadateneingabe und -validierung. Darüber hinaus ist es möglich die DOIs und ihre Metadaten über XML-Datei-Upload hoch- bzw. in verschiedenen Formaten herunterzuladen. DataCite Fabrica ermöglicht es den Nutzenden, DOIs zu registrieren und Metadaten zu erstellen, die etablierten internationalen Standards entsprechen, die Auffindbarkeit verbessern und die korrekte Zuordnung von Forschungsoutputs gewährleisten.

Um DataCite Fabrica aus erster Hand zu erleben, laden wir die Teilnehmenden ein, vor Ort das Test-System von DataCite Fabrica zu nutzen. Dadurch können die Teilnehmenden mit der Benutzeroberfläche interagieren und die Funktionalität des Tools praktisch erfahren. Die Vorstellung des Tools erfolgt auf Deutsch bzw. Englisch.

DataCite Fabrica wird unter einer Open-Source-Lizenz veröffentlicht, die Zusammenarbeit fördert und Beiträge aus der Community ermöglicht: https://github.com/datacite/bracco/blob/main/LICENSE

Der Quellcode des Tools ist öffentlich zugänglich: https://github.com/datacite/bracco#bracco

Eine Dokumentation zu DataCite Fabrica ist öffentlich zugänglich: https://support.datacite.org/docs/doi-fabrica

ADA Computational Publishing Pipeline

Ort: KL 29/110

Simon Worthington1, Simon Bowie2

1Technische Informationsbibliothek (TIB), Germany; 2Community-Led Open Publication Infrastructures for Monographs (COPIM), United Kingdom

The software is a publishing pipeline that authors can script and utilises Jupyter Notebooks to retrieve content from linked open data sources – Wikidata and Wikibase – to produce multi-format outputs, as: PDF, web, ebook, docx, etc.

The goal of the project is to add a publish layer, supporting open access reuse, to digital cultural collections that are catalogued using Wikidata or Wikibase with linked open data (LOD).

Key open source software used in the pipeline includes: Jupyter Notebooks, Quarto, Wikibase, and GitLab. The pipeline model allows for the modular connection of new software and other pipelines.

A small library of Jupyter Notebooks has been made which use SPARQL queries and Python code to fetch LOD from a variety of sources including: painting data from Wikidata and Wikibase, book metadata from Thoth, 3D models from semantic Kompakkt, and videos from TIB AV Portal.

The software has been developed as a collaboration between the NFDI4Culture – Consortium for Research Data on Material and Immaterial Cultural Heritage, at the Open Science Lab, TIB; with, COPIM (Community-led Open Publication Infrastructures for Monographs) and the partner publisher Open Book Publishers.

Prototyping and hands-on workshop methodologies have been used for the software development. Two example ongoing projects are: firstly, making exhibition catalogues of baroque painting from the Bavarian State Collections stored on Wikidata (https://nfdi4culture.github.io/catalogue-003/), this is in conjunction with the NFDI4Culture consortium and the semantic Kompakkt software project; and secondly, with COPIM and the ScholarLed publishers book catalogues prototype which was made to automatically build the catalogue on a daily basis and list new titles (https://simonxix.github.io/scholarled_catalogue/).

Software: https://github.com/NFDI4Culture/ada

Software contributions: Simon Worthington, Simon Bowie

License: MIT License

References: Bowie, S. (2023). A new model for computational book publishing. COPIM. https://copim.pubpub.org/pub/computational-book-model

 

Workshop 7: Die Zukunft von Open-Access-Büchern in der deutschen Open-Access-Landschaft: Strategische, ökonomische und wissenschaftspolitische Perspektiven

Ort: Seminarraum L116
Anzahl Teilnehmende: max. 30
Anmeldung geschlossen - max. Teilnehmendenzahl erreicht

Hannah Böhlke1, Malte Dreyer2, Anita Eppelin3, Tobias Steiner4, Robert Wiese5

1Universitätsverlag Göttingen, Germany; 2Niedersächsische Staats- und Universitätsbibliothek Göttingen, Germany; 3Vernetzungs- und Kompetenzstelle Open Access Brandenburg, Germany; 4Community-Led Open Publication Infrastructures for Monographs (COPIM), United Kingdom; 5Universitätsbibliothek der Technischen Universität Berlin, Germany

Zielgruppe: Universitätsverlage, Verlage, Autor:innen, Policy-Maker, Wissenschaftsorganisationen, mit Open-Access-Büchern befasste Netzwerke.

Ziel: Teilnehmenden Raum geben, zukünftige inländische Entwicklungen auf dem Gebiet Open-Access-Bücher zu diskutieren, mit den Teilnehmenden Szenarien für wirtschaftliche, strategische und politische Entwicklungen in Deutschland zu erarbeiten und zu diskutieren, um daraufhin Bedarfe ableiten zu können.

Output: Veröffentlichung eines Policy-Spotlights, das im Rahmen des Projektes PALOMERA in der Auswertung von OA-Bücher-Policies im DACH-Raum berücksichtigt werden und somit mittelbar in die Politik-Empfehlungen an die EU eingeht.

Methoden

  • Begrüßung, Input über den Status Quo und die Herausforderungen im Open-Access-Ökosystem für Bücher auf dem deutschen Markt in ökonomischer und politischer Perspektive (5 Minuten Begrüßung, insges. 15 Minuten Input aus der Perspektive der Policy-Forschung (PALOMERA), institutioneller Verlage (AG Univerlage) und Community-geleiteter Infrastrukturen (COPIM)
  • Vorstellung der Kernthemen für die Arbeitsphase. Möglichkeit für Rückfragen, Diskussionen und Ergänzungen. (10 Minuten). Dem Tagungsschwerpunkt entsprechend sind drei Themenfelder gesetzt:

     

    • Welche wissenschaftspolitischen Implikationen haben gegenwärtige Entwicklungen im Bereich OA-Bücher vor allem für die Policies von RPOs?
    • Welche Implikationen haben gegenwärtige Entwicklungen im Bereich OA-Bücher für Organisationsstrukturen und Workflows in publikationsdienstleistenden Einrichtungen?
    • Welche strategische Position und welche Gestaltungsmöglichkeiten haben Bibliotheken im Zusammenhang aktueller Entwicklungen auf dem Gebiet OA-Bücher?

     

  • 1,2,4-all Methode, Teilung des Raumes in drei Segmente (Einrichtung von Thementischen,, von denen jedes einem Thema zugeordnet wird. (3x10 Minuten - Thementische rotierend)
  • Darauf aufbauend: Ableitung eines Policy-Entwurfs aus den Ergebnissen der Gruppenarbeitsphase in drei moderierten Gruppen auf Flipcharts (20 Minuten). Resultat ist eine “Minimal-Policy” für Open-Access-Bücher.
  • Abschlussdiskussion (Schnittstellen in die ERA, Nachnutzungskonzept unseres Ergebnisses sowie Feedbackrunde,15 Minuten)

 

 

 

18.00–18.30

Ausklang

Ort: Seminarzentrum

Während des Ausklangs besteht die Möglichkeit den Austausch auf informeller Ebene fortzusetzen.

18.15–18.50

Führung: Philologische Bibliothek

Ort: Philologische Bibliothek (Eingang über Rostlaube FU Berlin, Habelschwerdter Allee 45)

Anmeldung per E-Mail oder im Tagungsbüro (L113). Die Anzahl der Teilnehmenden ist begrenzt.

19.00–22.00

Social Event

Ort: Hochschule für Schauspielkunst Ernst Busch, Zinnowitzer Str. 11, 10115 Berlin
Zeit: 19 - 22 Uhr

Die künstlerischen Hochschulen Berlins (HfS, UdK, HfM, KHB) laden ein: Ein Abend im Zeichen der Künste.
Alle Interessierten erwarten künstlerische Beiträge, die Möglichkeit zur Besichtigung der Bibliothek der HfS und Fingerfood.

Anmeldung geschlossen - max. Teilnehmendenzahl erreicht