OA-Statistik: Vom Projekt zum Dienst

Seit 2008 wird im Projekt Open-Access-Statistik (OA-Statistik) ein Dienst zur zentralen Auswertung und Bereitstellung international vergleichbarer und standardisierter Nutzungszahlen von wissenschaftlichen Open-Access-Repositorien entwickelt. In der ersten Förderphase des Projektes wurde eine Infrastruktur zum Austausch und zur Aggregierung von Nutzungsdaten testweise unter den Projektpartnern aufgebaut. Diese Infrastruktur wird in der zweiten Projektphase um weitere deutsche und internationale Repositorien und Open-Access-Verlage erweitert. Ziel ist es, den im Projekt OA-Statistik entwickelten Dienst nach Ablauf der zweiten Förderphase in eine langfristige, stabile Organisationsstruktur überführt zu haben. Aus diesem Grund hat OA-Statistik im Februar 2012 eine Machbarkeitsstudie bei der DFG vorgelegt, die die dafür notwendigen Anforderungen aufzeigt und Lösungswege beschreibt. Die Machbarkeitstudie und die zugehörigen Anhänge sind auf der OAS-Website als Publikation abrufbar.

Die Anforderungen an diese dauerhafte Struktur umfassen zum einen die Einhaltung rechtlicher Aspekte sowie die finanzielle und organisatorische Absicherung des Dienstes. Zum anderen besteht die wesentliche Herausforderung darin, die Anzahl der an OA-Statistik teilnehmenden Repositorien deutlich zu erhöhen und den Dienst technisch und konzeptionell auf dem aktuellen Stand zu halten. Als potentieller Dienstanbieter nach Projektende konnte in der zweiten Förderphase von OA-Statistik die Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) als Projektpartner gewonnen werden. Bei positivem Verlauf der Testphasen des Dienstes OA-Statistik wird die VZG den Service in ihr Angebot übernehmen. In einer gemeinsamen Absichtserklärung (Memorandum of Understanding) verpflichten sich die Projektpartner, im Rahmen der DINI AG „Elektronisches Publizieren“ auch über das Projektende hinaus den Kontakt mit internationalen Projekten und Institutionen zu pflegen und neue Kontakte herzustellen, um die lokale und globale Vernetzung des Dienstes OA-Statistik zu gewährleisten. Die Ziele von OA-Statistik werden aus der Arbeitsgruppe heraus mittels Informationsmaterialien, Veröffentlichungen, Vorträgen und Workshops bekannt gemacht und verbreitet.

OAS-Workshop: Wissenschaftlicher Impact und Social Media

Am Freitag, 23. März 2012 von 10:00 – 11:30 Uhr findet als Zusatzveranstaltung zur DGI-Konferenz 2012 in Düsseldorf ein Workshop von OA-Statistik zum Thema "Wissenschaftlicher Impact und Social Media" statt. Er ist für alle für alle registrierten Konferenzteilnehmer frei zugänglich. Da die Veranstaltung im Rahmen der Hauptkonferenz stattfindet, ist eine separate kostenpflichtige Anmeldung nicht erforderlich. Zur besseren Planung bitten wir bei Interesse jedoch darum, sich als TeilnehmerIn per E-Mail an mail@dgi-info.de, Betreff: Anmeldung zum Workshop vormerken zu lassen . Herzlichen Dank!

Zitationsbasierte Impactmaße wie der Journal Impact Factor oder Hirsch-Index werden unter Verwendung proprietärer, geschlossener Datenbanken (Journal Citation Reports, Scopus, GoogleScholar, etc.) berechnet. Nicht von der Wirkungsmessung erfasst sind damit zahlreiche elektronische Publikationen außerhalb formaler Verlagsangebote wie auch Social Media Beiträge – obwohl diese einen steigenden Stellenwert in der wissenschaftlichen Kommunikation einnehmen. Die Nichtbeachtung der Social Media Beiträge hat zwei Schattierungen: Zum einen werden Referenzen (Zitate, Verlinkungen) auf wissenschaftliche Publikationen nicht erfasst, zum anderen werden Zitierungen der und Verlinkungen auf Social Media Beiträge aus formalen wissenschaftlichen Publikationen ebenfalls nicht erfasst. Der Workshop soll dazu dienen, mit den Teilnehmern alternative Möglichkeiten der Impact Messung elektronischer wissenschaftlicher Dokumente unter besonderer Einbeziehung von Social Media zu diskutieren.

Der Workshop wird von Ulrich Herb und Daniel Beucke im Namen des Projektes Open-Access-Statistik organisiert.

DINI Workshop: Repositorymanagement 2012

Deutsche Initiative für Netzwerkinformation e.V.Am 20.03.2012 wird es in Göttingen die Möglichkeit geben, sich in persona mit anderen Repositorymanagern und Repositorymanagerinnen über ihre Erfahrungen und Fragen auszutauschen. Die Arbeitsgruppe Elektronisches Publizieren der Deutschen Initiative für Netzwerkinformation (DINI) lädt zu einem eintägigen Workshop unter dem Titel Repositorymanagement 2012: Contentakquise und Nutzerunterstützung für institutionelle Repositorien“ ein. Alle Informationen rund um den Workshop finden Sie auf der Seite von DINI.

Im Vordergrund sollen mit Contentakquise und Nutzerunterstützung zwei Themen stehen, die einen Großteil der alltäglichen Arbeit im Betrieb eines Repositories ausmachen. Unter Contentakquise fallen alle Aktivitäten zur Füllung des Repositories mit Inhalten – seien es Sekundärpublikationen bspw. in Form von Retrodigitalisaten oder seien es klassische Monografien, Zeitschriftenartikel, Dissertationen oder andere Qualifikationsarbeiten, seien es Metadaten zu den nachgewiesenen Inhalten oder seien es Fremddaten anderer Anbieter. Unter Nutzerunterstützung fallen nicht nur die klassischen Supportanfragen bei Selbstarchivierung, sondern auch die Integration des Repositories in übergreifende Dienste der Einrichtung.

Beide Themenfelder weisen Überschneidungen auf und betreffen teilweise ähnliche Fragestellungen aus rechtlicher, technischer oder bibliothekarischer Sicht. Nach einführenden Impulsreferaten von Praktikern haben die Teilnehmerinnen und Teilnehmer die Gelegenheit, ihre Fragen und Anforderungen aus ihren jeweiligen Einrichtungen mit den anderen zu diskutieren. Es empfiehlt sich also, bereits im Vorfeld Fragestellungen, Probleme und auch Lösungsansätze zu überlegen, um den Workshop mit Leben zu füllen.

Von 10 bis 17 Uhr erwartet Sie folgendes Programm:

10.15 Begrüßung und Einführung

Teil 1: Contentakquise
Moderation: Stefan Buddenbohm (SUB Göttingen)
10.30 Publikationsservice der Universität Würzburg: Praxisbericht | Kristina Hanig (UB Würzburg)
11.00 Contentakquise für den Publikationsserver der Universität Potsdam | Dagmar Schobert (UB Potsdam)
11.30 Workshopsession

13.00 – 14.00 Mittagsimbiss am Tagungsort

Teil 2: Nutzerunterstützung
Moderation: Susanne Riedel (UB Bielefeld)
14.15 Best Practices verschiedener institutioneller Repositories | Paul Vierkant (IBI HU Berlin)
14.45 Best Practices beim institutionellen Repository der Universität Konstanz: KOPS | Wiebke Knop (UB Konstanz)
15.15 Workshopsession

16.45 Verabschiedung

Die Teilnehmerzahl ist auf 50 Personen begrenzt, um einen lebendigen Austausch zu ermöglichen. Da mit Contentakquise und Nutzerunterstützung der Schwerpunkt auf die praktische Arbeit von RepositorymanagerInnen gelegt wird, bitten wir Sie, sich nur dann für den Workshop anzumelden, wenn Sie selbst in diesem Bereich tätig sind.

Sie finden das Programm vielversprechend? Dann melden Sie sich über das Onlineformular an. Die Teilnahme an dem Workshop ist kostenlos; für die Organisation des Workshops werden jedoch einige Anmeldedaten benötigt.

Der Workshop findet in den Räumen der Staats- und Universitätsbibliothek Göttingen statt. Alle weiteren Informationen finden Sie hier.

Wir freuen uns auf einen regen Austausch mit Ihnen am 20.03.2012 in Göttingen!

Im Namen der DINI-AG Elektronisches Publizieren:
Stefan Buddenbohm, Kristina Hanig, Susanne Riedel

OpenAIRE-Compliance Ihres Repositoriums herstellen

Wie vermutlich vielen bereits bekannt ist, sind Projekte im 7. Forschungsrahmenprogramm aufgefordert, ihre begutachteten Publikationen über Repositorien OA-zugänglich zu machen. In sieben ausgewählten Forschungsbereichen (z.B. Energie, Umwelt, besteht dazu sogar eine Verpflichtung, die im Grant Agreement des Projektes verankert ist („Special Clause 39“). Das Projekt OpenAIRE www.openaire.eu unterstützt bei der Umsetzung von Open Access und führt die Publikationen durch Harvesting zusammen (dazu unten mehr).

FP7 an Ihrer Einrichtung: Wie verschaffe ich mir einen Überblick?

Vielleicht gibt es im Bestand Ihrer Repositorien bereits derartige Publikationen, die aber noch nicht entsprechend als FP7-Dokumente erfasst sind? Dann würden wir uns freuen, Sie bei der Verfügbarmachung dieser Publikationen zu unterstützen.

Wir haben ebenfalls die Möglichkeit, für Sie eine Aufstellung von FP7-Projekten an Ihrer Einrichtung zu erstellen und damit die Erfassung von Projekten und Publikationen für Ihr Repositorium zu erleichtern. Die EU-Hochschulbüros stehen ebenfalls als Ansprechpartner zur Verfügung und unterstützen bei der Kontaktaufnahme zu den Projekten.

OpenAIRE-Compliance Ihres Repositoriums: Set-Bildung, Ergänzung Metadaten

FP7-Publikationen würden wir natürlich gerne im Datenraum von OpenAIRE nachweisen – am besten auf Basis eines Harvesting der Metadaten dieser Publikationen. Falls Ihr Repositorium bereits DRIVER-compliant ist, ist es nur noch ein kleiner Schritt hin zur OpenAIRE-Compliance. Welche Schritte dazugehören, wird in den OpenAIRE Guidelines erklärt: Link.

Wesentlich ist die Einrichtung eines OAI-Sets, dass OpenAIRE harvesten kann. Zur Einrichtung eines entsprechenden OAI-Sets, können Sie einfach das DSpace-Plugin verwenden, das auf der o.g. Webseite verlinkt ist.

Nach der Herstellung dieser technischen Voraussetzungen, ist es sehr hilfreich, wenn Sie Metadaten von FP7-Publikationen ergänzen würden (gleichfalls in den OpenAIRE Guidelines erklärt):

  • dc:identifier = Grant Agreement Number – zu welchem Projekt gehört die Publikation
  • dc:rights – Zugriffsrechte (OA / Embargo /…)
  • dc:date – ggf. Embargoenddatum

Da Autoren nicht sehr einheitlich angeben, dass ein Zusammenhang zu einem Projekt besteht, lohnt es sich nach Kürzeln und Begriffen zu suchen wie FP7, Framework Programme, European Commission, ERC, European project, EU project oder über o.g. Projektlisten.

Wo bekomme ich Unterstützung?

Um den praktischen Einstieg zu erleichtern, bieten wir zudem in Kürze einige Online-Tutorien an: Link.

Die Europäische Kommission ist sehr daran interessiert, wie sich die Open-Access-Bereitstellung in Repositorien entwickelt und ist an möglichst genauen Zahlen interessiert. Das heißt, je mehr Publikationen wir über das Harvesting von Repositorien identifizieren können, desto besser!

Neben den o.g. EU-Hochschulbüros stehen auch gerne die Kolleginnen und Kollegen von OpenAIRE zur Verfügung (http://www.openaire.eu/) bzw. Birgit Schmidt und Stefan Buddenbohm (beide SUB Göttingen).

Neue deutschsprachige Liste für Fragen rund ums Repositorymanagement

Vielleicht kennen und nutzen Sie englischsprachige Mailinglisten wie JISC-Repositories und haben sich gefragt, warum es so etwas nicht für deutschsprachige Repositorymanager gibt? Diese Frage haben sich auch Stefan Buddenbohm und Paul Vierkant gestellt und haben daher unter Schirmherrschaft der DINI-Arbeitsgruppe „Elektronisches Publizieren“ eine deutschsprachige Mailingliste gestartet: Repositorymanagement(at)DINI.de

Worum geht es genau?

Die DINI-Mailingliste „Repositorymanagement“ soll dem interdisziplinären Austausch und der Vernetzung untereinander dienen und stellt eine Ergänzung zu internationalen (bspw. JISC-Repositories) oder thematisch anders gelagerten (DINI, Inetbib) Listen dar. Thematisch soll es um alles rund um den Betrieb eines Repositories gehen:

  • formale, technische, bibliothekarische und rechtliche Standards
  • Plattformentscheidungen
  • Metadaten und Harvesting
  • Personalmanagement, Kosten, Ressourcen, Nachhaltigkeit
  • Workflows, Nutzerunterstützung, Einbettung in die hostende Institution
  • Compliance-Fragen, bspw. DINI, DRIVER, OpenAIRE
  • Open Access
  • alles was Ihnen im alltäglichen Betrieb als Frage/ Problem begegnet und das Sie mit Kolleginnen und Kollegen diskutieren möchten.

Zielgruppe

Mitarbeiterinnen und Mitarbeiter von Repositorien an deutschsprachigen Forschungs- und Hochschuleinrichtungen, Dokumenten- und Forschungsdatenrepositorien, OA- und nicht OA-Repositorien, DINI-zertifizierte Repositorien, Bibliothekarinnen und Bibliothekare sowie Technikerinnen und Techniker sowie grundsätzlich alle an der Materie Interessierten.

Betrieb

Die Liste wird unter Schirmherrschaft der DINI-AG Elektronisches Publizieren betrieben. Als Ansprechpartner für Fragen stehen Stefan Buddenbohm (buddenbohm(at)sub.uni-goettingen.de) SUB Göttingen) und Paul Vierkant (HU Berlin) zur Verfügung.

An- und Abmeldung

Leider nicht ganz so komfortabel wie es sein könnte, aber doch ganz einfach: Zur Anmeldung senden Sie bitte eine leere E-Mail an sympa(at)lists.hu-berlin.de mit dem Betreff „sub repositorymanagement“ Falls Sie sich aus dem Verteiler wieder austragen möchten, senden Sie bitte eine E-Mail an sympa(at)lists.hu-berlin.de mit dem Betreff „unsub repositorymanagement“. Alle Informationen zur Mailingliste sind ebenfalls hier zu finden.

Kurze Einführung in die Semantic Web Standards

OA-Netzwerk startet eine Blogreihe zum Thema „Pragmatische Lösungsansätze für automatisierte Linked Open Data Dienste für Open Access Repositorien am Beispiel von OA-Netzwerk“. Die Blogreihe beginnt mit einer Einführung in die Standards und Semantic Web Technologien und konzentriert sich später auf die konkreten Lösungenansätze und deren Umsetzung im OA-Netzwerk-Kontext.

Standards für das Netz der Daten 

Der Aufbau eines funktionierenden globalen semantischen Netzes ist auf die Anwendung einheitlicher Standards angewiesen. Schon seit den frühen 90’ger haben zahlreiche Arbeitsguppen unter dem Dach des World Wide Web Consortium an die Lösungen zur Erarbeitung der notwendigen Standards getüftelt. Somit wurde im Jahre 1999 mit der offiziellen Veröffentlichung des ersten Semantic Web Standards – das Resource Description Framework – der Grundstein zur globalen semantischen Vernetzung gelegt. Es folgten weitere Bausteine wie das RDFS, OWL und OAI-ORE. Diese Standards schafften die Voraussetzungen für den Aufbau eines angereicherten semantischen Netztes im WWW. Heute existieren zahlreiche Softwarelösungen und Tools, die auf diese Standards aufegbaut sind.

1.   Resource Description Framework
Der Grundbaustein vom Linked Data ist das Resource Description Framework, kurz RDF. RDF ist das W3C Standardpackage für die Modellierung von Informationen über Objekte. Laut RDF werden alle Web-Ressourcen durch eindeutige (URIs) identifiziert. Das RDF-Modell ist ein auf formale Semantik graphenbasierendes einfaches Datenmodell. In RDF werden Aussagen über Ressourcen als einfache sprachliche Triple modelliert. Das Subjekt ist die Ressource über die eine Aussage getroffen wird, das Prädikat ist die Eigenschaft oder Erläuterung des Subjektes und das Objekt ist das Argument bzw. den Eigenschaftswert des Prädikates. Eine Menge solcher RDF-Tripel ist ein RDF-Graph. Die Beziehungskante ist im RDF eine gleichwertige Informationseinheit, die keinem der beiden Knoten hierarchisch untergeordnet ist, was den Unterschied zu einem XML-Dokument ausmacht. Tripeln können beliebig zusammengefügt werden und somit Teil eines globalen semantischen Graphen werden, die dadurch miteinander kombiniert und weiterverarbeitet werden können. Durch RDF sollen Anwendungen in die Lage versetzt werden, Daten im Web Auszutauschen, ohne dass ihre ursprüngliche Bedeutung dabei verloren geht. Durch die formale Repräsentation in RDF sind Informationen von Maschinen auswertbar. Dadurch sind sie maschinell durchsuchbar (z. B. mithilfe der Anfragesprache SPARQL) und implizit vorhandene Informationen können durch den Einsatz von genaueren Spezifikationen des modellierten Bereichs, z. B. mithilfe von RDF-Schema (RDFS) oder der Web Ontology Language (OWL) maschinell erschlossen werden, obwohl die Information nicht explizit vorliegt. Das RDF-Schema ist die Schemasprache für RDF und liefert neben der Informationen über Daten auch Informatioenen über deren Semantik. RDFS ermöglicht die Beschreibung von Ressoursen, die in Relation stehen und die Beziehungen zwischen dieser Ressoursen. RDF Schema ist RDF/XML serialisiert. Weitere RDF Notationen sind N3, N-TRIPLE und Turtle.

2.  Object Reuse and Exchange
Ein weiterer Standard, der die Zusammenführung und die eindeutige Identifizierung von verteilten Web-Ressourcen unterstützt ist die ORE-Spezifikation der Open Archives Inititive. Diese wurde von Herbert Van de Sompel und Carl Lagoze entwickelt und im Oktober 2008 vom W3C-Konsortium als Standard- Spezifikation in der Version 1.0 veröffentlicht. ORE ist eine Erweiterung vom OAI-PHM Standard, um die Binnenstruktur von digitalen Objekten in Repositorien und die Verknüpfungen zwischen ihnen abzubilden. Die Dokumentstruktur von digitalen Objekten in Repositorien kann aus verschiedenen Versionen und Formaten bestehen. Der Volltext kann in PDF und HTML vorliegen. Die Metadaten des Objektes können z.B. in RDF-Form existieren. Desweiteren kann ein digitales Objekt unterschiedliche Teile wie Kapitel, Bilder und Dateien bein- halten. Es können Verknüpfungen zu anderen Objekten in Form von Zitationen oder Versionierungen existieren. Die Gesamtheit dieser Ressourcen wird im ORE als Aggregation bezeichnet. Die Grundideel von OAI ORE ist es, mittels URIs die Binnenstruktur der Aggregation – d. h. die Beziehungen, die aus den einzelnen Objekten eine Aggregation machen – zu identifizieren und gleichzeitig die Komponenten und Grenzen der Aggregation zu beschreiben. Das Ziel von ORE ist diese Binnenstruktur eines Dokumentes maschinenlesbar zu machen und in einer Resource Map abzubilden. Somit wird der Austausch und die Nachnutzung von digitalen Objekten und deren Aggregationen ermöglicht. Digitale Objekte werden mittels URIs eindeutig identifiziert, um Interoperabilität auf Objektebene zu schaffen. Durch die Objektidentifikation wird das Wiederverwenden und veränderte Zusammensetzen von publizierten Inhalten vereinfacht. Um diese Standards anzuwenden bedarf es ein domänenespezifisches Vokabular mit der dazugehörigen Grammatik bzws. Ontologie, die es möglich macht eine standardisierte Lösung für die Vernetzung heterogener Datenprovider im kulturellen Bereich zu etablieren. Dies ist das Ziel vom Europeana Datenmodell.

3.  EDM
Das Europeana Datenmodell (EDM) ermöglicht den Erhalt der Originaldaten und erreicht dennoch Interoperabilität der Daten. Um eine Datenintegration und Kontextualisierung zwischen Europeana und OA-Netzwerk zu erreichen werden folgende Maximalziele als notwendige Bausteine einer Semantic Web Applikation im OA-Netzwerk verfolgt. Erstellung Semantischer Resource Map und Mapping der Metadatensätze nach RDF bzw. RDFS in RDF/XML-Syntax. Unter Berücksichtigung des Europeana Datenmodells (EDM) werden die RDF-Tripels idealerweise in einen RDF-Triplestore gespeichert. Der Zugriff auf den Triplestore wird durch eine SPARQL-Schnittstelle ermöglicht und bereit gestellt. Die RDF-Triples können so als Linked Open Data im Semantic Web freigegeben werden. Um diese Ziele zu erreichen und korrekte semantische Beziehungen der Metadatensätze zu identifizieren wären ideallerweise Zusatzangaben seitens der lokalen Repositorien notwendig. Eine dezentrale Lösung auf Repositirienseite für eine semantische Anreicherung der Daten wäre erstrebenswert ist aber in der Projektlaufzeit nicht realisierbar. Daher wird derzeit eine zentrale Lösung zur Kontextualisierung und semantischer Anreicherung der geharvesten und aufbereiteten Dublin-Core-Metadaten erarbeitet. Dabei wurde die Ontologie vom Europeana Datenmodell als eine übergreifende universelle Datenstruktur berücksichtigt.

Fortsetzung folgt…

Rechtsgutachten zur Langzeitarchivierung veröffentlicht

Urheberrecht ist im Open-Access-Bereich ein Thema, das sich andauernden Interesses erfreut. Ebenfalls wichtig für die Betreiber von Repositorien sind diese Fragen jedoch auch mit Blick auf Langzeitarchivierung. Deshalb ist jetzt im Rahmen des von der DFG geförderten Projekts LuKII (LOCKSS und KOPAL Infrastruktur und Interoperabilität) ein Rechtsgutachten entstanden, das Repositorybetreibern als Handreichung dienen kann.

Frau Dr. Ellen Euler hat für das Langzeitarchivierungsprojekt LuKII, dessen Ziel die Etablierung einer sicheren, effizienten und vor allem kostengünstigen digitalen Langzeitarchivierungsinfrastruktur ist, in Ihrem Gutachten die entscheidenden Fragen beantwortet. Im Vorwort heißt es:

„Jede urheberrechtlich relevante Nutzung eines Werkes und sei sie auch noch so altruistisch, allgemein erwünscht und nicht kommerziell, steht unter dem Zustimmungsvorbehalt des Urhebers, es sei denn, es gibt eine gesetzliche  Privilegierung, die von diesem Zustimmungsvorbehalt befreit. Einziger Anknüpfungspunkt für Langzeitarchivierungsmaßnahmen ist gegenwärtig die Archivschrankenregelung in § 53 Abs. 2 UrhG, welche jedoch Langzeitarchivierungsmaßnahmen im Hinblick auf digitale Werke nur unzureichend erfasst, sodass diese zumeist vertraglicher Regelung bedürfen um durchführbar zu sein.“

Für das Projekt LuKII bedeutet das, dass für die Nutzung der Infrastruktur eine vertragliche Regelung geschaffen wird, die wohl auch auf andere Langzeitarchivierungsprojekte anwendbar sein könnte.

Das Gutachten ist auf dem edoc-Server der Humboldt-Universität zu Berlin im Abschnitt Open-Access Pre- und Postprints veröffentlicht.

Direktlink zum Dokument: http://edoc.hu-berlin.de/oa/reports/reXWA7YIvSnAk/PDF/23gwylDsJJV6.pdf

Repository-Cookbook als Living Document auf CARPET verfügbar

Ein Repositorium?

Wofür brauche ich als akademische Einrichtung ein Repositorium? Was fällt überhaupt alles unter diesen Begriff? Welche Entscheidungen, Aufgaben und Kosten kommen auf mich zu? Welche Alternativen habe ich? Muss ich das Repositorium selber betreiben oder lasse ich es hosten? Welche Plattform ist am besten für mich geeignet? Welche bibliothekarischen Arbeitsabläufe gilt es zu integrieren?

Damit Sie vor diesen Fragen nicht alleine stehen, gibt es eine Reihe von Informationsangeboten im Netz, mit denen Sie sich einen ersten Überblick verschaffen und Ansprechpartner finden können. Eine sehr empfehlenswerte Anlaufstelle ist das Repository Cookbook. Es dient als Leitfaden bei der Einrichtung und dem Betrieb von Repositorien und steht als Living Document in der CARPET-Wissensbasis bereit.

An wen richtet sich das Repository Cookbook?

Das Cookbook ist vorrangig für Einrichtungen gedacht, die neu in das Thema „Aufbau eines wissenschaftlichen Repositoriums“ einsteigen oder überlegen, zu einer anderen Lösung für Publikationsmanagement und –bereitstellung zu wechseln. Der Leitfaden richtet sich aber auch an erfahrene Nutzer und Einrichtungen, die sich an der Gestaltung und Verbesserung beteiligen und so zum Wissenstransfer in der Community beitragen können.

Wie kann ich mitmachen?

Das Dokument steht jedem Interessierten frei zur Nachnutzung. Registrierte Nutzern auf der CARPET-Website können darüber hinaus den Artikel weiter sinnvoll ausbauen. Entsprechend dem Wiki-Prinzip können zu allen Texten Vertiefungen und Verknüpfungen eingebracht werden. Ebenso sind kritische Anmerkungen willkommen, die gerne hier oder per eMail angebracht werden können.

Credits

Im Rahmen des DFG-geförderten Projektes OA-Netzwerk ist in Zusammenarbeit mit CARPET das Repository Cookbook entstanden, eine deutsche Adaption auf Basis der  Vorarbeit des englischsprachige Repository Support Project (RSP). Das RSP hat das umfassende Thema bereits für den englischsprachigen Bereich in einzelne Bereiche untergliedert und diese in Checklisten gefasst anhand derer sich Entscheidungsabläufe erstellen lassen.
Das Cookbook nutzt neben Inhalten des Repository Support Projects auch Inhalte des im Zuge der DINI-Zertifizierung entstandenen Pedocs-Wikis sowie der Initiative Urheberrecht in der Wissenschaft (IUWIS) nach. Es finden sich ebenso Verlinkungen auf die DINI-Seiten sowie die Informationsplattform Open-Access.net. Verfügbar gemacht wird das Cookbook über die Plattform des Projekts CARPET. An diese Initiativen und Einrichtungen geht der Dank der Autoren!

Das Repository Cookbook ist hier erreichbar: Link.

 

DINI-OAI-Validator verfügbar

Mit OAI-PMH und Dublin Core Simple existiert nun schon seit Jahren ein „dynamisches Duo“ aus Harvesting-Protokoll und Metadatenformat dessen Verbreitungsgrad in der digitalen Repositorienlandschaft den eigenen Erfolg markiert. Begünstigt wurde dieser Erfolg sicherlich nicht zuletzt auch durch die Einfachheit, Flexibilität und damit Umsetzbarkeit von DC-Simple, jedoch sollte sich diese Flexibilität neben dem Segen auch als Fluch erweisen.

Dem Ziel der Austauschbarkeit von Metadaten und der formalen Vereinheitlichung zur Schaffung durchsuchbarer und vergleichbarer Metadaten steht die Freiheit der Data Provider gegenüber genau dieses Ziel sehr leicht aus den Augen verlieren zu dürfen. Die Inhalte der einzelnen Felder und ihre innere Struktur sind nur fachlichen Vorgaben unterlegen, nicht jedoch formalen. So dürfen diese Felder schliesslich frei belegt werden, solange sie auf irgendeine Weise die geforderte fachliche Anforderung erfüllen. Angefangen von der einfachen Nennung des Autors, finden sich in den dc:author-Feldern beispielsweise Angaben wie ‚Vorname Nachname‘, ‚Nachname, Vorname‘ bis hinzu ‚Nachname Vorname‘. Das ganze dann noch kombiniert mit Kürzeln, Titeln und zusätzlichen Vornamen einer Person wird dann maschinell doch zu einer Herausforderung, wenn diese Feldinhalte nicht nur als Ganzes erfasst werden sollen.

Ähnlich aufregend ist beispielsweise auch die Zuordnung zu fachlichen Klassifikationen. Aus einer Angabe ‚ddc:004‘ lässt sich ablesen das es sich sehr wahrscheinlich um eine Zuordnung zum Fachgebiet Informatik nach der Dewey-Dezimalklassifikation handelt. Bei der Angabe ‚004‘ liesse sich der gleiche Informationsgehalt noch mutmaßen, während der Versuch der Zuordnung einer ‚4‘ schon zum Glücksspiel zählt.

Die Data Provider kann man dafür nur bedingt kritisieren, halten sie sich doch streng genommen mit diesen Angaben weitgehend an die Vorgaben des Duos. welches womöglich nicht so erfolgreich wäre, wenn es als Trio mit einer zusätzlichen Anwendungreferenz zu DC-Simple die Bühne betreten hätte. So obliegt es den aggregierenden Service Providern diese finale Homogenisierung der Metadaten vorzunehmen, um die OAI-Vision bestmöglich zu verwirklichen. In der Folge sind neben dem Mapping auf bestimmte Vokabulare und einfachen Algorithmen zum Zuordnen von Feldinhalten auch entsprechende Guidelines für Data Provider aggregatorseitig (Driver-Guidelines, OpenAIRE-Guidelines, DINI-Zertifikat etc.) geschaffen worden, um aus dieser einseitigen Vereinheitlichung auch die Repositorienbetrieber wieder vermehrt in die Verantwortung zu nehmen . Letztendlich erfordert es ein beidseitiges Zutun, um einen optimalen maschinellen Dialog zu ermöglichen.

Ein Hilfsmittel zur Überprüfung und Steigerung der tatsächlichen Metadatenqualität eines Repositories sind Validatoren. Zum einen dienen diese den Data Providern bei der technischen Umsetzung von OAI-PMH-Schnittstellen und dem formal korrekten Export der Metadaten mit Blick auf weiterführende Guidelines. Zum anderen helfen sie den Service Providern zu erkennen, welche Metadatenqualität ein Repository mit sich bringt.

Auch OA-Netzwerk hat es sich zum Ziel gemacht die Repositorienbetreiber mit technischen Hilfsmitteln bei der Umsetzung einer OAI-PMH Schnittstelle und den konkreten Anforderungen des aktuellen DINI-Zertifikats zu unterstützen. Aufbauend auf einem Validator der im Rahmen von OpenAIRE reimplmentiert wurde (Vielen Dank für den Support an die OpenAIRE Kollegen der University of Athens), haben wir diesen um diverse Funktionen erweitert. Zum einen wurde dieser um ein eigenes Scoring-System zur Bewertung der DINI-Zertifikatskonformität erweitert. Dies war nötig da wir in einem ersten Schritt verschiedene Testtypen zu Gesamttests aggregierbar gemacht haben, damit es letztlich nur den einen DINI-Check gibt, und nicht verschiedene aus denen die Fehler zusammengesucht werden müssen. Darüber hinaus wollten wir eine bestmögliche Veranschaulichung der entstandenen Fehlerquellen bieten, damit Betreiber auf den ersten Blick erkennen können, welche Kriterien nicht erfüllt sind und wie sie konkret zu erfüllen sind. Auf Metadatensatzebene werden die Fehler in den konkreten Server-Responses grafisch hervorgehoben. (Error Highlighting)

Eine erste Testversion des OA-Netzwerk/DINI-Validators ist derzeit unter folgender Adresse erreichbar:

http://oanet.cms.hu-berlin.de/validator

Nach Eingabe der Base-URL einer OAI-Schnittstelle wird die Prüfung durchgeführt. Nach Abschluss der Prüfung erhalten Sie eine Mail-Benachrichtigung. Das Ergebnis des Checks ist dabei nur für Sie einsehbar, d.h. nicht öffentlich verfügbar. Bitte beachten Sie, das sich der Validator noch in der Entwicklung befindet und daher nicht durchgehend verfügbar ist. Kritische Anmerkungen zum Validator, dem Verfahren und der Ergebnisdarstellung sind willkommen und können direkt an Sammy David, dem Autor dieses Eintrags geschickt werden.

Sammy David, Computer- und Medienservice der Humboldt Universität zu Berlin (sammy.davidATcms.hu-berlin.de)

Open-Access-Tage 2011 – erfolgreiche Session zum DINI-Zertifikat

Die bereits fünften Open-Access-Tage fanden dieses Jahr in Regensburg am 4. und 5. Oktober statt. Das Angebot an Themen umfasste unter anderem die Förderung von OA durch die Europäische Kommission oder die unterschiedlichen Open-Access-Aktivitäten und -Bedingungen in den Ländern Deutschland, Österreich und der Schweiz. Wie schon in den vergangenen Jahren war die Veranstaltung in Plenumsvorträge und parallele Sessions gegliedert. Zusätzlich hatten die Teilnehmer in den Pausen die Gelegenheit sich auf der Open-Access-Messe über aktuelle Entwicklungen zu informieren und sich untereinander auszutauschen. Die Materialien sind auf den Seiten der Informationsplattform dokumentiert.

Neben Sessions zu Rechtlichen Aspekten, Publikationsmanagement, Open Access in Bibliotheken und Fachspezifischen Blickwinkeln, gab es auch wieder eine gut besuchte Session zum DINI-Zertifikat. Die Teilnehmerinnen und Teilnehmer erhofften sich hier u.a. wertvolle Tipps für den zertifikatsgerechten Auf- und Ausbau des eigenen Repositoriums. Da auch rechtliche Aspekte dabei eine große Rolle spielen, stellte Thomas Hartmann von IUWIS dar, mit welchen Argumenten man auf Seiten der Betreiber und Autoren Vorbehalte gegenüber OA und konkrete Schwierigkeiten bei der Umsetzung nehmen kann. Doreen Thiede vom KOBV erläuterte, wie Hosting und DINI-Zertifikat bei OPUS 4 zusammen gebracht wurden. Das Erfolgskonzept des nach 2010 zertifizierten Dokumentenservers „peDOCS“ wurde von Doris Bambey vom DIPF in Frankfurt vorgestellt. Susanne Blumesberger von der Universität Wien präsentierte hingegen das noch nicht zertifizierte Digital Asset Management System „Phaidra“ der Universität Wien. Weiterhin wurde der im Rahmen des Projektes OA-Netzwerk entwickelte OAI-Validator von Sammy David (HU Berlin) vorgestellt. Mit dem Validator kann die OAI-Schnittstelle eines Repositoriums auf ihre Konformität zu den Regeln des DINI-Zertifikats überprüft werden.

Alles in allem also eine erfolgreiche Veranstaltung für das Team von OA-Netzwerk. Wir freuen uns auf die Open-Access-Tage 2012 in Wien.