DINI-Zertifikat für Open-Access-Repositorien und -Publikationsdienste 2013 als Preprint veröffentlicht

Pünktlich zu den diesjährigen Open-Access-Tagen in Hamburg freuen wir uns als DINI-AG Elektronisches Publizieren das DINI-Zertifikat für Open-Access-Repositorien und -Publikationsdienste 2013 als Preprint-Version präsentieren zu können. Unter Berücksichtigung des im RFC gesammelten Feedbacks wurde das DINI-Zertifikat weiter verbessert, indem es sich an aktuellen Standards und Bedürfnissen von Open-Access-Repositorien und -Publikationsdiensten orientiert.
Vor allem die Zertifizierung von Open-Access-Zeitschriften wird mit der Version 2013 des Zertifikats besser unterstützt. Außerdem wird mit dem neuen DINI-ready-Mechanismus das Zertifizierungsverfahren für Dienste, die über ein Hosting-Angebot realisiert werden, deutlich vereinfacht. Das Dokument befindet sich persistent und  eindeutig zitierbar im Open-Access-Repository ZENODO via folgendem DOI:

10.5281/zenodo.7132

Dies ist eine Preprint-Version des Zertifikats für Open-Access-Repositorien und -Publikationsdienste 2013, das demnächst als DINI-Schrift erscheinen wird.

Werbung

DINI-Zertifikat 2013 Request for Comments veröffentlicht

Es gibt eine neue Auflage des DINI-Zertifikats. Mit dem DINI-Zertifikat für Open-Access-Repositorien und -Publikationsdienste 2013 werden neue Wege zur Verbreitung des Zertifikats gegangen. Die größten Veränderungen zum DINI-Zertifikat 2010 sind:

  • eine Ausweitung des Zertifikats auf den Bereich Open-Access-Journale
  • Verschlankung und Aktualisierung des Zertifikats bei gleichbleibenden Qualitäts-Standards
  • die Einführung des Labels DINI ready, das anzeigt, welche Mindestanforderungen bzw. Empfehlungen des DINI-Zertifikats von Hosting-Anbietern übernommen werden
  • sprachliche Überarbeitung und Gendering des Zertifikatstexts

Für die finale Fassung des DINI-Zertifikats 2013 ist das Feedback der Repository-Community unabdingbar, weshalb das DINI-Zertifikat 2013 als Request for Comments (RFC) Dokument bereitgestellt wird. Um das Zertifikat weiter zu verbessern und auch auf die Bedingungen und Erwartungen der Repositorienlandschaft eingehen zu können, bitten wir um Verbesserungs- bzw. Änderungsvorschläge, Kommentare und Anregungen bis zum 09.08.2013 per E-Mail an rfc13@dini.de. Nach Ende der Kommentierungsphase werden alle eingehenden Meldungen diskutiert und ggf. übernommen.

Die Veröffentlichung der Endfassung des neuen DINI-Zertifikates ist für Oktober 2013 geplant. Wir laden Sie somit herzlich ein, sich an der Entwicklung des DINI-Zertifikats zu beteiligen und freuen uns auf Ihre Anregungen.

Das DINI-Zertifikat RFC-Dokument ist als PDF unter folgendem Link persistent erreichbar: http://dx.doi.org/10.5281/zenodo.6985

2012 Census of Open Access Repositories in Germany

The 2012 Census of Open Access Repositories in Germany is a snapshot of the current state of open access repositories in Germany looking at different aspects such as the size, software, value-added services, etc. The charts and best practice examples shall help stakeholders to improve open access repositories on different levels in Germany. The poster presented at the Open Access Tage Wien 2012 will is published in an open access repository with a citable URN: http://nbn-resolving.de/urn:nbn:de:kobv:11-100204211

September ist der Workshop-Monat – auch für OA-Statistik!

Open-Access-Statistik

Wir freuen uns, Ihnen im September zwei OAS-Workshops anbieten zu können!

Am 12. September 2012 möchten wir Sie recht herzlich zum ganztägigen Workshop „Vom Projekt zum Dienst“ nach Göttingen einladen.

Die Veranstaltung wendet sich in erster Linie an alle technischen und organisatorischen Verantwortlichen von Repositorien sowie auch an andere an der Thematik interessierte Personen. Der Workshop startet mit einem Überblick über die Aufgaben und Tätigkeiten im Projekt Open-Access-Statistik und zeigt dessen internationale Einbettung auf. Es wird aufgezeigt, wie der Dienst auch nach Projektende genutzt werden kann und welche Kosten dabei entstehen. Anhand des OAS-Leitfadens wird erläutert, wie eine Beteiligung an Open-Access-Statistik erfolgen kann. Anschließend berichten drei Repositorienbetreiber von ihren Erfahrungen bei der Einbindung ihrer Dienste in die Infrastruktur von Open-Access-Statistik. Der OA-Verlag Copernicus und der Dienstleister DigiZeitschriften beschreiben ihre Anforderungen und Wünsche an einen Dienstleister für die Auswertung und statistische Aufbereitung ihrer Nutzungszahlen. Den Workshop schließt Martin Fenner von PLOS ONE mit einem Ausblick ab, in dem er Perspektiven aufzeigt, wie alternative Metriken als Ergänzung zu „klassischen“ Impact-Werten genutzt werden können.

Für all diejenigen, die am 12. September nicht nach Göttingen kommen können, bietet OA-Statistik im Rahmen der Open-Access-Tage 2012 in Wien am Donnerstag, 27. September 2012 von 15:30 – 17:30 Uhr an. Informationen zum Workshop entnehmen Sie bitte der Projektwebsite.

Wir würden uns freuen, Sie in Göttingen oder Wien begrüßen zu dürfen!

Wir sind dabei!

Open-Access-Statistik wird auch dieses Jahr mit Vorträgen, Poster-Präsentationen und Workshops auf verschiedenen Veranstaltungen präsent sein. Wir freuen uns auf den fachlichen Austausch und hoffen, interessierte Repositorienbetreiber animieren zu können, sich an der OAS-Infrastruktur zu beteiligen!

Beim 101. Bibliothekartag in Hamburg ist OA-Statistik mit einem Poster in Halle H vertreten. Am Mittwoch und Donnerstag steht ein Projektmitarbeiter jeweils von 12:00 – 14:00 Uhr Ihren Fragen Rede und Antwort. Zudem hält Daniel Beucke einen Vortrag zu „Nutzungsstatistiken für Repositorien – das Projekt OA-Statistik“ in der Session „Forum Bibliotheksstatistik“ am Donnerstag, 24. Mai um 14:30 Uhr in Saal 8.

Vom 27. bis zum 30. Juni findet in Tartu (Estland) die LIBER 41st Annual Conference statt. OA-Statistik wird mit dem Poster „OAS – Services and Standards for Internationally Comparable Usage Statistics“ präsent sein, das mit dem LIBER Award for Library Innovation ausgezeichnet wurde. Im Juli beschreibt der Vortrag „OAS – Transforming a project into a service“ bei der 7th International Conference on Open Repositories (OR2012) vom 9. bis 13. Juli in Edinburgh (Schottland) die Überführung von OA-Statistik von einem Projekt in einen stabilen, nachhaltigen Dienst. Anschließend wird OA-Statistik vom 11. bis 17. August bei der IFLA 2012 in Helsinki (Finnland) ein Poster zu „Open Access Statistics – Approaches and Synergies Worldwide“ vorstellen.

Am 7. und 8. September nehmen Kolleginnen und Kollegen aus OA-Statistik am InfoCamp 2012 in Chur (Schweiz) teil und werden das Thema Nutzungsstatistiken bei Repositorien in Sessions einbringen. Im September geht es dann mit eigenen Workshops von OA-Statistik weiter. Am 12. September findet in Göttingen ein Praktiker-Workshop statt, der allen Interessierten das Projekt OA-Statistik näher bringt, aber vor allem den Einstieg in die OAS-Infrastruktur erläutert. Bei den diesjährigen Open-Access-Tagen in Wien am 26. und 27. September wird sich OA-Statistik inhaltlich in der Session „Bibliometrische Aspekte für OA“ einbringen und einen Ausblick auf alternative Metriken geben. Im Anschluss an die OA-Tage wird am 27. September ein zweistündiger OAS-Workshop einen Überblick über den Dienst geben und Best-Practise-Beispiele vorstellen.

Der Vortrag „Impact Messung – Mehrwertdienste für Repositorien“ bei der WissKom 2012 vom 5. – 7. November in Jülich beleuchtet die Möglichkeit der Nutzung von alternativen Metriken als Aufwertung von Repositorien. Diese Veranstaltung rundet die Vorstellung von OA-Statistik für das Jahr 2012 – vorläufig – ab.

OAS-Workshop: Wissenschaftlicher Impact und Social Media

Am Freitag, 23. März 2012 von 10:00 – 11:30 Uhr findet als Zusatzveranstaltung zur DGI-Konferenz 2012 in Düsseldorf ein Workshop von OA-Statistik zum Thema "Wissenschaftlicher Impact und Social Media" statt. Er ist für alle für alle registrierten Konferenzteilnehmer frei zugänglich. Da die Veranstaltung im Rahmen der Hauptkonferenz stattfindet, ist eine separate kostenpflichtige Anmeldung nicht erforderlich. Zur besseren Planung bitten wir bei Interesse jedoch darum, sich als TeilnehmerIn per E-Mail an mail@dgi-info.de, Betreff: Anmeldung zum Workshop vormerken zu lassen . Herzlichen Dank!

Zitationsbasierte Impactmaße wie der Journal Impact Factor oder Hirsch-Index werden unter Verwendung proprietärer, geschlossener Datenbanken (Journal Citation Reports, Scopus, GoogleScholar, etc.) berechnet. Nicht von der Wirkungsmessung erfasst sind damit zahlreiche elektronische Publikationen außerhalb formaler Verlagsangebote wie auch Social Media Beiträge – obwohl diese einen steigenden Stellenwert in der wissenschaftlichen Kommunikation einnehmen. Die Nichtbeachtung der Social Media Beiträge hat zwei Schattierungen: Zum einen werden Referenzen (Zitate, Verlinkungen) auf wissenschaftliche Publikationen nicht erfasst, zum anderen werden Zitierungen der und Verlinkungen auf Social Media Beiträge aus formalen wissenschaftlichen Publikationen ebenfalls nicht erfasst. Der Workshop soll dazu dienen, mit den Teilnehmern alternative Möglichkeiten der Impact Messung elektronischer wissenschaftlicher Dokumente unter besonderer Einbeziehung von Social Media zu diskutieren.

Der Workshop wird von Ulrich Herb und Daniel Beucke im Namen des Projektes Open-Access-Statistik organisiert.

DINI Workshop: Repositorymanagement 2012

Deutsche Initiative für Netzwerkinformation e.V.Am 20.03.2012 wird es in Göttingen die Möglichkeit geben, sich in persona mit anderen Repositorymanagern und Repositorymanagerinnen über ihre Erfahrungen und Fragen auszutauschen. Die Arbeitsgruppe Elektronisches Publizieren der Deutschen Initiative für Netzwerkinformation (DINI) lädt zu einem eintägigen Workshop unter dem Titel Repositorymanagement 2012: Contentakquise und Nutzerunterstützung für institutionelle Repositorien“ ein. Alle Informationen rund um den Workshop finden Sie auf der Seite von DINI.

Im Vordergrund sollen mit Contentakquise und Nutzerunterstützung zwei Themen stehen, die einen Großteil der alltäglichen Arbeit im Betrieb eines Repositories ausmachen. Unter Contentakquise fallen alle Aktivitäten zur Füllung des Repositories mit Inhalten – seien es Sekundärpublikationen bspw. in Form von Retrodigitalisaten oder seien es klassische Monografien, Zeitschriftenartikel, Dissertationen oder andere Qualifikationsarbeiten, seien es Metadaten zu den nachgewiesenen Inhalten oder seien es Fremddaten anderer Anbieter. Unter Nutzerunterstützung fallen nicht nur die klassischen Supportanfragen bei Selbstarchivierung, sondern auch die Integration des Repositories in übergreifende Dienste der Einrichtung.

Beide Themenfelder weisen Überschneidungen auf und betreffen teilweise ähnliche Fragestellungen aus rechtlicher, technischer oder bibliothekarischer Sicht. Nach einführenden Impulsreferaten von Praktikern haben die Teilnehmerinnen und Teilnehmer die Gelegenheit, ihre Fragen und Anforderungen aus ihren jeweiligen Einrichtungen mit den anderen zu diskutieren. Es empfiehlt sich also, bereits im Vorfeld Fragestellungen, Probleme und auch Lösungsansätze zu überlegen, um den Workshop mit Leben zu füllen.

Von 10 bis 17 Uhr erwartet Sie folgendes Programm:

10.15 Begrüßung und Einführung

Teil 1: Contentakquise
Moderation: Stefan Buddenbohm (SUB Göttingen)
10.30 Publikationsservice der Universität Würzburg: Praxisbericht | Kristina Hanig (UB Würzburg)
11.00 Contentakquise für den Publikationsserver der Universität Potsdam | Dagmar Schobert (UB Potsdam)
11.30 Workshopsession

13.00 – 14.00 Mittagsimbiss am Tagungsort

Teil 2: Nutzerunterstützung
Moderation: Susanne Riedel (UB Bielefeld)
14.15 Best Practices verschiedener institutioneller Repositories | Paul Vierkant (IBI HU Berlin)
14.45 Best Practices beim institutionellen Repository der Universität Konstanz: KOPS | Wiebke Knop (UB Konstanz)
15.15 Workshopsession

16.45 Verabschiedung

Die Teilnehmerzahl ist auf 50 Personen begrenzt, um einen lebendigen Austausch zu ermöglichen. Da mit Contentakquise und Nutzerunterstützung der Schwerpunkt auf die praktische Arbeit von RepositorymanagerInnen gelegt wird, bitten wir Sie, sich nur dann für den Workshop anzumelden, wenn Sie selbst in diesem Bereich tätig sind.

Sie finden das Programm vielversprechend? Dann melden Sie sich über das Onlineformular an. Die Teilnahme an dem Workshop ist kostenlos; für die Organisation des Workshops werden jedoch einige Anmeldedaten benötigt.

Der Workshop findet in den Räumen der Staats- und Universitätsbibliothek Göttingen statt. Alle weiteren Informationen finden Sie hier.

Wir freuen uns auf einen regen Austausch mit Ihnen am 20.03.2012 in Göttingen!

Im Namen der DINI-AG Elektronisches Publizieren:
Stefan Buddenbohm, Kristina Hanig, Susanne Riedel

OpenAIRE-Compliance Ihres Repositoriums herstellen

Wie vermutlich vielen bereits bekannt ist, sind Projekte im 7. Forschungsrahmenprogramm aufgefordert, ihre begutachteten Publikationen über Repositorien OA-zugänglich zu machen. In sieben ausgewählten Forschungsbereichen (z.B. Energie, Umwelt, besteht dazu sogar eine Verpflichtung, die im Grant Agreement des Projektes verankert ist („Special Clause 39“). Das Projekt OpenAIRE www.openaire.eu unterstützt bei der Umsetzung von Open Access und führt die Publikationen durch Harvesting zusammen (dazu unten mehr).

FP7 an Ihrer Einrichtung: Wie verschaffe ich mir einen Überblick?

Vielleicht gibt es im Bestand Ihrer Repositorien bereits derartige Publikationen, die aber noch nicht entsprechend als FP7-Dokumente erfasst sind? Dann würden wir uns freuen, Sie bei der Verfügbarmachung dieser Publikationen zu unterstützen.

Wir haben ebenfalls die Möglichkeit, für Sie eine Aufstellung von FP7-Projekten an Ihrer Einrichtung zu erstellen und damit die Erfassung von Projekten und Publikationen für Ihr Repositorium zu erleichtern. Die EU-Hochschulbüros stehen ebenfalls als Ansprechpartner zur Verfügung und unterstützen bei der Kontaktaufnahme zu den Projekten.

OpenAIRE-Compliance Ihres Repositoriums: Set-Bildung, Ergänzung Metadaten

FP7-Publikationen würden wir natürlich gerne im Datenraum von OpenAIRE nachweisen – am besten auf Basis eines Harvesting der Metadaten dieser Publikationen. Falls Ihr Repositorium bereits DRIVER-compliant ist, ist es nur noch ein kleiner Schritt hin zur OpenAIRE-Compliance. Welche Schritte dazugehören, wird in den OpenAIRE Guidelines erklärt: Link.

Wesentlich ist die Einrichtung eines OAI-Sets, dass OpenAIRE harvesten kann. Zur Einrichtung eines entsprechenden OAI-Sets, können Sie einfach das DSpace-Plugin verwenden, das auf der o.g. Webseite verlinkt ist.

Nach der Herstellung dieser technischen Voraussetzungen, ist es sehr hilfreich, wenn Sie Metadaten von FP7-Publikationen ergänzen würden (gleichfalls in den OpenAIRE Guidelines erklärt):

  • dc:identifier = Grant Agreement Number – zu welchem Projekt gehört die Publikation
  • dc:rights – Zugriffsrechte (OA / Embargo /…)
  • dc:date – ggf. Embargoenddatum

Da Autoren nicht sehr einheitlich angeben, dass ein Zusammenhang zu einem Projekt besteht, lohnt es sich nach Kürzeln und Begriffen zu suchen wie FP7, Framework Programme, European Commission, ERC, European project, EU project oder über o.g. Projektlisten.

Wo bekomme ich Unterstützung?

Um den praktischen Einstieg zu erleichtern, bieten wir zudem in Kürze einige Online-Tutorien an: Link.

Die Europäische Kommission ist sehr daran interessiert, wie sich die Open-Access-Bereitstellung in Repositorien entwickelt und ist an möglichst genauen Zahlen interessiert. Das heißt, je mehr Publikationen wir über das Harvesting von Repositorien identifizieren können, desto besser!

Neben den o.g. EU-Hochschulbüros stehen auch gerne die Kolleginnen und Kollegen von OpenAIRE zur Verfügung (http://www.openaire.eu/) bzw. Birgit Schmidt und Stefan Buddenbohm (beide SUB Göttingen).

Neue deutschsprachige Liste für Fragen rund ums Repositorymanagement

Vielleicht kennen und nutzen Sie englischsprachige Mailinglisten wie JISC-Repositories und haben sich gefragt, warum es so etwas nicht für deutschsprachige Repositorymanager gibt? Diese Frage haben sich auch Stefan Buddenbohm und Paul Vierkant gestellt und haben daher unter Schirmherrschaft der DINI-Arbeitsgruppe „Elektronisches Publizieren“ eine deutschsprachige Mailingliste gestartet: Repositorymanagement(at)DINI.de

Worum geht es genau?

Die DINI-Mailingliste „Repositorymanagement“ soll dem interdisziplinären Austausch und der Vernetzung untereinander dienen und stellt eine Ergänzung zu internationalen (bspw. JISC-Repositories) oder thematisch anders gelagerten (DINI, Inetbib) Listen dar. Thematisch soll es um alles rund um den Betrieb eines Repositories gehen:

  • formale, technische, bibliothekarische und rechtliche Standards
  • Plattformentscheidungen
  • Metadaten und Harvesting
  • Personalmanagement, Kosten, Ressourcen, Nachhaltigkeit
  • Workflows, Nutzerunterstützung, Einbettung in die hostende Institution
  • Compliance-Fragen, bspw. DINI, DRIVER, OpenAIRE
  • Open Access
  • alles was Ihnen im alltäglichen Betrieb als Frage/ Problem begegnet und das Sie mit Kolleginnen und Kollegen diskutieren möchten.

Zielgruppe

Mitarbeiterinnen und Mitarbeiter von Repositorien an deutschsprachigen Forschungs- und Hochschuleinrichtungen, Dokumenten- und Forschungsdatenrepositorien, OA- und nicht OA-Repositorien, DINI-zertifizierte Repositorien, Bibliothekarinnen und Bibliothekare sowie Technikerinnen und Techniker sowie grundsätzlich alle an der Materie Interessierten.

Betrieb

Die Liste wird unter Schirmherrschaft der DINI-AG Elektronisches Publizieren betrieben. Als Ansprechpartner für Fragen stehen Stefan Buddenbohm (buddenbohm(at)sub.uni-goettingen.de) SUB Göttingen) und Paul Vierkant (HU Berlin) zur Verfügung.

An- und Abmeldung

Leider nicht ganz so komfortabel wie es sein könnte, aber doch ganz einfach: Zur Anmeldung senden Sie bitte eine leere E-Mail an sympa(at)lists.hu-berlin.de mit dem Betreff „sub repositorymanagement“ Falls Sie sich aus dem Verteiler wieder austragen möchten, senden Sie bitte eine E-Mail an sympa(at)lists.hu-berlin.de mit dem Betreff „unsub repositorymanagement“. Alle Informationen zur Mailingliste sind ebenfalls hier zu finden.

Kurze Einführung in die Semantic Web Standards

OA-Netzwerk startet eine Blogreihe zum Thema „Pragmatische Lösungsansätze für automatisierte Linked Open Data Dienste für Open Access Repositorien am Beispiel von OA-Netzwerk“. Die Blogreihe beginnt mit einer Einführung in die Standards und Semantic Web Technologien und konzentriert sich später auf die konkreten Lösungenansätze und deren Umsetzung im OA-Netzwerk-Kontext.

Standards für das Netz der Daten 

Der Aufbau eines funktionierenden globalen semantischen Netzes ist auf die Anwendung einheitlicher Standards angewiesen. Schon seit den frühen 90’ger haben zahlreiche Arbeitsguppen unter dem Dach des World Wide Web Consortium an die Lösungen zur Erarbeitung der notwendigen Standards getüftelt. Somit wurde im Jahre 1999 mit der offiziellen Veröffentlichung des ersten Semantic Web Standards – das Resource Description Framework – der Grundstein zur globalen semantischen Vernetzung gelegt. Es folgten weitere Bausteine wie das RDFS, OWL und OAI-ORE. Diese Standards schafften die Voraussetzungen für den Aufbau eines angereicherten semantischen Netztes im WWW. Heute existieren zahlreiche Softwarelösungen und Tools, die auf diese Standards aufegbaut sind.

1.   Resource Description Framework
Der Grundbaustein vom Linked Data ist das Resource Description Framework, kurz RDF. RDF ist das W3C Standardpackage für die Modellierung von Informationen über Objekte. Laut RDF werden alle Web-Ressourcen durch eindeutige (URIs) identifiziert. Das RDF-Modell ist ein auf formale Semantik graphenbasierendes einfaches Datenmodell. In RDF werden Aussagen über Ressourcen als einfache sprachliche Triple modelliert. Das Subjekt ist die Ressource über die eine Aussage getroffen wird, das Prädikat ist die Eigenschaft oder Erläuterung des Subjektes und das Objekt ist das Argument bzw. den Eigenschaftswert des Prädikates. Eine Menge solcher RDF-Tripel ist ein RDF-Graph. Die Beziehungskante ist im RDF eine gleichwertige Informationseinheit, die keinem der beiden Knoten hierarchisch untergeordnet ist, was den Unterschied zu einem XML-Dokument ausmacht. Tripeln können beliebig zusammengefügt werden und somit Teil eines globalen semantischen Graphen werden, die dadurch miteinander kombiniert und weiterverarbeitet werden können. Durch RDF sollen Anwendungen in die Lage versetzt werden, Daten im Web Auszutauschen, ohne dass ihre ursprüngliche Bedeutung dabei verloren geht. Durch die formale Repräsentation in RDF sind Informationen von Maschinen auswertbar. Dadurch sind sie maschinell durchsuchbar (z. B. mithilfe der Anfragesprache SPARQL) und implizit vorhandene Informationen können durch den Einsatz von genaueren Spezifikationen des modellierten Bereichs, z. B. mithilfe von RDF-Schema (RDFS) oder der Web Ontology Language (OWL) maschinell erschlossen werden, obwohl die Information nicht explizit vorliegt. Das RDF-Schema ist die Schemasprache für RDF und liefert neben der Informationen über Daten auch Informatioenen über deren Semantik. RDFS ermöglicht die Beschreibung von Ressoursen, die in Relation stehen und die Beziehungen zwischen dieser Ressoursen. RDF Schema ist RDF/XML serialisiert. Weitere RDF Notationen sind N3, N-TRIPLE und Turtle.

2.  Object Reuse and Exchange
Ein weiterer Standard, der die Zusammenführung und die eindeutige Identifizierung von verteilten Web-Ressourcen unterstützt ist die ORE-Spezifikation der Open Archives Inititive. Diese wurde von Herbert Van de Sompel und Carl Lagoze entwickelt und im Oktober 2008 vom W3C-Konsortium als Standard- Spezifikation in der Version 1.0 veröffentlicht. ORE ist eine Erweiterung vom OAI-PHM Standard, um die Binnenstruktur von digitalen Objekten in Repositorien und die Verknüpfungen zwischen ihnen abzubilden. Die Dokumentstruktur von digitalen Objekten in Repositorien kann aus verschiedenen Versionen und Formaten bestehen. Der Volltext kann in PDF und HTML vorliegen. Die Metadaten des Objektes können z.B. in RDF-Form existieren. Desweiteren kann ein digitales Objekt unterschiedliche Teile wie Kapitel, Bilder und Dateien bein- halten. Es können Verknüpfungen zu anderen Objekten in Form von Zitationen oder Versionierungen existieren. Die Gesamtheit dieser Ressourcen wird im ORE als Aggregation bezeichnet. Die Grundideel von OAI ORE ist es, mittels URIs die Binnenstruktur der Aggregation – d. h. die Beziehungen, die aus den einzelnen Objekten eine Aggregation machen – zu identifizieren und gleichzeitig die Komponenten und Grenzen der Aggregation zu beschreiben. Das Ziel von ORE ist diese Binnenstruktur eines Dokumentes maschinenlesbar zu machen und in einer Resource Map abzubilden. Somit wird der Austausch und die Nachnutzung von digitalen Objekten und deren Aggregationen ermöglicht. Digitale Objekte werden mittels URIs eindeutig identifiziert, um Interoperabilität auf Objektebene zu schaffen. Durch die Objektidentifikation wird das Wiederverwenden und veränderte Zusammensetzen von publizierten Inhalten vereinfacht. Um diese Standards anzuwenden bedarf es ein domänenespezifisches Vokabular mit der dazugehörigen Grammatik bzws. Ontologie, die es möglich macht eine standardisierte Lösung für die Vernetzung heterogener Datenprovider im kulturellen Bereich zu etablieren. Dies ist das Ziel vom Europeana Datenmodell.

3.  EDM
Das Europeana Datenmodell (EDM) ermöglicht den Erhalt der Originaldaten und erreicht dennoch Interoperabilität der Daten. Um eine Datenintegration und Kontextualisierung zwischen Europeana und OA-Netzwerk zu erreichen werden folgende Maximalziele als notwendige Bausteine einer Semantic Web Applikation im OA-Netzwerk verfolgt. Erstellung Semantischer Resource Map und Mapping der Metadatensätze nach RDF bzw. RDFS in RDF/XML-Syntax. Unter Berücksichtigung des Europeana Datenmodells (EDM) werden die RDF-Tripels idealerweise in einen RDF-Triplestore gespeichert. Der Zugriff auf den Triplestore wird durch eine SPARQL-Schnittstelle ermöglicht und bereit gestellt. Die RDF-Triples können so als Linked Open Data im Semantic Web freigegeben werden. Um diese Ziele zu erreichen und korrekte semantische Beziehungen der Metadatensätze zu identifizieren wären ideallerweise Zusatzangaben seitens der lokalen Repositorien notwendig. Eine dezentrale Lösung auf Repositirienseite für eine semantische Anreicherung der Daten wäre erstrebenswert ist aber in der Projektlaufzeit nicht realisierbar. Daher wird derzeit eine zentrale Lösung zur Kontextualisierung und semantischer Anreicherung der geharvesten und aufbereiteten Dublin-Core-Metadaten erarbeitet. Dabei wurde die Ontologie vom Europeana Datenmodell als eine übergreifende universelle Datenstruktur berücksichtigt.

Fortsetzung folgt…