A-Z Glossar Forschungsdaten
A
Analoge Forschungsmaterialien sind zum Beispiel Fotos, handschriftliche Notizen, Bücher, Audio-Kassetten, Gemälde oder 3D-Objekte, wie etwa Fossilien oder Architekturmodelle. Um sie in einem Repositorium nutzbar zu machen, müssen die Materialien zunächst digitalisiert (Digitalisat) oder zumindest die zugehörigen Metadaten digital zur Verfügung gestellt werden. Analoge Materialien unterscheiden sich von „born digital“-Daten, die von Beginn an in digitaler Form existieren, zum Beispiel digitale Fotos, CAD-Zeichnungen, Messdaten oder Blogs.
Unter einem Archiv versteht man allgemein eine Sammlung an Dokumenten. Diese sollen im Archiv zeitlich unbegrenzt aufbewahrt werden. Bezogen auf den Forschungsdatenmanagementkontext ist ein Archiv eine Sammlung von Daten.
B
Datenverlust – Nein Danke
C
CRIS steht für „Current Research Information System“, also für ein Forschungsinformationssystem. In diesem werden Informationen über die Existenz von Forschungsleistungen gespeichert, beispielsweise Angaben zu einer Publikation, einem Forschungsprojekt, Forschungsdaten oder Erfindungen. Dabei werden nur Metadaten hinterlegt, so wird z.B. der Volltext zu einer Publikation nicht direkt im CRIS aufbewahrt, sehr wohl aber die Angabe, wo dieser Volltext zu finden ist (bspw. über Angabe der DOI).
In Forschungsinformationssystemen werden die verschiedenen Datenbereiche verknüpft: Publikationen werden nicht nur Personen, sondern auch Projekten zugeordnet, Projekte wiederum bestimmten Forschungsbereichen. Hierzu werden auch interne Datenquellen der Universität genutzt, was einen Mehrwert gegenüber klassischen Listenformaten und Datenanbietern wie Scopus oder Web of Science bietet.
D
Ein Data Custodian ist verantwortlich für die sichere Verwahrung und Zugangsverwaltung für Forschungsdaten der jeweiligen Organisationseinheit (OE) nach den jeweiligen Bestimmungen. Er oder sie begleitet und berät schon während laufender Projekte, um frühzeitig die spätere Veröffentlichung der Daten vorzubereiten. Es soll vermieden werden, dass erst am Schluss ein großer punktueller Aufwand entsteht, bevor die Übergabe der Daten an den Data Steward erfolgen kann. Wenn man gleich die richtigen Annotationen (Metadaten) hinzufügt, muss man sie später nicht mühsam rekonstruieren.
„Data Literacy“ (de: „Datenkompetenz“) gilt als Schlüsselkompetenz des 21. Jahrhunderts und beschreibt kurz gesagt die Fähigkeit eines Individuums mit Daten umzugehen. Welches Wissen, welche Fähigkeiten und welche Haltung benötigt man in Gesellschaft, Arbeitswelt und Wissenschaft? Die einzelnen Bestandteile dieses Prozesses sind tabellarisch hier aufgelistet. Die Relevanz dieser grundlegenden Datenkompetenz gilt für den gesamten Forschungsprozess von der Erhebung, der Organisation und Nutzung, der Veröffentlichung und der Nachnutzung von Daten.
Folgendes Video veranschaulicht die Bedeutung der Schlüsselkompetenz Data Literacy.
Ein Data Steward ist verantwortlich dafür, die Qualität und Zweckgerechtigkeit (Fit for Purpose) von Forschungsdaten inklusive ihrer Metadaten aus fachlichen Aspekten sicherzustellen. Er oder sie wird tätig, wenn die Forschungsdaten vollständig und abgeschlossen sind. Es ist darauf zu achten, dass die Metadaten vollständig und dem aktuellen Standard entsprechend erstellt wurden. Eine persistente Id sollte vorhanden sein. Weiterhin ist ein geeignetes Repository für die langfristige Bereitstellung auszuwählen. Beratung sollte im Vordergrund stehen; Kontrolle ist mit Fingerspitzengefühl und möglichst konstruktiv vorzunehmen.
Das Dateiformat definiert die Struktur der in der Datei enthaltenen Daten. Dadurch wird Anwendungen erlaubt den Inhalt einer Datei zu interpretieren.
Viele Dateinamen enthalten eine, durch einen Punkt getrennte, Endung. Diese deklariert das Dateiformat.
Unter dem folgenden Link finden Sie Details und eine Auflistung welche Formate für eine langfristige Speicherung geeignet sind.
Laut forschungsdaten.info strukturiert ein Datenmanagementplan (DMP) den Umgang mit Forschungsdaten, bzw. deren „Erhebung, Speicherung, Dokumentation, Pflege, Verarbeitung, Weitergabe, Veröffentlichung und Aufbewahrung, ebenso wie die erforderlichen Ressourcen, rechtlichen Randbedingungen und verantwortlichen Personen.“ Ein DMP dokumentiert somit den gesamten, für die Daten vorgesehenen, Lebenszyklus.
Viele Drittmittelgeber (DFG, FWF, SNF, Horizon Europe, Volkswagenstiftung) erwarten für die Vergabe von Mitteln aus bestimmten Förderlinien Angaben zum Umgang mit Forschungsdaten als Teil eines Förderantrags.
Der DMP beschreibt, wie mit den Forschungsdaten von der Planung der Erhebung bis zur langfristigen Archivierung oder gegebenenfalls planmäßigen Löschung umgegangen wird. Er beantwortet dabei mindestens die Fragen:
- Was wird erhoben?
- Welche Stellen müssen vor der Erhebung hinzugezogen werden?
- In welcher Form und wo werden die Forschungsdaten in den unterschiedlichen Projektphasen gesichert?
- Wer hat ab welchem Zeitpunkt darauf Zugriff?
- Wer ist für die einzelnen Schritte zuständig / verantwortlich?
- Welche rechtlichen Vorgaben sind zu beachten? Bereits im Rahmen der Projektbeantragung ist ein DMP sinnvoll und erforderlich.
- Was genau bedeutet das für die Forschung?
Warum dieses Vorgehen sinnvoll und nachhaltig ist, erklärt dieses Video.
Der Umgang mit Forschungsdaten ist für viele Wissenschaftlerinnen und Wissenschaftler die Grundlage ihrer täglichen Arbeit. Es spart daher Zeit und Aufwand, wenn diese Daten von vorneherein effizient strukturiert, dokumentiert und gesichert werden.
Die meisten Daten werden zunächst in Dateien abgelegt. Dateien haben unterschiedliche Typen oder Dateiformate, die manchmal als Suffix des Dateinamens kenntlich gemacht werden, z.B. im Betriebssystem Windows. Weiterhin werden Dateien in Verzeichnissen (Ordnern) abgelegt. Ganz wichtig ist eine systematische Benennung von Dateien wie auch Verzeichnissen. Hinweise dazu gibt z.B. das Stanford File Naming Handout.
Alternativ können Daten auch in Datenbanken abgelegt werden. Hier ist der Aufwand höher, weil erst ein Datenbank-Management-System wie z.B. MySQL eingerichtet werden muss. Zentral ist die Definition eines Datenbank-Schemas, mit dem die Strukturen für die zu speichernden Daten angelegt werden. Auch hier ist die Namensgebung von großer Bedeutung. Datenbanken unterstützen den geregelten gemeinsamen Zugriff auf Daten sehr viel besser als Dateien. Es gibt verschiedene Arten von Datenbanken: relationale, hierarchische, Graph-basierte, RDF Triple Stores und noch einige weitere mehr.
Folgendes Animationsvideo fasst die Thematik der Datenorganisation anschaulich zusammen.
Für transparente Forschung und Nachvollziehbarkeit der Ergebnisse sollten Forschungsdaten – soweit möglich – veröffentlicht werden. Um die FAIR-Prinzipien zu erfüllen, müssen die entsprechenden Metadaten erfasst werden. Für die Publikation der Forschungsdaten wird ein Repositorium benötigt.
E
eLabFTW ist eine Open Source Software für den Gebrauch als elektronisches Laborbuch (ELN), Datenmanagementplattform und Labor-Bestandsmanagementsystem.
Die Daten können in verschiedene Formate exportiert werden, die mit JSON und CSV Dateien einen Import in ein anderes System erleichtern.
Elektronische Laborbücher (engl. Electronic Laboratory Notebooks, kurz: ELNs) sind Softwareanwendungen, die zur Dokumentation von Forschungsdaten eingesetzt werden und somit die analogen Papierlaborbücher ersetzen.
ELNs bieten mehrere Vorteile gegenüber ihrer analogen Variante:
- Daten-Auffindbarkeit durch Such- und Filterfunktionen
- Erreichbarkeit: Netzzugriff unabhängig von Ort & Zeit
- Sicherheitsbackup der Laborbücher (und damit eine Wiederherstellung einer vorherigen Version)
- Wiederverwendbarkeit von Vorlagen, Protokollen & Prozessen
- Zeitersparnis durch Templates, Standardisierung & bereits vorliegende digitale Daten
- automatische Erfassung von Messergebnissen
Die Entscheidung für eine ELN-Software sollte gut bedacht sein, da damit i.A. über einen langen Zeitraum hinweg gearbeitet wird. Wichtige Punkte, die bei der Entscheidung berücksichtigt werden sollten, finden sich z.B. hier.
Die „European Open Science Cloud“ (EOSC) ist ein multi-disziplinärer Informationsdienst, in dem veröffentlicht, nach Daten gesucht und Werkzeuge und Dienstleistungen gefunden werden können. Dieser Dienst ist einer der Leuchtturmprojekte der Europäischen Forschungsförderung. Das Portal ist hier erreichbar.
F
Die FAIR‐Prinzipien sind Anforderungen, die nachhaltige und wiederverwendbare Forschungsdaten erfüllen sollten. Das Akronym FAIR steht für Findable, Accessable, Interoperabel und Re‐Usable. Die FAIR‐Prinzipien werden von vielen Forschungsförderern (etwa EU, DFG oder SNF) als wichtige Voraussetzung für nachhaltige Forschung gesehen und auch entsprechend eingefordert. Als besonders wichtig für die Auffindbarkeit von Daten wird die Verwendung von persistenten Identifikatoren und detailreichen Metadaten gesehen. Der Einsatz von Standards – sowohl bei Schnittstellen als auch für Metadaten und Daten selbst – unterstützt neben der Zugänglichkeit auch die Interoperabilität der Daten. Die Wiederverwendbarkeit wird durch umfangreiche inhaltliche Metadaten und Dokumentationen sowie klare Nachnutzungsrechte erleichtert. FAIRe Daten müssen nicht notwendigerweise offen („open data“) sein. Lediglich die zugehörigen Metadaten sollten frei zugänglich sein. Durch die Einhaltung dieser Richtlinien soll die „machine-actionability“ gewährleistet / sichergestellt werden. „machine-actionabilty“ bedeutet, dass ein computergestütztes System mit minimalem menschlichen Input die digitalen Objekte auffinden, darauf zugreifen und diese wiederverwenden kann.
Mehr Details hier
Die FAUWissKICloud hat eigens den Zweck die WissKI-Systeme der FAU zu hosten und zu warten. Unter der Obhut des RRZE auf Hardware-Ebene managt das CDI die Software-Ebene des Servers. Mithilfe der WissKI-Distillery werden die WissKIs systemübergreifend gewartet und mit Updates versorgt.
Gemäß Definition von Forschungsdaten.info sind Forschungsdaten Daten, die während wissenschaftlicher Tätigkeit (z. B. durch Messungen, Befragungen, Quellenarbeit) entstehen.
Diese Definition gilt sowohl für neu erzeugte als auch für aufbereitete Daten unabhängig davon, ob diese Daten in eine Publikation einfließen oder nicht und ob sie in analoger oder digitaler Form vorliegen. Forschungsdaten bilden die Grundlage wissenschaftlicher Arbeit.
Daraus ergibt sich die Notwendigkeit eines disziplin- und projektspezifischen Verständnisses von Forschungsdaten mit unterschiedlichen Anforderungen an die Aufbereitung, Verarbeitung und Verwaltung der Daten: dem sogenannten Forschungsdatenmanagement.
Forschungsdaten und ihre Metadaten am Beispiel der Eichhörnchenforschung gut und einfach erklärt in diesem Video.
Die FAU betrachtet die Sicherung und das Management von Forschungsdaten (FD) als essentiell für erfolgreiche und nachhaltige Forschung und wissenschaftliche Integrität. Der geplante und verantwortungsvolle Umgang mit Forschungsdaten ist unerlässlich und muss deshalb gefördert und gefordert werden, damit die Universität, ihre Angehörigen und die Öffentlichkeit davon profitieren können. Hierfür ist es entscheidend, das Bewusstsein für Forschungsdaten und für die FAIR-Prinzipien langfristig zu stärken. Siehe FAU Forschungsdaten Policy.
Gemäß Definition von Forschungsdaten.info versteht man unter Forschungsdatenmanagement den Prozess der Transformation, Selektion und Speicherung von Forschungsdaten mit dem Ziel, diese langfristig und unabhängig vom Datenerzeuger zugänglich, nachnutzbar und nachprüfbar zu halten. Es können dazu an allen Punkten des Datenlebenszyklus strukturierte Maßnahmen ergriffen werden, um die wissenschaftliche Aussagekraft von Forschungsdaten zu erhalten, deren Zugänglichkeit durch Dritte für Auswertung und Analyse zu bewahren und die Nachweiskette zu sichern.
Die praktische Anwendung und den Nutzen für die Forschenden veranschaulicht das folgende Video
„Forschungsdaten leben länger“
Die FAU betrachtet die Sicherung und das Management von Forschungsdaten (FD) als essentiell für erfolgreiche und nachhaltige Forschung und wissenschaftliche Integrität. Der geplante und verantwortungsvolle Umgang mit Forschungsdaten ist unerlässlich und muss deshalb gefördert und gefordert werden, damit die Universität, ihre Angehörigen und die Öffentlichkeit davon profitieren können. Hierfür ist es entscheidend, das Bewusstsein für Forschungsdaten und für die FAIR-Prinzipien langfristig zu stärken. Siehe FAU Forschungsdaten Policy.
Eine Richtlinie zum Umgang mit Forschungsdaten enthält grundsätzliche Leitlinien für eine größere Organisationseinheit, z.B. eine Universität. Neben allgemeinen Handlungsempfehlungen werden darin meist die Verantwortlichkeiten und Unterstützungsstrukturen vor Ort geregelt. Teilweise umfassen die Richtlinien auch Details zu Lizenzierung von und Repositorien für Forschungsdaten.
Die Richtlinie der FAU für digitale Forschungsdaten ist in der jeweils aktuellen Version unter der Adresse https://www.fau.info/fdm-policy zu finden.
H
Auf heiße Daten wird mit einer hohen Frequenz zugegriffen, die Daten müssen praktisch sofort für eine Bearbeitung zur Verfügung stehen.
Das bedeutet konkret, dass die Daten häufig verarbeitet werden und dabei auch Änderungen auftreten. Heiße Daten sind idealerweise nah an der Maschine, die sie verarbeitet, damit z.B. Verzögerungen über ein Netzwerk nicht auftreten.
Heiße Forschungsdaten werden nicht veröffentlicht und nur selten mit anderen Personen geteilt. Sind die Daten nicht einfach wiederzubeschaffen, muss die Backup-Strategie auch die heißen Daten umfassen.
K
Kalte Daten sind abgeschlossene Datensätze, d.h. sie ändern sich nicht mehr. Üblicherweise sind das Daten, die zusammen mit den beschreibenden Metadaten in Repositorien abgelegt werden (z.B. für eine Veröffentlichung oder Archivierung). Nur kalte Forschungsdaten können eine DOI erhalten.
L
LabFolder ist ein elektronisches Laborbuch, ein Inventarmanagementwerkzeug und der Name des 2013 gegründeten Unternehmens, welches die gleichnamige Software anbietet.
Als proprietäre Software ist die Nutzung mit monatlichen Kosten pro User verbunden. Eine kostenlose Version ist ebenfalls erhältlich, allerdings mit limitiertem Funktionsumfang und beschränkter Anzahl an Nutzern pro Gruppe.
Eingetragene Daten sind nur als XHTML und PDF exportierbar. Labfolder ist über das Universitätsklinikum beziehbar, weitere Informationen erhalten Sie auf der Informationsseite der Medizinischen Fakultät.
Der Standard für die Aufbewahrungsfrist von Forschungsdaten ist mindestens zehn Jahre [1]. Das stellt sowohl organisatorische, als auch technische Herausforderungen.
Aus der organisatorischen Sicht muss geregelt sein, wer die Verantwortung und Kontrolle über Daten hat, wenn der/die ursprüngliche Besitzer*in die FAU verlässt.
Aus technischer Sicht bedarf es spezialisierter Archivierungssysteme und Plänen, die Datenverlust verhindern. Zudem ist das Dateiformat relevant, da manche Formate sich eventuell nicht mehr öffnen lassen.
[1]: https://forschungsdaten.info/praxis-kompakt/glossar/#c269839
„Linked Open Data“ (LOD) ist ein Ansatz zur Repräsentation und Publikation von Forschungsdaten. Er setzt sich aus zwei Aspekten zusammen:
- „Linked“: im Zusammenhang stehende, maschinen-lesbare Daten im Internet
- „Open“: die Daten sind frei zugänglich und verteilbar
Es ergibt sich also ein Netz aus Daten, in welchem einzelne Elemente auf Andere verweisen. Einzelne Daten sind über eine URIs abrufbar.
Eine visuelle Repräsentationen findet sich hier.
Die Urheberin oder der Urheber bestimmen, was mit ihren Daten, wenn sie dem Urheberrecht unterliegen, passieren darf. Eine Lizenz beschreibt welches Nutzungsrecht Dritte haben.
Ein Beispiel für eine Lizenz, um die eigene Arbeit frei zugänglich zu machen, ist die Creative Commons Attribution 4.0 International.
Mehr Details finden sich hier.
M
Metadaten beschreiben andere Daten mithilfe von Informationen, die zur Interpretation und (automatischen) Verarbeitung der eigentlichen Daten, etwa der digitalen Forschungsdaten, notwendig oder sinnvoll sind; also ‚Daten über Daten‘.
Dies können elementare Beschreibungen sein wie Länge, Codierung und Typ (Zahl, Zeichenkette, Datum und Uhrzeit, Währungsbetrag usw.). Viel wichtiger sind Metadaten, die dazu beitragen, die Eigenschaften digitaler Objekte zu kategorisieren und zu charakterisieren sowie weiterführende Informationen zur Verfügung zu stellen und somit etwas über deren Bedeutung sagen. Für Messwerte, die in Forschungsdaten vorkommen, sind das beispielsweise: verwendetes Messgerät bzw. verwendeter Sensor, Genauigkeit oder Ort der Messung. Schon die Bezeichnung (der Name) eines Datenobjekts sagt etwas über die Bedeutung, meist genügt das aber noch nicht. Oft sind diese Bezeichnungen zu kurz und zu allgemein (eben nur „Messung“ oder so etwas). Was damit gemeint ist, erschließt sich oft auch erst aus dem Kontext der Verwendung. So entwickeln Forschungsprojekte ihre gebräuchlichen Bezeichnungen, die aber außerhalb des Projekts missverstanden werden können.
Ontologien sind dafür gedacht, solche spezifischen Bezeichnungen in Bezug zu setzen zu einer allgemeinen Begriffssystematik.
Man unterscheidet verschiedene Kategorien von Metadaten:
- Technische Metadaten beinhalten beispielsweise Angaben zu Datenvolumen und Datenformat und sind für eine nachhaltige Datenspeicherung von zentraler Bedeutung.
- Deskriptive Metadaten (auch beschreibende oder Content-‐Metadaten genannt) geben Auskunft über die in digitalen Objekten enthaltenen Informationen und entscheiden damit über deren Auffindbarkeit, Referenzierung und Nachnutzbarkeit. Hierzu gehören auch Erläuterungen der zugrundeliegenden Messmethode, ein Abstract oder Schlagwörter. Strukturelle Metadaten beschreiben Beziehungen zwischen einzelnen Elementen eines Datensatzes oder die interne Struktur der Daten selbst.
- Administrative Metadaten beinhalten Informationen für die Qualitätssicherung der Daten (etwa Prüfsummen), Informationen zu Zugriffsrechten und Lizenzen oder Provenienz-‐Informationen.
N
Ein Nutzungsrecht beschreibt auf welche Art ein Objekt genutzt werden darf. Beispiele für „Nutzungen“ von digitalen Objekten sind das Kopieren, Speichern oder Veröffentlichen. Die Nutzung kann an Bedingungen geknüpft werden, wie z.B. eine monetäre Gebühr.
Ein Nutzungsrecht zwischen Rechteinhaber und Vertragspartner kann durch eine Lizenz geregelt werden.
O
Eine Ontologie ist eine Begriffssystematik, die versucht, möglichst alle Begriffe eines Fachgebiets miteinander in Beziehung zu setzen und damit auch zu definieren. Beziehungen sind dabei: „Oberbegriff – Unterbegriff“, „Ganzes – Bestandteil“ oder auch „meint das gleiche wie“ (Synonym). Die Begriffe werden dabei nicht einfach nur durch Worte benannt, sondern genauer und eindeutiger durch URIs.
„Open Access“ bedeutet, dass digitale wissenschaftliche Inhalte kostenlos und barrierefrei verfügbar sind. Das Urheberrecht bleibt dabei bestehen.
Mehr Details unter forschungsdaten.info
„Open Source“ bedeutet dass der Quellcode öffentlich zugänglich ist und unter einer Lizenz steht, die Veränderung und Vervielfältigung erlaubt.
Zudem gibt es keine Limitationen was die Nutzung des Quellcodes als Teil eigener Produkte/Dienstleistungen angeht.
Mehr Details sind bei der Open Source Initiative verfügbar.
openBis ist eine Open Source Kombination von elektronischem Laborbuch (ELN), Datenmanagementplattform und Labor-Bestandsmanagementsystem, die seit 2007 aktiv entwickelt wird. Je nach Bedarf können alle oder nur ausgewählte Funktionalitäten genutzt werden. Der modulare Aufbau von openBIS ermöglicht eine flexible Anpassung an die Anforderungen unterschiedlichster Arbeitsgruppen. Zudem besitzt es eine Schnittstelle, die eine Benutzung von Jupyter Notebooks zur Datenanalyse in openBIS ermöglicht. Des Weiteren existiert eine Schnittstelle für den Datenexport in das Repositorium Zenodo.
P
Ein Persistenter Identifikator (PI) erlaubt eine dauerhafte Adressierung von digitalen Ressourcen. Ein PI stellt einen eindeutigen Namen für digitale Objekte jeglicher Art (Aufsätze, Daten, Software, etc. im Rahnen des Forschungsdatenmanagements vor allem Datensätze) dar. Dieser Name, meist eine längere Abfolge von Ziffern und / oder alphanumerischen Zeichen, wird mit der Web-URL der digitalen Ressource verknüpft. Wenn sich die URL zu der Ressource ändert, muss nur die Adresse geändert werden, auf die der PI verweist, während der PI selbst gleich bleiben kann. Dies garantiert beispielsweise, dass eine einmal über einen PI zitierte Ressource auch dann noch gefunden werden kann, wenn sich ihr physikalischer Speicherort verändert hat. Beispiele für persistente Identifikatoren sind Digital Object Identifier (DOI), Uniform Resource Name (URN) und Handle.
An einem konkreten Beispiel erklärt das verlinkte Video anschaulich, was Persistente Identifikatoren sind.
Personenbezogene Daten sind alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen. Zu beachten ist, dass dies auch gilt, wenn eine Identifikation indirekt möglich ist. Seit dem 25.05.2018 gelten das BDSG-neu (DE) und die DSGVO (EU). Beide Gesetzestexte behandeln Datenschutz und Privatsphäre.
Weitere Informationen zu diesem Thema sind u.a. auf der FAU Seite des Datenschutzes und hier zu finden.
R
Ein Repositorium ist ein verwalteter Speicherort für digitale Objekte. Die Sichtbarkeit der digitalen Objekte kann eingeschränkt werden.
Beispiele sind:
- Das institutionelle Repositorium der Universitätsbibliothek, welches Forscher*innen der FAU die kostenfreie Veröffentlichung von Dissertationen und Forschungsarbeiten ermöglicht.
- Das Versionsverwaltungssystem GitLab, welches vom RRZE zur Verfügung gestellt wird.
- CERN bietet mit Zenodo ein weltweit sichtbares Repositorium für Datensätze < 50GB an.
Details unter forschungsdaten.info
U
Literarische, künstlerische und wissenschaftliche Werke sind in Deutschland vom Urheberrechtsgesetz geschützt.
Das bedeutet konkret, dass ohne eine entsprechende Lizenz eine Nachnutzung nur restriktiv möglich ist.
Wir empfehlen eine möglichst offene Lizensierung, denn dadurch steigt die Nachnutzung der Daten, was ein Reputationsgewinn für die Forschenden ist. Bei Fragen berät das CDI Sie gerne.
Mehr Details in diesem Artikel.
W
Warme Daten werden nur noch selten geändert. Zudem ist es in Ordnung, wenn ein Zugriff (wie z.B. ein ein Kopiervorgang) Zeit in Anspruch nimmt („copy’n’tea“). Warme Daten sind üblicherweise bereits dazu geeignet, in der Arbeitsgruppe oder mit extern Forschenden geteilt zu werden.
WissKI ist eine virtuelle Forschungsumgebung, die wissenschaftliches, ortsunabhängiges und kollaboratives Arbeiten mit linked data ermöglicht. Auf Basis einer Ontologie werden die Forschungsdaten semantisch angereichert und in Form von Triples in einem zusammenhängenden Datennetzwerk gespeichert (Graphdatenbank).