Geisteswissenschaften
Charakteristisch für das Forschungsdatenmanagement in den Geisteswissenschaften ist die Heterogenität der materiellen und immateriellen Forschungsgegenstände und damit der im Forschungsprozess entstehenden Daten und deren Formate. Darunter fallen beispielsweise Kunst- und Kulturobjekte, Personen, Geodaten, digitalisierte Quellen und annotierte Texte. Vor dem Hintergrund dieser Vielfältigkeit an Objekten und sie beschreibende Metainformationen bedarf es ausdifferenzierter FDM-Prozesse, die der Heterogenität der Fachdisziplinen gerecht werden, jedoch gleichzeitig Wege aufzeigen, um geisteswissenschaftliche Forschungsdaten in strukturierter Form zu aggregieren und in übergeordnete Suchinfrastrukturen zu integrieren.
Sie vermissen ein Angebot aus Ihrem Fachbereich oder Ihrer Institution? Nehmen Sie gerne mit uns Kontakt auf und bringen Sie Ihre Erfahrung und Ihr Wissen im Umgang mit Forschungsdaten ein. Auch Verweise auf externe Überblicksseiten nehmen wir auf, um Doppeldarstellungen zu vermeiden.
NFDI-Konsortien
Mit dem Aufbau der Nationalen Forschungsdateninfrastruktur (NFDI) soll der digitale Wandel in den Wissenschaften nachhaltig gefördert werden. Das Ziel ist die Erschließung, Speicherung und langfristige Verfügbarkeit von Forschungsdaten unter den Herausforderungen, die FAIRes Forschungsdatenmanagement an die wissenschaftliche Forschung stellt.
Insgesamt gestalten bis zu 27 Konsortien aus unterschiedlichen wissenschaftlichen Disziplinen den Aufbau der NFDI mit. Mit den Konsortien NDFI4Culture, NFDI4Objects, NFDI4Memory und Text+ sind vier geisteswissenschaftliche Konsortien an dem nationalen Vorhaben beteiligt.
NFDI4Culture
Konsortium für Forschungsdaten zu materiellem und immateriellem kulturellem Erbe
NFDI4Memory
Konsortium für historisch arbeitende Geisteswissenschaften
NFDI4Objects
Konsortium für die materiellen Hinterlassenschaften der Menschheitsgeschichte
Text+
Konsortium für text- und sprachbasierte Forschungsdaten
Initiativen und Netzwerke
Informationen zu Projekten, Initiativen & Netzwerken, sowie Fachinformationsdiensten (FID) mit FDM-Angebot im Bereich der Geisteswissenschaften.
Die Ontologie CIDOC CRM (Conceptual Reference Model) ging aus einer Arbeitsgruppe des CIDOC (International Council for Documentation) hervor und wird seit 2006 als offizieller ISO-Standard anerkannt (im Jahr 2014 letztmals erneuert: 21127:2014). Sie ist ein theoretisches und praktisches Instrumentarium zur formalisierten Modellierung von Begriffen und Informationen aus dem Bereich des Kulturerbes. Die Ontologie wird durch die CIDOC CRM Special Interest Group fortwährend weiterentwickelt. Diese tritt hierzu 3-4 Mal im Jahr zusammen; ein reger Austausch findet zudem auf der hierfür vorgesehenen Mailingliste statt. Neben der Kern-Ontologie (CRMbase) gibt es zahlreiche Ansätze für spezifische Erweiterungen, beispielsweise zur Abbildung von sozialen Beziehungen zwischen (historischen) Akteuren und Akteurinnen.
Durch ihre Zusammenarbeit mit dem International Council of Museums (ICOM) hat das CIDOC CRM einen semantischen Rahmen als Standard für die Forschung im Bereich des Kulturerbes geschaffen. Damit werden Daten für Forschende leichter abrufbar, dokumentierbar und nachnutzbar gemacht.
Im Rahmen des Projekts CLARIAH-DE wurden in den Jahren 2019-2021 die beiden etablierten Forschungsinfrastrukturverbünde CLARIN-D und DARIAH-DE zusammengeführt. Das Projekt wurde vom Bundesministerium für Bildung und Forschung (BMBF) gefördert und leistet auch über das Projektende hinaus durch den Verein Geistes- und kulturwissenschaftliche Forschungsinfrastrukturen e.V. (GKFI) einen Beitrag zur Weiterentwicklung der nationalen Forschungsinfrastrukturen.
CLARIAH-DE bietet Forscherinnen und Forschern aus den Geistes-, Kultur- und Sozialwissenschaften ein breites Angebot an technischen Infrastrukturen, Repositorien und digitalen Werkzeugen. Auf diese Weise soll den Forscherinnen und Forschern die wissenschaftliche Arbeit mit komplexen digitalen Werkzeugen und speziellen Datenbeständen wesentlich erleichtert werden.
Dienste und Werkzeuge werden für folgende Bereiche angeboten:
- Suchen und Finden
- Annotieren und Edieren
- Analysieren und Visualisieren
- Publizieren und Archivieren.
Zudem leistete CLARIAH-DE Community- und Nachwuchsförderung mit
- Tutorials und Lehrmaterial
- Workshops
- Kursen
- Summer Schools
- Stipendien.
Seit 2021 findet die weitere Arbeit im GKFI statt. Die von den Institutionen angebotenen Dienste sind im Angebotskatalog des Vereins verzeichnet.
DARIAH-DE (Digital Research Infrastructure for the Arts and Humanities) ist eine Initiative zum Aufbau und Betrieb einer digitalen Forschungsinfrastruktur in den Geistes- und Kulturwissenschaften. In Zuge dessen unterstützt DARIAH-DE die mit digitalen Verfahren und Ressourcen arbeitende geistes- und kulturwissenschaftliche Forschung durch
- die Entwicklung von Materialien für Lehre und Weiterbildung
- die Bereitstellung von Infrastrukturkomponenten zur Archivierung, Suche und Verfügbarmachung von geistes- und kulturwissenschaftlichen Forschungsdaten
- die Entwicklung von digitalen Tools und Methoden zur Weiterverarbeitung geistes- und kulturwissenschaftlicher Forschungsdaten
- die Vernetzung mit nationalen und internationalen Infrastrukturprovidern und –initiativen
- die Unterstützung des wissenschaftlichen Nachwuchses in den Digital Humanities
- weitere Informationen zu den Aufgaben von DARIAH-DE finden sich auf der offiziellen Webseite
DARIAH-DE ist der nationale Ableger des European Research Infrastructure Consortium (ERIC) DARIAH-EU, das insgesamt 20 nationale Initiativen zu einer europaweiten Infrastruktur bündelt.
Die an DARIAH-DE beteiligten Partner wurden von März 2011 bis Februar 2019 in drei Förderphasen vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Nach den Förderphasen haben 16 nationale sowie weitere MoU-Partner im Zuge einer Betriebskooperationsvereinbarung die DARIAH-DE zugrundeliegenden Dienste in einen nachhaltigen Betrieb überführt. Im Projekt CLARIAH-DE (ebenfalls gefördert durch das BMBF von März 2019 bis September 2021) wurde DARIAH-DE mit der zweiten geistes- und kulturwissenschaftlichen Forschungsinfrastruktur in Deutschland, CLARIN-D (Common Language Resources and Technology Infrastructure Deutschland), zusammengeführt. Doch auch seit Ende dieser Förderung bleibt das Netzwerk von DARIAH-DE durch seine in den Dauerbetrieb überführten Infrastrukturkomponenten sowie zahlreiche Veranstaltungen in den Geistes- und Kulturwissenschaften aktiv. Zudem wird DARIAH-DE im Verein Geistes- und kulturwissenschaftliche Forschungsinfrastrukturen e.V. (GKFI) fortgeführt und Teile der Angebote von DARIAH-DE sind in den geistes- und kulturwissenschaftlichen NFDI-Konsortien NFDI4Culture, NFDI4Memory, NFDI4Objects und Text+ verankert.
Angebote/Services
Beteiligte Institutionen
- Akademie der Wissenschaften und der Literatur zu Mainz
- Berlin-Brandenburgische Akademie der Wissenschaften
- DAASI International GmbH
- Deutsches Archäologisches Institut
- Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen
- Herzog August Bibliothek Wolfenbüttel
- Herder-Institut für historische Ostmitteleuropaforschung
- Leibniz-Institut für Europäische Geschichte Mainz
- Karlsruher Institut für Technologie
- Max Weber Stiftung
- Otto-Friedrich-Universität Bamberg – Lehrstuhl für Medieninformatik
- Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte
- Georg-August-Universität Göttingen – Niedersächsische Staats- und Universitätsbibliothek Göttingen
- Technische Universität Darmstadt – Institut für Sprach- und Literaturwissenschaft und Institut für Philosophie
- Universität Trier
- Julius-Maximilians-Universität Würzburg – Lehrstuhl für Computerphilologie und Neuere Deutsche Literaturgeschichte
Veröffentlichungen
Weitere Informationen
- Offizielle Webseite
- Bibliographie Doing Digital Humanities bei Zotero
- Zenodo-Community von DARIAH-EU
Kontakt
Seit seiner Gründung im Jahr 2017 verfolgt das internationale Konsortium "Data for History" das Ziel, eine gemeinsame Form der Datenmodellierung und -kuratierung zu entwickeln, um die Interoperabilität von Forschungsdaten aus den historischen Wissenschaften zu fördern. An der Erarbeitung eines gemeinsamen Modells, das eine Erweiterung derim Bereich des Kulturerbes verbreiteten Ontologie CIDOC CRM darstellen soll, beteiligen sich Historikerinnen und Historiker sowie Informatikerinnen und Informatiker aus verschiedenen europäischen Staaten sowie den USA.
Um die Erweiterung bestehender Ontologien wie z.B. CIDOC CRM um bisher nicht abbildbare Bereiche der historischen Wissenschaften zu erleichtern, wurde mit OntoME (Ontology Management Environment) ein Werkzeug mit grafischer Benutzeroberfläche geschaffen. Mit Hilfe von OntoME können neue Sub-Ontologien erstellt oder von anderen Forschenden, beispielsweise im Rahmen eine Projekts entwickelte Erweiterungen nachgenutzt werden. Ergänzungen und Änderungen werden vor der Freigabe durch ein Expertenteam validiert.
Im Rahmen des Verbandes „Digital Humanities im deutschsprachigen Raum“ (DHd e.V.) widmet sich die Arbeitsgruppe Datenzentren verschiedenen, selbstgewählten Themenbereichen, die für das Forschungsdatenmanagement in den Geisteswissenschaften von zentraler Bedeutung sind. Die AG vereint aktuell 31 geisteswissenschaftliche FDM-Akteure und -Akteurinnen aus Deutschland, Österreich und der Schweiz. Von den beteiligten Institutionen verfügen 14 über eine eigene FDM-Infrastruktur, die sich (auch) an die Geisteswissenschaften richtet. Die AG führt die laufenden Aktivitäten an den verschiedenen Standorten zusammen und versucht einen Grundkonsens über Begriffe, Selbstverständnisse, Problemlagen und Aufgaben herbeizuführen.
Neben eigenen Veröffentlichungen, bspw. eines Grundsatzpapieres zur Sicherung der langfristigen Verfügbarkeit von Forschungsdaten, beteiligt sich die AG regelmäßig mit verschiedenen Formaten (Barcamp, Paneldiskussionen, Workshops) an den Jahrestagungen des DHd e.V. (z. B.: DHd 2022) Zudem veranstaltet sie eigene Formate zu aktuellen FDM-Schwerpunktthemen. Im Jahr 2021 wurde die Veranstaltungsreihe FORGE neu aufgelegt und durch das CCeH, DCH und IDH (Uni Köln) organisiert.
2020 wurde seitens der AG Datenzentren ein Dienstekatalog veröffentlicht, der geisteswissenschaftlichen Forscherinnen und Forschern einen Überblick zu den Kompetenzen der einzelnen Datenzentren bietet und Spezialdienstleistungen und Serviceangebote an zentraler Stelle bündelt.
Der Verein Geistes- und kulturwissenschaftliche Forschungsinfrastrukturen e.V. (GKFI) ist Teil der Nachhaltigkeitslösung von CLARIAH-DE und dient der Weiterentwicklung und Vernetzung geistes- und kulturwissenschaftlicher Forschungsinfrastrukturen in Deutschland und Europa. Dabei setzt er eine lange Historie fort: Die beiden langjährig geförderten nationalen geistes- und kulturwissenschaftlichen Infrastrukturprojekte CLARIN-D (als nationaler Knoten des europäischen CLARIN ERIC) und DARIAH-DE (als nationaler Knoten des europäischen DARIAH ERIC) haben sich 2019 in CLARIAH-DE zusammengeschlossen, um deren Angebote zu vereinen und von Synergieeffekten zu profitieren. Nach Förderende dient nun der GKFI e.V. als Nachhaltigkeitslösung für die Angebote und Services von CLARIAH-DE. Dabei wurde von einer Vereinsneugründung abgesehen und der TextGrid e.V. – Verein zum nachhaltigen Betrieb einer virtuellen Forschungsumgebung in den Geisteswissenschaften transformiert. Der GKFI e.V. repräsentiert CLARIN-D, DARIAH-DE und TextGrid sowie alle weiteren geistes- und kulturwissenschaftlichen Forschungsinfrastrukturen, die sich anschließen möchten, wie beispielsweise OPERAS. Als zentraler Ansprechpartner für deren Communitys hat sich der Verein folgende Ziele gesetzt:
- Interessenvertretung für die Geistes- und Kulturwissenschaften auf nationaler sowie internationaler Ebene in NFDI, NHR, EOSC, RDA etc. sowie via ERICs
- Koordinierung von nationalen Knoten zu europäischen geistes- und kulturwissenschaftlichen Forschungsinfrastrukturen (derzeit CLARIN-D, DARIAH-DE und OPERAS)
- Zusammenarbeit mit Wissenschaftspolitik, Wissenschaftsorganisationen und Fachgesellschaften sowie mit weiteren Interessensgruppen, insbesondere den geistes- und kulturwissenschaftlichen NFDI-Konsortien NFDI4Culture, NFDI4Memory, NFDI4Objects und Text+
- Thematische Fokussierung auf digitale Forschungsinfrastrukturen, Forschungsdaten, Virtuelle Forschungsumgebungen sowie digitale Forschungsprozesse und Adressierung von Nutzendenperspektiven in Forschung und Lehre
- Beratung, Bereitstellung, Weiterentwicklung und Vermittlung von Wissen, Werkzeugen und Diensten zur Förderung von digitalen Wissenschaftskulturen auf nationaler sowie internationaler Ebene
Durch die Bündelung bestehender Angebote und Aktivitäten wird der GKFI e.V. zum zentralen Einstiegspunkt und zu einem wichtigen Player. Er möchte aktuelle Entwicklungen und digitale kulturelle Praktiken in Forschung, Lehre und Transfer begleiten und so maßgeblich an der Gestaltung der digitalen Transformation in den Geistes- und Kulturwissenschaften mitwirken.
Angebote & Services
Der GKFI e.V. ist offen für institutionelle und individuelle Mitgliedschaften aller Akteure im Bereich geistes- und kulturwissenschaftlicher Forschungsinfrastrukturen.
Die ordentlichen Mitglieder des GKFI stellen Angebote und Dienste für den Verein bereit. Diese werden sukzessive und einheitlich in den SSH Open Marketplace eingepflegt, um sie öffentlich sichtbar gemeinsam darzustellen und zu bewerben (vgl. Handreichung für das Einpflegen von Angeboten des GKFI e.V. in den SSH Open Marketplace). Der Koordinierungsrat prüft jährlich deren Aktualität und Funktionalität.
Beteiligte Institutionen und Personen
Veröffentlichungen
- GKFI-Poster beim DARIAH Annual Event 2023
- Vereinssatzung
Weitere Informationen
Kontakt
Geistes- und kulturwissenschaftliche Forschungsinfrastrukturen e.V.
Leibniz-Institut für Deutsche Sprache
R 5, 6-13
68161 Mannheim
Mailkontakt: kontakt@forschungsinfrastrukturen.de
OPERAS ist die europäische Infrastruktur zur Stärkung offener wissenschaftlicher Kommunikation in den Geistes- und Gesellschaftswissenschaften. Das Ziel der Forschungsinfrastruktur ist es, europäische Ressourcen zu koordinieren, um den Bedarfen europäischer Forschender in diesem Bereich effizient gerecht zu werden. Unter dem Dach von OPERAS versammeln sich mehr als 50 Mitglieder aus mehr als 15 Ländern. Die Aktivitäten werden insbesondere durch die zehn Mitglieder der Executive Assembly vorangetrieben und von Huma-Num und OpenEdition in Frankreich koordiniert.
OPERAS versteht sich als verteilte Infrastruktur, die nach dem rechtlichen Rahmen einer AISBL in Belgien registriert ist. 2021 wurde OPERAS auf die ESFRI Roadmap aufgenommen, was die Infrastruktur als bedeutenden Akteur in der Wissenschaftsgemeinschaft auszeichnet. Ein entscheidender Beitrag zum Erreichen der Ziele von OPERAS ist die Entwicklung von Services, die die offene Wissenschaftskommunikation erleichtern. Die OPERAS Services werden im Rahmen verschiedener Projekte entwickelt, hierzu zählen aktuell TRIPLE und COESO.
Die OPERAS Special Interest Groups beschäftigen sich mit aktuellen Entwicklungen unter verschiedenen Schwerpunkten im Bereich Open Access und Open Science. Die Ergebnisse werden im OPERAS Living Book veröffentlicht. Zur Verknüpfung der europäischen Aktivitäten mit den nationalen Forschungscommunities haben die Mitglieder von OPERAS National Nodes entwickelt. In Deutschland besteht zu diesem Zweck OPERAS-GER seit Oktober 2020.
Das Netzwerk für Repositorienmanager*innen (RepManNet) ist ein Zusammenschluss von Personen aus Institutionen in ganz Österreich, die ein Repositorium betreuen und sich mit anderen über Erfahrungen, Herausforderungen und Spezialthemen austauschen möchten.
TextGrid ist seit 2015 ein Angebot der Trägerinstitutionen von DARIAH-DE und wird heute im Konsortium Text+ innerhalb der Nationalen Forschungsdateninfrastruktur (NFDI) weiterentwickelt. Mit Open-Source-Werkzeugen, einem zertifizierten Langzeitarchiv (TextGrid Repository) für Forschungsdaten und vielen Online-Hilfen, sowie Text- und Video-Tutorials, schafft TextGrid eine virtuelle Forschungsumgebung für die Geisteswissenschaften. TextGrid ist für die Arbeit mit TEI-codierten Ressourcen optimiert und bildet den gesamten Forschungsprozess bis zur Publikation ab.
Repositorien und Datenjournale
Datenrepositorien bieten eine unkomplizierte Möglichkeit, Forschungsdaten zu veröffentlichen. Nur wenige Repositorien bieten ein Peer-Review an, dafür ist die Publikation dort in der Regel nur mit geringen oder gar keinen Kosten verbunden. Ein fachspezifisches Repositorium bietet eine bessere Auffindbarkeit der Daten als ein generisches.
Datenjournale bieten analog zu klassischen wissenschaftlichen Zeitschriften die Möglichkeit Forschungsdaten mit Peer-Review Prozess zu publizieren. Die hier verlinkten Journale sind nicht nur klassische Datenjournale, sondern allgemein Journale im Bereich Digitale Geisteswissenschaften zu Forschungswerkzeugen, -methoden und Datensätzen. Alle Zeitschriften bieten ihre Artikel Open Access an.
Repositorien
Datenrepositorien für die Geisteswissenschaften auf re3data.org: Möglichkeit nach gewünschten Sub-Disziplinen zu filtern. Diverse Icons geben Auskunft darüber, welche Charakteristiken die jeweiligen Plattformen aufweisen. Beispielsweise kann gezielt nach Repositorien gefiltert werden, die Open Access oder Restricted Access anbieten.
Kuratierte Repositorienliste von NFDI4Culture: Die Auswahl bietet einen Überblick über fachspezifische und generische Repositorien, in denen Daten zu materiellen und immateriellen Kulturgütern in verschiedenen Medienformaten nachhaltig publiziert und archiviert werden können.
Datenjournale
Construction KiT (CKIT): Ein Review-Journal für Forschungswerkzeuge und Datendienste in den Geisteswissenschaften. Ein Angebot von arthistoricum.net in Kooperation mit NFDI4Culture.
Journal of Cultural Analytics: Journal für die rechnergestützte Kulturforschung.
Journal of Digital History: Journal für die Digitale Geschichtswissenschaft. Die mehrschichtigen Artikel basieren auf Code Notebooks und Datensätzen. Kooperation vom Luxembourg Centre for Contemporary and Digital History (C²DH) und De Gruyter.
Journal of Open Humanities Data (JOHD): Journal für geisteswissenschaftliche Daten und Methoden mit hohem Nachnutzungspotenzial.
Korpus im Text: Innovatives Publizieren im Umfeld der Korpuslinguistik durch hypertextuelle Verlinkung zwischen Datenbasis und sprachlicher Darstellung. Ein Angebot der LMU München.
Research Data Journal for the Humanities and Social Sciences: Journal für Daten aus den Geistes- und Sozialwissenschaften. 2016 von Brill und Dans gegründet, seit 2021 in Kooperation mit CESSDA.
Reviews in Digital Humanities: Datenjournal und Projektregister, zur wissenschaftliche Bewertung und Verbreitung digitaler geisteswissenschaftlicher Arbeiten und ihrer Ergebnisse. Schwerpunkte sind u. a. in den Bereichen Ethnische Studien, afrikanische Diaspora, indigene Völker, Latinx und postkoloniale Forschung.
ride: Review-Journal für digitale Editionen und Ressourcen. Angebot des Instituts für Dokumentologie und Editorik.
Zeitschrift für digitale Geisteswissenschaften (ZfdG): Journal für Themen und Diskussionen aus dem Bereich Digitale Geisteswissenschaften. Angebot vom Forschungsverbund Marbach Weimar Wolfenbüttel in Kooperation mit dem DHd-Verband (Digital Humanities im deutschsprachigen Raum).
Tools und Services
Die hier vorgestellten Tools und Services unterstützen dabei, Forschungsdaten FAIRer, insbesondere interoperabler, zu machen. Dies kann beispielsweise mittels maschinenlesbarer Metadaten oder durch die Verwendung kontrollierter Vokabulare, Klassifikationen, Thesauri oder Ontologien erfolgen.
Der Social Sciences and Humanities Open Marketplace (SSH Open Marketplace) bietet einen umfassenden Überblick über Tools und Services, die Geisteswissenschaftler*innen in den verschiedenen Phasen des Forschungsdatenmanagements unterstützen. Besonders hilfreich ist die Möglichkeit, die Suchresultate nach Aktivitäten einzugrenzen, beispielsweise Organisieren oder Daten bereinigen. Darüber hinaus sind viele Einträge zu Tools und Services mit Trainingsmaterial, Publikationen, Datensätzen und Workflows verknüpft.
Die folgende Übersicht bietet einen Einblick in die Vielfalt der FDM-Tools und -Dienste für Geisteswissenschaftler*innen.
Die beiden Programmiersprachen R und Python können, insbesondere in Kombination mit R Markdown oder JupyterLab (Jupyter Notebooks), die Datenaufbereitung und -analyse, deren Dokumentation sowie die Reproduzierbarkeit der Ergebnisse unterstützen. Folgend eine Sammlung vor allem von Tutorials, die den Einstieg in R und Python für geisteswissenschaftlich Forschende erleichtern können:
Programmiersprache Python
Python für Historiker*innen
ALTHAGE, Melanie, Martin DRÖGE, Torsten HILTMANN und Philipp SCHNEIDER, 2022. Python für Historiker:innen. Ein anwendungsorientierter und interaktiver Einstieg. Jupyter Book. v1.0. DOI 10.5281/ZENODO.6868043.
Die Einführung vermittelt Grundlagen zur Skriptsprache Python, konkrete Use-Cases für Historiker*innen werden sukzessive ergänzt.
Python für Geisteswissenschaftler*innen
ANDRESEN, Melanie, 2021. Python für Geisteswissenschaftler*innen.
Materialien zum Kurs Python für Geisteswissenschaftler/innen von Melanie Andresen an der Universität Hamburg 2018-2020. Auch zum Selbststudium geeignet. Themen sind Variablen und Datentypen, Reguläre Ausdrücke, Bedingungen, Schleifen, Bibliotheken wie NumPy, spaCy, pandas etc.
Python für Linguist*innen
HAMMOND, Michael, 2020. Python for Linguists. Cambridge: Cambridge University Press.
Speziell für Linguist*innen mit wenig oder gar keiner Programmiererfahrung als Einführung in Python. Die Beispiele beziehen sich auf linguistische Daten zu den Themen Suche, Textmanipulation und Text-Encoding.
Humanities Data Analysis: Case Studies with Python
KARSDORP, Folgert, Mike KESTEMONT und RIDDELL ALLEN, 2021. Humanities Data Analysis: Case Studies with Python. Princeton: Princeton University Press.
Es handelt sich um einen praktischen Leitfaden für die datenintensive Forschung in den Geisteswissenschaften. Ursprünglich 2021 als gedrucktes Buch (Princeton University Press) veröffentlicht, ist es auch als interaktives Jupyter-Buch im Open Access verfügbar. Das Buch behandelt die Datenverarbeitung mit Python: Techniken zum Sammeln, Bereinigen, Darstellen und Transformieren von tabellarischen und textuellen Daten. Themen sind: Netzwerkanalyse, Genretheorie, Autorenzuordnung, Mapping, Stilometrie, Themenmodellierung etc. Das Buch zeichnet sich durch Fallstudien auf der Grundlage verfügbarer Datensätze und Übungen am Ende jedes Kapitels aus.
Python Tutorials for Digital Humanities
MATTINGLY, William. Python Tutorials for Digital Humanities. YouTube.
YouTube-Kanal mit zahlreichen englischsprachigen Videos zu spaCy, pandas, NER, Topic Modeling, Textklassifikation, Machine Learning, Netzwerkanalyse (PyVis), JSON-Dateien mit Python etc.
Introduction to BookNLP
MATTINGLY, William, 2022. Introduction to BookNLP.
Jupyter Book über die Pythonbibliothek BookNLP. BookNLP ist auf längere englischsprachige Dokumente/Bücher ausgerichtet, soll aber in den nächsten Jahren auch für andere Sprachen entwickelt werden.
Programming Historian. Tutorials zu Python
PROGRAMMING HISTORIAN. Tutorials zu Python.
Englischsprachige Tutorials zu den Themen Clustering mit scikit-learn, Jupyter Notebooks, Datenvisualisierung mit bokeh und pandas, N-grams, HTML-Verarbeitung mit Python, Bildklassifikation etc.
Englischsprachige YouTube-Videos zu den Themen: Pandas, Matplotlib und Python im Allgemeinen
SCHAFER, Corey. YouTube-Tutorials.
Englischsprachige YouTube-Videos zu den Themen: Pandas, Matplotlib und Python im Allgemeinen. Aber auch zu Django, Flask, JavaScript, SQL und Git.
Tutorial zum NLTK-Package
SCHUMACHER, Mareike und Michael VAUTH, 2022. Preprocessing mit NLTK. forText.
Tutorial zum NLTK-Package, das hier hauptsächlich für die Textbereinigung verwendet wird.
Hacking the Humanities Tutorials
VIERTHALER, Paul, 2018. Hacking the Humanities Tutorials.
YouTube-Videos, die eine Einführung in Python für die Geisteswissenschaften bieten. Themen sind: Python Basics, Pandas, NLTK, Matplotlib, Stylometrie, Topic Modeling, Webscraping ... Der Kanal bietet auch andere Playlists zu Netzwerkanalyse, Topic Modeling, objektorientierte Programmierung usw. an.
Introduction to Cultural Analytics & Python
WALSH, Melanie, 2021. melaniewalsh/Intro-Cultural-Analytics, Version 1. Introduction to Cultural Analytics & Python.
Melanie Walsh stellt Methoden wie Web Scraping, APIs, Topic Modeling, Named Entity Recognition, Netzwerkanalyse und Mapping vor. Als Beispieldaten werden Songtexte, Kurzgeschichten, Zeitungsartikel, Tweets, Reddit-Posts und Filmdrehbücher verwendet.
Programmiersprache R
Sammlung englisch- und französischsprachiger Ressourcen zu R in den Geistes- und Sozialwissenschaften
FÉDÉRATION DE RECHERCHE COLLÈGE INTERNATIONAL DES SCIENCES TERRITORIALES. Rzine. Rzine.
Sammlung englisch- und französischsprachiger Ressourcen zu R in den Geistes- und Sozialwissenschaften.
Computational Historical Thinking. With Applications in R
MULLEN, Lincoln A., 2018. Computational Historical Thinking. With Applications in R.
Ein Work in Progress-Buch, das zeigt, wie geschichtswissenschaftliche Fragestellungen mit R bearbeitet werden können. Themen sind explorative Datenanalyse, Textanalyse, Netzwerkanalyse und Mapping.
Programming Historian. Tutorials zu R.
PROGRAMMING HISTORIAN. Tutorials zu R.
Englischsprachige Tutorials zu den Themen Netzwerkanalyse, Korrespondenzanalyse, tabellarische Daten, Stilometrie etc.
Text Mining with R: A Tidy Approach
SILGE, Julia und David ROBINSON, 2017. Text Mining with R: A Tidy Approach.
Website zum Buch Text Mining with R! A Tidy Approach, das sich auf der Basis des R-Pakets tidytext dem Textmining nach den Prinzipien von „Tidy Data“ widmet. Das Paket ermöglicht, die Analyse von Texte in Tabellenform, so dass gängige Analyse- und Visualisierungspakete auch auf Texte angewendet werden können. Das Buch enthält viele Codebeispiele, wenige Formeln und erfordert keine Vorkenntnisse im Textmining. Kenntnisse über dpylr, ggplot2 und den %>% Operator in R sind jedoch hilfreich.
R for Data Science
WICKHAM, Hadley und Garrett GROLEMUND, 2017. R for Data Science.
Online-Version des Buches R for Data Science. Es handelt sich nicht um eine Ressource speziell für die Geisteswissenschaften, wird aber als grundlegende Einführung in R empfohlen.
Visualisierung sprachlicher Daten mit R
WOLFER, Sascha und Sandra HANSEN-MORATH, 2018. Visualisierung sprachlicher Daten mit R. In: Noah BUBENHOFER und Marc KUPIETZ (Hrsg.), Visualisierung sprachlicher Daten: Visual Linguistics – Praxis – Tools [online]. Heidelberg: Heidelberg University Publishing.
Buchkapitel zur Visualisierung linguistischer Daten mit R. Anwendungsorientierte Einführung in R, mit praktischen Übungen und Anwendungsbeispielen, die verschiedene Pakete (graphics, vcd, effects, ggplot2, rCharts) vorstellt.
R Markdown: The Definitive Guide
XIE, Yihui, J. J. ALLAIRE und Garrett GROLEMUND, 2022. R Markdown: The Definitive Guide.
Buch über die Erstellung von R Markdown Notebooks zur Unterstützung der Reproduzierbarkeit von Forschungsergebnissen. R-Code, dynamisch generierte Ergebnisse sowie Text, Bilder und Formeln können in einem einzigen Dokument kombiniert werden. Damit sind ausführbare Publikationen möglich. Verschiedene statische und dynamische Ausgabeformate (PDF, Word, HTML, Beamer, ...) können erzeugt werden.
JupyterLab ist eine quelloffene, kostenlose Webanwendung, die Jupyter Notebooks, Text-Editoren und ein Terminal verbindet. Jupyter Notebooks können die Entwicklung von Skripten, die Verarbeitung von Daten und die Zusammenarbeit im Sinne von Open Science unterstützen. Sie unterstützen zahlreiche Skript- und Programmiersprachen, darunter Python und R. Durch die Arbeit mit sogenannten Zellen können sich Codeschnipsel und Text abwechseln, d. h. in einem Dokument können Hypothesen und Annahmen formuliert, anhand von Daten und Code überprüft sowie beobachtet und interpretiert werden. Aus einem Jupyter Notebook können so ein reproduzierbares Forschungstagebuch und in der Folge ein publizierbarer Artikel entstehen. Das gegebenenfalls auf GitHub abgelegte Jupyter Notebook kann über eine Verknüpfung mit Zenodo einen DOI erhalten. Auf diese Weise ist es möglich, Artikel mit Daten und Notebooks zu verknüpfen, um die Vorgehensweise und das Forschungsergebnis transparent und reproduzierbar zu machen. Jupyter Notebooks können aus dem Browser heraus in verschiedene Formate konvertiert werden, z. B. HTML, PDF, LaTeX und Präsentationsfolien. Mit Hilfe des Tools binder ist es möglich, Notebooks direkt aus dem GitHub-Repository heraus interaktiv im Browser zur Verfügung zu stellen.
OpenRefine ist ein vielseitig einsetzbares Werkzeug zur Aufbereitung von (ungeordneten) Daten, die in Tabellenform vorliegen. Die Open-Source-Software läuft auf einem lokalen Rechner und wird über eine Oberfläche im Webbrowser bedient. Daten können analysiert, sortiert, bereinigt, vereinheitlicht und mit externen Datenquellen angereichert werden (beispielsweise über verschiedene Webschnittstellen wie Wikidata, GND, …).
Nachfolgend einige Hinweise auf weiterführende Informationen und Tutorials, die den möglichen Einsatz in verschiedenen Disziplinen (Geschichte, Sozialwissenschaften, Archivarbeit) aufzeigen:
- Auf der Website von OpenRefine werden einige Einführungsvideos und eine Dokumentation zur Verfügung gestellt.
- histHub bietet eine umfangreiche Blogserie zu OpenRefine.
- Das FDMLab@LABW bietet zwei Selbstlern-Workshops zu OpenRefine für den Archivalltag, die sich aber auch allgemein als Einführung eignen.
- Alexander Goebbels (2022). Open Refine als Tool für HistorikerInnen - Mise en Place in der Tabellen-Küche.
- Data Carpentry-Tutorial für sozialwissenschaftliche Daten, aber auch als allgemeine Einführung geeignet.
- Programming Historian-Tutorial: Cleaning Data with OpenRefine
- Programming Historian-Tutorial: Fetching and Parsing Data from the Web with OpenRefine
Digital Humanities Virtual Laboratory (DHVLab)
Das an der LMU entwickelte Digital Humanities Virtual Laboratory (DHVLab) ist eine virtuelle, modulare und Cloud-basierte Infrastruktur für Lehre und Forschung. Das DHVlab eignet sich in besonderer Weise für Lehrveranstaltungen und Projekte mit anspruchsvollen digitalen Inhalten wie Korpora, (Bild-)Datenbanken, XML und bietet eine niedrigschwellige Lösung für Lehrende und Forschende, die eine zentrale Datenbank-, Repositoriums- und Entwicklungsumgebung benötigen. Mit dem DHVLab wird damit eine digitale Infrastruktur zur Verfügung gestellt, die zur Vermittlung grundlegender Datenkompetenzen (Data Literacy) eingesetzt werden kann.
DH2go
Die Plattform Dh2go ist eine serverbasierte Lehr- und Lernumgebung auf Basis von x2Go für den virtuellen Desktop. Die Plattform wurde für den Masterstudiengang „Digital Humanities“ an der Universität Stuttgart konzipiert, um Forschungssoftware, Trainingsdaten und Videos zentralisiert zur Verfügung zu stellen, wobei das gesamte System auch für die Nachnutzung bereitgestellt werden soll. DH2go eignet sich insbesondere zur Entwicklung in Python und R, zur Textverarbeitung (u. a. LaTeX, XML), zur Datenbankerstellung (MySQL, SQLite) und zur Visualisierung (Netzwerke mit Gephi, geografische Daten mit QGIS, diverse Darstellungen mit Python und R).
DHLabs und ähnliche Angebote fördern die Digital Literacy in den Geisteswissenschaften. Der Schwerpunkt liegt auf der praktischen Anwendung von Methoden, Techniken und Werkzeugen. Je nach Angebot werden Vorträge, Workshops, Vernetzungsmöglichkeiten und Helpdesks angeboten.
- Digital Skills HUB (ehemals DHLab) an der Universitätsbibliothek Erlangen-Nürnberg (Friedrich-Alexander-Universität Erlangen-Nürnberg)
- DH-LAB an der Universität Paderborn
- Digital Learning Lab an der Universitätsbibliothek Marburg
- Multilingual DH LAB im Ada Lovelace DH Center der Freien Universität Berlin
- Praxislabor Digital Humanities an der Universitätsbibliothek Johann Christian Senckenberg (Frankfurt am Main)
- Kompetenzwerkstatt Digital Humanities an der Universitätsbibliothek der Humboldt-Universität Berlin
hypotheses ist ein nicht-kommerzielles Blogportal, das sich an Forscherinnen und Forscher im Bereich der Geistes- und Sozialwissenschaften richtet.
Das Serviceangebot des Portals erleichtert es Forscherinnen und Forschern, eigene Wissenschaftsblogs zu eröffnen und ermöglicht durch die Bereitstellung der Plattform hypotheses eine verbesserte Sichtbarkeit und Archivierung der publizierten Inhalte.
Das deutschsprachige Portal wird von Open Edition in Zusammenarbeit mit der Max Weber Stiftung bereitgestellt.
Wir haben einige Empfehlungen von Dritten gesammelt. Diese werden sukzessive um die Empfehlungen der NFDI-Konsortien (insbesondere NFDI4Culture, NFDI4Memory, NFDI4Objects und Text+) ergänzt.
- CLARIAH-DE bietet eine Liste zu Werkzeugen und Diensten, die von CLARIAH-DE-Partnern und verbundenen Institutionen bereitgestellt werden.
- DARIAH-DE listet Empfehlungen zu Tools und Services in der DARIAH-DE-Infrastruktur auf.
- Die DARIAH-Initiative OpenMethods sammelt auf einem Metablog bereits publizierte Inhalte zu Methoden und Tools der Digitalen Geisteswissenschaften.
- Die Seite Digital Literary Studies - A Companion Guide bietet eine Übersicht zu Ressourcen, die insbesondere für die Digital Literary Studies interessant sind.
- forText bietet eine kommentierte Liste von Tools für die digitale Textanalyse.
- infoclio.ch listet nützliche Tools für die Geschichtswissenschaft auf.
- NFDI4Culture bietet eine Registry für Forschungswerkzeuge und Datendienste, die speziell für die Kulturwissenschaften geeignet sind.
- Der FID Romanistik listet Tools zu verschiedenen Methoden (Visualisierung, Stilometrie, Annotation, Topic Modeling etc.) auf.
- TAPoR 3 (Text Analysis Portal for Research) bietet eine ausführliche Übersicht zu Tools und Codeschnipsel nicht nur für Textdaten, sondern auch zu Diensten, die allgemein von digitalen Geisteswissenschaftler*innen genutzt werden.
- Wiki Textdaten Romanistik (FU Berlin) listet Tools für die Romanistik auf.
- ViFE - Virtueller Forschungsverbund Edirom listet Tools für die Musikwissenschaft auf.
- ZenMEM (Zentrum Musik-Edition-Medien) stellt einige Tools für die Musikwissenschaft vor.
Schulungsmaterialien
Auf diesen Seiten finden Sie Schulungsmaterialien zum Forschungsdatenmanagement in den Geisteswissenschaften.
Der Social Sciences & Humanities Open Market Place (SSH Open Marketplace) bietet eine Übersicht zu Trainingsmaterialien für verschiedene Phasen des Datenmanagements und zu unterschiedlichen Tools an.
Die HowTo Plattform des Austrian Centre for Digital Humanities and Culture Heritage bietet interaktive Lernmaterialien, praktische HowTo-Artikel und Best-Practice-Beispiele zu einem breiten Spektrum an Themen, Methoden und Infrastrukturen aus den Digital Humanities, aber auch zum FDM:
Im Rahmen des Projekts eHumanities – interdisziplinär wurden modulare Lerninhalte zum Forschungsdatenmanagement in den Geistes- und Sozialwissenschaften entwickelt. Diese Lernmodule werden als Open Educational Resources zur Verfügung gestellt:
- Forschungssoftware & Datenformate in den Geistes- & Sozialwissenschaften
- Datenmanagementpläne & RDMO
- Forschungsdaten suchen & nachnutzen
Die in den Lernmodulen integrierten Videotutorien sind auf dem YouTube-Kanal Forschungsdatenmanagement Bayern verfügbar. Informationen zum didaktischen Konzept der Lernmaterialien.
Top 10 FAIR Data & Software sind kurze Leitfäden zum Selbststudium, die Forschenden zeigen, wie sie ihre Forschung (Daten und Software) FAIR-konformer (auffindbar, zugänglich, interoperabel und wiederverwendbar) gestalten können. Im Bereich der Geisteswissenschaften gibt es den Leitfaden für die Disziplinen
DARIAH-DE bietet eigens entwickelte Schulungs- und Lehrmaterialien für die Geisteswissenschaften. Darunter befinden sich Werkzeuge, TextGrid-Dokumentationen, sowie Aggregatoren und vieles mehr.
Literatur
FDM in den Geisteswissenschaften
Handbuch “Research Data Management for Arts and Humanities : Integrating Voices of the Community”
Autor*innen: DARIAH Research Data Management Working Group
Erscheinungsjahr: 2023
Link zum Handbuch
Artikel “Forschungsdaten in den Geisteswissenschaften: Bereits selbstverständlich oder doch noch etwas exotisch?”
Autorin: Susanne Blumesberger
Erscheinungsjahr: 2021
Link zum Artikel
Artikel “Sustainable and FAIR Data Sharing in the Humanities: Recommendations of the ALLEA Working Group E-Humanities”
Autor*innen: Natalie Harrower, Maciej Maryl, Timea Biro, Beat Immenhauser
Erscheinungsjahr: 2020
Link zum Artikel
Artikel “Kooperatives Management geisteswissenschaftlicher Forschungsdaten”
Autor: Lars Müller
Erscheinungsjahr: 2019
Link zum Artikel
Artikel “Der Chimäre auf der Spur: Forschungsdaten in den Geisteswissenschaften”
Autor*innen: Fabian Cremer, Lisa Klaffki, Timo Steyer
Erscheinungsjahr: 2018
Link zum Artikel
Artikel “Open Data for Humanists, A Pragmatic Guide”
Autor*innen: Jennifer Edmond, Erzsébet Tóth-Czifra
Erscheinungsjahr: 2018
Link zum Artikel
Working Paper “Forschungsdatenmanagement in den Geisteswissenschaften. Eine Planungshilfe für die Erarbeitung eines digitalen Forschungskonzepts und die Erstellung eines Datenmanagementplans”
Autor*innen: Gisela Minn, Marina Lemaire
Erscheinungsjahr: 2017
Link zum Papier
Working Paper “Forschungsdaten in den digitalen Geisteswissenschaften. Versuch einer Konkretisierung”
Autor: Peter Andorfer
Erscheinungsjahr: 2015
Link zum Papier
Working Paper “Diskussion und Definition eines Research Data LifeCycle für die digitalen Geisteswissenschaften”
Autor*innen: Johanna Puhl, Mareike Höckendorff, Stefan Schmunk, Juliane Stiller, Klaus Thoden
Erscheinungsjahr: 2015
Link zum Papier
Artikel “Big? Smart? Clean? Messy? Data In The Humanities. Journal of the Digital Humanities”
Autor: Christof Schöch
Erscheinungsjahr: 2014
Link zum Artikel
Artikel “Jenseits der Daten. Überlegungen zu Datenzentren für die Geisteswissenschaften am Beispiel des Kölner ‘Data Center for the Humanities’”
Autor*innen: Patrick Sahle, Simone Kronenwett
Erscheinungsjahr: 2013
Link zum Artikel
Fachspezifische Literatur & DFG-Empfehlungen
Altertumswissenschaften
DFG-Empfehlung “Handreichung zum Umgang mit Forschungsdaten”
Autor*innen: DFG-Fachkollegium 101 “Alte Kulturen”
Erscheingsjahr: 2020
Link zur Empfehlung
Artikel “Forschungsrohdaten für die Altertumswissenschaften – eine kurze Bilanz der aktuellen Situation von Open Data in Deutschland”
Autor*innen: Felix Schäfer, Maurice Heinrich, Anne Sieverling, Martina Trognitz, Reinhard Förtsch, Ortwin Dally, Friederike Fless
Erscheinungsjahr: 2015
Link zum Artikel
Kunstgeschichte
Artikel “Embedded Librarianship und Forschungsdatenmanagement in den Geisteswissenschaften: Fallstudien aus der Kunstgeschichte”
Autorin: Susanna Blaser-Meier
Erscheinungsjahr: 2019
Link zum Artikel
Literaturwissenschaft
Blog-Post “FAIRe Daten in den Literaturwissenschaften? Das Beispiel „Mining and Modeling Text“ und der französische Roman des 18. Jahrhunderts”
Autor*innen: Julia Röttgermann, Christof Schöch
Erscheinungsjahr: 2020
Link zum Blog-Post
DFG-Empfehlung “Förderkriterien für wissenschaftliche Editionen in der Literaturwissenschaft”
Autor*innen: DFG-Fachkollegium “Literaturwissenschaft”
Erscheinungsjahr: 2015
Link zur Empfehlung
Romanistik
Working Paper “Forschungsdatenmanagement in der Romanistik”
Autor*innen: Maria Erben, Doris Grüter, Jan Rohden
Erscheinungsjahr: 2018
Link zum Papier
Sozial- und Kulturanthropologie
DFG-Empfehlung “Handreichung des Fachkollegiums 106 Sozial- und Kulturanthropologie, Außereuropäische Kulturen, Judaistik und Religionswissenschaft zum Umgang mit Forschungsdaten”
Autor*innen: DFG-Fachkollegium 106 Sozial- und Kulturanthropologie, Außereuropäische Kulturen, Judaistik und Religionswissenschaft
Erscheinungsjahr: 2019
Link zur Empfehlung
Sprachwissenschaften
DFG-Empfehlung “Empfehlungen zu datentechnischen Standards und Tools bei der Erhebung von Sprachkorpora”
Autor*innen: DFG-Fachkollegium 104 “Sprachwissenschaften”
Erscheinungsjahr: 2019
Link zur Empfehlung
Theologie/Religionswissenschaft
DFG-Empfehlung “Handreichung zu Editionsvorhaben”
Autor*innen: DFG-Fachkollegium “Theologie”
Erscheinungsjahr: 2022
Link zur Empfehlung
DFG-Empfehlung “Handreichung des Fachkollegiums 106 Sozial- und Kulturanthropologie, Außereuropäische Kulturen, Judaistik und Religionswissenschaft zum Umgang mit Forschungsdaten”
Autor*innen: DFG-Fachkollegium 106 Sozial- und Kulturanthropologie, Außereuropäische Kulturen, Judaistik und Religionswissenschaft
Erscheinungsjahr: 2019
Link zur Empfehlung