Generische Datenkompetenzen

Auf dieser Seite finden Sie eine Übersicht über alle generischen Datenkompetenzen, die wir in verschiedenen Formaten an unterschiedliche Zielgruppen vermitteln können. Melden Sie sich gern, wenn Sie eine Schulung zu den unten aufgeführten Themen benötigen oder gemeinsam mit uns entwickeln wollen.

Generische Datenkompetenzen

Einführung Forschungsdatenmanagement für Studierende

  • Zielgruppen: Studierende (B.A., M.A.)
  • Format: Workshop (Präsenz, Online)
  • Sprachen: Deutsch, Englisch

Einführung Softwaremanagement

  • Zielgruppen: Studierende (M.A.), Forschende
  • Format: Workshop (Präsenz, Online)
  • Sprachen: Deutsch, Englisch

Einführung Open Science

  • Zielgruppen: Studierende (M.A.), Forschende
  • Format: Workshop (Präsenz, Online)
  • Sprachen: Deutsch, Englisch

Von der eigenen Idee zu funktionierendem Code: eine praxisorientierte Einführung in die Programmierung mit Python

Im Workshop werden grundlegende Konzepte der Programmierung anhand der Programmiersprache Python vermittelt, wie beispielsweise Variablen, Datentypen, Kontrollstrukturen, Funktionen und einfache Datenstrukturen.

In praktischen Übungen wenden die Teilnehmenden ihr neu erworbenes Wissen direkt an, indem sie eigene kleine Programme schreiben und lernen, selbständig typische Aufgaben zu bewältigen. Dabei werden auch grundlegende Prinzipien wie Clean Code, Debugging und die Verwendung von Entwicklungswerkzeugen behandelt. Der Workshop richtet sich an Teilnehmende ohne oder mit geringen Vorkenntnissen in der Programmierung. Ziel ist es, eine solide Grundlage zu schaffen, auf der weitere Programmier- und Datenanalysefähigkeiten aufgebaut werden können.

  • Trainer:innen: Antje Kazimiers (TU Dresden/Center for Interdisciplinary Digital Sciences), Christoph Göpfert und Lucas Schröder (TU Chemnitz, Fakultät für Informatik, Professur Verteilte und selbstorganisierende Rechnersysteme)
  • Format: Workshop (Präsenz)
  • Zielgruppen: Studierende (B.A., M.A.), Promovierende
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: bis 20 Personen

Einführung in (semi-)strukturierte Daten

Dieser Workshop vermittelt Grundlagen zu (semi-)strukturierten Daten und ihren zentralen Technologien, wie XML, JSON und RDF.

Diese spielen eine Schlüsselrolle in modernen Web-, Software- und Dateninfrastrukturen, insbesondere zur Integration und zur Strukturierung von Daten. Anhand praxisnaher Beispiele werden relevante Werkzeuge und Techniken zur Erstellung, Validierung und Verarbeitung (semi-)strukturierter Daten eingeführt und in konkreten Anwendungsszenarien vertieft. Ein weiterer Bestandteil des Workshops ist eine Einführung in die Grundlagen des Semantic Web. Dabei wird erläutert, wie Daten mithilfe des Resource Description Frameworks (RDF) semantisch angereichert, eindeutig beschrieben und auch über Systemgrenzen hinweg miteinander verknüpft werden können. Ziel des Workshops ist es, ein fundiertes Grundverständnis für (semi-)strukturierte und semantische Datenformate zu entwickeln.

  • Trainer: Christoph Göpfert und Lucas Schröder (TU Chemnitz, Fakultät für Informatik, Professur Verteilte und selbstorganisierende Rechnersysteme)
  • Format: Workshop (Präsenz, Online)
  • Zielgruppen: Studierende (B.A., M.A.), Forschende
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: 20 Personen
  • Sonstiges: Grundkenntnisse des Programmierens werden vorausgesetzt

Working with ORCID and other persistent identifiers

We will explain what persistent identifiers are used for and show you how to set up and easily manage your ORCID iD—in particular, how to automate updates to your ORCID profile.

Persistent identifiers are tools used to uniquely identify individuals, organisations and other entities within the scientific communication system. We will provide a brief introduction to the most commonly used persistent identifiers, after which you will create an ORCID iD and set up automatic updates to your publication list by connecting to other services.

  • Trainer: Hana Smidova (SLUB Dresden, former coordinator of the Czech ORCID Consortium)
  • Format: Workshop (Hands On)
  • Target Groups: Students (B.A., M.A.), PhD Students, Researchers
  • Language: English
  • Number of Participants: 25

Textverarbeitung mit LaTeX

  • Zielgruppen: Studierende (B.A., M.A.), Forschende
  • Format: Workshop (Präsenz)
  • Sprachen: Deutsch, Englisch

Daten aufbereiten mit Open Refine

Die Datenaufbereitung ist ein wichtiger Schritt zur Vorbereitung der Datenanalyse. OpenRefine ist ein Open Source-Tool zur Datenbereinigung und -transformation.

Es bietet Funktionen wie Facettierung und Clustering, die helfen, Fehler im Datensatz zu finden und zu korrigieren. OpenRefine ist eine Java-Anwendung, die lokal auf dem Browser läuft; die Daten verlassen den eigenen Rechner also nicht. Der halb- bis ganztägige Workshop orientiert sich an den OpenRefine-Curricula von The Carpentries. Er behandelt folgende Themenbereiche: ein Projekt in OpenRefine anlegen, exportieren und importieren; Facetten und Textfilter nutzen, um ausgewählte Bereiche des Datensatzes zu betrachten und zu bearbeiten; Variationen mit Hilfe von Clustering, Bulk Editing und Transformationen zu reduzieren.

  • Trainerin: Claudia Engelhardt (TU Dresden/Center for Interdisciplinary Digital Sciences)
  • Format: Workshop (Präsenz, Online)
  • Zielgruppen: Studierende, Forschende, weitere Interessierte
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: 16

Datenorganisation in Tabellen - Tidy Data

Der halb- bis ganztägige Hands-On-Workshop zeigt anhand praktischer Beispiele, wie tabellarische Daten  mit Hilfe der Tidy Data-Prinzipien für die Datenanalyse effektiv aufbereitet werden können.

Daten in Tabellenformaten sind weit verbreitet. Oft werden diese so eingegeben und formatiert, dass sie für das menschliche Auge einfach zu lesen sind. Um mit tabellarischen Daten jedoch einfache und korrekte Analysen und Visualisierungen durchzuführen oder sie mittels Programmiersprachen wie R oder Python weiterzuverarbeiten, sollte der Datensatz vorher bereinigt und nach den Prinzipien von Tidy Data organisiert werden. Konkret werden folgende Themen behandelt und geübt: Best Practices für die Dateneingabe und -formatierung, Vermeidung gängiger Formatierungsfehler, Grundlagen der Qualitätskontrolle und Datenmanipulation in Tabellen, Datenexport aus Tabellen und Umgang mit Datumsangaben in Spreadsheets. Der Workshop orientiert sich an den Curricula von The Carpentries.

  • Trainerin: Claudia Engelhardt (TU Dresden/Center for Interdisciplinary Digital Sciences)
  • Format: Workshop (Präsenz, Online)
  • Zielgruppen: Studierende, Forschende, weitere Interessierte
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: 16

Von den Daten zur Karte: Erstellung einer „Minard-Map“ mit Open Source Software

Minard Karten sind grafisch ansprechende Datenvisualiserungen, welche Sankey-Diagramme mit kartografischen Visualisierungstechniken verbinden. In diesem Workshop werden wir anhand praktischer Beispiele erproben, Minard Maps mit Hilfe von Open Source Software selbständig zu erstellen.

Die wohl berümteste Karte des französischen Ingenieurs Charles Joseph Minard visualisiert Napoleons Russlandfeldzug von 1812. Sie zeigt gleichzeitig die Größe der Armee, ihre Bewegungsrichtung, geografische Lage, Temperaturen während des Rückzugs und den massiven Truppenverlust. Die Breite der Linien steht für die Anzahl der Soldaten und macht den katastrophalen Verlauf des Feldzugs auf einen Blick sichtbar. Die Karte gilt als Meisterwerk der Informationsvisualisierung. Im Kurs etablieren wir mit Hilfe verschiedener F(OS)S (Free (Open Source) Software) eine teilautomatisierte Prozesskette zur Erstellung solcher Karten.

  • Trainer: Arne Rümmler (SLUB Dresden, Referat Forschungsnahe Services; Universitätsrechenzentrum Leipzig)
  • Format: Workshop (Präsenz)
  • Zielgruppen: Studierende, Forschende, weitere Interessierte
  • Sprache: Deutsch
  • Anzahl Teilnehmende: 10
  • Sonstiges: Python- und QGIS-Kenntnisse sind von Vorteil

Erstellung nachhaltiger interaktiver Präsentationen kleiner Datensätze auf einer statischen Webseite

In diesem Workshop vermitteln wir Ihnen anhand praktischer Beispiele, wie Sie interaktive Visualisierungen für kleine Datensätze (< 1 GB) mit JavaScript erstellen können.

Software Repositorien wie GitHub oder GitLab erlauben das kostenlose Hosten statischer Webseiten. Wir können diese Funktionalität nutzen, um mit Hilfe von Java Script-Visualisierungsbibliotheken, wie P5.js oder d3.js, interaktive Visualisierungen kleiner Datensätze zu realisieren.

  • Trainer: Arne Rümmler (SLUB Dresden, Referat Forschungsnahe Services; Universitätsrechenzentrum Leipzig)
  • Format: Workshop (Präsenz)
  • Zielgruppen: Studierende, Forschende
  • Sprache: Deutsch
  • Anzahl Teilnehmende: 10
  • Sonstiges: Java Script-Kenntnisse oder sonstige Programmiererfahrung sind von Vorteil 

Datenpublikation auf Zenodo

Im Workshop lernen Sie praxisnahe Techniken zum Umgang mit und zur Datenpublikation auf Zenodo. 

Zur Erfüllung der guten wissenschaftlichen Praxis sollen Forschungsdaten und alle dazugehörigen Informationen, die die Reproduzierbarkeit der Forschung ermöglichen, für mindestens 10 Jahre sicher archiviert werden. Darüber hinaus verlangen mittlerweile viele Forschungsförderer verpflichtende Angaben zu einer Weiterverwendung der Daten nach Abschluss eines Projektes (Nachnutzung und Datenpublikation). Das interdisziplinäre Repositorium Zenodo bietet hierfür einen angemessenen Ort. Zenodo wird von CERN bereitgestellt und ist ein offenes Repositorium zur Publikation und Archivierung von Datensätzen, Dokumenten und anderen Forschungsmaterialien. Zenodo ermöglicht die dauerhafte Speicherung, Auffindbarkeit, Zugänglichmachung und Wiederverwendbarkeit von Forschungsdaten und erfüllt somit die Anforderungen der guten wissenschaftlichen Praxis und der Förderinstitutionen. In diesem Workshop wird die Registrierung, Funktion und Nutzung von Zenodo anhand eines Beispieldatensatzes vermittelt. Daneben wird auf die Vergabe aussagekräftiger Metadaten eingegangen, welche ausschlaggebend für die Auffindbarkeit von Forschungsdaten ist. In praktischen Übungen wird die Relevanz guter Dokumentation und Metadaten verdeutlicht.

  • Trainer: Arne Rümmler (SLUB Dresden, Referat Forschungsnahe Services; Universitätsrechenzentrum Leipzig)
  • Format: Workshop (Präsenz, Online)
  • Zielgruppen: Studierende, Forschende
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: offen

Daten nachnutzen in der Praxis

Der Hands-On-Workshop thematisiert Aspekte, die bei der Nachnutzung von Daten im wissenschaftlichen Kontext beachtet werden sollten.

Durch praktische Übungen werden folgende Themen vertieft und diskutiert:

  • Verschiedene Bezugswege von Daten
  • Plausibilitäts- und Qualitätsprüfung
  • Lizenzrechtliche Aspekte

Die Veranstaltung basiert auf Materialien, die von der DINI/nestor-UAG Schulungen/Fortbildungen erstellt wurden .

  • Trainerin: Claudia Engelhardt (TU Dresden/Center for Interdisciplinary Digital Sciences)
  • Format: Workshop (Präsenz, Online)
  • Zielgruppen: Studierende, Forschende, Lehrende, Trainer:innen im FDM- und Data Literacy-Bereich
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: 20

Einführung in den Datenschutz

  • Zielgruppen: Studierende (B.A., M.A.), Forschende, Verwaltungsangestellte
  • Format: Workshop (Präsenz, Online)
  • Sprachen: Deutsch, Englisch

Einführung in das datenbezogene Urheberrecht

  • Zielgruppen: Studierende (M.A.), Forschende
  • Format: Workshop (Präsenz, Online)
  • Sprachen: Deutsch, Englisch

Rechtssichere Anwendung von Künstlicher Intelligenz

  • Zielgruppen: Studierende (B.A., M.A.), Forschende, Verwaltungsangestellte
  • Format: Workshop (Präsenz, Online)
  • Sprachen: Deutsch, Englisch