Generische Datenkompetenzen

Auf dieser Seite finden Sie eine Übersicht über alle generischen Datenkompetenzen, die wir in verschiedenen Formaten an unterschiedliche Zielgruppen vermitteln können. Melden Sie sich gern, wenn Sie eine Schulung zu den unten aufgeführten Themen benötigen oder gemeinsam mit uns entwickeln wollen.

Generische Datenkompetenzen

Einführung Forschungsdatenmanagement für Studierende

Nicht nur in Forschungsprojekten, sondern auch für das Erstellen von Bachelor- und Masterarbeiten bilden Forschungsdaten eine wichtige Arbeitsgrundlage. Egal, ob diese neu erhoben oder nachgenutzt werden – In unserem Workshop lernen Sie Techniken, die helfen, ein Datenchaos zu vermeiden, Pflichten der guten wissenschaftlichen Praxis und weiterer Regelungen einzuhalten und mit Daten effektiv umzugehen.  

Neben den  aufgeführten Themen beantworten wir im Workshop folgende weitere Fragen:

Was ist eine gute Backup-Strategie?
Wie werden Daten aus eigenen Forschungsprojekten für Außenstehende interpretier- und nachvollziehbar?
Wo können Forschungsdaten veröffentlicht und langfristig verfügbar gemacht werden?
Wie können fremde Forschungsdaten gefunden, genutzt und zitiert werden?

 

  • Trainer:innen: Pia Voigt (Data Science Centre ScaDS.AI Leipzig), Franziska Korb-King und Claudia Engelhardt (TU Dresden/Center for Interdisciplinary Digital Sciences), Arne Rümmler und Kay-Michael Würzner (SLUB Dresden)  
  • Format: Workshop (Präsenz, online)
  • Zielgruppen: Studierende (B.A., M.A.)
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: bis 20 Personen

Einführung Softwaremanagement

  • Zielgruppen: Studierende (M.A.), Forschende
  • Format: Workshop (Präsenz, Online)
  • Sprachen: Deutsch, Englisch

Einführung Open Science

  • Zielgruppen: Studierende (M.A.), Forschende
  • Format: Workshop (Präsenz, Online)
  • Sprachen: Deutsch, Englisch

Von der eigenen Idee zu funktionierendem Code: eine praxisorientierte Einführung in die Programmierung mit Python

Im Workshop werden grundlegende Konzepte der Programmierung anhand der Programmiersprache Python vermittelt, wie beispielsweise Variablen, Datentypen, Kontrollstrukturen, Funktionen und einfache Datenstrukturen.

In praktischen Übungen wenden die Teilnehmenden ihr neu erworbenes Wissen direkt an, indem sie eigene kleine Programme schreiben und lernen, selbständig typische Aufgaben zu bewältigen. Dabei werden auch grundlegende Prinzipien wie Clean Code, Debugging und die Verwendung von Entwicklungswerkzeugen behandelt. Der Workshop richtet sich an Teilnehmende ohne oder mit geringen Vorkenntnissen in der Programmierung. Ziel ist es, eine solide Grundlage zu schaffen, auf der weitere Programmier- und Datenanalysefähigkeiten aufgebaut werden können.

  • Trainer:innen: Antje Kazimiers (TU Dresden/Center for Interdisciplinary Digital Sciences), Christoph Göpfert und Lucas Schröder (TU Chemnitz, Fakultät für Informatik, Professur Verteilte und selbstorganisierende Rechnersysteme)
  • Format: Workshop (Präsenz)
  • Zielgruppen: Studierende (B.A., M.A.), Promovierende
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: bis 20 Personen

Einführung in (semi-)strukturierte Daten

Dieser Workshop vermittelt Grundlagen zu (semi-)strukturierten Daten und ihren zentralen Technologien, wie XML, JSON und RDF.

Diese spielen eine Schlüsselrolle in modernen Web-, Software- und Dateninfrastrukturen, insbesondere zur Integration und zur Strukturierung von Daten. Anhand praxisnaher Beispiele werden relevante Werkzeuge und Techniken zur Erstellung, Validierung und Verarbeitung (semi-)strukturierter Daten eingeführt und in konkreten Anwendungsszenarien vertieft. Ein weiterer Bestandteil des Workshops ist eine Einführung in die Grundlagen des Semantic Web. Dabei wird erläutert, wie Daten mithilfe des Resource Description Frameworks (RDF) semantisch angereichert, eindeutig beschrieben und auch über Systemgrenzen hinweg miteinander verknüpft werden können. Ziel des Workshops ist es, ein fundiertes Grundverständnis für (semi-)strukturierte und semantische Datenformate zu entwickeln.

  • Trainer: Christoph Göpfert und Lucas Schröder (TU Chemnitz, Fakultät für Informatik, Professur Verteilte und selbstorganisierende Rechnersysteme)
  • Format: Workshop (Präsenz, Online)
  • Zielgruppen: Studierende (B.A., M.A.), Forschende
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: 20 Personen
  • Sonstiges: Grundkenntnisse des Programmierens werden vorausgesetzt

Working with ORCID and other persistent identifiers

We will explain what persistent identifiers are used for and show you how to set up and easily manage your ORCID iD—in particular, how to automate updates to your ORCID profile.

Persistent identifiers are tools used to uniquely identify individuals, organisations and other entities within the scientific communication system. We will provide a brief introduction to the most commonly used persistent identifiers, after which you will create an ORCID iD and set up automatic updates to your publication list by connecting to other services.

  • Trainer: Hana Smidova (SLUB Dresden, former coordinator of the Czech ORCID Consortium)
  • Format: Workshop (Hands On)
  • Target Groups: Students (B.A., M.A.), PhD Students, Researchers
  • Language: English
  • Number of Participants: 25

Textverarbeitung mit LaTeX

Der Workshop bietet einen Einstieg in das wissenschaftliche Arbeiten mit LaTeX – für Einsteiger:innen ohne Vorkenntnisse. Teilnehmende lernen, professionelle Texte mit Literatur, Abbildungen, Formeln und Querverweisen direkt für eigene Schreibprojekte professionell umzusetzen.

Der Workshop bietet eine Einführung in das wissenschaftliche Arbeiten mit LaTeX – von den Grundlagen bis zu typischen Anwendungsfällen in Studium und Promotion. Zu Beginn werden zentrale Konzepte vermittelt: Aufbau eines LaTeX-Dokuments, Trennung von Inhalt und Layout, Arbeiten mit Vorlagen sowie der grundlegende Workflow.

Die Teilnehmenden lernen, typische Elemente wissenschaftlicher Texte umzusetzen: Strukturierung längerer Dokumente, Literaturverwaltung mit BibTeX, Abbildungen und Tabellen, Formeln sowie Querverweise und Verzeichnisse. Thematisiert werden außerdem die modulare Dokumentstruktur und kollaboratives Schreiben.

Der Workshop richtet sich an Einsteiger:innen ohne Vorkenntnisse. Ziel ist es, LaTeX als robustes Werkzeug für konsistente und professionell gesetzte Texte kennenzulernen und direkt für eigene Schreibprojekte zu nutzen

  • Trainer: Mike Berger (Data Science Center ScaDS.AI Leipzig)
  • Format: Workshop (Präsenz/online)
  • Zielgruppen: Studierende (B.A., M.A.), Forschende
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: 20

Daten aufbereiten mit Open Refine

Die Datenaufbereitung ist ein wichtiger Schritt zur Vorbereitung der Datenanalyse. OpenRefine ist ein Open Source-Tool zur Datenbereinigung und -transformation.

Es bietet Funktionen wie Facettierung und Clustering, die helfen, Fehler im Datensatz zu finden und zu korrigieren. OpenRefine ist eine Java-Anwendung, die lokal im Browser läuft; die Daten verlassen den eigenen Rechner also nicht. Der halb- bis ganztägige Hands-on-Workshop orientiert sich an den OpenRefine-Curricula von The Carpentries. Er behandelt folgende Themenbereiche:

  • ein Projekt in OpenRefine anlegen, exportieren und importieren
  • Facetten und Textfilter nutzen, um ausgewählte Bereiche des Datensatzes zu betrachten und zu bearbeiten
  • Variationen mit Hilfe von Clustering, Bulk Editing und Transformationen reduzieren
  • Aktionen rückgängig machen und wiederherstellen sowie den Verlauf exportieren und auf ähnliche Projekte anwenden

Auf Wunsch kann der Workshop disziplinspezifisch mit einem Fokus auf Ökologie, Sozialwissenschaften oder Bibliotheks- und Informationswissenschaften gestaltet werden. Es werden dann für die praktischen Übungen Datensätze aus den entsprechenden Wissenschaftsgebieten genutzt.

  • Trainerin: Claudia Engelhardt (TU Dresden/Center for Interdisciplinary Digital Sciences)
  • Format: Workshop (Präsenz, Online)
  • Zielgruppen: Studierende, Forschende, weitere Interessierte
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: 16

Datenorganisation in Tabellen - Tidy Data

Der halb- bis ganztägige Hands-On-Workshop zeigt anhand praktischer Beispiele, wie tabellarische Daten  mit Hilfe der Tidy Data-Prinzipien für die Datenanalyse effektiv aufbereitet werden können.

Daten in Tabellenformaten sind weit verbreitet. Oft werden diese so eingegeben und formatiert, dass sie für das menschliche Auge einfach zu lesen sind. Um mit tabellarischen Daten jedoch einfache und korrekte Analysen und Visualisierungen durchzuführen oder sie mittels Programmiersprachen wie R oder Python weiterzuverarbeiten, sollte der Datensatz vorher bereinigt und nach den Prinzipien von Tidy Data organisiert werden. Konkret werden folgende Themen behandelt und geübt:

  • Best Practices für die Dateneingabe und -formatierung, Vermeidung gängiger Formatierungsfehler
  • Grundlagen der Qualitätskontrolle und Datenmanipulation in Tabellen
  • Datenexport aus Tabellen und Umgang mit Datumsangaben in Spreadsheets

Der Workshop orientiert sich an den Curricula von The Carpentries.

Auf Wunsch kann der Workshop disziplinspezifisch mit einem Fokus auf Ökologie, Sozialwissenschaften oder Bibliotheks- und Informationswissenschaften gestaltet werden. Es werden dann für die praktischen Übungen Datensätze aus den entsprechenden Wissenschaftsgebieten genutzt.

  • Trainerin: Claudia Engelhardt (TU Dresden/Center for Interdisciplinary Digital Sciences)
  • Format: Workshop (Präsenz, Online)
  • Zielgruppen: Studierende, Forschende, weitere Interessierte
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: 16

Einführung in das wissenschaftliche Rechnen

Mit unserem Workshop zum wissenschaftlichen Rechnen versetzen wir Sie dazu in die Lage, komplexe wissenschaftliche Berechnungen selbstständig durchzuführen.

Wir bieten ein breites thematisches Spektrum zur Anwendung von mathematischen Modellierungen, Simulations- und Optimierungsberechnungen, intelligenten Datenanalysen und KI-Verfahren. Das Angebot richtet sich an Einsteiger und bietet einen Überblick über die verschiedenen Werkzeuge und ihre Anwendungsszenarien. Auf Anfrage können Kurse zu speziellen Themen angeboten werden.

  • Trainer: Team Scientific Computing (Universitätsrechenzentrum Leipzig)
  • Format: Workshop (Präsenz, Online)
  • Zielgruppen: Forschende, Studierende
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: offen
  • Sonstiges: für die Teilnahme wird ein Uni-Leipzig-Login benötigt

Erstellung nachhaltiger interaktiver Präsentationen kleiner Datensätze auf einer statischen Webseite

In diesem Workshop vermitteln wir Ihnen anhand praktischer Beispiele, wie Sie interaktive Visualisierungen für kleine Datensätze (< 1 GB) mit JavaScript erstellen können.

Software Repositorien wie GitHub oder GitLab erlauben das kostenlose Hosten statischer Webseiten. Wir können diese Funktionalität nutzen, um mit Hilfe von Java Script-Visualisierungsbibliotheken, wie P5.js oder d3.js, interaktive Visualisierungen kleiner Datensätze zu realisieren.

  • Trainer: Arne Rümmler (SLUB Dresden, Referat Forschungsnahe Services; Universitätsrechenzentrum Leipzig)
  • Format: Workshop (Präsenz)
  • Zielgruppen: Studierende, Forschende
  • Sprache: Deutsch
  • Anzahl Teilnehmende: 10
  • Sonstiges: Java Script-Kenntnisse oder sonstige Programmiererfahrung sind von Vorteil 

Datenpublikation auf Zenodo

Im Workshop lernen Sie praxisnahe Techniken zum Umgang mit und zur Datenpublikation auf Zenodo. 

Zur Erfüllung der guten wissenschaftlichen Praxis sollen Forschungsdaten und alle dazugehörigen Informationen, die die Reproduzierbarkeit der Forschung ermöglichen, für mindestens 10 Jahre sicher archiviert werden. Darüber hinaus verlangen mittlerweile viele Forschungsförderer verpflichtende Angaben zu einer Weiterverwendung der Daten nach Abschluss eines Projektes (Nachnutzung und Datenpublikation). Das interdisziplinäre Repositorium Zenodo bietet hierfür einen angemessenen Ort. Zenodo wird von CERN bereitgestellt und ist ein offenes Repositorium zur Publikation und Archivierung von Datensätzen, Dokumenten und anderen Forschungsmaterialien. Zenodo ermöglicht die dauerhafte Speicherung, Auffindbarkeit, Zugänglichmachung und Wiederverwendbarkeit von Forschungsdaten und erfüllt somit die Anforderungen der guten wissenschaftlichen Praxis und der Förderinstitutionen. In diesem Workshop wird die Registrierung, Funktion und Nutzung von Zenodo anhand eines Beispieldatensatzes vermittelt. Daneben wird auf die Vergabe aussagekräftiger Metadaten eingegangen, welche ausschlaggebend für die Auffindbarkeit von Forschungsdaten ist. In praktischen Übungen wird die Relevanz guter Dokumentation und Metadaten verdeutlicht.

  • Trainer: Arne Rümmler (SLUB Dresden, Referat Forschungsnahe Services; Universitätsrechenzentrum Leipzig)
  • Format: Workshop (Präsenz, Online)
  • Zielgruppen: Studierende, Forschende
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: offen

Daten nachnutzen in der Praxis

Der Hands-On-Workshop thematisiert Aspekte, die bei der Nachnutzung von Daten im wissenschaftlichen Kontext beachtet werden sollten.

Durch praktische Übungen werden folgende Themen vertieft und diskutiert:

  • Verschiedene Bezugswege von Daten
  • Plausibilitäts- und Qualitätsprüfung
  • Lizenzrechtliche Aspekte

Die Veranstaltung basiert auf Materialien, die von der DINI/nestor-UAG Schulungen/Fortbildungen erstellt wurden .

  • Trainerin: Claudia Engelhardt (TU Dresden/Center for Interdisciplinary Digital Sciences)
  • Format: Workshop (Präsenz, Online)
  • Zielgruppen: Studierende, Forschende, Lehrende, Trainer:innen im FDM- und Data Literacy-Bereich
  • Sprachen: Deutsch, Englisch
  • Anzahl Teilnehmende: 20

Einführung in den Datenschutz

  • Zielgruppen: Studierende (B.A., M.A.), Forschende, Verwaltungsangestellte
  • Format: Workshop (Präsenz, Online)
  • Sprachen: Deutsch, Englisch

Einführung in das datenbezogene Urheberrecht

  • Zielgruppen: Studierende (M.A.), Forschende
  • Format: Workshop (Präsenz, Online)
  • Sprachen: Deutsch, Englisch