Erstellen einer Workbench-Instanz – So startest du
Übersicht
Diese Übersicht fällt bewusst kurz aus, denn eine Workbench-Instanz lässt sich ganz einfach starten – durch einen Klick auf den Workbench-Button im Hauptmenü.
Dieses Feature richtet sich an technisch versierte Nutzer wie Data Scientists, Programmierer oder technische Datenanalysten mit Erfahrung in der Programmiersprache Python. In der Workbench ist ein Jupyter Notebook eingebettet, das als Open-Source-Projekt einen weltweiten De-facto-Standard für Data Science darstellt.
Mit Noreja kannst du direkt auf der Graphdatenbank aufbauen und tiefgehende Analysen mit Python direkt auf dem Knowledge Graph durchführen. Skripte lassen sich speichern und erweitern, um hochgradig individuelle Analysen zu erstellen.
Zusätzlicher Hintergrund
Historische Wurzeln und technischer Kern
Jupyter entstand 2014 als Abspaltung von IPython mit einem sprachunabhängigen Design und unterstützt inzwischen Dutzende Programmiersprachen – von Python über Julia bis hin zu R. 2015 existierten rund 200.000 Notebooks auf GitHub; Anfang 2021 war diese Zahl auf fast zehn Millionen angestiegen – ein klarer Beleg für die rasante Verbreitung. Die Architektur trennt Benutzeroberfläche und Kernel strikt mithilfe einer offenen Messaging-Spezifikation, sodass dasselbe Notebook unverändert auf einem Laptop, in einer Cloud-VM oder einem Kubernetes-Cluster laufen kann. Diese Entkopplung macht das Format so portabel und langlebig.
Reproduzierbarkeit als wissenschaftlicher Treiber
Computational Notebooks bündeln Code, Ergebnisse und Erklärungen in einer einzigen Datei – eine direkte Antwort auf eine der zentralen Herausforderungen der modernen Wissenschaft: Nachvollziehbarkeit. Studien zeigen, dass Notebooks es Forschern erleichtern, Analysen transparent zu teilen und Methoden leichter wiederzuverwenden. Auch populärwissenschaftliche Medien haben dies erkannt – The Atlantic titelte 2018: „The Scientific Paper Is Obsolete“ und verwies direkt auf das Jupyter-Modell. Nature zählte Jupyter 2021 zu den zehn Software-Systemen, die die Wissenschaft verändert haben.
Community- und Ökosystem-Wachstum
Offene Governance, regelmäßige Community-Sprints und großzügige Förderungen (u. a. von Sloan, Moore, Helmsley) haben ein Ökosystem hervorgebracht, das weit über das Kernprojekt hinausreicht. Allein die Jupyter-Erweiterung für VS Code überschritt Mitte 2022 die Marke von 40 Millionen Installationen und gehört damit zu den meistgeladenen Erweiterungen im Marketplace. 2017 erhielt das Projekt den ACM Software System Award – eine Auszeichnung, die zuvor nur Software-Giganten wie UNIX und Java zuteil wurde.
Industrieeinsatz und Cloud-Integration
Alle großen Cloud-Anbieter setzen inzwischen auf Notebook-zentrierte Services – etwa Amazon SageMaker, Google Colab, Azure Notebooks und andere. Netflix berichtet, dass Notebooks unternehmensintern „das beliebteste Tool für die Arbeit mit Daten“ seien und täglich Zehntausende Jobs damit ausgeführt werden. Durch die enge Verzahnung mit produktiven Datenpipelines ist Jupyter längst nicht mehr nur ein Explorationswerkzeug, sondern entwickelt sich zunehmend zu einer produktionsreifen Benutzeroberfläche.
Warum lieben Data Scientists es?
| Motivation | Begründung |
|---|---|
| Explorative Geschwindigkeit | Interaktive Zellen ermöglichen es, Hypothesen in Sekunden – statt in Minuten oder Stunden – zu testen. |
| Narrative Kommunikation | Markdown, Visualisierungen und Widgets betten Kontext direkt neben den Code ein. |
| Sprachen- und Umgebungsfreiheit | Ein einziges Notebook kann Python, R und SQL kombinieren – durch simples Wechseln des Kernels. |
| Reiches Ökosystem | Bibliotheken wie pandas, Matplotlib und scikit-learn sind für die Arbeit im Notebook optimiert. |
| Reproduzierbarkeit von Haus aus | Der gesamte Analysepfad – von den Rohdaten bis zur finalen Grafik – bleibt versionierbar. |
Umfragen bestätigen das: Laut JetBrains’ Developer Ecosystem Survey 2023 nutzen mindestens 35 % der Datenprofis Jupyter Notebooks – über 40 % davon verbringen mehr als ein Fünftel ihrer Arbeitszeit damit. 2022 nannten rund 40 % Jupyter als bevorzugten Editor für Datenanalyse-Aufgaben, und knapp 70 % bevorzugten es für Machine-Learning-Modellierung. Der kometenhafte Aufstieg von Python verstärkt diesen Trend – das riesige Ökosystem und die einfache Erlernbarkeit der Sprache fließen direkt in Jupyter ein, dessen „nativer“ Kernel IPython ist.