Microsoft Fabric Iceberg: Was Iceberg in OneLake bedeutet – und wie du es nutzt

Microsoft Fabric
04.05.2026
Lesezeit: 3 Min.
Letzte Aktualisierung:
Kein KI-generierter Inhalt. Alle unsere Inhalte werden von unseren Pionieren recherchiert und geschrieben.

Zusammenfassung

Apache Iceberg in Microsoft Fabric ist vor allem eins: ein offenes Tabellenformat im Data Lake, das Daten verlässlich versioniert und für verschiedene Engines nutzbar macht.

  • Iceberg bringt ACID, Schema Evolution und Time Travel in den Azure-Lake-Kontext.
  • OneLake-Shortcuts reduzieren Kopieren und machen Daten für verschiedene Workflows zugänglich.
  • Für Nutzer entsteht Mehrwert, wenn Bronze/Silver/Gold klar getrennt und in Power BI einfach nutzbar sind.
  • Interoperabilität ist ein Hauptgrund: Fabric, Spark, Snowflake-Umfelder und mehr können über offene Formate zusammenarbeiten.

Wichtig: Der Nutzen steht und fällt mit Governance, Datenqualität und einem pragmatischen Setup.

Microsoft Fabric Iceberg macht OneLake zum offenen Table-Layer, damit Teams schneller auf saubere Daten für BI und Analytics zugreifen.

Definition

Microsoft Fabric Iceberg bezeichnet die Nutzung von Apache Iceberg als offenes Tabellenformat für Daten in OneLake innerhalb von Microsoft Fabric. Es ist kein eigenes Datenbankprodukt, sondern eine Standardisierungsschicht für Speicherung, Metadaten und Zugriff über verschiedene Analytics-Engines.


Einleitung

Wenn Daten heute aus ERP, CRM, Dateien und mehreren Teams kommen, scheitert Geschwindigkeit oft nicht an Power BI, sondern am Datenunterbau. Microsoft Fabric Iceberg ist spannend, weil es offene, versionierte Tabellen in den Lake bringt: weniger Excel-Flickwerk, weniger „welche Zahl stimmt?“, mehr nachvollziehbare Änderungen. Und: Teams können Daten über OneLake so bereitstellen, dass auch Nicht-IT-Stakeholder zuverlässig auf Gold-Daten zugreifen können.


Warum Apache Iceberg für die Data-Lake-Strategie wichtig ist

Apache Iceberg ist ein „Table Format“ für Data Lakes, typischerweise auf Dateispeicher wie Azure Data Lake Storage Gen2. Der Kernnutzen: Daten werden nicht nur als Dateien abgelegt, sondern als verwaltete Tabellen mit Metadaten. Das macht Analytics-Workflows über mehrere Tools hinweg stabiler, weil Schema, Partitionierung und Versionsstände sauber gemanagt werden.

  • ACID-Transaktionen: Änderungen sind konsistent, auch wenn mehrere Workflows parallel schreiben.
  • Schema Evolution: Spalten können sich entwickeln, ohne alte Daten sofort unbrauchbar zu machen.
  • Time Travel Queries: frühere Tabellenstände sind nachvollziehbar (Audit, Debugging, Reproduzierbarkeit).

Architektur: Wie Iceberg in OneLake und Fabric zusammenarbeitet

In Microsoft Fabric liegt der zentrale Speicher in OneLake. Darin können Lakehouse-Workloads Daten als Tabellen verwalten; Iceberg ist dabei das offene Format für diese Tabellenebene. OneLake sorgt für „ein Ort“, Iceberg sorgt für „ein Standard“: Metadaten definieren, welche Dateien zu welcher Tabelle gehören, wie Partitionierung aussieht und welche Version gerade gilt.

Praktisch heißt das: Data Engineers können Datenpipelines (z. B. über Fabric Data Factory und Spark) so bauen, dass Tabellenversionen sauber geschrieben und verwaltet werden. Für Analysten entsteht der Mehrwert, weil der Zugriff über Engines/Datasets planbarer wird und sich nicht jedes Team eine eigene Logik in Dateien zusammenbastelt.


Zugriff & Setup: Iceberg-Tabellen in OneLake nutzen

Die Details hängen vom aktuellen Fabric-Stand (Features teils Preview) und eurem Sicherheitsmodell ab. Der typische, praxistaugliche Weg in Fabric sieht so aus:

  • Workspace und Lakehouse anlegen, Berechtigungen (Rollen/Groups) sauber setzen.
  • Daten in Bronze/Silver/Gold organisieren, damit Konsumenten nicht auf Rohdaten bauen.
  • Iceberg-Tabellen für Silver/Gold nutzen, wo Versionierung und stabile Schemas entscheidend sind.

Wichtig: Setzt früh Namenskonventionen, Ordnerstruktur und Verantwortlichkeiten fest. Sonst wird aus „open format“ schnell wieder Wildwuchs.


How-To 1: Iceberg-Tabelle im Fabric-Lakehouse erstellen

Diese Schritte sind bewusst generisch gehalten, weil die UI/Optionen sich je nach Tenant und Preview-Status verändern können:

  1. Öffne den Fabric-Workspace und erstelle (oder öffne) ein Lakehouse.
  2. Lege eine neue Tabelle im Lakehouse an und wähle als Tabellenformat Apache Iceberg, falls verfügbar.
  3. Schreibe Daten in die Tabelle (z. B. aus einer Staging-Tabelle oder Pipeline) und prüfe, ob Schema und Partitionierung passend sind.
  4. Teste eine spätere Schema-Änderung (z. B. neue Spalte) in einem kontrollierten Bereich, um Schema Evolution zu validieren.

Ergebnis: Du hast eine verwaltete Tabelle im Lake, die sich für wiederholbare Workflows und saubere Deployment-Prozesse eignet.


How-To 2: Externe Daten per OneLake Shortcut anbinden

OneLake Shortcuts sind das Mittel, um Daten „across“ Workspaces/Quellen zugänglich zu machen, ohne alles zu kopieren. Ein pragmatisches Vorgehen:

  1. Identifiziere die Quelle (z. B. eine bestehende Lake-Struktur oder ein angebundenes System über ADLS Gen2).
  2. Erstelle im OneLake/Lakehouse einen Shortcut auf den relevanten Pfad.
  3. Baue daraus Silver/Gold-Tabellen (z. B. Iceberg), statt direkt auf Rohpfaden zu modellieren.

Mehrwert: Du machst Datenlocation und storage transparent, ohne deine Reports von fragilen File-Strukturen abhängig zu machen.


Integration & Interoperabilität: Delta Lake, Snowflake, XTable

Iceberg spielt seine Stärken aus, wenn mehrere Engines und Plattformen beteiligt sind. In der Praxis tauchen häufig Delta Lake, Snowflake und Spark auf. Was realistisch gut funktioniert: offene Formate als Vertragsfläche zwischen Teams, statt proprietäre Silos.

  • Delta Lake vs. Iceberg: beides offene Table-Formate; entscheidend ist, welches Format eure Workflows am stabilsten unterstützt.
  • Snowflake: je nach Setup kann eine Anbindung über definierte Austauschpfade/Volumes und Shortcuts Teil einer Migrations- oder Hybrid-Strategie sein.
  • Apache XTable: kann helfen, Table-Formate zwischen Delta und Iceberg zu überführen, wenn Interoperabilität priorisiert ist.

Use Case (Mini-Story): Monatlicher Finanzreport ohne Excel-Konsolidierung

Ein Controlling-Team zieht Zahlen aus mehreren Quellen, konsolidiert in Excel und diskutiert dann Abweichungen, weil Datenstände nicht zusammenpassen. Mit einem Fabric-Lakehouse werden Rohdaten (Bronze) automatisiert geladen, bereinigt (Silver) und als Gold-Iceberg-Tabellen bereitgestellt. Power BI baut auf Gold auf, und über Time-Travel lässt sich bei Rückfragen erklären, wann welche Zahl geschrieben wurde. Der Effekt ist weniger „Rechnen“, mehr „Entscheiden“.


Performance, Sicherheit, Governance: Best Practices

Iceberg hilft bei Performance, aber nicht automatisch. Die wichtigsten Hebel sind Architektur und Betriebsdisziplin:

  • Performance: sinnvolle Partitionierung, regelmäßige Datenpflege (z. B. Dateien konsolidieren), und keine Reports direkt auf Bronze.
  • Sicherheit: Zugriffe rollenbasiert, getrennte Workspaces/Umgebungen, klare Data-Owner pro Domain.
  • Governance: Data Lineage und Dokumentation im Prozess verankern, sonst wird „Self-Service“ zur Fehlersuche.

Kosten, Voraussetzungen, lohnt sich das?

Kosten hängen in Microsoft Fabric primär an Capacity und Workload (Ingestion, Transformation, Abfragen), nicht an „Iceberg an sich“. Lohnend wird es typischerweise, wenn ihr heute viel manuell konsolidiert, mehrere Teams parallel arbeiten oder ihr Interoperabilität (z. B. mit Snowflake/anderen Engines) sauber lösen müsst.

Voraussetzungen sind: Microsoft Fabric ist aktiv, OneLake/Lakehouse ist eingerichtet, Rechte und Netzwerk/Compliance sind geklärt. Ohne klaren Datenprozess (Definition von Gold-KPIs, Verantwortlichkeiten) bleibt der Effekt begrenzt.


Wann externe Unterstützung sinnvoll wird

Externe Unterstützung bringt Tempo, wenn ihr gleichzeitig Architektur, Governance und erste produktive Workflows liefern müsst. Besonders sinnvoll ist das, wenn mehrere Quellen angebunden werden sollen, wenn ihr eine Delta/Iceberg-Strategie festlegen müsst oder wenn Performance und Betrieb (Refresh, Deployment, Rechte, Monitoring) von Anfang an sauber stehen sollen.

Häufige Fragen

Ist Apache Iceberg in Microsoft Fabric ein eigener Datenbankdienst?

Nein. Apache Iceberg ist ein offenes Tabellenformat für Data-Lake-Storage (z. B. in Azure Data Lake Storage Gen2/OneLake). Fabric nutzt es als Format- und Metadatenstandard, nicht als separate Datenbank-Engine.

Kann Power BI direkt auf Iceberg-Tabellen in OneLake zugreifen?

In der Praxis greift Power BI typischerweise über die in Fabric bereitgestellten Modelle/Lakehouse-Strukturen auf die aufbereiteten Gold-Daten zu. Entscheidend ist, dass ihr nicht auf Rohpfade, sondern auf kuratierte Tabellenebenen setzt.

Was ist der Vorteil von OneLake Shortcuts im Iceberg-Kontext?

Shortcuts helfen, Daten aus anderen Locations/Workspaces einzubinden, ohne sie zu kopieren. So kannst du zentrale Gold-Tabellen bauen, obwohl Quellen verteilt sind, und Workflows bleiben wartbarer.

Welche Voraussetzungen muss ich für Microsoft Fabric Iceberg erfüllen?

Ihr braucht einen aktiven Fabric-Tenant/Capacity, ein Lakehouse/OneLake-Setup, geklärte Berechtigungen und einen definierten Datenprozess (z. B. Bronze/Silver/Gold). Ohne Governance und klare Ownership wird das Ergebnis schnell unübersichtlich.
Letzte Aktualisierung:

Inhaltsverzeichnis

Beitrag teilen

Kostenlose KI-Zusammenfassung

Weitere Blogartikel

Microsoft Fabric Purview: So bringst du Governance in deine Datenplattform

Autor:
Dennis Hoffstädte
Microsoft Fabric
04.05.2026
Lesezeit: 5 Min.

Microsoft Fabric Purview schafft Überblick über Daten, Zugriffe und Herkunft – damit Teams schneller mit sicheren Zahlen arbeiten.

Letzte Aktualisierung:
Beitrag lesen

Microsoft Fabric Pipelines: so baust du robuste Daten-Workflows

Autor:
Markus Winter
Microsoft Fabric
04.05.2026
Lesezeit: 4 Min.

Microsoft Fabric Pipelines helfen dir, Datenflüsse stabil zu automatisieren – von Quelle über Transformation bis Deployment und Monitoring.

Letzte Aktualisierung:
Beitrag lesen

Microsoft Fabric Eventstream: Echtzeitdaten sauber ingestieren und nutzen

Autor:
Elias Gieswein
Microsoft Fabric
04.05.2026
Lesezeit: 3 Min.

Microsoft Fabric Eventstream bringt Echtzeitdaten von Quellen zu Zielen – ohne Datenchaos, aber mit klarer Steuerbarkeit und messbarem Nutzen.

Letzte Aktualisierung:
Beitrag lesen