Dateninterpretation & Verifikationsprinzip: Vom Grundsatz zur digitalen Herausforderung
Der zweite Teil der Konferenz zur Digitalisierung im Steuerrecht 2025 des Zentrums für Digitalisierung des Steuerrechts an der LMU München (LMUDigiTax) am Nachmittag des 8. Mai 2025 widmete sich einem komplexen und zugleich hochaktuellen Thema: dem Spannungsfeld zwischen Datenanalyse, Risikomanagement und steuerlicher Verifikation im digitalen Zeitalter. Vertreter und Vertreterinnen aus Wissenschaft, Wirtschaft, Verwaltung und Beratung diskutierten die rechtlichen, technischen und praktischen Herausforderungen bei der Interpretation steuerlicher Daten und der Umsetzung des Verifikationsprinzips.
Dabei wurde deutlich, dass klassische Kontrollmechanismen schnell an ihre Grenzen stoßen. Automatisierte Systeme, standardisierte Formate und KI-gestützte Auswertungen verändern die Art und Weise, wie Daten interpretiert und geprüft werden. Das Prinzip der Verifikation bleibt zentral - seine Umsetzung erfordert jedoch neue Wege, um Transparenz, Rechtssicherheit und Nachvollziehbarkeit auch im digitalen Umfeld zu gewährleisten.

A. Das steuerliche Verifikationsprinzip im Lichte der Digitalisierung
Prof. Dr. Marcel Krumm, Inhaber des Lehrstuhls für Öffentliches Recht und Steuerrecht an der Westfälischen Wilhelms-Universität Münster, analysierte in seinem Vortrag die verfassungsrechtlichen Grundlagen und die faktische Umsetzung des Verifikationsprinzips. Ausgangspunkt war die Rolle digitaler Risikomanagementsysteme, mit denen die Verwaltung Steuererklärungen automatisiert vorfiltert. Hierfür hat der Gesetzgeber mit § 88 Abs. 5 AO bereits eine Grundlage geschaffen habe, um eine risikobasierte Fallauswahl zu ermöglichen.
Krumm betonte jedoch, dass es an einer hinreichenden institutionellen Kontrolle fehle. Die Verwaltung entscheide im Verborgenen, ohne systematische externe oder interne Kontrolle. Lege man die Rechtsprechung des Bundesverfassungsgerichts zur Antiterrordatei zugrunde, stelle sich die Frage, ob die derzeitigen Rechtsgrundlagen den verfassungsrechtlichen Anforderungen genügten.
Zudem warnte er vor einer zukünftigen Grauzone, in der selbstlernende Algorithmen auf umfangreiche Daten zugreifen, ohne dass der Gesetzgeber diesen Eingriff rechtlich ausgestaltet habe. Wenn KI-basierte Systeme beispielsweise über Social-Media-Daten zur Selektion von Steuerfällen eingesetzt würden, habe dies eine andere Eingriffsqualität. Der Gesetzgeber sei gefordert, proaktiv klare rechtliche Rahmenbedingungen und Leitplanken zu setzen. Die bestehende KI-Verordnung biete dafür keine ausreichende Grundlage, da sie nur produktsicherheitsbezogen wirke.
Das Verifikationsprinzip sei rechtlich legitim, seine digitale Ausgestaltung bedarf aber dringend der demokratischen Kontrolle.
B. Datenqualität und Standardisierung als Basis für effektive Verifikation
Dr. Heino Weller, Manager bei der DATEV eG, knüpfte mit einem praxisnahen Blick auf das Zusammenspiel von Standardisierung und Verifikation an. Anhand der gesamten Prozesskette - von der Finanzbuchhaltung über die E-Bilanz bis hin zur steuerlichen Außenprüfung - zeigte er auf, wie eine datengetriebene Verifikation nur dann funktioniert, wenn die zugrunde liegenden Informationen strukturiert, semantisch eindeutig und technisch validierbar sind.
Weller betonte, dass Taxonomien wie die E-Bilanz oder die neue Schnittstelle nach Buchführungsdatenschnittstellenverordnung (DSFinVBV) bereits heute zur Sicherung der Datenqualität beitrügen. Fehler würden so frühzeitig erkannt und nicht erst im Rahmen der Veranlagung oder Betriebsprüfung. Zudem ermögliche die Standardisierung eine zunehmende Automatisierung und reduziere langfristig den Aufwand für Unternehmen, Berater und Verwaltung gleichermaßen.
Seine zentrale These lautete: Nur mit strukturierten, interoperablen Datenformaten kann das Verifikationsprinzip auch bei steigenden Datenmengen funktionieren. Standards seien keine technokratische Pflichtübung, sondern ein strategisches Steuerungsinstrument, das sowohl die Gleichmäßigkeit der Besteuerung als auch die Effizienz in der Verwaltung erhöhe. Gerade im Hinblick auf zukünftige KI-Anwendungen ist die „Datenfitness“ daher ein zentraler Erfolgsfaktor.
C. Dateninterpretation im Besteuerungsverfahren: Betriebsprüfung zwischen technischer Präzision und rechtlicher Verantwortung
Thomas Neubert, Diplom-Finanzwirt und IT-Koordinator bei Finanzverwaltung Sachsen-Anhalt (in nicht dienstlicher Eigenschaft) schloss die einführenden Vorträge mit einem Einblick in die aktuelle Praxis der digitalen Betriebsprüfung. Moderne Prüfsoftware ermöglichen eine datenbasierte Risikoselektion, die effizient, präzise und ressourcenschonend sei. In einigen Ländern würden diese bereits eingesetzt. Entscheidend sei jedoch, dass die Anwender hinreichend geschult seien und ein Verständnis von den neuen Prüfungsmethoden hätten.
Anhand von Live-Demonstrationen zeigte Neubert, wie BI-Tools auf Basis statistischer Abweichungsanalysen risikobehaftete Buchungen identifizieren, etwa durch Z-Wert-Analysen oder Mustererkennung in Kontenverläufen. Auffällige Buchungen werden grafisch visualisiert und direkt mit den Belegen verknüpft, so dass eine Vorprüfung innerhalb weniger Minuten möglich ist.
Besonderes Potenzial sieht er im Zusammenspiel verschiedener Datenquellen: Finanzbuchhaltung, Kassendaten (DSFinV-K), Lohnkonten und perspektivisch auch E-Mail-Kommunikation oder Vertragsanalysen können über Text- und Mustererkennungsverfahren verknüpft werden.
Neubert wies aber auch auf die Herausforderungen hin: Die Zahl der Prüfer sinke, die Datenmenge steige. Viele Prüfer seien technisch nicht ausreichend qualifiziert. Es bedürfe gezielter Schulungen, neuer Kompetenzprofile und interner Tools, um die Potenziale der datengetriebenen Prüfung tatsächlich zu heben.
D. Podiumsdiskussion: Zwischen Transparenz, Kontrolle und Zukunftsfragen
In der abschließenden Diskussion wurde deutlich, wie komplex und vielschichtig das Zusammenspiel von Datenverarbeitung, Standardisierung und staatlicher Kontrolle im steuerlichen Kontext ist. Die Finanzverwaltung verfügt bereits heute über moderne BI-Werkzeuge und strukturierte Prüfprozesse. Aus Sicht von Wissenschaft und Beratung stellte sich jedoch vor allem die Frage nach den rechtsstaatlichen Grundlagen.
Zentrale Diskussionspunkte waren die fehlende institutionelle Kontrolle, das große Potenzial zur Profilbildung durch datengetriebene Auswertungen sowie die Frage, ob bestimmte Verfahren bereits einen eigenständigen Grundrechtseingriff darstellen. Einigkeit bestand darin, dass nicht der Einsatz der Technik an sich problematisch ist, sondern deren intransparente oder unkontrollierte Anwendung.
Aus Beratersicht wurde betont, dass mit zunehmender Standardisierung die Anforderungen an die Unternehmen steigen. Nicht jedes zusätzliche Datenelement führe automatisch zu einer besseren Verifikation.
Die Diskussion um zukünftige Standards, z.B. im Rahmen des § 147b AO, machte deutlich, wie eng rechtliche, technische und organisatorische Fragen heute miteinander verzahnt sind. Künstliche Intelligenz spielte in der Diskussion eine eher untergeordnete Rolle. Gleichwohl wurde deutlich, dass die Fähigkeit zur automatisierten Dateninterpretation stetig zunimmt.
Insgesamt zeigte sich ein Spannungsfeld zwischen technischer Effizienz und rechtsstaatlicher Verantwortung. Die standardisierte Auswertung von Massendaten bedarf nach wie vor der menschlichen Beurteilung. Die Diskussion machte deutlich, dass die Digitalisierung der Steuerprüfung kein rein technisches Projekt ist, sondern grundsätzliche Fragen nach Rechtsgrundlagen, Kontrolle, Vertrauen und Gerechtigkeit aufwirft.
FAZIT
Digitalisierung verlangt neue Antworten: Der zweite Teil der LMUDigiTax-Konferenz 2025 hat eindrucksvoll gezeigt, wie stark das Verifikationsprinzip im digitalen Steuerstaat unter Druck gerät. Automatisierte Prozesse, standardisierte Datenformate und neue Analysetechniken eröffnen enorme Effizienzpotenziale, werfen aber gleichzeitig tiefgreifende rechtliche und organisatorische Fragen auf.
Drei zentrale Erkenntnisse lassen sich festhalten:
👉 Verifikation setzt hohe Datenqualität voraus.
Standardisierung ist keine technische Nebensache, sondern Grundvoraussetzung für rechtssichere, nachvollziehbare und automatisierbare Prüfprozesse. Sie entscheidet darüber, ob digitale Verifikation überhaupt gelingen kann.
👉 Digitale Verifikation braucht analoge Verantwortung und gute Rechtsgrundlagen.
Technisch ist vieles möglich, rechtlich aber nicht alles erlaubt. Die Ausgestaltung von Risikomanagement und KI-gestützter Datenanalyse muss institutionell überprüfbar sein. Transparenz und demokratische Kontrolle dürfen nicht auf der Strecke bleiben. Der Gesetzgeber muss die Verfahrensordnung an neue Methoden und Prozesse anpassen.
👉 Digitalisierung verändert die Rollen.
Prüfer brauchen neue Kompetenzen, Unternehmen müssen in Datenprozesse investieren, Berater werden zur Schnittstelle zwischen Technik und Recht. Die Verifikation der Zukunft ist kein rein behördlicher Prozess mehr, sondern ein kooperativer Aushandlungsraum zwischen Verwaltung, Steuerpflichtigen und Technik.
Der Konferenztag hat damit vor Augen geführt, dass die Grundsätze des Steuerrechts auch im digitalen Raum gelten. Ihre Umsetzung erfordert jedoch neue Antworten.
DATENANALYSE
Datenanalysen helfen Muster in Finanzdaten zu erkennen, steuerliche Optimierungen vorzunehmen und fundierte Entscheidungen zu treffen.
DATENVISUALISIERUNG
Die richtige Datenvisualisierung-Software hilft dabei, komplexe Informationen verständlich aufzubereiten und fundierte Entscheidungen zu treffen.
INTERNE KONTROLLSYSTEME (IKS)
Diese Systeme tragen dazu bei, Fehler und Unregelmäßigkeiten frühzeitig zu erkennen und zu korrigieren.
BETRIEBSPRÜFUNG (BP)
Spezielle Software-Lösungen bieten gezielte Unterstützung bei den Herausforderungen einer Betriebsprüfung.
KÜNSTLICHE INTELLIGENZ (KI)
Künstliche Intelligenz (KI) revolutioniert zahlreiche Branchen, und die Steuerberatung ist keine Ausnahme.
BILANZ & JAHRESABSCHLUSS
Egal, ob es darum geht, eine Bilanz zu erstellen oder den Jahresabschluss zu optimieren – spezialisierte Tools bieten zahlreiche Vorteile.