Recap: LMUDigiTax Konferenz 2025

Dateninterpretation & Verifikationsprinzip: Vom Grundsatz zur digitalen Herausforderung

Porträt des Autors vor grauem Hintergrund mit Logo der LMUDigiTax Konferenz Bild: @tax&bytes

Der zweite Teil der Konferenz zur Digitalisierung im Steuerrecht 2025 des Zentrums für Digitalisierung des Steuerrechts an der LMU München (LMUDigiTax) am Nachmittag des 8. Mai 2025 widmete sich einem komplexen und zugleich hochaktuellen Thema: dem Spannungsfeld zwischen Datenanalyse, Risikomanagement und steuerlicher Verifikation im digitalen Zeitalter. Vertreter und Vertreterinnen aus Wissenschaft, Wirtschaft, Verwaltung und Beratung diskutierten die rechtlichen, technischen und praktischen Herausforderungen bei der Interpretation steuerlicher Daten und der Umsetzung des Verifikationsprinzips.

Dabei wurde deutlich, dass klassische Kontrollmechanismen schnell an ihre Grenzen stoßen. Automatisierte Systeme, standardisierte Formate und KI-gestützte Auswertungen verändern die Art und Weise, wie Daten interpretiert und geprüft werden. Das Prinzip der Verifikation bleibt zentral - seine Umsetzung erfordert jedoch neue Wege, um Transparenz, Rechtssicherheit und Nachvollziehbarkeit auch im digitalen Umfeld zu gewährleisten.

A. Das steuerliche Verifikationsprinzip im Lichte der Digitalisierung

Prof. Dr. Marcel Krumm, Inhaber des Lehrstuhls für Öffentliches Recht und Steuerrecht an der Westfälischen Wilhelms-Universität Münster, analysierte in seinem Vortrag die verfassungsrechtlichen Grundlagen und die faktische Umsetzung des Verifikationsprinzips. Ausgangspunkt war die Rolle digitaler Risikomanagementsysteme, mit denen die Verwaltung Steuererklärungen automatisiert vorfiltert. Hierfür hat der Gesetzgeber mit § 88 Abs. 5 AO bereits eine Grundlage geschaffen habe, um eine risikobasierte Fallauswahl zu ermöglichen.

Prof. Dr. Marcel Krumm

Prof. Dr. Marcel Krumm

Universitätsprofessor @Westfälische Wilhelms-Univ. Münster

Krumm betonte jedoch, dass es an einer hinreichenden institutionellen Kontrolle fehle. Die Verwaltung entscheide im Verborgenen, ohne systematische externe oder interne Kontrolle. Lege man die Rechtsprechung des Bundesverfassungsgerichts zur Antiterrordatei zugrunde, stelle sich die Frage, ob die derzeitigen Rechtsgrundlagen den verfassungsrechtlichen Anforderungen genügten.

Zudem warnte er vor einer zukünftigen Grauzone, in der selbstlernende Algorithmen auf umfangreiche Daten zugreifen, ohne dass der Gesetzgeber diesen Eingriff rechtlich ausgestaltet habe. Wenn KI-basierte Systeme beispielsweise über Social-Media-Daten zur Selektion von Steuerfällen eingesetzt würden, habe dies eine andere Eingriffsqualität. Der Gesetzgeber sei gefordert, proaktiv klare rechtliche Rahmenbedingungen und Leitplanken zu setzen. Die bestehende KI-Verordnung biete dafür keine ausreichende Grundlage, da sie nur produktsicherheitsbezogen wirke.

Das Verifikationsprinzip sei rechtlich legitim, seine digitale Ausgestaltung bedarf aber dringend der demokratischen Kontrolle.

B. Datenqualität und Standardisierung als Basis für effektive Verifikation

Dr. Heino Weller, Manager bei der DATEV eG, knüpfte mit einem praxisnahen Blick auf das Zusammenspiel von Standardisierung und Verifikation an. Anhand der gesamten Prozesskette - von der Finanzbuchhaltung über die E-Bilanz bis hin zur steuerlichen Außenprüfung - zeigte er auf, wie eine datengetriebene Verifikation nur dann funktioniert, wenn die zugrunde liegenden Informationen strukturiert, semantisch eindeutig und technisch validierbar sind.

Dr. Heino Weller

Dr. Heino Weller

Manager @DATEV

Weller betonte, dass Taxonomien wie die E-Bilanz oder die neue Schnittstelle nach Buchführungsdatenschnittstellenverordnung (DSFinVBV) bereits heute zur Sicherung der Datenqualität beitrügen. Fehler würden so frühzeitig erkannt und nicht erst im Rahmen der Veranlagung oder Betriebsprüfung. Zudem ermögliche die Standardisierung eine zunehmende Automatisierung und reduziere langfristig den Aufwand für Unternehmen, Berater und Verwaltung gleichermaßen.

Seine zentrale These lautete: Nur mit strukturierten, interoperablen Datenformaten kann das Verifikationsprinzip auch bei steigenden Datenmengen funktionieren. Standards seien keine technokratische Pflichtübung, sondern ein strategisches Steuerungsinstrument, das sowohl die Gleichmäßigkeit der Besteuerung als auch die Effizienz in der Verwaltung erhöhe. Gerade im Hinblick auf zukünftige KI-Anwendungen ist die „Datenfitness“ daher ein zentraler Erfolgsfaktor.

C. Dateninterpretation im Besteuerungsverfahren: Betriebsprüfung zwischen technischer Präzision und rechtlicher Verantwortung

Thomas Neubert, Diplom-Finanzwirt und IT-Koordinator bei Finanzverwaltung Sachsen-Anhalt (in nicht dienstlicher Eigenschaft) schloss die einführenden Vorträge mit einem Einblick in die aktuelle Praxis der digitalen Betriebsprüfung. Moderne Prüfsoftware ermöglichen eine datenbasierte Risikoselektion, die effizient, präzise und ressourcenschonend sei. In einigen Ländern würden diese bereits eingesetzt. Entscheidend sei jedoch, dass die Anwender hinreichend geschult seien und ein Verständnis von den neuen Prüfungsmethoden hätten.

Thomas Neubert

Thomas Neubert

Dipl.-Finw. @FV Sachsen-Anhalt (in nicht dienstlicher Eig.)

Anhand von Live-Demonstrationen zeigte Neubert, wie BI-Tools auf Basis statistischer Abweichungsanalysen risikobehaftete Buchungen identifizieren, etwa durch Z-Wert-Analysen oder Mustererkennung in Kontenverläufen. Auffällige Buchungen werden grafisch visualisiert und direkt mit den Belegen verknüpft, so dass eine Vorprüfung innerhalb weniger Minuten möglich ist.

Besonderes Potenzial sieht er im Zusammenspiel verschiedener Datenquellen: Finanzbuchhaltung, Kassendaten (DSFinV-K), Lohnkonten und perspektivisch auch E-Mail-Kommunikation oder Vertragsanalysen können über Text- und Mustererkennungsverfahren verknüpft werden.

Neubert wies aber auch auf die Herausforderungen hin: Die Zahl der Prüfer sinke, die Datenmenge steige. Viele Prüfer seien technisch nicht ausreichend qualifiziert. Es bedürfe gezielter Schulungen, neuer Kompetenzprofile und interner Tools, um die Potenziale der datengetriebenen Prüfung tatsächlich zu heben.

D. Podiumsdiskussion: Zwischen Transparenz, Kontrolle und Zukunftsfragen

In der abschließenden Diskussion wurde deutlich, wie komplex und vielschichtig das Zusammenspiel von Datenverarbeitung, Standardisierung und staatlicher Kontrolle im steuerlichen Kontext ist. Die Finanzverwaltung verfügt bereits heute über moderne BI-Werkzeuge und strukturierte Prüfprozesse. Aus Sicht von Wissenschaft und Beratung stellte sich jedoch vor allem die Frage nach den rechtsstaatlichen Grundlagen.

Zentrale Diskussionspunkte waren die fehlende institutionelle Kontrolle, das große Potenzial zur Profilbildung durch datengetriebene Auswertungen sowie die Frage, ob bestimmte Verfahren bereits einen eigenständigen Grundrechtseingriff darstellen. Einigkeit bestand darin, dass nicht der Einsatz der Technik an sich problematisch ist, sondern deren intransparente oder unkontrollierte Anwendung.

Aus Beratersicht wurde betont, dass mit zunehmender Standardisierung die Anforderungen an die Unternehmen steigen. Nicht jedes zusätzliche Datenelement führe automatisch zu einer besseren Verifikation.

Die Diskussion um zukünftige Standards, z.B. im Rahmen des § 147b AO, machte deutlich, wie eng rechtliche, technische und organisatorische Fragen heute miteinander verzahnt sind. Künstliche Intelligenz spielte in der Diskussion eine eher untergeordnete Rolle. Gleichwohl wurde deutlich, dass die Fähigkeit zur automatisierten Dateninterpretation stetig zunimmt.

Insgesamt zeigte sich ein Spannungsfeld zwischen technischer Effizienz und rechtsstaatlicher Verantwortung. Die standardisierte Auswertung von Massendaten bedarf nach wie vor der menschlichen Beurteilung. Die Diskussion machte deutlich, dass die Digitalisierung der Steuerprüfung kein rein technisches Projekt ist, sondern grundsätzliche Fragen nach Rechtsgrundlagen, Kontrolle, Vertrauen und Gerechtigkeit aufwirft.

FAZIT

Digitalisierung verlangt neue Antworten: Der zweite Teil der LMUDigiTax-Konferenz 2025 hat eindrucksvoll gezeigt, wie stark das Verifikationsprinzip im digitalen Steuerstaat unter Druck gerät. Automatisierte Prozesse, standardisierte Datenformate und neue Analysetechniken eröffnen enorme Effizienzpotenziale, werfen aber gleichzeitig tiefgreifende rechtliche und organisatorische Fragen auf.

Drei zentrale Erkenntnisse lassen sich festhalten:

👉 Verifikation setzt hohe Datenqualität voraus.

Standardisierung ist keine technische Nebensache, sondern Grundvoraussetzung für rechtssichere, nachvollziehbare und automatisierbare Prüfprozesse. Sie entscheidet darüber, ob digitale Verifikation überhaupt gelingen kann.

👉 Digitale Verifikation braucht analoge Verantwortung und gute Rechtsgrundlagen.

Technisch ist vieles möglich, rechtlich aber nicht alles erlaubt. Die Ausgestaltung von Risikomanagement und KI-gestützter Datenanalyse muss institutionell überprüfbar sein. Transparenz und demokratische Kontrolle dürfen nicht auf der Strecke bleiben. Der Gesetzgeber muss die Verfahrensordnung an neue Methoden und Prozesse anpassen.

👉 Digitalisierung verändert die Rollen.

Prüfer brauchen neue Kompetenzen, Unternehmen müssen in Datenprozesse investieren, Berater werden zur Schnittstelle zwischen Technik und Recht. Die Verifikation der Zukunft ist kein rein behördlicher Prozess mehr, sondern ein kooperativer Aushandlungsraum zwischen Verwaltung, Steuerpflichtigen und Technik.

Der Konferenztag hat damit vor Augen geführt, dass die Grundsätze des Steuerrechts auch im digitalen Raum gelten. Ihre Umsetzung erfordert jedoch neue Antworten.

______________________


Wofür steht das LMUDigiTax? 
Mehr erfahren bei tax&bytes.

→ ZUM PROFIL

 


 
IM BEITRAG ERWÄHNTE TOOL-KATEGORIEN  
DATENANALYSE

Datenanalysen helfen Muster in Finanzdaten zu erkennen, steuerliche Optimierungen vorzunehmen und fundierte Entscheidungen zu treffen.

→ ZUR KATEGORIE

DATENVISUALISIERUNG

Die richtige Datenvisualisierung-Software hilft dabei, komplexe Informationen verständlich aufzubereiten und fundierte Entscheidungen zu treffen.

→ ZUR KATEGORIE

INTERNE KONTROLLSYSTEME (IKS)

Diese Systeme tragen dazu bei, Fehler und Unregelmäßigkeiten frühzeitig zu erkennen und zu korrigieren.

→ ZUR KATEGORIE

BETRIEBSPRÜFUNG (BP)

Spezielle Software-Lösungen bieten gezielte Unterstützung bei den Herausforderungen einer Betriebsprüfung.

→ ZUR KATEGORIE

KÜNSTLICHE INTELLIGENZ (KI)

Künstliche Intelligenz (KI) revolutioniert zahlreiche Branchen, und die Steuerberatung ist keine Ausnahme.

→ ZUR KATEGORIE

BILANZ & JAHRESABSCHLUSS

Egal, ob es darum geht, eine Bilanz zu erstellen oder den Jahresabschluss zu optimieren – spezialisierte Tools bieten zahlreiche Vorteile.

→ ZUR KATEGORIE

Auftragsplanung Steuerberater
Entdecke 17 bewährte Methoden zur Auftragsplanung in Steuerbüros

Effiziente Auftragsplanung für Steuerberater: 17 erprobte Strategien

Lerne, wie du mit modernen Tools, klaren Prozessen und automatisierten Abläufen deine Steuerkanzlei effizient organisierst. Entdecke 17 bewährte Methoden zur Auftragsplanung in Steuerbüros.

NWB Strukturen,Digitalisierungundfachkräftemangelindersteuerberaterbranche 1920X1080px (1)
Statistische Datenerhebung

Strukturen, Digitalisierung & Fachkräfte in der Steuerberaterbranche

Die Befragung im Auftrag der BStBK liefert Einblicke in die Struktur des Berufsstands, den Stand der Digitalisierung und den Fachkräftemangel in der Steuerberaterbranche. Besonders Einzelkanzleien stehen vor Herausforderungen – aber auch Chancen zeichnen sich ab.

Schmidt BLOG 1920X1080px
§87a AO und seine Praxisfolgen

ELSTER-Monokultur: Digitaler Rückschritt oder notwendiger Standard? Teil 1

Der erste Teil des Beitrag analysiert die Auswirkungen des neuen § 87a AO auf die digitale Kommunikation mit Finanzämtern. Er beleuchtet die technischen Einschränkungen von ELSTER, die bürokratischen Folgen für Kanzleien und den wachsenden Unmut unter Berufsträgern.