IRIS26: INTERNATIONALE RECHTSINFORMATIK KONFERENZ 2026
PROGRAM FOR THURSDAY, FEBRUARY 19TH
Days:
previous day
next day
all days

View: session overviewtalk overview

09:00-10:30 Session 3A: Mensch-Maschine-Kooperation I
09:00
Human-Machine Cooperation through AI Agents? (online)

ABSTRACT. AI agents play an increasingly important role in contractual relations. Such kind of digital assistants must be designed and programmed in a way that the traditional principal-agent problems can be avoided by optimal contracts’ parameters. Recent international normative frameworks proposing rules for an appropriate agents’ use lay the foundation for future human-machine cooperation, but a further refinement of the rules securing a specific protection mechanism is needed.

09:30
40 Jahre später -- Perspektiven des juristischen Öksystems

ABSTRACT. 1. Meilensteine der Digitalisierung seit 1986 2. Auswirkungen auf das juristische Ökösystem 3. 2025 4. Fünf Thesen für die zukünftige Entwicklung

10:00
Law as communication in a digital constitutional state

ABSTRACT. Over the years; justice has been characterized in many different ways. The history of legal theory is full of perspectives on justice as an essential social phenomenon. The fact that the symbols and languages of law have been and continue to be essential narratives about law and rights clearly illustrates the importance of communication as a key to understand law and legal systems. In this light, it is somewhat surprising that law as communication has re-ceived relatively little attention as a subject of research as its own field of legal science. It has probably been too close and too natural a part of legal life to be more comprehensively and critically evaluated as one of the central topics of interest in legal theory. Today, the sit-uation is a lot different. The operating environments for legal communication have changed significantly in the digital network society. These changes are quantitative, procedural, and related to information sources. As a result of those changes, the risks associated with legal communication have increased. Similarly, preparing for the adverse effects of artificial intel-ligence has already proven to be essential for ensuring the accuracy of legal information. In this article, I will examine some of the most significant changes and ask how legal educa-tion should adapt to the new requirements of legal communication. Should we once again re-think what is most essential in legal expertise and education? It is equally important to con-sider how legal information management meets our needs in the current era of open science of the data and information space in accordance with the EU data strategy.

09:00-10:30 Session 3B: Datenschutz I
09:00
Die Verschlüsselung von personenbezogenen Daten im Lichte der EuGH-Rechtsprechung
PRESENTER: Nils Wiedemann

ABSTRACT. Der Beitrag untersucht die Auswirkungen der Verschlüsselung auf den Personenbezug von Daten im Lichte der aktuellen Rechtsprechung des EuGH, insbesondere dessen Urteil in der Rechtssache EDSB/SRB. Der Beitrag zeigt auf, dass die dort entwickelten Grundsätze auf die Verschlüsselung von personenbezogenen Daten übertragbar sind, indem die technischen Grundlagen symmetrischer und asymmetrischer Verschlüsselung sowie deren Sicherheitseigenschaften dargestellt und mit der Begriffsbestimmung der personenbezogenen Daten verknüpft werden. Darauf aufbauend wird dargelegt, wie die Beurteilung des Personenbezugs verschlüsselter Daten anhand der Rechtsprechung des EuGH zu erfolgen hat.

09:30
Relativer Personenbezug und Pseudonymisierung im Zeitalter der Künstlichen Intelligenz

ABSTRACT. Das jüngste EuGH-Urteil C-413/23 P (EDSB / SRB) markiert einen Wendepunkt im unionsrechtlichen Verständnis personenbezogener Daten: Nur wer selbst über rechtliche oder tatsächliche Mittel zur Re-Identifizierung verfügt, verarbeitet personenbezogene Daten im Sinne der DSGVO. Der Beitrag untersucht die Folgewirkungen dieser Rechtsprechung für das Training von KI-Modellen und zeigt, warum diese Entscheidung das Training von KI faktisch erleichtert, insbesondere indem sie für Akteure ohne Re-Identifizierungsmittel die Möglichkeit eröffnet, Datensätze außerhalb des Anwendungsbereichs der DSGVO zu verarbeiten. Damit stärkt das Urteil die Rechtssicherheit bei KI-Training, synthetischen Daten und Datenkooperationen – solange die Trennung von Identifikatoren und Trainingsdaten effektiv und dauerhaft umgesetzt wird.

10:00
SRB-Urteil des EuGH zum Personenbezug aus Perspektive der Anwaltspraxis

ABSTRACT. Der EuGH hat sich in seinem SRB-Urteil vom 04.09.2025 erfreulich deutlich zum Personenbezug von Daten geäußert. Die Entscheidung reiht sich in die bisherige Rechtsprechung des EuGH zum Personenbezug von Daten ein und hat große, wenn auch noch umstrittene Folgen für die Praxis. Der Vortrag zielt darauf ab, das Urteil des EuGHs zum Personenbezug von Daten vorzustellen, in den Kontext bisheriger Rechtsprechung zu setzen und seine Implikationen für die Praxis zu skizzieren.

09:00-10:30 Session 3C: Rechtsinformation I
09:00
Chatten statt Suchen - Digitalisierung und Rechtsprechung 1985-2025 von RDB, RIS, FINDOK, MANZ, LEXIS, LINDE zu Manz Genjus, Lexis +AI, LinDa-KI

ABSTRACT. Mitte der 1980er-Jahre startete unter der Führung des Verlags Manz in Kooperation mit Orac (heute Lexis) und Linde die erste elektronische juristische Verlagsdatenbank in Österreich: die RDB-Rechtsdatenbank. Einige Jahre später folgte das Rechtsinformationssystem (RIS) im Bundeskanzleramt, um das Jahr 2000 schließlich die Finanzdokumentation (Findok) im Finanzministerium. In der Folge konzentrierten sich die Verlage zunehmend auf ihre eigenen Inhalte und traten mit jeweils eigenen Online-Datenbanken auf, ergänzt um Index-Dokumente zu den Produkten anderer Verlage. Inhalte und Suchtechnologien wurden kontinuierlich ausgebaut und verbessert. Während anfangs vor allem die Volltextsuche – also das gleichzeitige Durchsuchen sämtlicher Dokumente über mehrere Jahrgänge hinweg – eine große Innovation darstellte, rückten später Relevanzbewertungen, Hyperlinks, semantische Suchverfahren und die Anzeige ähnlicher Dokumente in den Vordergrund. Vor rund zwei Jahren hielt schließlich die Künstliche Intelligenz Einzug. Die klassische Begriffs- und Normensuche wurde durch fragebasierte Abfragen erweitert. Dazu werden die Texte in zahlreiche Einheiten zerlegt (bei Manz sind es mehr als 70 Millionen), die mit den eingegebenen Prompts analysiert und abgeglichen werden. Im Unterschied zu großen generativen Modellen wie ChatGPT erfolgt dabei keine Interpretation oder Ergänzung über den Textbestand hinaus – es wird also nicht „halluziniert“. Jede Antwort enthält daher konkrete Quellenangaben, und gelegentlich bleibt die Antwort aus, wenn keine passende Textgrundlage existiert. Neue KI-Werkzeuge ermöglichen zudem Zusammenfassungen, automatische Inhaltsverzeichnisse und Entscheidungsentwürfe. Auch für die Findok ist der Einsatz von KI geplant. Das Projekt umfasst unter anderem: • die Beantwortung steuerrechtlicher Fragen im Chat- bzw. Dialogverfahren, • das Verfassen von Rechtstexten und die Generierung von Rechtssätzen, • eine automatisierte Titelgenerierung und Dokumentenklassifizierung, • eine KI-gestützte Anonymisierung von Gerichtsentscheidungen, • sowie die Erstellung von Alternativtexten zur Beschreibung von Grafiken.

Die neuen KI-Angebote bieten den Nutzerinnen und Nutzern zahlreiche Vorteile. Allerdings bleibt für eine umfassende und vollständige Recherche weiterhin erforderlich, alle relevanten Datenbanken parallel zu befragen.

09:30
evi.gv.at | Digitale Transparenz in der Praxis – Wie evi.gv.at wirkt & sich weiterentwickelt

ABSTRACT. Mit der Ablöse des gedruckten Amtsblatts der Wiener Zeitung durch evi.gv.at im Jahr 2023 entstand ein europäisches Best-Practice-Beispiel für Verwaltungsdigitalisierung.

Die Plattform zeigt, wie Gesetzgebung, Verwaltung und Technologie im Zusammenspiel Wirkung entfalten – weit über reine Digitalisierung hinaus.Dieser Beitrag gibt Einblicke in die operative Arbeit von evi.gv.at. Im Fokus stehen insbesondere die Anforderungen und gesellschaftlichen Dimensionen digitaler Transparenz im Jahr 2025.

10:00
Vom "Amtsblatt" zu "EVI"

ABSTRACT. Siehe DokumentDie Transformation des Veröffentlichungswesens in Österreich – Implikationen für Recht und Verwaltung

09:00-10:30 Session 3D: E-Government I
09:00
Wissenstransfer in der Verwaltung – eine praxisorientierte Sicht
PRESENTER: Tanja Krins

ABSTRACT. Die Verwaltungspraxis sieht sich zunehmend größeren Herausforderungen im Umgang mit Wissensbewahrung und Wissensweitergabe gegenüber. Während einerseits in den nächsten zehn Jahren die Alterskohorte der jetzt 57-67-jährigen altersbedingt die Verwaltung verlässt und ihre Stellen oftmals durch haushaltbedingte Besetzungssperren nur zeitversetzt nachbesetzt werden, ist andererseits die Gewinnung von neuen Fachkräften für diese Vakanzen schwierig. Zudem haben diese auch immer kürzere Verweildauer in einer oftmals als sehr bürokratisch und starr empfundenen Verwaltung.

Onboarding und Mentoring, Wissenserhalt und Wissenstransfer sind daher zentrale Aufgaben für das Personalmanagement im öffentlichen Dienst geworden. Zugleich verankert der Gesetzgeber immer mehr Anforderungen an den sorgfältigen Umgang mit Wissen in Vorschriften. Dies geschieht auch in dem Verständnis, dass Wissenssicherung der Risikominimierung und Zukunftssicherung dient und damit ein strategischer Faktor ist.

Für den Bereich der Öffentlichen Verwaltung gilt es daher, praxisnahe Lösungsansätze zu finden, die auch Themen wie Mentoring und Onboarding neue Kräfte berücksichtigen. Hierbei ist auch zu überlegen, ob und inwiefern KI ein unterstützendes Moment der Wissenssicherung sein kann.

Die Einreichenden werden auf Basis einer im Juni 2025 erschienenen praxisnahen Publikation „Wissenstransfer und Onboarding in der öffentlichen Verwaltung“ (https://www.gfwm.de/wtransfer-verwaltung/) einen Überblick über aktuelle Umsetzungsbeispiele und die weitere Diskussion seit der Veröffentlichung geben. Anschließend sollen mit dem Auditorium weitere Entwicklungsmöglichkeiten erörtert werden.

Es handelt sich um eine Einreichung aus der Praxis.

09:30
Enterprise Architecture Management im öffentlichen Sektor: Das IT-Ökosystem einer mittelgroßen Schweizer Gemeinde
PRESENTER: Jonas Aebischer

ABSTRACT. Die öffentliche Verwaltung steht auf Grund der Digitalisierung ihrer Services vor großen Herausforderungen. Am Beispiel einer mittelgroßen Schweizer Gemeinden wird gezeigt, welche Potenziale in der Anwendung von Enterprise-Architecture-Management Methoden auch für die öffentliche Verwaltung stecken, wenn man deren spezifischen Rahmenbedingungen berücksichtigt. Mit Hilfe der Modellierungssprache ArchiMate werden zwei Viewpoints – Organizational und Technology Usage – in Form von Diagrammen abgebildet und analysiert. Hieraus werden in Verbindung mit aufgestellten Anforderungen strategische, konkrete Maßnahmen abgeleitet.

10:00
KI-Einsatz in der deutschen Finanzverwaltung – Konkrete Anwendungsbeispiele im außergerichtlichen Rechtsbehelfsverfahren im Überblick

ABSTRACT. Das Einspruchsverfahren im deutschen Besteuerungsverfahren steht vor einem digitalen Wandel. Der Beitrag entwickelt einen Systematisierungsrahmen, der KI-Anwendungen in Front Office, Back Office, Entscheidungsunterstützung und Vollautomatisierung kategorisiert. Anhand konkreter Beispiele – von Chatbots bis zu automationsgestützten Einspruchsentscheidungen – werden Chancen und rechtliche Anforderungen analysiert. Die Systematik schafft einen Ordnungsrahmen für die strategische Weiterentwicklung.

09:00-10:30 Session 3E: Rechtsvisualisierung und Legal Design I
09:00
Legal Informatics, Legal Technology and Legal Design: Stronger Together?
PRESENTER: Tobias Mahler

ABSTRACT. This paper provides an integrated mapping of legal informatics, legal technology, and legal design as complementary perspectives on the interaction between law, humans, and digital systems. It traces the development of legal informatics, contrasts it with the ap-plied focus of legal technology, and introduces legal design as a human-centred ap-proach concerned with goal-reaching, purpose, action, and outcomes. Rather than treating these perspectives as separate, the paper argues that they are stronger when un-derstood as mutually reinforcing dimensions of how legal solutions can be designed and built to better meet the needs of those they are meant to serve. A potential path toward integrating all three approaches is discussed.

09:30
The Detection of Deceptive Patterns on Online Interfaces by Computer Programs

ABSTRACT. The paper discusses the insights gained from the supervision of software engineering students who are writing programs that detect “dark patterns” on online interfaces. Hence, the supervisors pursue educational goals while introducing students to the field of computer ethics. The detection programs analyze the HTML code of sales portals. The commandments of computer ethics prohibit the causing of harm and require a consideration of the social consequences of the system being designed. Deceptive patterns are harmful to consumers, not to sellers. We hold that the loss of trust in unfair sellers is a more serious problem than just the use of prechecked boxes. Information technologies become untrustworthy. User consent becomes inefficient because users are burdened with analyzing risks on webpages.

10:00
„Legal Design for an AI-driven World“ – Lern- und Erfahrungskapital aus der Veranstaltung „Europäisches (KI-)Recht“ seit 2020

ABSTRACT. Voraussetzungen der „Zusammenarbeit zwischen Mensch und Maschine im Cyberspace“ (IRI§26-Titel) sind die Entwicklung sogenannter „KIs“ (künstliche Intelligenzen) wie die Fortbildung traditioneller „MIs“ (menschliche Intelligenzen) – auch in Hinblick auf ein Leben mit diesen KIs. Die „AI-driven World“ (Terminologie der High Level Expert Group) verlangt wie ermöglicht Perspektiven zum Potenzial der MIs –auch in der Nutzung von, der Konkurrenz mit wie der Verdrängung durch KIs. „DEA EX MACHINA“ (das beste KI-unterstützte Selbst von Viola Schmid) auf der einen und die Separation ihres Wissens von ihrer Autorenschaft (im Interesse des Allgemeinwohls?) durch „KI-Wissensusurpation“ auf der anderen Seite, sind Optionen eines „Legal Design“-Gestaltungskorridors. Muss die MI „modernste Technologien“ nutzen, um den Rechtsvorbehalt durchzusetzen? Art. 53 Abs. 1 lit. c KI-VO könnte diese „modernsten“ Technologien verlangen! Forderungen nach/Behauptungen einer „human-centric and trustworthy AI“ (Art. 1(1) AI Act) werden diese Herausforderungen vermutlich allein nicht bewältigen. Deswegen gibt es seit 2020 an der TU Darmstadt eine Vorlesung mit Übung „Europäisches (KI-)Recht“ als Forschungs-, Lehr- und Lerninkubator. Geteilt wird die damals zugrunde gelegte Zielvorstellung: „Agenda dieser Pioniervorlesung ist zum einen die Vermittlung von Grundlagenwissen für die Entwicklung einer europäischen Rechtsperspektive und zum anderen die Entwicklung von Verantwortungsbewusstsein für eine grundlegende Veränderung, die die Ergänzung der Menschheit wie der Mitwelt mit KI bedeuten könnte.“ Die Erkenntnisse, Erfahrungen und Ergebnisse werden als Teil der CyLaw-Report Serie (cylaw.tu-darmstadt.de/popp/produkt/cylaw_reports/index.de.jsp) in einer Legal Open Source Veröffentlichung konzipiert und auch der IRI§26 angeboten. Dem GoCore!-Prinzip folgend werden 10 Thesen aus diesen Erfahrungen im IRI§26-Beitrag filtriert. Siehe ergänzend die Handreichung zu generativer KI […] der TU Darmstadt.

11:00-12:30 Session 4A: Mensch-Maschine-Kooperation II
11:00
Treyst.ai: Human-Machine Collaboration in EU Legislative Compliance - Leveraging Large Language Models for Efficient EU Compliance processes
PRESENTER: Safa Jemai

ABSTRACT. The implementation of EU directives into national legislation across 31 EEA countries represents a critical yet challenging regulatory function. "Gold-plating"—the practice of exceeding minimum EU directive requirements during national implementation—costs Iceland alone approximately €1.7 billion annually and creates disproportionate burdens for businesses and public administration. Current manual comparison processes, where legal experts review hundreds of legislative articles to identify discrepancies, are time-consuming, inconsistent, and unable to keep pace with the evolving regulatory landscape affecting 24 million enterprises across Europe. Treyst.ai addresses this challenge through practical application of generative AI, directly embodying IRIS26's conference theme of human-machine collaboration in cyberspace. Rather than attempting to replace legal professionals with autonomous AI agents, our approach demonstrates how Large Language Models (LLMs) can augment human expertise in regulatory compliance tasks. This addresses the fundamental question posed by the conference: How do we effectively integrate generative AI and LLMs into legal practice while maintaining appropriate human oversight and legal accountability? Our methodology centers on training LLMs specifically for legislative analysis through extensive collaboration with legal experts from the EFTA Surveillance Authority (ESA) and multiple Icelandic government ministries. Treyst.ai performs three critical use cases that demonstrate productive human-machine collaboration: First, automated detection of gold-plating in existing and draft legislation, where AI handles large-scale pattern recognition while legal experts provide contextual judgment and policy interpretation. Second, comparative analysis of EU directives against national implementations, enabling exhaustive cross-referencing impossible for humans at scale while maintaining expert oversight. Third, legislative drafting assistance that ensures EU compliance without over-implementation, with AI generating compliant drafts that legal professionals refine based on national policy priorities. Early implementation results from testing with Icelandic ministries and ESA reveal significant efficiency gains: tasks requiring weeks of manual review are completed in minutes, coverage expands from sample-based to comprehensive article-level analysis, and the system achieves high accuracy in identifying discrepancies while providing transparent reasoning for each detection—a critical requirement for professional acceptance. Importantly, legal professionals maintain ultimate decision-making authority, with AI serving as an augmentative tool rather than an autonomous decision-maker. Our work addresses several open questions in legal informatics regarding generative AI deployment: The hallucination challenge is mitigated through domain-specific fine-tuning and expert validation loops. The "black box" problem is resolved through explainable outputs that trace all reasoning to specific legal provisions. The attribution and responsibility question is addressed by positioning AI within existing governance structures where human experts retain accountability. These practical solutions emerge from real-world implementation experience rather than theoretical speculation. As new "actors" in the form of AI agents become capable of processing legal texts, the challenge lies not in replacing human expertise but in creating effective collaboration frameworks. Treyst.ai demonstrates that generative AI can enhance governmental efficiency, reduce compliance costs for millions of European enterprises, and support evidence-based policy-making—all while maintaining human oversight and legal accountability. Our experience offers concrete insights for policymakers, legal professionals, and technologists navigating AI integration in regulated environments, providing a replicable model for responsible AI deployment in high-stakes legal contexts. This paper presents our technical approach, implementation results, lessons learned from government collaborations, and broader implications for the legal informatics community as we collectively address how humans and machines should collaborate in the evolving cyberspace of legal practice.

11:30
Wie künstliche Intelligenz Rechtsentscheidungen unterstützen kann – Zur semantischen Validierungspflicht in der juristischen Entscheidungsfindung

ABSTRACT. Die Integration von LLMs in die juristische Entscheidungsfindung wirft grundsätzliche Fragen zur Vereinbarkeit mit rechtsstaatlichen Prinzipien auf.

Der Beitrag zeigt anhand des OODA-Loop-Konzepts sowie Morris’ Semiotik (Syntax, Semantik, Pragmatik), strukturelle Grenzen: LLMs erzeugen nur syntaktische Möglichkeitsräume und künstliche Kommunikation ohne Realitätsbezug, Sprecherintention oder pragmatische Handlungskompetenz. Da sie weder objektive noch subjektive Wahrheitsansprüche erfüllen, können LLM-generierte Informationen als "abjektiv" bezeichnet werden.

Nach Schneier scheitert der Versuch, OODA-Loops auf KI-Agenten zu übertragen, an grundsätzlichen Beschränkungen: LLMs können Tatsachen nicht von Halluzinationen unterscheiden, da ihnen semantische Validierungskapazität fehlt. Anhand des methodischen Ansatzes einer Studie der Universität Zürich zu "AI assisted legal decision making" (2025) wird die rechtsontologische Inkompatibilität automatisierter Rechtsentscheidungen dargestellt. Positionen wie jene von Adrian, der einen „Richterautomaten“ fordert, verstärken die Gefahr einer Entmenschlichung des Rechts und der Aufgabe menschlicher Kontrolle und demokratischer Begründungskultur an Maschinenwillkür.

Der Beitrag entwickelt ein Governance-Framework nach dem Disciplined-Agile-Ansatz, das „Human in Command“ als zwingende Voraussetzung festschreibt: KI-Nutzung im Recht erfordert eine fachlich-menschliche Nachprüfung, die organisatorisch gestützt wird. KI kann Empfehlungen liefern, aber sie ersetzt nicht die notwendige menschliche Entscheidungsebene und die dafür benötigten fachlichen und zeitlichen Ressourcen, die abstrakte Lösungsvorschläge nachvollziehbar mit der konkreten Realität verknüpfen.

12:00
Der Think-Tank “Liquid Legal Institute LLI” stellt sich vor
PRESENTER: Katharina Bisset

ABSTRACT. Das Liquid Legal Institute (LLI) ist ein internationaler, interdisziplinärer Think Tank mit Sitz in München, der sich der digitalen Transformation und Standardisierung im Rechtswesen widmet. Es ist ein eingetragener, gemeinnütziger Verein deutschen Rechts (e. V.) und wurde 2016 von sieben Expert aus Jura, Wirtschaft, Informatik und Design Thinking gegründet. Zentrale Ziele und Aktivitäten Das LLI versteht sich als offene, neutrale und kollaborative Plattform, auf der Juristinnen, Informatiker, Unternehmensjuristen, Kanzleien und andere Akteure gemeinsam an der Zukunft des Rechtssystems arbeiten. Seine Mission ist es, Innovation, Digitalisierung und Standardisierung in der Rechtsbranche voranzutreiben – also Themen wie Legal Tech, Datenformate, Prozessautomatisierung und „Legal Transformation“ zusammenzuführen. Zu den wichtigsten Projekten des LLI gehören: • Common Legal Platform: Ein Open-Source-Vorhaben zur Entwicklung digitaler Standards für rechtliche Prozesse. • LLI Whitepapers und Extracts: Fachpublikationen über neue Technologien, Datenstandards und Organisationsformen im Recht. • Kooperationen und Veranstaltungen, etwa mit Plattformen wie legalXchange oder durch internationale Zusammenschlüsse wie die geplante Fusion mit der Digital Legal Exchange. Bedeutung für die Rechtsinformatik im DACH-Raum Für die Rechtsinformatik-Szene in DACH (Deutschland, Österreich, Schweiz) spielt das LLI eine Schlüsselrolle, weil es: • eine Brücke zwischen Technik und Recht bildet und den interdisziplinären Austausch fördert ; • Standardisierung und Interoperabilität in juristischen IT-Systemen vorantreibt, was essenziell für automatisierte Rechtsanwendungen ist ; • wissenschaftliche und praktische Akteure zusammenbringt und so die Innovationsfähigkeit der Rechtsbranche stärkt. Damit fungiert das LLI als Treiber der Rechtsinformatik und Legal-Tech-Modernisierung im DACH-Raum – vergleichbar mit einem Open-Source-Labor für Rechtsinnovation, das internationale Sichtbarkeit genießt.

11:00-12:30 Session 4B: Datenschutz II
11:00
ZUR DATENSCHUTZRECHTLICHEN (UN?)ZULÄSSIGKEIT VON VIDEOÜBERWACHUNG AUFRGUND DER VERARBEITUNG BESONDERER DA-TENKATEGORIEN

ABSTRACT. Dieser Artikel untersucht die rechtlichen Herausforderungen der Videoüberwachung im Zusammenhang mit der Verarbeitung besonderer Kategorien personenbezogener Daten gemäß Art 9 DSGVO. Er analysiert die Auswirkungen aktueller Gerichtsentscheidungen, insbesondere des EuGH im Fall „Lindenapotheke“, welche die Annahme der Existenz sen-sibler Daten erweitert. Die Untersuchung beleuchtet den Konflikt zwischen dem starken Bedürfnis nach privater Videoüberwachung und den strengen Datenschutzanforderungen aufgrund der nun notwendigen Neueinstufung der Bilddaten als „besondere Kategorien“. Zudem werden die Grenzen bestehender rechtlicher Rahmenbedingungen, die Unzuläng-lichkeit der nationalen Regelung aufgrund Widerspruchs zur DSGVO sowie der daraus folgende Bedarf an legislativer Anpassung thematisiert.

11:30
Zwei Welten, ein Datensatz – Data Act und DSGVO im Spannungsfeld

ABSTRACT. Die Schnittstelle zwischen Data Act und DSGVO zählt zu den zentralen offenen Fragen der europäischen Datenrechtsordnung. Der Beitrag beleuchtet, auf welcher datenschutzrechtlichen Grundlage Dateninhaber personenbezogene Daten nach Art 4 und 5 Data Act an Nutzer offenlegen dürfen. Im Fokus steht das Zusammenspiel mit Art 6 Abs 1 lit c DSGVO und die Frage, ob eine unionsrechtliche Pflicht nach dem Data Act als hinreichende Rechtsgrundlage gilt. Dabei werden auch die Folgerungen des EuGH-Urteils C-413/23 P (EDSB/SRB) berücksichtigt, das den Maßstab des relativen Personenbezugs und die Voraussetzungen für eine datenschutzneutrale Datenweitergabe neu definiert. Anhand verschiedener Datenzugriffsszenarien werden die Konsequenzen für Praxis und Compliance aufgezeigt: von der Abgrenzung der Verantwortlichkeiten über Prüf- und Dokumentationspflichten bis zu Risiken in Mehrparteien-Ökosystemen.

12:00
Dark Patterns at the Intersection of Data Protection and Consumer Law: The German Regulatory Approach

ABSTRACT. This paper analyzes Germany’s regulatory approach to dark patterns and demonstrates how German law operates at the intersection of data protection and consumer protection. Dark patterns increasingly manipulate users through interface designs that distort consent, obscure choice, or pressure individuals into transactions, creating overlapping harms that neither data protection law nor consumer protection law can fully address in isolation. Germany provides a leading case study in resolving these overlaps through a combined enforcement structure supported by the Digital Services Act, the Digitale-Dienste-Gesetz, the Act Against Unfair Competition, and GDPR supervisory practice. Using the Eventim litigation as a central example, the paper illustrates how German courts interpret dark patterns under the Unfair Commercial Practices Directive while drawing on DSA principles, revealing the practical interaction between regulatory regimes. It further examines the coordinated enforcement roles of the Bundesnetzagentur, the Federal Commissioner for Data Protection, and consumer associations, and explains how consent standards under the GDPR render manipulative design practices legally invalid. The paper concludes that Germany’s integrated model offers valuable guidance for future European frameworks, particularly as the EU considers new harmonised rules such as the proposed Digital Fairness Act.

11:00-12:30 Session 4C: Rechtstheorie
11:00
Von der situativen zur virtuellen Jurisprudenz

ABSTRACT. Bezeichnet man mit „virtuell“ ein einem existierenden Phänomen im Wesentlichen gleichendes Phänomen, dann lässt sich die Erzeugung von Rechtsnormen als virtuell geprägt erfassen. Dies insofern, als die Erzeugung auf gedanklich konstruierten Realitätskonzepten beruht. Die dominante Stellung der virtuellen Dimension hat durch die Möglichkeiten, für den Rechtsbereich computermedial virtuelle Räume zu produzieren und zu nutzen, eine immense Verbreiterung erfahren. Praktisch zeigt sich allerdings, dass die Involvierung des Computermedialen im juristischen Bereich an Grenzen stößt. Eine solche zog kürzlich der Oberste Gerichtshof, als er ein Rechtsmittel zurückwies, weil mit zahlreichen Fehlzitaten (betreffend vorgebliche Verfahrensergebnisse und zum Großteil gar nicht existierende oberstgerichtliche Entscheidungen) durchsetzte, offenbar ohne fachliche Kontrolle durch sogenannte ‚künstliche Intelligenz‘ erstellte Vorbringen schon ansatzweise dem erforderlichen Argumentationsniveau nicht genügt. Juristische Argumentation im Geleise ihrer traditionellen „Sach-Logik“ muss zumindest zur juristischen Kontrolle einer mit Hilfe künstlicher Intelligenz erstellten juristischen Argumentation zum Tragen gebracht werden. Die Anwendung der traditionellen juristischen Methoden kann die Deutung von Rechtsnormen und deren Anwendung auf einen individuellen Fall gewährleisten.

11:30
Digitalrecht und Systemtheorie - ein Annäherungsversuch

ABSTRACT. Das Recht kann bei der Erfassung digitaler Sachverhalte nicht unmittelbar auf tradierte Erfahrung zurückgreifen. Stattdessen bietet es sich an, sich dafür am Verständnis anderer wissenschaftlicher Disziplinen zu orientieren. Eine in diesem Zusammenhang geeignete Theorie ist die Systemtheorie Niklas Luhmanns. Ausgehend vom Begriff der Kommunikation beschreibt sie die Gesellschaft auf differenzierte Weise, wobei das Konzept des Mediums eine zentrale Rolle einnimmt. Dieser Begriff wird in diesem Beitrag auf digitale Medien angewandt und die daraus resultierenden Erkenntnisse dienen anschließend der Identifikation möglicher Ansatzpunkte für eine digitale rechtliche Ordnung.

11:00-12:30 Session 4D: E-Government II
11:00
Datenzentrierte Verwaltungsinformatik am Beispiel raumbezogener Genehmigungsverfahren
PRESENTER: Marco Brunzel

ABSTRACT. Deutschland braucht eine Staatsmodernisierung, die über die Digitalisierung einzelner Verfahren hinausgeht. Das Handlungsfeld Digitales Planen und Bauen zeigt exemplarisch, wie technische Innovation, Organisation, Recht, Finanzen, Kompetenzen und Politik ineinandergreifen müssen. Der Beitrag ordnet aktuelle Entwicklungen der Staats- und Verwaltungsmodernisierung – Modernisierungsagenda, Deutschland-Stack, EUDI-Wallet, Registermodernisierung – systemisch ein, fokussiert auf wesentliche Engstellen (NKR/Destatis) und skizziert ein Zielbild 2030: plattformbasiert, datenzentriert, föderal. Konkrete Handlungsempfehlungen richten sich an Bund und Länder, Kommunen und IT-Dienstleister und thematisieren insbesondere das Baugenehmigungsverfahren im Deutschland.

11:30
Mensch–KI-Zusammenarbeit in der kommunalen Verwaltung: Bedingungen verantwortungsvoller Kooperation

ABSTRACT. Österreichische Gemeinden nutzen zunehmend generative Künstliche Intelligenz, tun das allerdings oft informell und ohne klare Governance-Regeln. Gleichzeitig wachsen Aufgaben, rechtliche Anforderungen und Informationsbestände schneller, als verwaltungsinterne Strukturen Schritt halten können. Eine Studie des Vortragenden untersucht, wie KI-basierte Unterstützung die kommunale Wissensarbeit verbessern kann. Diese KI-basierte Unterstützung erfolgt in Form von Compound-AI-Systemen bestehend aus einem Sprachmodell, einem juristischen Wissensgraph und einer Retrieval-Komponente. Die Studie fragt unter welchen Voraussetzungen eine verantwortliche Zusammenarbeit von Mitarbeitenden und KI möglich ist. Auf Basis von halbstrukturierten Interviews mit Gemeindebediensteten und Vertreter:innen des Städtebunds analysiert die Arbeit sowohl bestehende Herausforderungen der Wissensarbeit als auch Erwartungen an KI-gestützte Unterstützung. Erste Einsichten zeigen, dass KI Orientierung schaffen und Wiederholarbeit reduzieren kann. Zugleich stellen sich aber automatisch auch Fragen der Nachvollziehbarkeit, der Rollenverteilung und der organisatorischen Verantwortung neu. Daraus leitet der Studienverfasser und Vortragende Bedingungen ab, unter denen KI einen rechtssicheren, einheitlichen aber auch praktikablen Beitrag zur kommunalen Verwaltung leisten kann.

12:00
Föderales Informationsmanagement in Digitalisierungsprojekten

ABSTRACT. 2012 startete in Deutschland das Föderale Informationsmanagement (FIM). Es regelt, welche Informationen zu Leistungsbeschreibungen, erforderlichen Daten und zu Vorgehensweisen der Leistungserstellung in Digitalisierungsprojekten deutschlandweit einheitlich erhoben, bereitgestellt und beachtet werden müssen. Ein Selbstläufer war das System nicht. Vorzufindendes Material unterstützt vor allem spezielles Systemwissen (Methodenexpertise) sowie technologische Spezifikationen. Es wurde mit Blick auf darin für Digitalisierungsverantwortliche und Projektleitungen relevantes Wissen gesichtet. Als Ergebnis findet man ein auf diese Zielgruppe ausgerichtetes Hintergrundwissen und Hinweise, welche Schritte weiter für diese Zielgruppe wünschenswert wären. Im Idealfall kann so die Anwendung von FIM gefördert werden.

11:00-12:30 Session 4E: Rechtsvisualisierung und Legal Design II
11:00
Implementing Legal Visualisation and Plain Language to Enhance Imprisonment Regime Progression in the Brazilian State of Ceará
PRESENTER: Diogo Sasdelli

ABSTRACT. The paper at hand presents a case study from the Brazilian state of Ceará on using plain language and legal visualisation techniques to improve prisoners’ understanding of their obligations during imprisonment regime progression. In study, explanatory leaflets combining simple language and visual aids were distributed to inmates in semi-open and open regimes. The pilot led to a 31,54 % reduction in non-compliance re-gressions, indicating that clearer communication can significantly enhance compliance and support rehabilitation. Beyond outlining the methodology employed, the paper at hand presents quantitative and qualitative results, and discusses potential implications of the employed methods for access to justice.

11:30
Calibrating Commitments for Humans and Machines: Legal Design for Dual Readability and Actionability - Part I
PRESENTER: Helena Haapio

ABSTRACT. As digital systems and AI agents increasingly mediate relationships, many initiatives pursue law-as-code and contracts-as-code. These approaches translate legal meaning into formal logic and machine-executable structures, assuming that obligations can be broken into binary components with predefined triggers and outcomes. Yet current computable law models lack the capacity to represent ambiguity, visual structures and calibrated or non-binding commitments – features essential in sustainability governance and other contexts.

However, real-world contracting and regulatory practice do not rely solely on clear-cut obligations or text-only formats. Contemporary contracts include tables, timelines, flowcharts and other visual elements, and they use calibrated commitments – aspirations, goals, expectations and soft duties expressed with varying specificity and normative force. Code-first models presupposing a single category of obligation struggle with such richness, risking both oversimplification and the erosion of human-centred communication.

This presentation – Part I of a two-part series – focuses on commitment calibration as a legal design method for dual human-machine readability. Part II (presented separately) builds on this foundation by introducing a modular, semi-structured representational approach for computable contracts. By making commitment calibration a core legal design concern, the presentation challenges prevailing code-first narratives and outlines a pathway toward next-generation computable law and wise contracts* that remain both human-readable and machine-actionable.

* James Hazard and Helena Haapio, 'Wise Contracts: Smart Contracts that Work for People and Machines' in Erich Schweighofer et al (eds), Trends and Communities of Legal Informatics (IRIS 2017 Proceedings) 425.

12:00
ProseObjects as a Designed Human–Machine Interface for Legal Relationships in an Automated Society

ABSTRACT. As AI systems, autonomous agents, and algorithmic infrastructures increasingly mediate social and economic relationships, the central question arises: how can human communities retain agency over these systems? Both deterministic approaches (such as smart contracts or domain-specific legal coding languages) and statistical approaches (LLMs, neural models) fall short of capturing the open-textured, contextual and negotiated qualities of the legal world. Deterministic approaches perform well under “happy-path” conditions but cannot independently handle ambiguity, exceptions, custom, or the interpretative practices which are fundamental to human relations and legal institutions. Statistical models are opaque, even to their creators. Yet many emerging initiatives in computable contracts and computer-readable legislation indicate the need for legal texts that are both human-comprehensible and machine-actionable.

This paper proposes ProseObjects as a socio-technical interface designed to meet this dual requirement. A ProseObject is a modular, structured unit of legal prose—contract clauses, definitions, obligations, exceptions, protocols—authored in natural language for human readability. At the same time, ProseObjects are organized in ways that support computational parsing, navigation, and operationalization. Unlike approaches that substitute code for prose, code-ify prose or wrap code in explanatory text, ProseObjects maintain conventional document practices and prose-first meaning, while using hyperlinks to reduce redundancy, encourage reuse and offer a structure that machines can work with. They allow legal nuance to remain expressible, interpretable and contestable, while supporting automation, validation, decision support, and integration with algorithmic systems.

ProseObjects build on traditions of legal design, information design, and contract usability, recognizing that structure, layout, pattern languages and visual cues are essential for dual readability and dual actionability. They are not purely textual constructs: they can incorporate design patterns, typographic signals, conditional visual structures, decision trees, and other cues that make logical or relational architecture explicit for humans, while remaining legible to computational systems. Thus, they offer a practical bridge between legal practitioners, regulators, civil society and communities with their own linguistic or cultural acquis, and the needs of digital infrastructures increasingly responsible for executing or interpreting obligations.

We suggest that ProseObjects may represent the best opportunity for traditional human communities—governments, courts, lawyers, advocates, designers, and non-coder professionals—to shape the automated future of contracting and regulation. As the space for non-coder human involvement narrows between high-level machine learning systems (“code-above”) and deterministic execution layers (“code-below”), ProseObjects preserve a space where human judgment, community values, and legal meaning can be authored, asserted, negotiated, and maintained.

14:00-15:30 Session 5A: KI & Recht / AI & Law I
14:00
Herausforderungen bei der Automatisierung im Registerwesen mit symbolischer KI und maschinellem Lernen
PRESENTER: Axel Adrian

ABSTRACT. Der vorliegende Aufsatz befasst sich mit den Herausforderungen, Forschungsfragen und ersten Lösungsansätzen für die Automatisierung juristischer Entscheidungsprozesse am Beispiel des Registerwesens unter Einsatz symbolischer Künstlicher Intelligenz (KI) und maschinellem Lernen (ML) einschließlich natürlicher Sprachverarbeitung (NLP). Die Autoren berichten hierbei von ihren Erfahrungen aus ihrem sich noch in der Durchführung befindlichen Forschungsprojekt zum „Automated Legal Reasoning“, wobei ihnen vom Auftraggeber sämtliche Handelsregisterdaten aus dem Freistaat Bayern zur Verfügung gestellt werden. Als konkretes Beispiel für die Untersuchung dient die für die Praxis relevante, doch rechtlich höchst umstrittene Frage nach der Eintragungsfähigkeit eines Nießbrauchs an einem Kommanditanteil ins Handelsregister.

14:30
Contractual or Non-Contractual Liability under Article 54 DSA?: That Is the Question

ABSTRACT. Article 54 of the Digital Services Act grants users the right to compensation for “any damage or loss” caused by intermediary service providers; however, its legal nature remains unsettled: contractual, non-contractual, or hybrid? While the contractual link between user and provider suggests fault-based liability, the breached obligations—diligence, objectivity, and proportionality under Article 14(4) DSA—are imposed ex lege to safeguard public interests such as fundamental and consumer rights (Raue 2023; Husovec 2024). Their infringement thus better constitutes a breach of a protective norm (Schutznorm), giving rise to non-contractual liability. The DSA’s hybrid architecture here merges regulatory duties and private enforcement, transforming standard-form contracts into vehicles of consumer rights compliance (De Franceschi, 2023; Gardiner, 2022). Contractual limitation clauses are also constrained by the Unfair Contract Terms Directive, the EU Charter’s Article 38, and the Digital Content Directive. Another critical issue related to Article 54 DSA concerns the concept of damages. According to the prevailing view in the literature (Raue 2023; Willman 2024), the notion of “damage” under Article 54 should encompass not only material but also immaterial harm, by analogy to the CJEU’s reasoning in Österreichische Post (C-300/21), which confirmed that non-economic harm may also be compensable. In this regard, the broadening concept of compensable damages can also be derived from the revised Product Liability Directive (PLD), which expressly recognises new categories of non-material harm—most notably data loss—as compensable damage (Wagner 2024). In situations where software is provided as a digital service under the DSA (Software-as-a-Service), product liability under the revised Directive may also arise, thereby extending the requirement of compensation to damages caused by a defective software product operating alongside a regulated intermediary service.

15:00
Potentiale der KI-Zertifizierung. Das Projekt CARAT
PRESENTER: Georg Borges

ABSTRACT. Die Konformitätsbewertung und Zertifizierung von KI-Systemen stehen im Zentrum der KI-Verordnung. KI-Systeme stellen die traditionellen Methoden der Konformitätsbewer-tung vor enorme Herausforderungen. Der Beitrag stellt das interdisziplinäre For-schungsprojekt „Potentials of the certification of AI systems in regulating Artificial Intel-ligence (CARAT) vor und analysiert die spezifischen Herausforderungen und Potentiale der Konformitätsbewertung und Zertifizierung von KI-Systemen mit einem Fokus auf KI-Systeme i.S. des Anhangs III der KI-Verordnung.

14:00-15:30 Session 5B: Datenschutz III
14:00
In the Defence of Absolute Understanding of Personal Data Definition

ABSTRACT. The concept of personal data has long been understood in absolute terms, as articulated by the Court of Justice of the European Union (CJEU) since Breyer (C‑582/14) and subsequent judgments (C-479/22 P, C-604/22). Under this approach, data capable of leading to the identification of an individual—even indirectly or by someone else—was treated as personal data, reflecting the preventive teleology of GDPR. However, the recent CJEU judgment in EDPS v SRB (C‑413/23 P), further supported by the recent Digital Omnibus Regulation Proposal, signals a possible shift toward a relative understanding, where the qualification of data as personal depends on the specific actor’s ability to identify the data subject. The paper examines the consequences of this shift from an absolute to a relative interpretation of personal data. It asks: What are the implications of adopting a relative concept of personal data within the EU data protection framework? The analysis proceeds in several stages: it first situates the concept of personal data within its teleological and normative context, then contrasts the established absolute approach with the emerging relative interpretation. The paper thereafter evaluates the potential consequences of this transition on two levels—systemic and practical. Systemically, the relative concept may blur the regulatory distinction between personal and non-personal data regimes, challenging legal certainty across data governance frameworks. In practice, it raises complex compliance questions, such as how a controller should assess their responsibilities when transferring pseudonymised data. The paper argues that a relative approach risks undermining the coherence of EU data protection law and weakening safeguards against indirect harms resulting from data misuse. Maintaining an absolute understanding is essential to uphold the preventive aims of GDPR, with a necessary condition that GDPR is interpreted thoroughly as a risk-based regulation with a strong emphasis on the principle of accountability of the data controller.

14:30
Artificial Intelligence and the GDPR: Challenges Of Exercising Data Subject Rights And The EDPB’s Recommendations

ABSTRACT. With the increasing integration of artificial intelligence (AI) tools into daily life, the implications for exercising data subject rights under the General Data Protection Regulation (GDPR) have become more pronounced. AI systems such as ChatGPT, Copilot, and Google Gemini are now widely used across various industries, raising significant concerns about the processing of personal data. However, the enforcement of data subject rights in relation to such models has encountered challenges that have not yet been addressed by European Union (EU) legislation. This article examines the challenges of exercising data subject rights within the context of AI models, as highlighted by the European Data Protection Board (EDPB) in its Opinion 28/2024, which addresses data protection aspects related to AI models. The author analyzes how the EDPB suggests strengthening data subject rights in AI models. This includes examining the criteria for considering AI models anonymous, the use of legitimate interest as a legal basis for data processing, suggestions on how to ensure data subject rights to information, erasure, and the right to object to data processing in AI models, and how the EDPB’s suggestions extend beyond current GDPR requirements.

15:00
Rollenverteilung zwischen Menschen und Technologie im Sicherheitsrecht - eine synoptische Analyse ausgewählter landesrechtlicher Ermächtigungsgrundlagen zur „automatisierten Datenanalyse“

ABSTRACT. Immer mehr Bundesländer greifen bei der Wahrnehmung sicherheitsrelevanter Aufgaben auf die sogenannte „automatisierte Datenanalyse“ zurück und haben seit der Entscheidung des Bundesverfassungsgerichts im Jahre 2023 ihre Ermächtigungsgrundlage (neu) konzipiert – unter anderem auch Hessen, Rheinland-Pfalz, Hamburg und kürzlichst Baden-Württemberg.

Die Begründung für den Einsatz der „automatisierten Datenanalyse“ variiert, führt jedoch als zentrales Argument die „zunehmende Komplexität bei der Bewältigung heterogener Daten“ an. Die „automatisierte Datenanalyse“ soll demnach dazu beitragen, die „bereits ge-speicherten Daten“ zu verknüpfen, sodass mittels ihrer Analyse „neues Wissen“ generiert werden kann. Ein Instrument zur „Effektuierung der Gefahrenabwehr“ und damit einem bereits 2023 durch das Bundesverfassungsgericht als legitim anerkannten Ziel. Im Ergebnis sollen so, um auf das Leitthema der IRI§26 zurückzukommen, „die Herausforderungen der datengetriebenen […] Verwaltung“ adressiert werden.

Gleichzeitig werden damit die Bundesländer auch vor die, (ebenfalls bei der IRI§26) zu erörternden Frage gestellt, wie die „Zusammenarbeit zwischen Menschen und Maschine“ sich gestalten lässt. Eine synoptische Analyse der Ermächtigungsgrundlagen zeigt, dass die Länder hierbei unterschiedliche gesetzgeberische Strategien verfolgen. Die Untersuchung erfolgt im Lichte dreier Schwerpunkte:

~ Terminologie: Welche sprachlichen Gemeinsamkeiten und Unterschiede lassen sich feststellen, die die Mensch-Maschinen-Zusammenarbeit berührt?

~ Time Management: Wie berücksichtigt die Ermächtigungsgrundlage aus zeitlicher Perspektive technische und rechtliche Transformation?

~ Kompetenz: Wie werden Aufgaben (und Verantwortung) zwischen Menschen und Maschinen verteilt?

Der Beitrag möchte durch eine synoptische Betrachtung einen Einblick darin geben, wie die Länder normativ auf die Herausforderungen des datengetriebenen Sicherheitsrechts reagieren.

14:00-15:30 Session 5C: Panel CARE Principles
14:00
The CARE Principles: towards a renewed Open Data policy for Sámi Digital Cultural Heritage
PRESENTER: Dino Girardi

ABSTRACT. Management, curation and stewardship of Indigenous open data is gaining global attention, especially due to raising awareness of Indigenous data ethics. The CARE principles for Indigenous data governance aim to tackle the sensitivities related to managing such data, while complementing the FAIR principles for scientific data management. Furthermore, in the EU, the Open Data Directive and the Data Acts, along with the Artificial Intelligence Act, are central to govern data. This EU legal framework, influencing Member States’ policies and legislations on open access as well as digitisation and preservation of cultural heritage is significantly affecting the Sámi communities. These regulatory instruments might increase opportunities for Sámi people to preserve and renew digitised datasets, facilitating intergenerational knowledge transfer, and promoting economic growth. However, they pose challenges for the key decision of whether and to what extent to make Sámi heritage datasets available in open data format. The most pressing concerns include issues of data sovereignty, such as data ownership, control, access, collection, storing and custody. Addressing these issues requires bringing to the discussion ethical perspectives that are indeed central to the exploitation of Sámi digital heritage. The paper argues that the EU rules should be implemented considering an appropriate policy and suitable instruments that protect Indigenous interests on their own cultural heritage and that tackle ‘data colonization’ practices. This presentation contributes to the discussion by making concrete propositions for how to strike a fair balance between the various interests at stake, relying on different regulatory means, towards an open data policy for Sámi heritage based on the principle of participation and engagement. The paper comments on the GIDA-Sápmi network objectives to make the Nordic research community, memory and archival institutions aware of the Indigenous CARE principles. In terms of methodology, legal doctrinal study and problem-solving methodologies from legal informatics will be used.

14:00-15:30 Session 5D: E-Government III
14:00
E-Government Panel Discussion: State of Play
PRESENTER: Reinhard Riedl

ABSTRACT. The goal of the panel is to create a broad awareness of contemporary challenges within e-government.

The panel will start with an Online Voting by the Audience (mix of multiple choice and word clouds) on the following topics - implementation of basic e-government building blocks - implementation of Once-Only - implementation of digital sovereignty - timeline for eIDAS 2.0 and the Digital Wallet - timeline for Data Act in public administration - timeline for EHDS - opinions on AI in E-Government - opinions on the Digital Package Thereby care will be taken that the questions can be understood by non-experts (no discussion of enterprise architectures and such funky expert stuff!)

Then the results will be discussed on the panel. We plan to invite generalists from the DACH area and integrate ad hoc generalists from other countries that participate in IRIS. In addition we shall try to make sure that for several key topics like once-only, specialists will be there to answer specific questions.

14:30
Menschen und Digitalisierung im Gesundheitswesen – Einblicke aus dem DACH-Raum
PRESENTER: David Richter

ABSTRACT. Der Beitrag beleuchtet, wie digitale Technologien die Gesundheitsversorgung in Deutschland, Österreich und der Schweiz verändern. Im Fokus stehen dabei nicht nur technische Innovationen, sondern vor allem die Menschen. Der Beitrag zeigt, wie digitale Lösungen Arbeitsabläufe, Behandlungsqualität und Patientenerlebnisse beeinflussen – sowie welche Chancen und Herausforderungen den digitalen Wandel im Gesundheitswesen im DACH-Raum prägen.

14:00-15:30 Session 5E: Rechtsinformation II - KI-gestützte Suche
14:00
Klassische Rechtsrecherche oder KI-Dialog - wie kommt man an besten zu gesicherten Antworten auf Rechtsfragen?

ABSTRACT. RIDA bietet nun in der Version "optimum" sowohl einen KI-Dialog als auch die klassische Recherche mit KI-Auswertung.

Das gleiche gilt in vergleichbarer Weise auch für die Verlagsdatenbanken wie RDB / Manz Genjus bzw Lexis 360 / Lexis+ AI.

Damit stellt sich für den Anwender die Frage, in welchen Suchsituationen es Sinn macht, die neuen KI-Dialoge zur befragen bzw wann einer klassischen Rechtsrecherche mit Suchbegriffen der Vorzug zu geben ist. Dieser grundsätzlichen (und neuen) Fragestellung widmet sich dieser Beitrag.

14:30
Die Automatisierung rechtlicher Workflows mit GenAI und proprietärem Content - das große Finale der Geschäftsmodelle?

ABSTRACT. Generative KI verändert die Nutzung rechtlicher Information grundlegend. Während bisherige Anwendungen vor allem Recherche und Analyse adressierten, rückt zunehmend die Automatisierung ganzer rechtlicher Workflows in den Mittelpunkt. Dabei verschmelzen zwei bislang getrennte Welten: proprietärer Content wird Teil operativer Prozesse, während Workflow-Lösungen ohne hochwertige, exklusive Daten an Wirkung verlieren.

Der Vortrag beleuchtet die zunehmende Konvergenz von Content- und Workflow-Anbietern. Content-Besitzer drängen in operative Anwendungen, während Workflow-Lösungen immer stärker auf hochwertigen, proprietären Daten aufbauen. Diese Entwicklung markiert ein mögliches "großes Finale" bestehender Geschäftsmodelle im Rechtsinformationsmarkt: Nicht mehr der isolierte Zugang zu Information, sondern die Kontrolle über den juristischen Arbeitsfluss entscheidet über nachhaltigen Mehrwert. Anhand einer kurzen Vorstellung einer GenAI-gestützten Workflow-Lösung wird diese Entwicklung konkret illustriert.

16:00-17:30 Session 6A: KI & Recht / AI & Law II
16:00
From Status Naturalis to Status Virtualis of Machines in the Age of Artificial Intelligence
PRESENTER: Vytautas Čyras

ABSTRACT. The legal status of machines is explored. A new concept, status virtualis, is a dialectical innovation. The reasoning begins with the thesis being status naturalis, proceeds through the antithesis being status civilis, and culminates in the synthesis being status virtualis. The notion of status virtualis is characterized primarily by different rules of governing in the so-called computer state. The status virtualis situations discussed can be observed in virtual reality, three-dimensional virtual worlds, massive multiplayer online games (MMOGs), mass media, films, and narratives.

16:30
Only Humans Can Understand Anything

ABSTRACT. The paper explores the thesis that, however impressive the performance of artificial intelligence systems -particularly large language models (LLMs) - their functioning cannot amount to genuine understanding. The analysis moves from philosophical and cognitive accounts of understanding to the mechanisms of symbolic and subsymbolic AI, arguing that the latter exhibit structural correlations with understanding but lack its constitutive dimension: consciousness and normativity. The human mind, though limited by bias, fatigue, and fallibility, possesses self-awareness, experiential depth and normative intentionality that no computational system replicates. Nonetheless, AI outputs may advance legal reasoning by supporting human understanding, provided that automation bias and uncritical reliance are curbed. The paper concludes with implications for legal education, advocating a shift from production to reflexive and ethical engagement with AI.

17:00
Text und Data Mining: Welche Botschaft senden österreichische Webseiten an KI-Anbieter?
PRESENTER: Thomas Schreiber

ABSTRACT. Generative KI erstellt Inhalte, z.B. Text, Bilder, Musik, Videos oder Programmcode und ahmt dabei oft menschliche Kreativität nach. Grundlage für die Entwicklung generativer KI-Modelle sind große Mengen an hochqualitativen Daten für das Training.

Für die Sammlung dieser Daten setzen KI-Entwickler:innen insbesondere Text und Data Mining (TDM) ein, um solche Daten von öffentlichen Websites zu sammeln. Das europäische Recht erlaubt es den Website-Betreiber:innen, durch ein Opt-Out-Verfahren der Nutzung der eigenen Inhalte zu widersprechen, etwa gegen die Nutzung durch KI-Anbieter:innen welche Informationen für KI-Training als auch für KI-Suchergebnisse verarbeiten.

In einer empirischen Erhebung haben wir basierend auf dem CommonCrawl-Datensatz analysiert, wie österreichische Website-Betreiber:innen von diesem Recht Gebrauch machen. Unsere technische Analyse und die gefundenen Ergebnisse möchten wir in diesem Talk präsentieren.

16:00-17:30 Session 6B: Datenschutz IV
16:00
"Ihre Testergebnisse sind verfügbar!" - Datenschutzrechtliche Aspekte von Push - Benachrichtigungen im Gesundheitswesen
PRESENTER: Mariana Rissetto

ABSTRACT. Push-Benachrichtigungen auf mobilen Endgeräten gewinnen im Gesundheitswesen zunehmend an Bedeutung, etwa für Termin- und Befundmitteilungen, Medikationshinweise oder sicherheitsrelevante Systemmeldungen. Ihre Nutzung wirft jedoch erhebliche datenschutzrechtliche und technische Fragen auf, insbesondere im Hinblick auf die Verarbeitung personenbezogener Daten und mögliche Drittlandübermittlungen nach der DSGVO. Anbieter von Push-Diensten wie Apple (Apple Push Notification Service, APNs) und Google (Firebase Cloud Messaging, FCM) nehmen hierbei eine dominierende Marktstellung ein und fungieren als technische Intermediäre zwischen Absender und Empfänger. Technisch bestehen Push-Benachrichtigungen aus mehreren Datenkategorien, darunter sogenannten Push Keys, die als „Zustelladressen“ für Benachrichtigungen dienen. Diese Kennungen können als personenbezogene Daten im Sinne von Art. 4 Nr. 1 DSGVO gelten. In diesem Fall stellt sich die Frage, ob die Verarbeitung dieser "Zu- stelladressen" (und ggf. zusätzlicher im Klartext übermittelter personenbezogener Daten) auf den Servern von Apple oder Google als eigene Verarbeitungstätigkeit dieser Unternehmen oder als Datenverarbeitung im Auftrag (Art. 28 DSGVO) zu werten ist – insbesondere im Gesundheitskontext, in dem sensible Daten nach Art. 9 DSGVO betroffen sein können. Während z.B. Google FCM sich selbst als Auftragsverarbeiter einschätzt, stellt sich in diesem Kontext nichtsdestotrotz die Auseinandersetzung die Frage, ob Push-Dienste – ähnlich wie Telekommunikations- oder Postdienstleister – 'nur' eine technische Zustellfunktion übernehmen, und daher eben doch deutlich Eigenschaften von Telekommunikationsdienstleistungen aufweisen. Dieser Beitrag untersucht daher, inwieweit Push-Benachrichtigungen im Gesundheitswesen datenschutzkonform implementiert werden können. Vor diesem Hintergrund, wird die zentrale Frage behandelt, wie Push-Dienste im Gesundheitswesen nach DSGVO und TTDSG rechtlich zu qualifizieren sind (z.B., eigenständige Kommunikationsdienste, Auftragsverarbeitung oder als gemeinsame Verantwortlichkeit), sowie ob bei der Nutzung von Push-Diensten wie APNs oder FCM eine Übermittlung personenbezogener Daten in Drittländer vorliegt, und unter welchen Bedingungen diese nach Art. 44 ff. DSGVO zulässig ist.

16:30
Die europäische Datensouveränität und ihre Feinde: Zur systematischen Aushöhlung der informationellen Souveränität durch transatlantische Compliance-Illusionen – Eine kritische Analyse am Beispiel der IRIS 2025 Konferenzsoftware und der EU-Kommission

ABSTRACT. Die DSGVO etabliert ein umfassendes Schutzregime für europäische Datensouveränität. Die praktische Implementierung wird jedoch durch die ubiquitäre Nutzung US-amerikanischer Cloud-Dienste systematisch konterkariert.

Der Beitrag analysiert diese Diskrepanz anhand zweier Fallbeispiele: der IRIS-Fachkonferenzsoftware und der Microsoft-365-Nutzung durch die EU-Kommission. Im Fall der IRIS werden personenbezogene Daten ohne präzise Offenlegung technisch-organisatorischer Maßnahmen und ohne Wahlmöglichkeit auf US-Servern verarbeitet. Zusätzlich erfolgt eine intransparente ex-ante-Abtretung von IP-Rechten als Teilnahmebedingung. Diese Praxis konterkariert das Transparenzgebot und die Freiwilligkeit nach Art 7 DSGVO.

Im Fall der EU-Kommission zeigt sich, dass selbst die "Hüterin der Verträge" datenschutzrechtliche Bedenken des Europäischen Datenschutzbeauftragten primär durch nachträgliche vertragliche Zusicherungen adressiert – ohne spezifizierte Maßnahmen oder wirksame Kontrollmechanismen. Dies etabliert einen problematischen "compliance by contract"-Ansatz, der "privacy by design" nach Art. 25 DSGVO unterläuft.

Die Fallstudien zeigen ein systemisches Problem: Die Angemessenheitsbeschlüsse für die USA – von Safe Harbor über Privacy Shield bis zum EU-US Data Privacy Framework – wurden durch die Schrems-Rechtsprechung des EuGH dekonstruiert. Die Divergenzen zwischen europäischem Grundrechtsschutz und US-Überwachungsarchitektur (Section 702 FISA, Executive Order 12333) persistieren.

Der Beitrag entwickelt Lösungsperspektiven: Rechtlich bedarf es substantiierter Transfer Impact Assessments, Anerkennung realer Verantwortlichkeit (Co-Verantwortlichkeit statt Auftragsverarbeitung) und verpflichtender ex-ante-Konformitätsprüfungen. Praktisch erfordert Datensouveränität den Aufbau europäischer Cloud-Infrastrukturen, Förderung von Open-Source und Kompetenzaufbau für digitale Eigenständigkeit. Ohne diese Maßnahmen bleibt informationelle Datensouveränität eine normative Fiktion.

16:00-17:30 Session 6C: KI - Hochschule
16:00
DECIDE: Datenräume für evidenzbasierte Entscheidungen und forschendes Lernen
PRESENTER: Marianne Mauch

ABSTRACT. Das Forschungsprojekt DECIDE (Data-driven Exploration in Contextual Information on Decisions) zielt darauf ab, die Qualität politischer Entscheidungsprozesse zu verbessern, öffentliche Dienstleistungen effizienter zu gestalten und die demokratische Transparenz zu erhöhen. Im Mittelpunkt steht die Entwicklung eines Legislative and Decision Data Space (DS), der lokale und regionale Regierungsentscheidungen mit thematisch relevanten Kontextdaten verknüpft. Durch die strukturierte Veröffentlichung von Gesetzgebungen und Beschlüssen als Linked Open Data (LOD) entsteht eine interoperable, maschinenlesbare Dateninfrastruktur, die datenbasierte Analysen, Entscheidungsunterstützung und Bürgerbeteiligung ermöglicht.

In den Pilotstädten/Regionen Flandern, Gent, Freiburg und Bamberg werden datengetriebene Anwendungen erprobt, etwa zur Analyse von Mobilitätszonen, Umweltmaßnahmen oder Förderprogrammen für nachhaltiges Bauen. Diese realen Einsatzkontexte dienen der Validierung des Datenraumkonzepts und der Entwicklung übertragbarer Modelle für andere europäische Städte und Regionen. Wissenschaftlich leistet DECIDE einen Beitrag zur Digitalisierung des öffentlichen Sektors, indem Konzepte aus Linked Data, semantischer Interoperabilität und Data Governance in die kommunale Entscheidungsfindung integriert werden.

Das Projekt verbindet Forschung, Lehre und Praxis. Studierende entwickeln im Rahmen von Projektarbeiten, Seminaren und Abschlussarbeiten praxisorientierte Anwendungen und Analysen. Die Inhalte werden in Vorlesungen zu Open Data, Smart Governance und digitaler Verwaltung eingebunden. Ergänzend fördern Exkursionen zu den Pilotstädten den Austausch mit Verwaltungspartnern und ermöglichen es den Studierenden, datenbasierte Entscheidungsprozesse in realen Kontexten kennenzulernen. So trägt DECIDE zur Qualifizierung zukünftiger Fachkräfte und zur nachhaltigen Verankerung datengetriebener Innovationsprozesse in der öffentlichen Verwaltung bei.

16:30
BCI-Geräte im Hochschulkontext – ein Spektrum von der Förderung des Wohlbefindens Studierender über die Steigerung kognitiver Fähigkeiten bis hin zu potenziellen Risiken und Schädigungen.

ABSTRACT. Die digitale Transformation der Universitäten verändert die Landschaft des Lehrens und Lernens grundlegend und erfährt zunehmend Unterstützung durch Neurotechnologien. Aus der Perspektive der Studierenden kann der Einsatz von Brain-Computer-Interfaces (BCI) zu erheblichen Verbesserungen führen (optimierte Prüfungsleistungen, eine höhere Abschlussquote im Hochschulstudium). Die Erkennung psychologischer Phänomene wie Aufmerksamkeit, Konzentration, Stress oder Angst, die Förderung kognitiver Fähigkeiten, personalisiertes Lernen unter Bezugnahme individueller Bedürfnisse – beispielsweise bei ADHS – unterstützen gezielt beim Lernen (Jiang, Huang & Li, 2024). Neben Herausforderungen hinsichtlich Benutzerfreundlichkeit und technischer Zuverlässigkeit spielen vor allem ethische Überlegungen eine zentrale Rolle beim Einsatz von BCI im Bildungsbereich. Diesbezüglich besteht jedoch eine deutliche Forschungslücke (Patel, Tian & Li, 2025; Shompa, 2025). Die Identifizierung, Analyse und Bewertung ethischer Risiken sind wesentliche Schritte, und muss kontextbezogen erfolgen, um die spezifischen Gefahren im Zusammenhang mit der Nutzung von BCI-Systemen präzise erfassen zu können (Schulenburg & Nida-Rümelin, 2013). Besondere Bedeutung kommt dabei Aspekten der Autonomie zu – etwa der autonomen Entscheidung über Nutzung/Nichtnutzung, der möglichen Manipulation durch Informationsasymmetrien, dem Eingriff in die Privatsphäre, dem Datenschutz und der informierten Einwilligung. Ebenso relevant sind potenzielle Risiken wie Unzuverlässigkeit der Geräte, geringe Stichprobengrößen oder Unterschiede in den verwendeten Verfahren und Techniken (Traunwieser, 2025). Darüber hinaus könnten BCI-Systeme auch zur Überwachung und Kontrolle von Schummelversuchen bei online-Prüfungen eingesetzt werden (Speer, Smidts & Boksem, 2021). Für die Abwägung zwischen Nutzen und möglichen Schäden kann dabei das Verhältnismäßigkeitsprinzip als hilfreicher ethischer Rahmen zur Erreichung eines legitimen Ziels, das notwendig und keine unverhältnismäßige Belastung darstellt, dienen. Ob eine bestimmte Maßnahme als verhältnismäßig gilt, hängt maßgeblich davon ab, ob sie der Erreichung eines legitimen Ziels dient, nicht über das hierfür erforderliche Maß hinausgeht (Notwendigkeit) und keine unverhältnismäßige Belastung für die betroffenen Individuen darstellt (Karliuk, 2022).

Eaton, S. E. (2023). Postplagiarism: Transdisciplinary ethics and integrity in the age of artificial intelligence and neurotechnology. International Journal for Educational Integrity, 19(1), 23. Jiang, Y., Huang, Q., & Li, Y. (2024). Application strategies of brain-computer interface in education from the perspective of innovation diffusion theory. Brain-Apparatus Communication: A Journal of Bacomics, 3(1), 2376368. Karliuk, M. (2022). Proportionality principle for the ethics of artificial intelligence. AI Ethics, 985–990. Patel, A. S., Tian, X., & Li, Z. (2025). ASSESSING BCI APPLICATIONS IN EDUCATION: THE CORRELATION BETWEEN STUDENT ATTENTION AND PERFORMANCE, SAIS 2025 Proceedings. 11. Schulenburg, J., & Nida-Rümelin, J. (2013). Risikobeurteilung/Risikoethik, in Grunwald, A., & Hillerbrand, R. (Eds.), Handbuch Technikethik, Stuttgart: JB Metzler, 223-227. Shompa, S. N. (2025). Brain-Computer Interfaces for Accessibility in Education. Journal of Data Analytics and Intelligence, 1(2). Speer, S. P., Smidts, A., & Boksem, M. A. (2021). Cognitive control promotes either honesty or dishonesty, depending on one's moral default. Journal of Neuroscience, 41(42), 8815-8825. Traunwieser, S. (2025). Neurodata-based headsets for the (digital) employee well-being–responsibilities between benefit and harm. International Journal of Ethics and Systems, 41(1), 64-87.

17:00
Effiziente Nutzung generativer KI-Systeme zur Erstellung rechtswissenschaftlicher Texte
PRESENTER: Georg Borges

ABSTRACT. Generative KI-Systeme werden in erheblichem Maße zur Erstellung rechtswissenschaft-licher Texte eingesetzt. Dies gilt für Seminar-, Bachelor- und Masterarbeiten ebenso wie für Veröffentlichungen jeglicher Art. Im Juristischen KI-Projekt Saarbrücken (JIPS) wurde im Sommersemester 2025 an der Universität des Saarlandes von Juristen unter-schiedlicher Anciennität (Studierende, wiss. Mit., Professor) erprobt, wie generative KI-Systeme zur Fertigung rechtswissenschaftlicher Arbeiten eingesetzt werden können. Dabei wurden sowohl problematische Nutzungen als auch nützliche Use Cases identifiziert. Der Beitrag stellt die Methodik und wesentlichen Ergebnisse des Projekts vor.

16:00-17:30 Session 6D: E-Government III & E-Democracy
16:00
Seven Patterns of Man-Machine Collaboration in Digital Government and Digital Health

ABSTRACT. The concept of a pattern language was introduced by Christopher Alexander in architecture and taken up in software engineering. From there it spread throughout computer science and business informatics with various spillovers to several domains in social sciences. Pattern languages haven proven to enable the teaching of tacit knowledge and to support a fruitful exchange among practitioners on the their experiences with solution building. While there is a huge variety of aspects concerning the introduction of AI in healthcare and in public administration, the actual embedding of AI into workflows is both of critical importance and limited in scope. We identify seven different patterns of collaboration and illustrate them with examples, thereby highlighting the very specific domain-dependent logic of each of these patterns.

16:30
On the Strategic Integration of Artificial Intelligence in Parliaments: A Five-Point Framework
PRESENTER: Jörn von Lucke

ABSTRACT. In response to the accelerating uptake of Artificial Intelligence (AI) across the public sector, this concept paper proposes a practical, five-point framework for integrating AI into parlia-mentary work: strategy, prioritization, training, implementation and governance. Drawing on workshops and early implementations in multiple legislatures, we outline core AI technolo-gies and indicative applications—ranging from text analytics and information extraction to drafting support—while emphasizing privacy, security and responsible use. We discuss or-ganizational prerequisites (quick wins, national-language LLMs and cross-sector support) and adapt a traffic-light deployment model to guide decisions on where cloud, partner-hosted or on-premises LLMs are appropriate. The approach is designed to be locally configurable rather than one-size-fits-all, enabling parliaments to pursue transparent, accountable and cost-effective AI adoption aligned with legal and ethical obligations.