View: session overviewtalk overview
| 09:00 | Die Verschlüsselung von personenbezogenen Daten im Lichte der EuGH-Rechtsprechung PRESENTER: Nils Wiedemann ABSTRACT. Der Beitrag untersucht die Auswirkungen der Verschlüsselung auf den Personenbezug von Daten im Lichte der aktuellen Rechtsprechung des EuGH, insbesondere dessen Urteil in der Rechtssache EDSB/SRB. Der Beitrag zeigt auf, dass die dort entwickelten Grundsätze auf die Verschlüsselung von personenbezogenen Daten übertragbar sind, indem die technischen Grundlagen symmetrischer und asymmetrischer Verschlüsselung sowie deren Sicherheitseigenschaften dargestellt und mit der Begriffsbestimmung der personenbezogenen Daten verknüpft werden. Darauf aufbauend wird dargelegt, wie die Beurteilung des Personenbezugs verschlüsselter Daten anhand der Rechtsprechung des EuGH zu erfolgen hat. |
| 09:30 | Relativer Personenbezug und Pseudonymisierung im Zeitalter der Künstlichen Intelligenz ABSTRACT. Das jüngste EuGH-Urteil C-413/23 P (EDSB / SRB) markiert einen Wendepunkt im unionsrechtlichen Verständnis personenbezogener Daten: Nur wer selbst über rechtliche oder tatsächliche Mittel zur Re-Identifizierung verfügt, verarbeitet personenbezogene Daten im Sinne der DSGVO. Der Beitrag untersucht die Folgewirkungen dieser Rechtsprechung für das Training von KI-Modellen und zeigt, warum diese Entscheidung das Training von KI faktisch erleichtert, insbesondere indem sie für Akteure ohne Re-Identifizierungsmittel die Möglichkeit eröffnet, Datensätze außerhalb des Anwendungsbereichs der DSGVO zu verarbeiten. Damit stärkt das Urteil die Rechtssicherheit bei KI-Training, synthetischen Daten und Datenkooperationen – solange die Trennung von Identifikatoren und Trainingsdaten effektiv und dauerhaft umgesetzt wird. |
| 10:00 | SRB-Urteil des EuGH zum Personenbezug aus Perspektive der Anwaltspraxis ABSTRACT. Der EuGH hat sich in seinem SRB-Urteil vom 04.09.2025 erfreulich deutlich zum Personenbezug von Daten geäußert. Die Entscheidung reiht sich in die bisherige Rechtsprechung des EuGH zum Personenbezug von Daten ein und hat große, wenn auch noch umstrittene Folgen für die Praxis. Der Vortrag zielt darauf ab, das Urteil des EuGHs zum Personenbezug von Daten vorzustellen, in den Kontext bisheriger Rechtsprechung zu setzen und seine Implikationen für die Praxis zu skizzieren. |
| 09:00 | Wissenstransfer in der Verwaltung – eine praxisorientierte Sicht PRESENTER: Tanja Krins ABSTRACT. Die Verwaltungspraxis sieht sich zunehmend größeren Herausforderungen im Umgang mit Wissensbewahrung und Wissensweitergabe gegenüber. Während einerseits in den nächsten zehn Jahren die Alterskohorte der jetzt 57-67-jährigen altersbedingt die Verwaltung verlässt und ihre Stellen oftmals durch haushaltbedingte Besetzungssperren nur zeitversetzt nachbesetzt werden, ist andererseits die Gewinnung von neuen Fachkräften für diese Vakanzen schwierig. Zudem haben diese auch immer kürzere Verweildauer in einer oftmals als sehr bürokratisch und starr empfundenen Verwaltung. Onboarding und Mentoring, Wissenserhalt und Wissenstransfer sind daher zentrale Aufgaben für das Personalmanagement im öffentlichen Dienst geworden. Zugleich verankert der Gesetzgeber immer mehr Anforderungen an den sorgfältigen Umgang mit Wissen in Vorschriften. Dies geschieht auch in dem Verständnis, dass Wissenssicherung der Risikominimierung und Zukunftssicherung dient und damit ein strategischer Faktor ist. Für den Bereich der Öffentlichen Verwaltung gilt es daher, praxisnahe Lösungsansätze zu finden, die auch Themen wie Mentoring und Onboarding neue Kräfte berücksichtigen. Hierbei ist auch zu überlegen, ob und inwiefern KI ein unterstützendes Moment der Wissenssicherung sein kann. Die Einreichenden werden auf Basis einer im Juni 2025 erschienenen praxisnahen Publikation „Wissenstransfer und Onboarding in der öffentlichen Verwaltung“ (https://www.gfwm.de/wtransfer-verwaltung/) einen Überblick über aktuelle Umsetzungsbeispiele und die weitere Diskussion seit der Veröffentlichung geben. Anschließend sollen mit dem Auditorium weitere Entwicklungsmöglichkeiten erörtert werden. Es handelt sich um eine Einreichung aus der Praxis. |
| 09:30 | Enterprise Architecture Management im öffentlichen Sektor: Das IT-Ökosystem einer mittelgroßen Schweizer Gemeinde PRESENTER: Jonas Aebischer ABSTRACT. Die öffentliche Verwaltung steht auf Grund der Digitalisierung ihrer Services vor großen Herausforderungen. Am Beispiel einer mittelgroßen Schweizer Gemeinden wird gezeigt, welche Potenziale in der Anwendung von Enterprise-Architecture-Management Methoden auch für die öffentliche Verwaltung stecken, wenn man deren spezifischen Rahmenbedingungen berücksichtigt. Mit Hilfe der Modellierungssprache ArchiMate werden zwei Viewpoints – Organizational und Technology Usage – in Form von Diagrammen abgebildet und analysiert. Hieraus werden in Verbindung mit aufgestellten Anforderungen strategische, konkrete Maßnahmen abgeleitet. |
| 10:00 | KI-Einsatz in der deutschen Finanzverwaltung – Konkrete Anwendungsbeispiele im außergerichtlichen Rechtsbehelfsverfahren im Überblick ABSTRACT. Das Einspruchsverfahren im deutschen Besteuerungsverfahren steht vor einem digitalen Wandel. Der Beitrag entwickelt einen Systematisierungsrahmen, der KI-Anwendungen in Front Office, Back Office, Entscheidungsunterstützung und Vollautomatisierung kategorisiert. Anhand konkreter Beispiele – von Chatbots bis zu automationsgestützten Einspruchsentscheidungen – werden Chancen und rechtliche Anforderungen analysiert. Die Systematik schafft einen Ordnungsrahmen für die strategische Weiterentwicklung. |
| 09:00 | Legal Informatics, Legal Technology and Legal Design: Stronger Together? PRESENTER: Tobias Mahler ABSTRACT. This paper provides an integrated mapping of legal informatics, legal technology, and legal design as complementary perspectives on the interaction between law, humans, and digital systems. It traces the development of legal informatics, contrasts it with the ap-plied focus of legal technology, and introduces legal design as a human-centred ap-proach concerned with goal-reaching, purpose, action, and outcomes. Rather than treating these perspectives as separate, the paper argues that they are stronger when un-derstood as mutually reinforcing dimensions of how legal solutions can be designed and built to better meet the needs of those they are meant to serve. A potential path toward integrating all three approaches is discussed. |
| 09:30 | The Detection of Deceptive Patterns on Online Interfaces by Computer Programs ABSTRACT. The paper discusses the insights gained from the supervision of software engineering students who are writing programs that detect “dark patterns” on online interfaces. Hence, the supervisors pursue educational goals while introducing students to the field of computer ethics. The detection programs analyze the HTML code of sales portals. The commandments of computer ethics prohibit the causing of harm and require a consideration of the social consequences of the system being designed. Deceptive patterns are harmful to consumers, not to sellers. We hold that the loss of trust in unfair sellers is a more serious problem than just the use of prechecked boxes. Information technologies become untrustworthy. User consent becomes inefficient because users are burdened with analyzing risks on webpages. |
| 10:00 | „Legal Design for an AI-driven World“ – Lern- und Erfahrungskapital aus der Veranstaltung „Europäisches (KI-)Recht“ seit 2020 ABSTRACT. Voraussetzungen der „Zusammenarbeit zwischen Mensch und Maschine im Cyberspace“ (IRI§26-Titel) sind die Entwicklung sogenannter „KIs“ (künstliche Intelligenzen) wie die Fortbildung traditioneller „MIs“ (menschliche Intelligenzen) – auch in Hinblick auf ein Leben mit diesen KIs. Die „AI-driven World“ (Terminologie der High Level Expert Group) verlangt wie ermöglicht Perspektiven zum Potenzial der MIs –auch in der Nutzung von, der Konkurrenz mit wie der Verdrängung durch KIs. „DEA EX MACHINA“ (das beste KI-unterstützte Selbst von Viola Schmid) auf der einen und die Separation ihres Wissens von ihrer Autorenschaft (im Interesse des Allgemeinwohls?) durch „KI-Wissensusurpation“ auf der anderen Seite, sind Optionen eines „Legal Design“-Gestaltungskorridors. Muss die MI „modernste Technologien“ nutzen, um den Rechtsvorbehalt durchzusetzen? Art. 53 Abs. 1 lit. c KI-VO könnte diese „modernsten“ Technologien verlangen! Forderungen nach/Behauptungen einer „human-centric and trustworthy AI“ (Art. 1(1) AI Act) werden diese Herausforderungen vermutlich allein nicht bewältigen. Deswegen gibt es seit 2020 an der TU Darmstadt eine Vorlesung mit Übung „Europäisches (KI-)Recht“ als Forschungs-, Lehr- und Lerninkubator. Geteilt wird die damals zugrunde gelegte Zielvorstellung: „Agenda dieser Pioniervorlesung ist zum einen die Vermittlung von Grundlagenwissen für die Entwicklung einer europäischen Rechtsperspektive und zum anderen die Entwicklung von Verantwortungsbewusstsein für eine grundlegende Veränderung, die die Ergänzung der Menschheit wie der Mitwelt mit KI bedeuten könnte.“ Die Erkenntnisse, Erfahrungen und Ergebnisse werden als Teil der CyLaw-Report Serie (cylaw.tu-darmstadt.de/popp/produkt/cylaw_reports/index.de.jsp) in einer Legal Open Source Veröffentlichung konzipiert und auch der IRI§26 angeboten. Dem GoCore!-Prinzip folgend werden 10 Thesen aus diesen Erfahrungen im IRI§26-Beitrag filtriert. Siehe ergänzend die Handreichung zu generativer KI […] der TU Darmstadt. |
| 11:00 | Treyst.ai: Human-Machine Collaboration in EU Legislative Compliance - Leveraging Large Language Models for Efficient EU Compliance processes PRESENTER: Safa Jemai ABSTRACT. The implementation of EU directives into national legislation across 31 EEA countries represents a critical yet challenging regulatory function. "Gold-plating"—the practice of exceeding minimum EU directive requirements during national implementation—costs Iceland alone approximately €1.7 billion annually and creates disproportionate burdens for businesses and public administration. Current manual comparison processes, where legal experts review hundreds of legislative articles to identify discrepancies, are time-consuming, inconsistent, and unable to keep pace with the evolving regulatory landscape affecting 24 million enterprises across Europe. Treyst.ai addresses this challenge through practical application of generative AI, directly embodying IRIS26's conference theme of human-machine collaboration in cyberspace. Rather than attempting to replace legal professionals with autonomous AI agents, our approach demonstrates how Large Language Models (LLMs) can augment human expertise in regulatory compliance tasks. This addresses the fundamental question posed by the conference: How do we effectively integrate generative AI and LLMs into legal practice while maintaining appropriate human oversight and legal accountability? Our methodology centers on training LLMs specifically for legislative analysis through extensive collaboration with legal experts from the EFTA Surveillance Authority (ESA) and multiple Icelandic government ministries. Treyst.ai performs three critical use cases that demonstrate productive human-machine collaboration: First, automated detection of gold-plating in existing and draft legislation, where AI handles large-scale pattern recognition while legal experts provide contextual judgment and policy interpretation. Second, comparative analysis of EU directives against national implementations, enabling exhaustive cross-referencing impossible for humans at scale while maintaining expert oversight. Third, legislative drafting assistance that ensures EU compliance without over-implementation, with AI generating compliant drafts that legal professionals refine based on national policy priorities. Early implementation results from testing with Icelandic ministries and ESA reveal significant efficiency gains: tasks requiring weeks of manual review are completed in minutes, coverage expands from sample-based to comprehensive article-level analysis, and the system achieves high accuracy in identifying discrepancies while providing transparent reasoning for each detection—a critical requirement for professional acceptance. Importantly, legal professionals maintain ultimate decision-making authority, with AI serving as an augmentative tool rather than an autonomous decision-maker. Our work addresses several open questions in legal informatics regarding generative AI deployment: The hallucination challenge is mitigated through domain-specific fine-tuning and expert validation loops. The "black box" problem is resolved through explainable outputs that trace all reasoning to specific legal provisions. The attribution and responsibility question is addressed by positioning AI within existing governance structures where human experts retain accountability. These practical solutions emerge from real-world implementation experience rather than theoretical speculation. As new "actors" in the form of AI agents become capable of processing legal texts, the challenge lies not in replacing human expertise but in creating effective collaboration frameworks. Treyst.ai demonstrates that generative AI can enhance governmental efficiency, reduce compliance costs for millions of European enterprises, and support evidence-based policy-making—all while maintaining human oversight and legal accountability. Our experience offers concrete insights for policymakers, legal professionals, and technologists navigating AI integration in regulated environments, providing a replicable model for responsible AI deployment in high-stakes legal contexts. This paper presents our technical approach, implementation results, lessons learned from government collaborations, and broader implications for the legal informatics community as we collectively address how humans and machines should collaborate in the evolving cyberspace of legal practice. |
| 11:30 | Wie künstliche Intelligenz Rechtsentscheidungen unterstützen kann – Zur semantischen Validierungspflicht in der juristischen Entscheidungsfindung ABSTRACT. Die Integration von LLMs in die juristische Entscheidungsfindung wirft grundsätzliche Fragen zur Vereinbarkeit mit rechtsstaatlichen Prinzipien auf. Der Beitrag zeigt anhand des OODA-Loop-Konzepts sowie Morris’ Semiotik (Syntax, Semantik, Pragmatik), strukturelle Grenzen: LLMs erzeugen nur syntaktische Möglichkeitsräume und künstliche Kommunikation ohne Realitätsbezug, Sprecherintention oder pragmatische Handlungskompetenz. Da sie weder objektive noch subjektive Wahrheitsansprüche erfüllen, können LLM-generierte Informationen als "abjektiv" bezeichnet werden. Nach Schneier scheitert der Versuch, OODA-Loops auf KI-Agenten zu übertragen, an grundsätzlichen Beschränkungen: LLMs können Tatsachen nicht von Halluzinationen unterscheiden, da ihnen semantische Validierungskapazität fehlt. Anhand des methodischen Ansatzes einer Studie der Universität Zürich zu "AI assisted legal decision making" (2025) wird die rechtsontologische Inkompatibilität automatisierter Rechtsentscheidungen dargestellt. Positionen wie jene von Adrian, der einen „Richterautomaten“ fordert, verstärken die Gefahr einer Entmenschlichung des Rechts und der Aufgabe menschlicher Kontrolle und demokratischer Begründungskultur an Maschinenwillkür. Der Beitrag entwickelt ein Governance-Framework nach dem Disciplined-Agile-Ansatz, das „Human in Command“ als zwingende Voraussetzung festschreibt: KI-Nutzung im Recht erfordert eine fachlich-menschliche Nachprüfung, die organisatorisch gestützt wird. KI kann Empfehlungen liefern, aber sie ersetzt nicht die notwendige menschliche Entscheidungsebene und die dafür benötigten fachlichen und zeitlichen Ressourcen, die abstrakte Lösungsvorschläge nachvollziehbar mit der konkreten Realität verknüpfen. |
| 12:00 | Der Think-Tank “Liquid Legal Institute LLI” stellt sich vor PRESENTER: Katharina Bisset ABSTRACT. Das Liquid Legal Institute (LLI) ist ein internationaler, interdisziplinärer Think Tank mit Sitz in München, der sich der digitalen Transformation und Standardisierung im Rechtswesen widmet. Es ist ein eingetragener, gemeinnütziger Verein deutschen Rechts (e. V.) und wurde 2016 von sieben Expert aus Jura, Wirtschaft, Informatik und Design Thinking gegründet. Zentrale Ziele und Aktivitäten Das LLI versteht sich als offene, neutrale und kollaborative Plattform, auf der Juristinnen, Informatiker, Unternehmensjuristen, Kanzleien und andere Akteure gemeinsam an der Zukunft des Rechtssystems arbeiten. Seine Mission ist es, Innovation, Digitalisierung und Standardisierung in der Rechtsbranche voranzutreiben – also Themen wie Legal Tech, Datenformate, Prozessautomatisierung und „Legal Transformation“ zusammenzuführen. Zu den wichtigsten Projekten des LLI gehören: • Common Legal Platform: Ein Open-Source-Vorhaben zur Entwicklung digitaler Standards für rechtliche Prozesse. • LLI Whitepapers und Extracts: Fachpublikationen über neue Technologien, Datenstandards und Organisationsformen im Recht. • Kooperationen und Veranstaltungen, etwa mit Plattformen wie legalXchange oder durch internationale Zusammenschlüsse wie die geplante Fusion mit der Digital Legal Exchange. Bedeutung für die Rechtsinformatik im DACH-Raum Für die Rechtsinformatik-Szene in DACH (Deutschland, Österreich, Schweiz) spielt das LLI eine Schlüsselrolle, weil es: • eine Brücke zwischen Technik und Recht bildet und den interdisziplinären Austausch fördert ; • Standardisierung und Interoperabilität in juristischen IT-Systemen vorantreibt, was essenziell für automatisierte Rechtsanwendungen ist ; • wissenschaftliche und praktische Akteure zusammenbringt und so die Innovationsfähigkeit der Rechtsbranche stärkt. Damit fungiert das LLI als Treiber der Rechtsinformatik und Legal-Tech-Modernisierung im DACH-Raum – vergleichbar mit einem Open-Source-Labor für Rechtsinnovation, das internationale Sichtbarkeit genießt. |
| 11:00 | Datenzentrierte Verwaltungsinformatik am Beispiel raumbezogener Genehmigungsverfahren PRESENTER: Marco Brunzel ABSTRACT. Deutschland braucht eine Staatsmodernisierung, die über die Digitalisierung einzelner Verfahren hinausgeht. Das Handlungsfeld Digitales Planen und Bauen zeigt exemplarisch, wie technische Innovation, Organisation, Recht, Finanzen, Kompetenzen und Politik ineinandergreifen müssen. Der Beitrag ordnet aktuelle Entwicklungen der Staats- und Verwaltungsmodernisierung – Modernisierungsagenda, Deutschland-Stack, EUDI-Wallet, Registermodernisierung – systemisch ein, fokussiert auf wesentliche Engstellen (NKR/Destatis) und skizziert ein Zielbild 2030: plattformbasiert, datenzentriert, föderal. Konkrete Handlungsempfehlungen richten sich an Bund und Länder, Kommunen und IT-Dienstleister und thematisieren insbesondere das Baugenehmigungsverfahren im Deutschland. |
| 11:30 | Mensch–KI-Zusammenarbeit in der kommunalen Verwaltung: Bedingungen verantwortungsvoller Kooperation ABSTRACT. Österreichische Gemeinden nutzen zunehmend generative Künstliche Intelligenz, tun das allerdings oft informell und ohne klare Governance-Regeln. Gleichzeitig wachsen Aufgaben, rechtliche Anforderungen und Informationsbestände schneller, als verwaltungsinterne Strukturen Schritt halten können. Eine Studie des Vortragenden untersucht, wie KI-basierte Unterstützung die kommunale Wissensarbeit verbessern kann. Diese KI-basierte Unterstützung erfolgt in Form von Compound-AI-Systemen bestehend aus einem Sprachmodell, einem juristischen Wissensgraph und einer Retrieval-Komponente. Die Studie fragt unter welchen Voraussetzungen eine verantwortliche Zusammenarbeit von Mitarbeitenden und KI möglich ist. Auf Basis von halbstrukturierten Interviews mit Gemeindebediensteten und Vertreter:innen des Städtebunds analysiert die Arbeit sowohl bestehende Herausforderungen der Wissensarbeit als auch Erwartungen an KI-gestützte Unterstützung. Erste Einsichten zeigen, dass KI Orientierung schaffen und Wiederholarbeit reduzieren kann. Zugleich stellen sich aber automatisch auch Fragen der Nachvollziehbarkeit, der Rollenverteilung und der organisatorischen Verantwortung neu. Daraus leitet der Studienverfasser und Vortragende Bedingungen ab, unter denen KI einen rechtssicheren, einheitlichen aber auch praktikablen Beitrag zur kommunalen Verwaltung leisten kann. |
| 12:00 | Föderales Informationsmanagement in Digitalisierungsprojekten ABSTRACT. 2012 startete in Deutschland das Föderale Informationsmanagement (FIM). Es regelt, welche Informationen zu Leistungsbeschreibungen, erforderlichen Daten und zu Vorgehensweisen der Leistungserstellung in Digitalisierungsprojekten deutschlandweit einheitlich erhoben, bereitgestellt und beachtet werden müssen. Ein Selbstläufer war das System nicht. Vorzufindendes Material unterstützt vor allem spezielles Systemwissen (Methodenexpertise) sowie technologische Spezifikationen. Es wurde mit Blick auf darin für Digitalisierungsverantwortliche und Projektleitungen relevantes Wissen gesichtet. Als Ergebnis findet man ein auf diese Zielgruppe ausgerichtetes Hintergrundwissen und Hinweise, welche Schritte weiter für diese Zielgruppe wünschenswert wären. Im Idealfall kann so die Anwendung von FIM gefördert werden. |
| 11:00 | Implementing Legal Visualisation and Plain Language to Enhance Imprisonment Regime Progression in the Brazilian State of Ceará PRESENTER: Diogo Sasdelli ABSTRACT. The paper at hand presents a case study from the Brazilian state of Ceará on using plain language and legal visualisation techniques to improve prisoners’ understanding of their obligations during imprisonment regime progression. In study, explanatory leaflets combining simple language and visual aids were distributed to inmates in semi-open and open regimes. The pilot led to a 31,54 % reduction in non-compliance re-gressions, indicating that clearer communication can significantly enhance compliance and support rehabilitation. Beyond outlining the methodology employed, the paper at hand presents quantitative and qualitative results, and discusses potential implications of the employed methods for access to justice. |
| 11:30 | Calibrating Commitments for Humans and Machines: Legal Design for Dual Readability and Actionability - Part I PRESENTER: Helena Haapio ABSTRACT. As digital systems and AI agents increasingly mediate relationships, many initiatives pursue law-as-code and contracts-as-code. These approaches translate legal meaning into formal logic and machine-executable structures, assuming that obligations can be broken into binary components with predefined triggers and outcomes. Yet current computable law models lack the capacity to represent ambiguity, visual structures and calibrated or non-binding commitments – features essential in sustainability governance and other contexts. However, real-world contracting and regulatory practice do not rely solely on clear-cut obligations or text-only formats. Contemporary contracts include tables, timelines, flowcharts and other visual elements, and they use calibrated commitments – aspirations, goals, expectations and soft duties expressed with varying specificity and normative force. Code-first models presupposing a single category of obligation struggle with such richness, risking both oversimplification and the erosion of human-centred communication. This presentation – Part I of a two-part series – focuses on commitment calibration as a legal design method for dual human-machine readability. Part II (presented separately) builds on this foundation by introducing a modular, semi-structured representational approach for computable contracts. By making commitment calibration a core legal design concern, the presentation challenges prevailing code-first narratives and outlines a pathway toward next-generation computable law and wise contracts* that remain both human-readable and machine-actionable. * James Hazard and Helena Haapio, 'Wise Contracts: Smart Contracts that Work for People and Machines' in Erich Schweighofer et al (eds), Trends and Communities of Legal Informatics (IRIS 2017 Proceedings) 425. |
| 12:00 | ProseObjects as a Designed Human–Machine Interface for Legal Relationships in an Automated Society PRESENTER: Pınar Çağlayan Aksoy ABSTRACT. As AI systems, autonomous agents, and algorithmic infrastructures increasingly mediate social and economic relationships, the central question arises: how can human communities retain agency over these systems? Both deterministic approaches (such as smart contracts or domain-specific legal coding languages) and statistical approaches (LLMs, neural models) fall short of capturing the open-textured, contextual and negotiated qualities of the legal world. Deterministic approaches perform well under “happy-path” conditions but cannot independently handle ambiguity, exceptions, custom, or the interpretative practices which are fundamental to human relations and legal institutions. Statistical models are opaque, even to their creators. Yet many emerging initiatives in computable contracts and computer-readable legislation indicate the need for legal texts that are both human-comprehensible and machine-actionable. This paper proposes ProseObjects as a socio-technical interface designed to meet this dual requirement. A ProseObject is a modular, structured unit of legal prose—contract clauses, definitions, obligations, exceptions, protocols—authored in natural language for human readability. At the same time, ProseObjects are organized in ways that support computational parsing, navigation, and operationalization. Unlike approaches that substitute code for prose, code-ify prose or wrap code in explanatory text, ProseObjects maintain conventional document practices and prose-first meaning, while using hyperlinks to reduce redundancy, encourage reuse and offer a structure that machines can work with. They allow legal nuance to remain expressible, interpretable and contestable, while supporting automation, validation, decision support, and integration with algorithmic systems. ProseObjects build on traditions of legal design, information design, and contract usability, recognizing that structure, layout, pattern languages and visual cues are essential for dual readability and dual actionability. They are not purely textual constructs: they can incorporate design patterns, typographic signals, conditional visual structures, decision trees, and other cues that make logical or relational architecture explicit for humans, while remaining legible to computational systems. Thus, they offer a practical bridge between legal practitioners, regulators, civil society and communities with their own linguistic or cultural acquis, and the needs of digital infrastructures increasingly responsible for executing or interpreting obligations. We suggest that ProseObjects may represent the best opportunity for traditional human communities—governments, courts, lawyers, advocates, designers, and non-coder professionals—to shape the automated future of contracting and regulation. As the space for non-coder human involvement narrows between high-level machine learning systems (“code-above”) and deterministic execution layers (“code-below”), ProseObjects preserve a space where human judgment, community values, and legal meaning can be authored, asserted, negotiated, and maintained. |
| 14:00 | Herausforderungen bei der Automatisierung im Registerwesen mit symbolischer KI und maschinellem Lernen PRESENTER: Axel Adrian ABSTRACT. Der vorliegende Aufsatz befasst sich mit den Herausforderungen, Forschungsfragen und ersten Lösungsansätzen für die Automatisierung juristischer Entscheidungsprozesse am Beispiel des Registerwesens unter Einsatz symbolischer Künstlicher Intelligenz (KI) und maschinellem Lernen (ML) einschließlich natürlicher Sprachverarbeitung (NLP). Die Autoren berichten hierbei von ihren Erfahrungen aus ihrem sich noch in der Durchführung befindlichen Forschungsprojekt zum „Automated Legal Reasoning“, wobei ihnen vom Auftraggeber sämtliche Handelsregisterdaten aus dem Freistaat Bayern zur Verfügung gestellt werden. Als konkretes Beispiel für die Untersuchung dient die für die Praxis relevante, doch rechtlich höchst umstrittene Frage nach der Eintragungsfähigkeit eines Nießbrauchs an einem Kommanditanteil ins Handelsregister. |
| 14:30 | Contractual or Non-Contractual Liability under Article 54 DSA?: That Is the Question ABSTRACT. Article 54 of the Digital Services Act grants users the right to compensation for “any damage or loss” caused by intermediary service providers; however, its legal nature remains unsettled: contractual, non-contractual, or hybrid? While the contractual link between user and provider suggests fault-based liability, the breached obligations—diligence, objectivity, and proportionality under Article 14(4) DSA—are imposed ex lege to safeguard public interests such as fundamental and consumer rights (Raue 2023; Husovec 2024). Their infringement thus better constitutes a breach of a protective norm (Schutznorm), giving rise to non-contractual liability. The DSA’s hybrid architecture here merges regulatory duties and private enforcement, transforming standard-form contracts into vehicles of consumer rights compliance (De Franceschi, 2023; Gardiner, 2022). Contractual limitation clauses are also constrained by the Unfair Contract Terms Directive, the EU Charter’s Article 38, and the Digital Content Directive. Another critical issue related to Article 54 DSA concerns the concept of damages. According to the prevailing view in the literature (Raue 2023; Willman 2024), the notion of “damage” under Article 54 should encompass not only material but also immaterial harm, by analogy to the CJEU’s reasoning in Österreichische Post (C-300/21), which confirmed that non-economic harm may also be compensable. In this regard, the broadening concept of compensable damages can also be derived from the revised Product Liability Directive (PLD), which expressly recognises new categories of non-material harm—most notably data loss—as compensable damage (Wagner 2024). In situations where software is provided as a digital service under the DSA (Software-as-a-Service), product liability under the revised Directive may also arise, thereby extending the requirement of compensation to damages caused by a defective software product operating alongside a regulated intermediary service. |
| 15:00 | Potentiale der KI-Zertifizierung. Das Projekt CARAT PRESENTER: Georg Borges ABSTRACT. Die Konformitätsbewertung und Zertifizierung von KI-Systemen stehen im Zentrum der KI-Verordnung. KI-Systeme stellen die traditionellen Methoden der Konformitätsbewer-tung vor enorme Herausforderungen. Der Beitrag stellt das interdisziplinäre For-schungsprojekt „Potentials of the certification of AI systems in regulating Artificial Intel-ligence (CARAT) vor und analysiert die spezifischen Herausforderungen und Potentiale der Konformitätsbewertung und Zertifizierung von KI-Systemen mit einem Fokus auf KI-Systeme i.S. des Anhangs III der KI-Verordnung. |
| 14:00 | The CARE Principles: towards a renewed Open Data policy for Sámi Digital Cultural Heritage PRESENTER: Dino Girardi ABSTRACT. Management, curation and stewardship of Indigenous open data is gaining global attention, especially due to raising awareness of Indigenous data ethics. The CARE principles for Indigenous data governance aim to tackle the sensitivities related to managing such data, while complementing the FAIR principles for scientific data management. Furthermore, in the EU, the Open Data Directive and the Data Acts, along with the Artificial Intelligence Act, are central to govern data. This EU legal framework, influencing Member States’ policies and legislations on open access as well as digitisation and preservation of cultural heritage is significantly affecting the Sámi communities. These regulatory instruments might increase opportunities for Sámi people to preserve and renew digitised datasets, facilitating intergenerational knowledge transfer, and promoting economic growth. However, they pose challenges for the key decision of whether and to what extent to make Sámi heritage datasets available in open data format. The most pressing concerns include issues of data sovereignty, such as data ownership, control, access, collection, storing and custody. Addressing these issues requires bringing to the discussion ethical perspectives that are indeed central to the exploitation of Sámi digital heritage. The paper argues that the EU rules should be implemented considering an appropriate policy and suitable instruments that protect Indigenous interests on their own cultural heritage and that tackle ‘data colonization’ practices. This presentation contributes to the discussion by making concrete propositions for how to strike a fair balance between the various interests at stake, relying on different regulatory means, towards an open data policy for Sámi heritage based on the principle of participation and engagement. The paper comments on the GIDA-Sápmi network objectives to make the Nordic research community, memory and archival institutions aware of the Indigenous CARE principles. In terms of methodology, legal doctrinal study and problem-solving methodologies from legal informatics will be used. |
| 14:00 | E-Government Panel Discussion: State of Play PRESENTER: Reinhard Riedl ABSTRACT. The goal of the panel is to create a broad awareness of contemporary challenges within e-government. The panel will start with an Online Voting by the Audience (mix of multiple choice and word clouds) on the following topics - implementation of basic e-government building blocks - implementation of Once-Only - implementation of digital sovereignty - timeline for eIDAS 2.0 and the Digital Wallet - timeline for Data Act in public administration - timeline for EHDS - opinions on AI in E-Government - opinions on the Digital Package Thereby care will be taken that the questions can be understood by non-experts (no discussion of enterprise architectures and such funky expert stuff!) Then the results will be discussed on the panel. We plan to invite generalists from the DACH area and integrate ad hoc generalists from other countries that participate in IRIS. In addition we shall try to make sure that for several key topics like once-only, specialists will be there to answer specific questions. |
| 14:30 | Menschen und Digitalisierung im Gesundheitswesen – Einblicke aus dem DACH-Raum PRESENTER: David Richter ABSTRACT. Der Beitrag beleuchtet, wie digitale Technologien die Gesundheitsversorgung in Deutschland, Österreich und der Schweiz verändern. Im Fokus stehen dabei nicht nur technische Innovationen, sondern vor allem die Menschen. Der Beitrag zeigt, wie digitale Lösungen Arbeitsabläufe, Behandlungsqualität und Patientenerlebnisse beeinflussen – sowie welche Chancen und Herausforderungen den digitalen Wandel im Gesundheitswesen im DACH-Raum prägen. |
| 16:00 | From Status Naturalis to Status Virtualis of Machines in the Age of Artificial Intelligence PRESENTER: Vytautas Čyras ABSTRACT. The legal status of machines is explored. A new concept, status virtualis, is a dialectical innovation. The reasoning begins with the thesis being status naturalis, proceeds through the antithesis being status civilis, and culminates in the synthesis being status virtualis. The notion of status virtualis is characterized primarily by different rules of governing in the so-called computer state. The status virtualis situations discussed can be observed in virtual reality, three-dimensional virtual worlds, massive multiplayer online games (MMOGs), mass media, films, and narratives. |
| 16:30 | Only Humans Can Understand Anything ABSTRACT. The paper explores the thesis that, however impressive the performance of artificial intelligence systems -particularly large language models (LLMs) - their functioning cannot amount to genuine understanding. The analysis moves from philosophical and cognitive accounts of understanding to the mechanisms of symbolic and subsymbolic AI, arguing that the latter exhibit structural correlations with understanding but lack its constitutive dimension: consciousness and normativity. The human mind, though limited by bias, fatigue, and fallibility, possesses self-awareness, experiential depth and normative intentionality that no computational system replicates. Nonetheless, AI outputs may advance legal reasoning by supporting human understanding, provided that automation bias and uncritical reliance are curbed. The paper concludes with implications for legal education, advocating a shift from production to reflexive and ethical engagement with AI. |
| 17:00 | Text und Data Mining: Welche Botschaft senden österreichische Webseiten an KI-Anbieter? PRESENTER: Thomas Schreiber ABSTRACT. Generative KI erstellt Inhalte, z.B. Text, Bilder, Musik, Videos oder Programmcode und ahmt dabei oft menschliche Kreativität nach. Grundlage für die Entwicklung generativer KI-Modelle sind große Mengen an hochqualitativen Daten für das Training. Für die Sammlung dieser Daten setzen KI-Entwickler:innen insbesondere Text und Data Mining (TDM) ein, um solche Daten von öffentlichen Websites zu sammeln. Das europäische Recht erlaubt es den Website-Betreiber:innen, durch ein Opt-Out-Verfahren der Nutzung der eigenen Inhalte zu widersprechen, etwa gegen die Nutzung durch KI-Anbieter:innen welche Informationen für KI-Training als auch für KI-Suchergebnisse verarbeiten. In einer empirischen Erhebung haben wir basierend auf dem CommonCrawl-Datensatz analysiert, wie österreichische Website-Betreiber:innen von diesem Recht Gebrauch machen. Unsere technische Analyse und die gefundenen Ergebnisse möchten wir in diesem Talk präsentieren. |
| 16:00 | "Ihre Testergebnisse sind verfügbar!" - Datenschutzrechtliche Aspekte von Push - Benachrichtigungen im Gesundheitswesen PRESENTER: Mariana Rissetto ABSTRACT. Push-Benachrichtigungen auf mobilen Endgeräten gewinnen im Gesundheitswesen zunehmend an Bedeutung, etwa für Termin- und Befundmitteilungen, Medikationshinweise oder sicherheitsrelevante Systemmeldungen. Ihre Nutzung wirft jedoch erhebliche datenschutzrechtliche und technische Fragen auf, insbesondere im Hinblick auf die Verarbeitung personenbezogener Daten und mögliche Drittlandübermittlungen nach der DSGVO. Anbieter von Push-Diensten wie Apple (Apple Push Notification Service, APNs) und Google (Firebase Cloud Messaging, FCM) nehmen hierbei eine dominierende Marktstellung ein und fungieren als technische Intermediäre zwischen Absender und Empfänger. Technisch bestehen Push-Benachrichtigungen aus mehreren Datenkategorien, darunter sogenannten Push Keys, die als „Zustelladressen“ für Benachrichtigungen dienen. Diese Kennungen können als personenbezogene Daten im Sinne von Art. 4 Nr. 1 DSGVO gelten. In diesem Fall stellt sich die Frage, ob die Verarbeitung dieser "Zu- stelladressen" (und ggf. zusätzlicher im Klartext übermittelter personenbezogener Daten) auf den Servern von Apple oder Google als eigene Verarbeitungstätigkeit dieser Unternehmen oder als Datenverarbeitung im Auftrag (Art. 28 DSGVO) zu werten ist – insbesondere im Gesundheitskontext, in dem sensible Daten nach Art. 9 DSGVO betroffen sein können. Während z.B. Google FCM sich selbst als Auftragsverarbeiter einschätzt, stellt sich in diesem Kontext nichtsdestotrotz die Auseinandersetzung die Frage, ob Push-Dienste – ähnlich wie Telekommunikations- oder Postdienstleister – 'nur' eine technische Zustellfunktion übernehmen, und daher eben doch deutlich Eigenschaften von Telekommunikationsdienstleistungen aufweisen. Dieser Beitrag untersucht daher, inwieweit Push-Benachrichtigungen im Gesundheitswesen datenschutzkonform implementiert werden können. Vor diesem Hintergrund, wird die zentrale Frage behandelt, wie Push-Dienste im Gesundheitswesen nach DSGVO und TTDSG rechtlich zu qualifizieren sind (z.B., eigenständige Kommunikationsdienste, Auftragsverarbeitung oder als gemeinsame Verantwortlichkeit), sowie ob bei der Nutzung von Push-Diensten wie APNs oder FCM eine Übermittlung personenbezogener Daten in Drittländer vorliegt, und unter welchen Bedingungen diese nach Art. 44 ff. DSGVO zulässig ist. |
| 16:30 | Die europäische Datensouveränität und ihre Feinde: Zur systematischen Aushöhlung der informationellen Souveränität durch transatlantische Compliance-Illusionen – Eine kritische Analyse am Beispiel der IRIS 2025 Konferenzsoftware und der EU-Kommission ABSTRACT. Die DSGVO etabliert ein umfassendes Schutzregime für europäische Datensouveränität. Die praktische Implementierung wird jedoch durch die ubiquitäre Nutzung US-amerikanischer Cloud-Dienste systematisch konterkariert. Der Beitrag analysiert diese Diskrepanz anhand zweier Fallbeispiele: der IRIS-Fachkonferenzsoftware und der Microsoft-365-Nutzung durch die EU-Kommission. Im Fall der IRIS werden personenbezogene Daten ohne präzise Offenlegung technisch-organisatorischer Maßnahmen und ohne Wahlmöglichkeit auf US-Servern verarbeitet. Zusätzlich erfolgt eine intransparente ex-ante-Abtretung von IP-Rechten als Teilnahmebedingung. Diese Praxis konterkariert das Transparenzgebot und die Freiwilligkeit nach Art 7 DSGVO. Im Fall der EU-Kommission zeigt sich, dass selbst die "Hüterin der Verträge" datenschutzrechtliche Bedenken des Europäischen Datenschutzbeauftragten primär durch nachträgliche vertragliche Zusicherungen adressiert – ohne spezifizierte Maßnahmen oder wirksame Kontrollmechanismen. Dies etabliert einen problematischen "compliance by contract"-Ansatz, der "privacy by design" nach Art. 25 DSGVO unterläuft. Die Fallstudien zeigen ein systemisches Problem: Die Angemessenheitsbeschlüsse für die USA – von Safe Harbor über Privacy Shield bis zum EU-US Data Privacy Framework – wurden durch die Schrems-Rechtsprechung des EuGH dekonstruiert. Die Divergenzen zwischen europäischem Grundrechtsschutz und US-Überwachungsarchitektur (Section 702 FISA, Executive Order 12333) persistieren. Der Beitrag entwickelt Lösungsperspektiven: Rechtlich bedarf es substantiierter Transfer Impact Assessments, Anerkennung realer Verantwortlichkeit (Co-Verantwortlichkeit statt Auftragsverarbeitung) und verpflichtender ex-ante-Konformitätsprüfungen. Praktisch erfordert Datensouveränität den Aufbau europäischer Cloud-Infrastrukturen, Förderung von Open-Source und Kompetenzaufbau für digitale Eigenständigkeit. Ohne diese Maßnahmen bleibt informationelle Datensouveränität eine normative Fiktion. |
| 16:00 | DECIDE: Datenräume für evidenzbasierte Entscheidungen und forschendes Lernen PRESENTER: Marianne Mauch ABSTRACT. Das Forschungsprojekt DECIDE (Data-driven Exploration in Contextual Information on Decisions) zielt darauf ab, die Qualität politischer Entscheidungsprozesse zu verbessern, öffentliche Dienstleistungen effizienter zu gestalten und die demokratische Transparenz zu erhöhen. Im Mittelpunkt steht die Entwicklung eines Legislative and Decision Data Space (DS), der lokale und regionale Regierungsentscheidungen mit thematisch relevanten Kontextdaten verknüpft. Durch die strukturierte Veröffentlichung von Gesetzgebungen und Beschlüssen als Linked Open Data (LOD) entsteht eine interoperable, maschinenlesbare Dateninfrastruktur, die datenbasierte Analysen, Entscheidungsunterstützung und Bürgerbeteiligung ermöglicht. In den Pilotstädten/Regionen Flandern, Gent, Freiburg und Bamberg werden datengetriebene Anwendungen erprobt, etwa zur Analyse von Mobilitätszonen, Umweltmaßnahmen oder Förderprogrammen für nachhaltiges Bauen. Diese realen Einsatzkontexte dienen der Validierung des Datenraumkonzepts und der Entwicklung übertragbarer Modelle für andere europäische Städte und Regionen. Wissenschaftlich leistet DECIDE einen Beitrag zur Digitalisierung des öffentlichen Sektors, indem Konzepte aus Linked Data, semantischer Interoperabilität und Data Governance in die kommunale Entscheidungsfindung integriert werden. Das Projekt verbindet Forschung, Lehre und Praxis. Studierende entwickeln im Rahmen von Projektarbeiten, Seminaren und Abschlussarbeiten praxisorientierte Anwendungen und Analysen. Die Inhalte werden in Vorlesungen zu Open Data, Smart Governance und digitaler Verwaltung eingebunden. Ergänzend fördern Exkursionen zu den Pilotstädten den Austausch mit Verwaltungspartnern und ermöglichen es den Studierenden, datenbasierte Entscheidungsprozesse in realen Kontexten kennenzulernen. So trägt DECIDE zur Qualifizierung zukünftiger Fachkräfte und zur nachhaltigen Verankerung datengetriebener Innovationsprozesse in der öffentlichen Verwaltung bei. |
| 16:30 | BCI-Geräte im Hochschulkontext – ein Spektrum von der Förderung des Wohlbefindens Studierender über die Steigerung kognitiver Fähigkeiten bis hin zu potenziellen Risiken und Schädigungen. ABSTRACT. Die digitale Transformation der Universitäten verändert die Landschaft des Lehrens und Lernens grundlegend und erfährt zunehmend Unterstützung durch Neurotechnologien. Aus der Perspektive der Studierenden kann der Einsatz von Brain-Computer-Interfaces (BCI) zu erheblichen Verbesserungen führen (optimierte Prüfungsleistungen, eine höhere Abschlussquote im Hochschulstudium). Die Erkennung psychologischer Phänomene wie Aufmerksamkeit, Konzentration, Stress oder Angst, die Förderung kognitiver Fähigkeiten, personalisiertes Lernen unter Bezugnahme individueller Bedürfnisse – beispielsweise bei ADHS – unterstützen gezielt beim Lernen (Jiang, Huang & Li, 2024). Neben Herausforderungen hinsichtlich Benutzerfreundlichkeit und technischer Zuverlässigkeit spielen vor allem ethische Überlegungen eine zentrale Rolle beim Einsatz von BCI im Bildungsbereich. Diesbezüglich besteht jedoch eine deutliche Forschungslücke (Patel, Tian & Li, 2025; Shompa, 2025). Die Identifizierung, Analyse und Bewertung ethischer Risiken sind wesentliche Schritte, und muss kontextbezogen erfolgen, um die spezifischen Gefahren im Zusammenhang mit der Nutzung von BCI-Systemen präzise erfassen zu können (Schulenburg & Nida-Rümelin, 2013). Besondere Bedeutung kommt dabei Aspekten der Autonomie zu – etwa der autonomen Entscheidung über Nutzung/Nichtnutzung, der möglichen Manipulation durch Informationsasymmetrien, dem Eingriff in die Privatsphäre, dem Datenschutz und der informierten Einwilligung. Ebenso relevant sind potenzielle Risiken wie Unzuverlässigkeit der Geräte, geringe Stichprobengrößen oder Unterschiede in den verwendeten Verfahren und Techniken (Traunwieser, 2025). Darüber hinaus könnten BCI-Systeme auch zur Überwachung und Kontrolle von Schummelversuchen bei online-Prüfungen eingesetzt werden (Speer, Smidts & Boksem, 2021). Für die Abwägung zwischen Nutzen und möglichen Schäden kann dabei das Verhältnismäßigkeitsprinzip als hilfreicher ethischer Rahmen zur Erreichung eines legitimen Ziels, das notwendig und keine unverhältnismäßige Belastung darstellt, dienen. Ob eine bestimmte Maßnahme als verhältnismäßig gilt, hängt maßgeblich davon ab, ob sie der Erreichung eines legitimen Ziels dient, nicht über das hierfür erforderliche Maß hinausgeht (Notwendigkeit) und keine unverhältnismäßige Belastung für die betroffenen Individuen darstellt (Karliuk, 2022). Eaton, S. E. (2023). Postplagiarism: Transdisciplinary ethics and integrity in the age of artificial intelligence and neurotechnology. International Journal for Educational Integrity, 19(1), 23. Jiang, Y., Huang, Q., & Li, Y. (2024). Application strategies of brain-computer interface in education from the perspective of innovation diffusion theory. Brain-Apparatus Communication: A Journal of Bacomics, 3(1), 2376368. Karliuk, M. (2022). Proportionality principle for the ethics of artificial intelligence. AI Ethics, 985–990. Patel, A. S., Tian, X., & Li, Z. (2025). ASSESSING BCI APPLICATIONS IN EDUCATION: THE CORRELATION BETWEEN STUDENT ATTENTION AND PERFORMANCE, SAIS 2025 Proceedings. 11. Schulenburg, J., & Nida-Rümelin, J. (2013). Risikobeurteilung/Risikoethik, in Grunwald, A., & Hillerbrand, R. (Eds.), Handbuch Technikethik, Stuttgart: JB Metzler, 223-227. Shompa, S. N. (2025). Brain-Computer Interfaces for Accessibility in Education. Journal of Data Analytics and Intelligence, 1(2). Speer, S. P., Smidts, A., & Boksem, M. A. (2021). Cognitive control promotes either honesty or dishonesty, depending on one's moral default. Journal of Neuroscience, 41(42), 8815-8825. Traunwieser, S. (2025). Neurodata-based headsets for the (digital) employee well-being–responsibilities between benefit and harm. International Journal of Ethics and Systems, 41(1), 64-87. |
| 17:00 | Effiziente Nutzung generativer KI-Systeme zur Erstellung rechtswissenschaftlicher Texte PRESENTER: Georg Borges ABSTRACT. Generative KI-Systeme werden in erheblichem Maße zur Erstellung rechtswissenschaft-licher Texte eingesetzt. Dies gilt für Seminar-, Bachelor- und Masterarbeiten ebenso wie für Veröffentlichungen jeglicher Art. Im Juristischen KI-Projekt Saarbrücken (JIPS) wurde im Sommersemester 2025 an der Universität des Saarlandes von Juristen unter-schiedlicher Anciennität (Studierende, wiss. Mit., Professor) erprobt, wie generative KI-Systeme zur Fertigung rechtswissenschaftlicher Arbeiten eingesetzt werden können. Dabei wurden sowohl problematische Nutzungen als auch nützliche Use Cases identifiziert. Der Beitrag stellt die Methodik und wesentlichen Ergebnisse des Projekts vor. |
| 16:00 | Seven Patterns of Man-Machine Collaboration in Digital Government and Digital Health ABSTRACT. The concept of a pattern language was introduced by Christopher Alexander in architecture and taken up in software engineering. From there it spread throughout computer science and business informatics with various spillovers to several domains in social sciences. Pattern languages haven proven to enable the teaching of tacit knowledge and to support a fruitful exchange among practitioners on the their experiences with solution building. While there is a huge variety of aspects concerning the introduction of AI in healthcare and in public administration, the actual embedding of AI into workflows is both of critical importance and limited in scope. We identify seven different patterns of collaboration and illustrate them with examples, thereby highlighting the very specific domain-dependent logic of each of these patterns. |
| 16:30 | On the Strategic Integration of Artificial Intelligence in Parliaments: A Five-Point Framework PRESENTER: Jörn von Lucke ABSTRACT. In response to the accelerating uptake of Artificial Intelligence (AI) across the public sector, this concept paper proposes a practical, five-point framework for integrating AI into parlia-mentary work: strategy, prioritization, training, implementation and governance. Drawing on workshops and early implementations in multiple legislatures, we outline core AI technolo-gies and indicative applications—ranging from text analytics and information extraction to drafting support—while emphasizing privacy, security and responsible use. We discuss or-ganizational prerequisites (quick wins, national-language LLMs and cross-sector support) and adapt a traffic-light deployment model to guide decisions on where cloud, partner-hosted or on-premises LLMs are appropriate. The approach is designed to be locally configurable rather than one-size-fits-all, enabling parliaments to pursue transparent, accountable and cost-effective AI adoption aligned with legal and ethical obligations. |