IRIS26: INTERNATIONALE RECHTSINFORMATIK KONFERENZ 2026
PROGRAM FOR SATURDAY, FEBRUARY 21ST
Days:
previous day
all days

View: session overviewtalk overview

09:00-10:30 Session 14A: E-Commerce III
09:00
The Proof Is in the Pudding: Compliance Dimensions Under the Digital Services Act

ABSTRACT. he Digital Services Act (DSA) marks a change in European plat- form governance. Yet assessing compliance under the DSA is not a static legal checklist but an ongoing socio-technical process in which law, de- sign, and automation co-produce evidence and accountability. We make four contributions. (1) We propose a five-dimension framework for the DSA compliance domain (legal, procedural, methodological, systemic, and design). (2) We introduce consistency analysis, a practical method for cross-validating platform artefacts (Transparency Reports, Statements of Reasons in the Transparency Database, Systemic Risk Assessments, and Independent Audits). (3) We translate recent experimental findings on leveraging Artificial Intelligence into design solutions for user reporting under Article 16(2) that strengthen agency and reduce automation bias. (4) We develop a scenario-based model of iterative enforcement that links internal/external complexity to learning loops between platforms, regula- tors, auditors, and civil society. Rather than eliminating complexity, the DSA institutionalizes it as a condition for collaborative accountability and reflexive governance.

09:30
To Protect or Grant Access: A case study of fleet providers obligations under the Data Act and the GDPR

ABSTRACT. This paper highlights the current tensions between the Data Act and the GDPR. Access to non-personal data is the driving force behind a data-driven economy, while data protection legislation serves to safeguard the individuals therein. With the Data Act being without prejudice to the GDPR and the recent shifts in the decision making practice relating to the definition of personal data, many legal questions remain unresolved, leaving the controllers and data holders in uncertainty. Against this backdrop, this paper analyses the key points of conflict between the two regulations on the case study of a fictional car fleet provider and asks: Is it possible for data holders to ensure compliance with both the Data Act and the GDPR when providing mixed datasets to third parties? The analysis suggests that the current legislative framework leaves crucial legal questions unanswered, effectively placing the burden of reconciling these regimes onto economic operators themselves.

10:00
Advertising Revenues In The Digital Attention Economy

ABSTRACT. The growth of online advertising has profoundly transformed the media economy and has altered the conditions under which profits may be assessed within the meaning of Article 28a(3) of the Swiss Civil Code. Profit, consisting of the advertising revenues generated by a media content, now depends on a complex set of technical mechanisms originating from marketing sciences and computer science. The economic value of an online media content no longer results solely from the advertisements displayed on its own page, but also from its ability to capture the user’s attention and subsequently direct that attention towards other content that is likewise monetised by the media outlet. This reality, which is characteristic of the digital attention economy, remains largely absent from legal scholarship. This article proposes a rigorous method, consistent with Swiss case law, for calculating the profit resulting from an unlawful interference with personality rights committed through media in the digital environment. The study distinguishes between direct revenues, determined by the pricing model used for the sale of advertising spaces, and derived revenues, consisting of the advertising revenues generated on the media outlet’s website or application through the internal traffic initiated by the media content. By articulating the requirements of personality rights with the functioning of the digital economy, this contribution provides a comprehensive framework for identifying and assessing the advertising revenues generated by online media outlets in the context of an action for an account of profits.

09:00-10:30 Session 14B: KI-Recht IV
09:00
A Comparative Analysis of Recent US and EU AI Regulatory Initiatives

ABSTRACT. An examination of recent US AI regulatory initiatives under the Trump Administration and in US states in comparison with EU AI regulatory activities, including a discussion of the White House Executive Order "Removing Barriers to American Leadership in Artificial Intelligence", the US AI Action Plan, the just released White House Executive Order titled "Launching The Genesis Mission" and various differing US state AI regulations in states such as California, Colorado and Texas. The discussion will be placed alongside an examination of the structure and approach of the EU AI Act. The examination will include a comparison the EU's goal of uniform AI legislation throughout the EU with the developing patchwork of different AI laws in US states given the lack of a US-wide Federal AI law.

09:30
AI Regulation through Legal Traditions: A Literature Review of EU and USA Approach

ABSTRACT. This paper examines how legal traditions shape emerging approaches to artificial intelligence (AI) regulation in the European Union and the United States. Drawing on a review of leading academic literature, it argues that the EU’s civil-law heritage creates a comprehensive, ex-ante, risk-based regulatory framework, most notably embodied in the AI Act. By contrast, the USA approach reflects its common-law pragmatism in decentralized, sector-specific and predominantly ex-post regulatory mechanisms supported by soft-law instruments such as the NIST AI Risk Management Framework. The review identifies three analytical dimensions through which legal traditions manifest in AI governance: normative orientation, regulatory style and institutional design. The findings underscore that legal traditions remain powerful forces in shaping regulatory trajectories, yet AI governance is ever-evolving. This paper concludes that transatlantic regulatory dialogue and shared risk-based frameworks may foster a blended model, offering a foundation for future comparative research on global AI governance.

10:00
Between Trust and Deception: AI Deceptions and Human Oversight under the Artifi-cial Intelligence Act

ABSTRACT. The rapid proliferation of artificial intelligence (AI) tools has generated a growing landscape of risks and security concerns, including seemingly unintended side effects arising from their interaction with other emerging technologies such as wireless systems, as well as their increasing misuse for cybercriminal purposes. At the same time, AI’s impressive capabilities of AI tools to mimic human behavior and creativity enables new forms of deception, now recognized as a main human vector for harm against individuals and societies. This paper situates “AI deception” within the broader context of human–AI interaction, with a focus on unintentional yet potentially harmful deception, such as over-trust, automation bias, anthropomorphism, and misleading affordances or explanations. These deceptions highlight a crucial tension at the heart of AI regulation and governance: while humans are expected to supervise AI systems (Art. 14 - European Artificial Intelligence Act (‘AIA’)), the inherent design of such systems challenges the presumption of a human capacity to do so. Human oversight is one of the main pillars of a ‘Trustworthy AI’, reflected as a legal obligation under Art. 14 AIA, intended to prevent or minimize risks to health, safety, or fundamental rights in AI-interactions. Yet, while the AIA positions human oversight as a safeguard against AI-related risks—many of which are intertwined with deceptive behaviorour analysis reveals that its provisions only partially capture the breadth of deception phenomena. In this context, we examine safeguards in the AIA and the proposed AI Liability Directive (AILD), in correlation with the General Data Protection Regulation (GDPR) safeguards on automated decision-making. While these instruments aim to secure meaningful human agency and oversight, we identify shortcomings: ambiguity around the extent of human review, sparse standardization for effectiveness of oversight, and gaps in knowledge building and capability requirements. Finally, we propose a set of concrete measures for designing AI systems which reduce risks on two levels: first what measures should be sufficient to be compliant with AIA (and how they may be not enough to protect individuals from harm), and second what measures could be deployed to maintain a trustworthy human-ai-interaction environment. Selective measures encompass a (risk) analysis of AI deception scenarios; protection of human dignity and integrity of all involved individuals; explainability and transparency regarding the role of the artificial agents and used data monitoring; and evaluation and reporting systems for AI errors and misbehaviors (including bias, discrimination, exclusion).

11:00-12:30 Session 15A: E-Commerce IV
11:00
Der Reparaturbegriff in der Ökodesign-Verordnung und seine Auswirkungen auf den digitalen Produktpass
PRESENTER: Diogo Sasdelli

ABSTRACT. Die Ökodesign-Verordnung (ÖNP-VO) stellt das wichtigste Regulierungsinstrument im Rahmen des European Green Deals dar. Ziel ist es, die sog. Kreislaufwirtschaft in der Union und damit allgemein die Nachhaltigkeit der europäischen Wirtschaft zu fördern. Dabei sollen Produkte möglichst langlebig bzw. auf Wiederverwendung und Reparatur ausgelegt sein. Um einschlägige Daten verfügbar zu machen – und als Marktüberwachungsmechanismus – wird in der ÖNP-VO zudem der sog. digitale Produktpass (DPP) eingeführt. Der vorliegende Beitrag diskutiert den in der ÖNP-VO eingeführten Reparaturbegriff bzw. die damit verbundenen rechtlichen Anforderungen, insbesondere im Hinblick auf Auswirkungen auf den DPP.

11:30
Collaboration between Avatars and Algorithms: How Gaming Community Contribute to the Code-driven Normativity

ABSTRACT. Platform gaming introduces a novel legal terrain shaped by user-generated content and community-driven norm creation. This paper explores how gaming communities not only produce content but also construct social and ethical norms that influence platform governance. Drawing on Weinberger’s and MacCormick’s institutional theory, it argues that platform rules function as institutional facts, enabling providers to perform legally significant acts via code. Community practices, such as reporting, modding, and norm negotiation, serve as inputs that shape these norms and contest the sovereign power of the provider. The analysis reveals how participatory rule design emerges from the interplay between formal platform authority and distributed user activity, challenging traditional models of digital sovereignty.

12:00
AI TRAINING WITHOUT AUTHORIZATION AND THE DOCTRINE OF UNFAIR COMPETITION IN SLOVAK LAW UNDER THE NEW RECODIFICATION

ABSTRACT. This article examines whether the training of generative AI models on copyrighted works can constitute an act of unfair competition under the forthcoming Slovak Civil Code. It argues that while the text and data mining (TDM) exceptions under the DSM Directive generally legalize AI training on lawfully accessed data, they do not fully re-solve issues arising from the use of unlawful data. The paper distinguishes between lawful access (the user’s right to reach the dataset) and legal data (the lawful origin of the material), showing how this gap may enable residual application of unfair competi-tion law. Using analytical framework, it concludes that unfair competition claims should normally fail where TDM exceptions apply, but may succeed where AI develop-ers exploit illegal datasets or where AI-generated outputs directly compete with human creators. In such cases, unfair competition law acts as a corrective mechanism pre-serving fairness and market integrity beyond the scope of copyright.

11:00-12:30 Session 15B: KI-Recht V
11:00
Der "Digitale Omnibus" - Ein kritischer Blick auf "Was war?, "Was ist?", Was sein kann?" und: "Was sein sollte?"

ABSTRACT. Der Beitrag untersucht den „Digitalen Omnibus“ als legislativen Verdichtungsakt, der die fragmentierte Struktur des europäischen Digitalrechts in eine kohärente Normar-chitektur überführen soll und damit die Grundlage für zentrale digitale Infrastrukturen – insbesondere europäische AI Factories – schafft. Aus dogmatischer Perspektive zeigt sich, dass die bislang sektorale Regulierung (DSGVO, DSA, DMA, Data Act, AI Act) nur begrenzte Steuerungswirkung entfalten konnte und strukturelle Abhängigkeiten von nicht-europäischen Technologieanbietern verstärkte. Der Digitale Omnibus markiert demgegenüber den Versuch, Datenzugangspflichten, Interoperabilität, Aufsichtskompe-tenzen und KI-Regulierung systematisch aufeinander abzustimmen und unionsrechtli-che Gestaltungsmacht im digitalen Raum zu konsolidieren. Eine besonderes Augen-merk soll auf das Anwendungsbeispiel „Open Web Index“ (OWI) als öffentlich kontrol-lierter Informationsinfrastruktur gelegt werden, welcher eine unabhängige europäische Daten- und KI-Ökologie ermöglichen soll. Der Beitrag zeigt, wie der Omnibus die rechtlichen Voraussetzungen für AI Factories als strategische Rechen-, Daten- und Modellierungszentren schaffen könnte und welche unionsrechtlichen Herausforderun-gen sich daraus ergeben. Normativ wird argumentiert, dass der Omnibus als Baustein einer entstehenden digitalen Verfassungsordnung verstanden werden muss, die Inno-vationsfreiheit, Grundrechtsschutz und öffentliche Kontrolle in ein tragfähiges Gleich-gewicht bringt.

11:30
ABGB: Fit für den Umgang mit Maschinen im Cyberspace

ABSTRACT. Ertl/Wolf sind in ihrem grundlegenden Werk "Die Software im österreichischen Zivilrecht" bereits 1991 überzeugend der Ansicht entgegen getreten, das ABGB sei zu alt, um Rechtsfragen in Zusammenhang mit einer komplexen Sache wie Software sachgerecht zu lösen. Nun kommen in Zusammenhang mit KI und Maschinen wiederum ähnliche Argumente auf. Der Autor dieses Beitrags versucht, nachzuweisen, dass das österreichische Zivilrecht auch im Jahre 2026 noch fit genug ist, wesentliche Fragen des Verhältnisses und der Kooperation zwischen Mensch und Maschine sachgerecht zu lösen. Dabei werden Beispiele aus dem Bereich der Persönlichkeitsrechte, dem Leistungsstörungsrecht und dem Schadenersatzrecht herangezogen und auf die Produkthaftung sowie den Vorschlag für eine Richtlinie über KI-Haftung Bezug genommen.

12:00
Warum braucht Europa AI Factories und welche Rolle nimmt Österreichs AI Factory AI:AT ein?

ABSTRACT. Die Frage nach der Notwendigkeit von europäischen AI Factories lässt sich leicht mit einem Blick auf objektive Zahlen beantworten.

Allein in Österreich beurteilte der überwiegende Teil der Bevölkerung in einer 2025 herausgegebenen Studie ihr Wissen zu Künstlicher Intelligenz (KI) als gering bzw. nicht vorhanden. Zugleich gaben 43% der befragten Beschäftigten an, Potenzial in der Nutzung von KI in der Arbeitswelt sehen. Auf europäischer Ebene nutzen erst 13,5% der Unternehmen KI-Technologie.

Ein ähnliches Bild zeichnet sich in der Wissenschaft. Bis 2017 waren Forschende aus Europa führend bei der Anzahl wissenschaftlicher Publikationen zu KI; mittlerweile wurde Europa allerdings von anderen Nationen abgehängt. Dies hängt auch damit zusammen, dass der Anteil der EU an weltweiter KI-Rechenkapazität weniger als 5% beträgt, der Anteil der USA hingegen 75%. Dabei kann die Nutzung von KI-Systemen in bestimmten Bereichen zu einer mehr als 1000-fachen Beschleunigung führen (etwa in der Materialforschung). Rechenkapazität allein ist allerdings nicht genug. Es braucht ein Umdenken bei der Art, wie KI-Systeme entworfen, gebaut und trainiert werden. Diese müssen wahrlich vertrauenswürdig sein, und mit unseren europäischen Werten übereinzustimmen, um Akzeptanz zu finden. Schließlich haben 81% von Forschenden in Europa Bedenken, KI-Modelle zu nutzen (etwa aufgrund ethischer oder datenschutzrechtlicher Aspekte bzw. mangelnder Transparenz). Sollte daran nichts geändert werden, besteht die Gefahr, dass weiterhin 62% der Europäer*innen Forschungsergebnissen, die mit Hilfe von KI erzielt wurden, misstrauen.

Nicht nur in der Forschung herrscht Misstrauen. Gefragt, nach den Gründen, warum etwa generative KI nicht genutzt wird, gaben 48% der im Rahmen einer Studie befragten Personen in Österreich an, Datenschutzbedenken und Bedenken um ihre Privatsphäre hielten sie von der KI-Nutzung ab.

An all diesen Punkten sollen AI Factories ansetzen. So werden diese für eine Verdreifachung der durch EuroHPC zur Verfügung gestellten AI-Rechenkapazität sorgen. Dadurch wird die digitale Souveränität der EU im KI-Bereich unmittelbar gesteigert. Zugleich bieten AI Factories aber auch Services an, um die Nutzung dieser Rechenkapazität insbesondere für KMU zu erleichtern.

Auf europarechtlicher Ebene wurden AI-Factories aufgrund eines Auftrags an das Gemeinsame Unternehmen nach Art 187 AEUV „European High Performance Computing Joint Undertaking“ (EuroHPC) errichtet. Ziel der AI Factories ist die Weiterentwicklung eines wettbewerbsfähigen und innovativen KI-Ökosystems in der Union zu unterstützen. Hauptaufgabe der AI Factories ist, KI-optimierte Supercomputer anzuschaffen, zu betreiben und einer großen Zahl von Nutzenden (insb. Start-ups und KMU) zugänglich zu machen, damit diese vertrauenswürdige und ethische KI-Anwendungen realisieren können.

Mittlerweile wurden 19 AI-Factories in Europa etabliert – eine davon in Österreich. Die seit Juli 2025 in Österreich angesiedelte AI Factory AI:AT wird nicht nur einen neuen auf KI-optimierten Supercomputer etablieren, sondern auch einen physischen one-stop-shop in Österreichs KI-Ökosystem. Die AI Factory soll als Anlaufstelle sowie Dreh- und Angelpunkt für Start-Ups, KMU sowie die gesamte KI-Community in Österreich dienen. Um dies zu erreichen, wird ein Angebot an Co-Working Möglichkeiten, operativer Unterstützung, Vernetzung und umfangreichen Trainings geschaffen. Dieses initiale Angebot wird kontinuierlich an die Anforderungen der Österreichischen KI-Landschaft angepasst.

Im Rahmen meines Beitrags möchte ich die rechtlichen Grundlagen der AI Factories präsentieren, auf den IST-Stand des Service Angebots der Österreichischen AI Factory näher eingehen und einen Ausblick auf den weiteren Verlauf des Projekts geben. Insbesondere Teilnehmende aus der Wissenschaft sollen sodann wissen, welche Services von AI:AT für sie von besonderer Bedeutung sind.

11:00-12:30 Session 15D: IP-Recht II
11:00
Artificial Intelligence in EU Trademark Registration and the Assessment of Likelihood of Confusion in the Digital Era

ABSTRACT. As Boyle (1997, p. 90) observed, if information has become the organizing concept of knowledge-based economies, intellectual property rights have emerged as their corresponding legal property regime, making intellectual property the defining legal form of the information age. The rapid pace of AI development has made it necessary to revisit and reconsider some of the fundamental principles and practices that underpin this field especially for trademark applications and related legal test of confusion. As highlighted by the World Intellectual Property Organization (“WIPO”), intellectual property offices around the world including the European Union Intellectual Property Office (EUIPO) are adopting AI tools to enhance efficiency and accuracy in their operations (WIPO, Index of AI Initiatives in IP Offices). This paper critically discusses AI tools in trademark registration from two key notions. First, it considers AI as a proxy for the average consumer. Machine learning systems detect patterns and improve over time, but unlike AI, the average consumer’s perception and memory evolve slowly, raising questions about AI’s ability to fully replicate human judgment. Another question is whether AI can truly perceive brands in the same way humans do, including evaluating their value, quality, prominence, and the emotions associated with the products or services (Curtis, L., & Platts, R. (n.d.), p.13). Second, the concept of the average consumer itself may need reconsideration in the digital era (Revalla, 2024, p.16). Online shoppers have limited time to compare goods, yet in Google France (C-236/08), the Court held that the average consumer and the reasonably well-informed, observant internet user are effectively equivalent.

11:30
KI-GEKLONTE STIMMEN IN URHEBER- DATENSCHUTZ- UND PERSÖNLICHKEITSRECHTLICHER BEWERTUNG

ABSTRACT. Ausgehend von einem kürzlich erstinstanzlich entschiedenen Fall (des LG Berlin II vom 20.08.2025, 2 O 202/24), geht der Beitrag der Frage nach, ob und wie die menschliche Stimme gegen Imitation geschützt ist. Dabei stellen sich neben urheber- und datenschutzrechtlichen vor allem auch persönlichkeitsrechtliche Herausforderun-gen, zumal in Zeiten der KI-generierten Sounddateien die Ge- und Missbrauchsszena-rien scheinbar uferlos zunehmen.