IRIS25: INTERNATIONALES RECHTSINFORMATIK SYMPOSION 2025
PROGRAM FOR THURSDAY, FEBRUARY 20TH
Days:
previous day
next day
all days

View: session overviewtalk overview

09:00-10:30 Session 6A: Datenschutz & Datenregulierung I / Data Protection & Data Governance I
09:00
DSGVO-Noncompliance als Verletzung der beruflichen Sorgfalt

ABSTRACT. Der EuGH hat in der Sache C-21/23 [Lindenapotheke] festgehalten, dass Kapitel VIII DSGVO die Rechtsbehelfe nicht abschließend harmonisiert und deshalb Mitbewerber wegen Verstößen gegen die DSGVO unter dem Gesichtspunkt des Verbots der Vornahme unlauterer Geschäftspraktiken vorgehen können, wenn nationale Regelungen eine solche Befugnis einräumen. Dementsprechend können Mitbewerber mit einer auf das Wettbewerbsrecht gestützten Unterlassungsklage vorgehen, wenn das nationale Wettbewerbsrecht das ermöglicht.

Während in Deutschland vertreten wird, dass es sich bei der DSGVO allgemein um Marktverhaltensregeln handelt, die grundsätzlich nach § 3a dt UWG klagbar sind, geht man in Österreich differenzierter vor: So vertritt der OGH die Ansicht, dass in Verstößen gegen das Datenschutzrecht bloß eine Verletzung von individuellen Schutzrechten liegt, die schon ganz grundsätzlich keinen Rechtsbruch nach § 1 Abs 1 Z 1 UWG darstellen kann.

Die Verletzung in individuellen Schutzrechten ist jedoch als unlautere Geschäftspraktik grundsätzlich denkbar, wenn es dadurch zu einer Verletzung der beruflichen Sorgfalt (§ 1 Abs 1 Z 2 UWG) kommt. So wird dort bestimmt, dass ein Unterlassungsanspruch gegen jenen Mitbewerber zusteht, der im geschäftlichen Verkehr eine Geschäftspraktik anwendet, die den Erfordernissen der beruflichen Sorgfalt widerspricht und in Bezug auf das jeweilige Produkt geeignet ist, das wirtschaftliche Verhalten des Durchschnittsverbrauchers, den sie erreicht oder an den sie sich richtet, wesentlich zu beeinflussen.

Dieser Beitrag stellt die Frage, ob Datenschutz-Compliance Teil der wettbewerbsrechtlichen beruflichen Sorgfalt sein und wie das Wettbewerbsrecht in Österreich als feinen Klinge der Datenschutzcompliance dienen könnte.

09:30
Datenschutzrechtliche Anforderungen an die Anonymisierung personenbezogener Daten

ABSTRACT. Mit fortschreitender Digitalisierung und zeitgleich zunehmender Regulierung auf EU-Ebene stellen sich bei der Anonymisierung personenbezogener Daten einige Herausforderungen und rechtliche Fragen. Ausgangspunkt ist der strenge rechtliche Rahmen der DSGVO, die für die Verarbeitung von personenbezogenen Daten hohe Standards setzt. Wann sind Daten jedoch personenbezogen und wann anonym, insbesondere unter Einbeziehung von Wissen Dritter? Ein Überblick.

10:00
Wirtschaftslenkung im Dunklen? Der Data Act als Lichtblick für Behörden in Informationsnotstand
PRESENTER: Felix Schmautzer

ABSTRACT. In Krisensituationen wie politischen, wirtschaftlichen oder gesellschaftlichen Disruptionen müssen Ministerien wirtschaftslenkende, verfassungskonforme Maßnahmen ergreifen.

Die Pandemie hat jedoch Schwachstellen offenbart, insbesondere das Fehlen einer gesetzlichen Basis zur Datenbeschaffung von detaillierter Marktinformationen zu kritischen Gütern, Dienstleistungen und Lieferketten.

Der Data Act als Teil der „Europäischen Datenstrategie“ könnte eine Grundlage für Business-to-Government (B2G) Data-Sharing schaffen und so den Zugang zu notwendigen Daten ermöglichen. Auf dieser Basis soll in Österreich ein System zur frühzeitigen Erkennung von Mangelsituationen geschaffen werden, welches zukünftig effektives Gegensteuern erlaubt. Diskrepanzen in den Sprachfassungen, welche in diesem Beitrag behandelt werden, könnten dieser Lösung jedoch entgegenstehen.

09:00-10:30 Session 6B: KI, Ethik & Recht I / AI, Ethics & Law I
09:00
RULE OF LAW AND ETHICS-BASED EQUALITY IN THE AGE OF ARTIFICIAL INTELLIGENCE

ABSTRACT. The manifold opportunities provided by new technologies and algorithms also cause challenges for the inclusion of the whole society (deprivation, discrimination, distortion). As a counterbalance, the normative framework is called to implement measures securing access to and availability of AI applications. Respective concepts are on hand: the rule of law and the equality principle, if combined with AI literacy, can contribute to fairness and non-discrimination as well as combat tendencies leading to a digital or algorithmic divide.

09:30
Artificial intelligence and human emotion; devil's dilemma or ogling perspective?

ABSTRACT. Abstract Panic detection at central station, aggression in the football stadium, fear in the swimming pool, claustrophobia and sweating in the elevator at work, examination stress: emotions that can be detected by AI systems through analysis of biometric data such as facial features, body temperature, sweat production, pupillary movement, etc. to then make appropriate adjustments to take measures. A wonderful application or dangerous development? The European legislator is inclined to err on the side of avoidance in this area of the unacceptable risks when processing the emotion AI systems relate to the workplace and education. This has led to a ban in the Artificial Intelligence Act (AIA) among other unacceptable applications such as manipulation and profiling by AI. The question posed in this article is whether this choice that leads to a ban emotional AI is sensible in those areas and is not based too much on risk aversion and fear of the unknown instead of giving way to positive applications.

10:00
„2020 REVISITED“ - KÜNSTLICHE & “NATÜRLICHE” INTELLIGENZ(EN): WAS ICH INZWISCHEN (2024) ÜBER RECHT, ETHIK UND “ROBUSTHEIT” WEIß

ABSTRACT. A. Review I Danke. I. Malfunction Management 6 Talking Points - ursprünglich 7. II. Demonstratoren und Piloten werden entwickelt. Etwa zu „(4): „KIxMI“-Etikette bei wissenschaftlichen Arbeiten (KI als Co-Creation?)

B. Review II Danke & Respekt. I. Widerspruch: Die Einbeziehung auch tierischer Intelligenz sowie die Überprüfung des Narrativs „einer auf den Menschen ausgerichteten und vertrauenswürdigen künstlichen Intelligenz (KI)“ (Art. 1 Abs. 1 KI-VO) ist Agenda. Dies auch aus Respekt vor der Anders– wie Eigenartigkeit künstlicher Intelligenz(en) und ihrer potenziellen Autonomie von menschlicher Kausalität und Provenienz. II. Es könnte sich um eine Herausforderung für Multi-disziplinarität handeln: 1. Eine Staatsrechtslehrerin setzt bei aktuellen Legaldefinitionen an (etwa „KI-Systeme“ und „KI-Modelle“ wie Art. 3 Nr. 1, 63 & 66, Erwägungsgrund 97 KI-VO). 2. Aus der Sicht einer Rechtswissenschaftlerin scheint ohne weitere Recherche eher zu gelten: „1956 scheint KI eher konturiert, denn (rechts-)wissenschaftlich definiert worden zu sein.“ Be-stätigt sieht sie sich auch durch den Aufsatz von McCarthy 2007: „What is Artificial Intelli-gence?“, der nur (aus rechtswissenschaftlicher Sicht) zu sehr oberflächlichen Definition für – „layman“ – gelangt. 3. Eine solodisziplinäre Betrachtungsweise muss zu dem darauf hinwei-sen, dass in den Technikwissenschaften übliche Differenzierung von starker und schwacher … Intelligenz, siehe Nida-Rümelin in Chibanguza et. al KI, S. 75ff. sich in der KI-VO nicht wieder-finden. III. es ist der Autorin eine Ehre wie Freude in den nächsten Wochen sich vertieft mit Herbert Simon „The Science of the Artificial“ befassen zu dürfen. Ohne Reviewer 2 wäre sie auf die Quelle nicht so einfach gestoßen.

_________________________________________________________________________________________________________________________________________________________ 2020 befasste sich V. Schmid erstmals auf der IRIS mit dem heute von ihr sog. „Legal Design for an AI-driven world“. 2025 plant sie 2020 unter Einbeziehung des AI Acts dem „tot“ (Test of Time) zu unterziehen. Darüber hinaus gelten neue (Rechts-)Prinzipien? „Provinienz-“, „Pe-digree-“ & „Demarkationsprinzip“ (eigene Terminologien) sind für die „Co-Creation (?)“ durch sog. „Künstliche & Menschliche Intelligenzen“ (KIxMI= KMI²) notwendig. Erste Erfahrungen aus dem Didakti“KI“nkubator (Vorlesung „Europäisches (KI-)Recht“ an der TU Darmstadt seit 2020) werden zur Diskussion gestellt.

(584 Zeichen) __________________________________________________________________________________________________________________________ Rückblick: Die 2019 angefertigte Einreichung zur IRIS 2020 trug den Titel: „Künstliche & ‚Natürliche‘ Intelligenz: Was ich schon immer (vor 2020) über Recht, Ethik und ‚Robustheit‘ wissen wollte“. Konsequent etabliert diese Überschrift eine Quinta (KI, NI, Recht, Ethik & „Robustheit“). 2024 ermutigt die IRIS zu einer Fortsetzung (SCHMID & IRIS AUS „2020 REVISITED“), weil sie diesen Vortragstitel als Konferenztitel teilweise aufnimmt: „KÜNSTLICHE INTELLIGENZ, ETHIK & RECHT IN GANZHEITLICHER SICHT“. Dass unter anderem auch zwei jüngere deutsche Veröffentlichungen* ebenfalls die Trias Künstliche Intelligenz, Ethik und Recht aufnehmen, fordert (Selbst)Kritik heraus. Zum einen: Warum bleibt es bei den anderen bei der Verwendung des Singulars? Zum anderen: Warum vernachlässigen sie den Hinweis auf „Robustheit“? Insbesondere die Bedeutung von „Robustheit“ in der deutschen und englischen Fassung der KI-Verordnung ist zu hinterfragen (siehe Quinta von 2019). „Robustheit“ in „an AI-driven world“?

Im Beitrag/Vortrag für 2025 ist deswegen ein Update der Einreichung von 2019/2020 geplant – als DEMONSTRATOR (eigene Terminologie) eines rechtswissenschaftlichen Iterationsmanagements. Die Essentialia der Veröffentlichung aus 2020 sollen 2024 überprüft werden – „TOT“ (Test of Time)? Ohne den weiteren Ausführungen durch das Abstract vorzugreifen, werden sechs „Talking Points“ angekündigt: (1) Terminologie KI? An der individuellen Bevorzugung der Terminologie „Künstliche Rationalität“ wird auch 2024 festgehalten. Wenn man anderer Meinung ist – wie der gegenwärtige „Mainstream“ – dann wird gefordert: An der Notwendigkeit des Plurals – Künstliche Intelligenzen – wird festgehalten. Auch wenn der allgemeine Sprachgebrauch dies noch nicht verinnerlicht hat, verlangt eine rationale Welt(markt)perspektive ein allgegenwärtiges Streben nach Konkurrenz von Künstlichen Intelligenzen (und keine Bescheidung auf dem KI-Markt mit Mono- und Oligopolen - Epistokratie). (2) Effektivität und Effizienz von KI? Auch das allgegenwärtige Streben nach Konkurrenz von sog. natürlicher und künstlicher Intelligenz wird gefordert. Künstliche Intelligenz (hier verstanden als Künstliche Rationalität) muss sich an PILOTEN und DEMONST-RATOREN beweisen – und nicht als Hauptaufgabe traditionelle natürliche Intelligenz mit Verifikationsprozessen (insbesondere zur Erkennung von Falsifizierungen – Deep Fakes) bürokratisch beschäftigen. (3) Getrennte (Freiheits-)Räume? Theoretisch und dogmatisch wird hier eine Trennungsthese („Demarkationsprinzip“ – eigene Terminologie) vorgestellt: Irrespektive der zunehmend feststellbaren Verschmelzung von Digitalisierung, Automatisierung sowie Autonomisierung in der Realität wird dieses „Demarkationsprinzip“ durch teleologische Auslegung der Menschenwürde und des Rechtstaatsprinzips (Art. 79 Abs. 3, 23 Abs. 1 S. 3, 1, 20 GG und Art. 19, 20 GG) etabliert. In der Konsequenz wird gefordert, dass die (Freiheits-)Räume (Cyberspace auf der einen und „AI-Space“ auf der anderen Seite) getrennt denkbar bleiben müssen. Auch für natürliche Intelligenzen muss es Freiräume der Entwicklung geben – originär und vielleicht autonom, um nicht ausnahmslos formatiert zu werden und so zum Vollzugsorgan von „KI-Maschinen“ degradiert/qualifiziert zu werden. (4) Dokumentation der Wertschöpfungskette! Die Konturen von Identität, Authentizität, Provenienz- und Pedigree-Nachweis, die für natürliche Intelligenzen seit langer Zeit erprobt sind, müssen für eine beleg- und zitatlose KI entweder angepasst oder aufgegeben werden. AIENCE stellt damit auch die Herausforderung, wie die Mensch-Maschine-Interaktion dokumentiert, nachgewiesen, kritisiert und haftbar gemacht werden kann. (5) Das beste KI unterstützte Selbst? Die vier Arten der Ethik wurden bereits 2019 unter Zuhilfenahme der Expertengruppe AI HLEG** identifiziert – 2024 überwiegt die Skepsis, ob irgendeine nationale/disziplinäre Ethik der Vergangenheit einer KI (R)Evolution ausreichend Orientierungscharakter geben kann. Deswegen wird auch Skepsis gegenüber dem Narrativ „Human Centered AI“ und „Human Agency/Control“ und „Human-in-the-loop“ geäußert. Stattdessen werden solche Ethiken mit der Frage nach einer „dea ex machina“ konfrontiert: Müssen wir in bestimmten Konstellationen nicht KI nutzen, um das beste Selbst von uns selbst zu werden? Gerade die Beiordnung von Ethik und Recht im Konferenztitel wird deswegen hinterfragt. (6) Update und (Co-)Create! Ziel dieses DEMONSTRATORS für rechtswissenschaftliches Update und Iterationsmanagement auf der IRIS 2025 ist die Einladung zum Diskurs. Was war nach Ihrer Meinung 2019 (nicht) weiterführend, ist 2024 aufzugeben und/oder überholt? Die Einarbeitung neuer Rechtsprechung/Gesetzgebung - liefert hier unter anderem die Basis.

*Hoeren, Thomas/ Pinelli, Stefan, Künstliche Intelligenz - Ethik und Recht, Schriftenreihe Information und Recht C.H. Beck 2022 und Knauff, Matthias / Lee, Chien-Liang / Lin, Yuh-May /Schröder, Meinhard, Künstliche Intelligenz, Ethik und Recht, Nomos 2024.

**Unabhängige Hochrangige Expertengruppe für Künstliche Intelligenz eingesetzt von der Europäischen Kommission im Juni 2018 (AI HLEG), Ethik-Leitlinien für eine Vertrauenswürdige KI, 8 April 2019, https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai (28.10.2024): (1) Metaethik, (2) Normative Ethik, (3) Deskriptive Ethik und (4) Angewandte Ethik, S.48 der Ethik-Leitlinien.

09:00-10:30 Session 6C: E-Government I
09:00
Transparenz vs. Geheimhaltung: Herausforderungen des KI-Einsatzes im deutschen Besteuerungsverfahren (online)

ABSTRACT. Der vorliegende Beitrag behandelt die Herausforderungen der Transparenz bei KI-gestützten Entscheidungen in der deutschen Finanzverwaltung. Er analysiert kritisch die Geheimhaltungspflicht für Risikomanagementsysteme (§ 88 Abs. 5 Satz 4 AO) und deren Auswirkungen auf die Transparenz. Eine gefilterte Transparenz durch Ex-post-Veröffentlichungen könnte dazu führen, um Nachvollziehbarkeit zu gewährleisten, ohne die Steuergerechtigkeit zu gefährden. Zudem wird die Umsetzung der DSGVO-Informationspflichten durch die Finanzverwaltung kritisch untersucht und als unzu-reichend für echte Transparenz bewertet.

09:30
TOWARDS THE DESIGN OF DIGITAL TWINS FOR TAX LAW: USING SMART CONTRACTS AND LEGAL ONTOLOGIES FOR AUTOMATED DECISION-MAKING

ABSTRACT. This paper presents proposed research on the design of a framework for automating decision-making in tax software systems through the development of digital twins of tax laws, using the Austrian Income Tax Act as an example. These digital counterparts of the legal texts formulated in natural language are structured into four layers, inspired by the structured approach of smart contracts used in automated legal contract systems: (1) the legal text, (2) a domain-specific tax ontology, (3) a model layer for data configurations, and (4) a logic layer where the tax law logic is implemented in a formal language. By formalizing these layers, we in-tend to create a comprehensive, machine-interpretable representation of (parts of) existing tax laws. Such a framework could address inefficiencies in traditional legal processes by enabling consistent and transparent automated interpretation, calculation, and execution of tax laws. Future work will further investigate which parts of law texts can be formalized in digital twins, which decisions can be automated, and where human inputs will continue to be required.

10:00
Anwenderzentrierter Einsatz von KI und Automatisierung in der sächsischen Justiz - ein Werkstattbericht aus dem Projekt KI4JUSTiS
PRESENTER: Chris Zenner

ABSTRACT. Wie überall im Leben gilt auch in der Justiz der alte Grundsatz: viel Arbeit, wenige Arbeiter. Ganz konkret stellte sich in der Sächsischen Justiz das Problem, dass es zwar viele Ansätze und Konzepte für die Entwicklung und den Einsatz von Automatisierung und Künstlicher Intelligenz gibt – vorhandenes Personal (sowohl auf der technischen Seite als auch bei den Mitarbeitern der Justiz selbst), aber auch Geld und Rechenleistung sind eher knapp. Wie kommt man also zu Projekten aus den Bereichen KI und Automatisierung, die den Kolleg*innen in der gerichtlichen Praxis tatsächlich den meisten Mehrwert bringen können?

Diese Fragen hat sich das Projekt KI4JUSTiS (Künstliche Intelligenz für die Justiz in Sachsen) gestellt. Das Projekt ist eine Kooperation zwischen der Leitstelle für Informationstechnologie der Sächsischen Justiz (LIT), dem zentralen IT-Dienstleister aller Gerichte, Staatsanwaltschaften und Justizbehörden des Bundeslandes und dem Institut für Angewandte Informatik e.V. – An-Institut der Universität Leipzig (InfAI).

Um einen möglichst repräsentativen Einblick erhalten zu können, wurden Methoden des Legal Design bzw. des Design Thinking genutzt. Im Rahmen des Projektes fanden insgesamt acht jeweils eintägige Praxis-Workshops statt. Zu diesen waren Praktiker*innen aller Laufbahnen aus der sächsischen Justiz eingeladen, einen Tag lang Einblicke in ihre tägliche Arbeit zu gewähren und Anwendungsfälle mitzubringen, die nach eigener Einschätzung besonders nutzbringend für die justizielle Praxis sein können. Aus diesen Terminen entstand eine Matrix aus der gemeinschaftlichen Gruppendiskussion, die die genannten Anwendungsfälle nach erwartetem Nutzen und vermuteter Machbarkeit einteilten.

Insgesamt wurden in den Workshops über 230 Items (einschließlich Dopplungen und Überschneidungen) zusammengetragen, die durch das Projekt Ki4JUSTiS weiter analysiert und strukturiert werden. Hierzu wurde schrittweise Einsicht in die angebundenen und vorhandenen IT-Anwendungen genommen. Es wurden Experteninterviews sowohl mit technischen Ansprechpartnern als auch mit Prozessexperten geführt. Im Ergebnis entstand so ein umfassender Einblick in die Prozesslandschaft der sächsischen Justiz, über die Schwierigkeiten einer über vielen Jahre gewachsenen und stark heterogenen IT-Landschaft. Die Auswertung der gesammelten Anwendungsfälle dauert aktuell noch an (Stand Oktober 2024).

Parallel zur Durchführung der Workshops und der strukturierten Auswertung arbeitet das Projekt KI4JUSTiS bereits jetzt an der Umsetzung einzelner Projekte aus der Liste der Anwendungsfälle. Hierdurch sollen „Quick Wins“ bereits jetzt erreicht werden, was der justiziellen Praxis einen Mehrwert und dem Gesamtprojekt eine erhöhte Akzeptanz ermöglichen soll. Bei diesen Projekten handelt es sich um eine Mischung aus verschiedenen Tools und Lösungen, die sich sowohl Technologien der Künstlichen Intelligenz als auch der Automatisierung bedienen. Ziel ist stets der unmittelbare Mehrwert, oft im Sinne von Arbeitserleichterungen für die Anwender*innen.

Der Vortrag soll einen Einblick in das Projektvorgehen des Projektes KI4JUSTiS geben und die gesammelten Erfahrungen und Zwischenstände spiegeln. Es werden die organisatorischen, technischen und rechtlichen Rahmenbedingungen der deutschen Justiz, insbesondere der sächsischen Justiz dargestellt und vor diesen Hintergründen die Herausforderungen einer nutzerzentrierten Ende-zu-Ende-Digitalisierung und mögliche Lösungsansätze präsentiert. Best Practices und gesammelte Erfahrungen sowie erste (Zwischen-)Ergebnisse sind ein wichtiger Teil des Vortrags. Zusätzlich wird auf bereits umgesetzte und sich in Umsetzung befindliche Projekte und Tools eingegangen.

09:00-10:30 Session 6D: Rechtsinformation / Legal Information
09:00
KI im Rechtswesen: Auf dem Weg hin zur Legal Singularity?!

ABSTRACT. KI-gestützte Anwendungen die menschliches Denken nachahmen werden immer stärkeren Einfluss auf das Rechtswesen nehmen. Das Konzept der „juristischen Singularität“ (Alarie/Aidid 2023) beschreibt eine stabile und vollständige Rechtsordnung, die auf Basis von KI-Anwendungen in der Lage ist, praktisch alle Arten von Rechtsunsicherheiten auf Knopfdruck zu behandeln und zu lösen.

Ob im Bereich der Gesetzgebung, der Verwaltung, oder der Justiz: Grundsatzdiskussionen über die Automatisierbarkeit des Rechts gehen aus Sicht des Vortragenden an der faktischen Notwendigkeit vorbei, sich den Herausforderungen der KI-Anwendungen im Recht zu stellen. Chancen müssen jedenfalls genutzt werden, schon um wettbewerbsfähig zu bleiben, und selbstverständlich müssen gleichzeitig Risiken minimiert werden.

Der Vortrag behandelt alle drei genannten Tätigkeitsbereiche und diskutiert Erfahrungen, Herausforderungen und offene Fragen.

09:30
Rechtsinformationssystem des Bundes (RIS) - Update 2025

ABSTRACT. Das Rechtsinformationssystem des Bundes (RIS) wurde vor über 40 Jahren konzipiert und ist heute das österreichische Rechtsportal im Internet, welches von der öffentlichen Hand kostenlos zur Verfügung gestellt wird.

In den vergangenen Jahrzenten hat sich das RIS sowohl inhaltlich, als auch hinsichtlich der Suchmöglichkeiten stetig weiterentwickelt. Dieser Beitrag bietet einen Rückblick auf die Erweiterungen der vergangenen Jahre und einen Ausblick auf die kommenden Jahre.

10:00
The Open Web Index - Building a legally robust foundational dataset for Search Engines and AI Models

ABSTRACT. The OpenWebSearch.EU project, funded by the European Union, seeks to create a European Open Web Index (OWI) and an open web search infrastructure aimed at addressing the dominance of non-European entities in the global search market. The initiative aspires to establish a transparent, unbiased, and balanced web search environment that aligns with European values and legal standards. As the OWI will also serve as a foundational dataset for AI models, its deployment raises significant legal challenges, including navigating Data laws (such as the European AI Act or the DSA), ensuring GDPR-compliant data privacy, and managing intellectual property rights. Additional complexities include liability for content infringements, handling illegal content, and adhering to diverse international regulations. Developing robust legal frameworks for content monitoring, copyright management, data protection, and accountability is essential to building a secure and legally sound open web search infrastructure that supports innovation while maintaining compliance with global and European legal standards.This paper will focus in the most challenging legal regulations and highlight the legal challenges for the OWI.

09:00-10:30 Session 6E: Rechtsvisualisierung / Legal Visualization
09:00
Principles of Legal Visualization
PRESENTER: Vytautas Čyras

ABSTRACT. The paper discusses five key principles which guide the teaching of legal visualization by Friedrich Lachmayer. First, legal visualization is a kind of a nontextual notation. Second, legal visualization is a bridge from law to technology. Third, legal informatics supplements legal dogmatics to form a new conception of legal science. Fourth, abstraction is a guide from image via structure toward categories. Five, Structural Legal Visualization (SLV) is proposed as a method in legal informatics.

09:30
Tackling Sustainabilitese: Bringing Clarity to Codes of Conduct Using Language Research, Information Design Methods and AI
PRESENTER: Henrik Oksanen

ABSTRACT. Responsible corporate behaviour is key to tackling global sustainability crises such as the climate crisis. While many companies report that they are acting responsibly, their contracts often tell a different story. Many companies record their sustainability commitments and requirements in their Codes of Conduct (CoCs), and Supplier CoCs are often included in the company’s procurement contracts. The CoCs are typically drafted in such abstract and opaque language that they are difficult to understand, making it hard if not impossible to derive concrete, actionable guidelines from them. We refer to such language as sustainability jargon or sustainabilitese: derived from legalese, we understand it as complex top-level sustainability language that is only accessible to experts and will likely cause comprehension problems for non-experts.

We shed light on these potential comprehension problems with examples from a selection of CoCs collected from large companies. We will analyse the CoCs and describe the sustainabilitese jargon used in them as its own register, as a form of language use typical of this text type. Our analysis follows the typical steps for defining genre features: we distinguish between the communicative goal and subgoals of the CoCs, as well as their structural (lexico-grammatical) and functional features, on the basis of which we identify the features typical of sustainabilitese jargon. Our aim is to describe the linguistic features of this type of language use and to show which linguistic choices undermine or promote concrete sustainability objectives. Having defined these linguistic features, we suggest research-based ways to improve the language and build concrete guidelines for action as well as the deconstruction of the sustainabilitese jargon with the help of plain language standards, information design methods as well as AI tools.

This presentation is a part of an ongoing research project by the JARGONFREE research group (Tampere University, Finland). JARGONFREE’s Contract Language research project examines what contracts should be like in terms of language, content, structure and design as well as how AI could help businesses towards more responsible contract planning, design and communication so that all involved would understand their rights and obligations.

11:00-12:30 Session 7A: Datenschutz & Datenregulierung II / Data Protection & Data Governance II
11:00
Using AI the right way – Privacy friendly processing of images and text in leaked identity data

ABSTRACT. This contribution proposes a method to process personal identifying information (PII) from data leaks with AI in a privacy-friendly way so that it can be utilized for preventing misuse of identity data (such as ID cards) without exposing the data through an API or risking additional damages to data subjects. AI-based algorithms are used more and more and not only in society as a whole but especially also in public administrations or administration of justice. In the same thrust, legislators and legal research investigate the use of AI and its uses and dangers. Especially when deciding about, for example, social security benefits or in our cases processing identity data, the dangers are many, and their prevention is paramount. On the other hand, many good uses of AI or algorithms also require the processing of some data. Because of this, the concise use of such data and the prevention of identity data misuse is all the more important. In this article, we show that the careful use of AI and the use and storage of personal identity data do not have to be an oxymoron (as data protection is often described as at odds with data usage) but can actually help in preventing the further misuse of identity data.

11:30
"Die Auswirkungen der KI-VO auf die Datenschutzbeauftragten"

ABSTRACT. Die Vortragende ist als externe Datenschutzbeauftragte bereits früh mit der KI-VO und deren Umsetzung im Unternehmen betraut worden. Das Ziel war und ist Innovation zu ermöglichen, sogar zu fördern und dabei trotzdem die Privatsphäre der Menschen schützen.

Ob Regelungen als Innovationshemmer oder als Wettbewerbsvorteil gesehen werden, hängt oft von der Kommunikation ab; die Kommunikation mit den Betroffenen, den Behörden und mit dem Management.

Tatsächlich ist die Kluft zwischen technischen Möglichkeiten und einer „gehypten“ Erwartungshaltung groß. Die DSGVO, die von der KI-VO unberührt bleiben soll, ist eher ein Wunsch, denn Wirklichkeit. Die Vortragende möchte anhand konkreter Beispiele zeigen, welche Auswirkungen die KI-VO in der Praxis auf die folgenden datenschutzrechtlichen Regelungen hat: (1) Grundsatz der Datenrichtigkeit Art 5 (2) Grundsatz der Datenminimierung und Zweckbindung (3) Personenbezug beim Einsatz von KI-Systemen (insb die Hamburger These zum Personenbezug in LLMs) (4) Rechtsgrundlagen für die Datenverarbeitung (5) Rollenverteilung und Rollenverständnis (Auftragsverarbeitungsvertrag, Vertrag über die gemeinsame Verantwortung) (6) Transparenzgebot und Informationspflichten (7) Betroffenenrechte: konkret Auskunftsanspruch und Recht auf Löschung (8) Automatisierte Entscheidungen und Profiling (9) Datenschutz durch Technikgestaltung und datenschutzfreundliche Voreinstellung

Und wie es als DSBa gelingt, nicht als Verhinderer von neuen Technologien zu gelten. // ANM: Nur Vortrag! //

12:00
ESG-Reporting in der Praxis: Datenerhebungspflichten, KI-Einsatz und Datenschutz
PRESENTER: Philipp Reinisch

ABSTRACT. Rechtsakte wie CSRD, ESRS & Co sollen auch österreichische Unternehmen verpflichten, nachhaltige Praktiken transparent zu kommunizieren und rücken das ESG-Reporting ins Zentrum der Aufmerksamkeit. Dieser Vortrag soll die Anforderungen an Unternehmen beleuchten, insbesondere die Erhebung der notwendigen ESG-Daten. Im Fokus stehen hierbei auch die Rolle von Künstlicher Intelligenz (KI) bei der Datenerhebung, -analyse und -auswertung sowie die Verwendung von Mitarbeiterdaten. Die Praxis, dass Fragebögen – häufig von der US-Konzernmutter – an Mitarbeiter in österreichischen Niederlassungen gesendet werden, wirft in der praktischen Umsetzung praktische Fragen auf: Besteht eine Verpflichtung zur Beantwortung, und auf welcher Rechtsgrundlage erfolgt die Verarbeitung dieser Informationen? Was folgt bei Verweigerung der Beantwortung?

Der Vortrag will die unterschiedlichen Anforderungen in den USA, Österreich und anderen europäischen Ländern analysieren und bietet praxisnahe Lösungen zu rechtlichen und technischen Herausforderungen des KI-gestützten ESG-Reportings.

11:00-12:30 Session 7B: KI, Ethik & Recht II / AI, Ethics & Law II
11:00
The Ethics of AI in Games: Navigating Legal Responsibility and Creative Rights

ABSTRACT. The incorporation of artificial intelligence (AI) in video game creation gives rise to intricate legal and ethical issues at the nexus of technological advancement and consumer protection legislation. This article examines the nascent legal frameworks that regulate the deployment of AI in gaming, with a particular focus on two pivotal dimensions: the responsibilities of developers and the protection of creative rights. In light of Filipović's (2023) examination of AI in game development, this research identifies significant regulatory deficiencies in the current legal framework governing digital entertainment with regard to the implementation of artificial intelligence (AI). In this analysis, three key legal challenges are addressed: (1) the scope of developer liability for AI-driven player manipulation; (2) the legal obligations for transparency in AI-enhanced gameplay mechanisms; and (3) the establishment of accountability frameworks for emotional exploitation through affective computing. This article proposes a novel legal approach to balancing innovation with player protection by undertaking comparative legal analysis of existing digital consumer protection regulations and emerging AI governance frameworks. The findings of this research lead to the recommendation of specific legislative measures and industry standards which would serve to establish clear boundaries in relation to the implementation of AI technology, whilst simultaneously ensuring the preservation of creative freedom in the field of game development. The objective of the proposed recommendations is to establish a robust legal and ethical foundation for the responsible deployment of AI in gaming. This will enable the advancement of technology in a manner that protects consumer welfare.

11:30
Rechtliche und ethische Implikationen Künstlicher Intelligenz am Beispiel des Sexroboters

ABSTRACT. Auf dem weiten Feld der Künstlichen Intelligenz (K.I.) ist ein Akteur am Markt, der großes Erstaunen hervorruft: der Sexroboter. Dieser sammelt via Mikrofon, Kamera und Sensoren Daten seiner User, um seine K.I. permanent zu trainieren. Offensichtlich handelt es sich bei diesen Daten, um sensible Daten i.S.d. Art. 9 der DSGVO, eine weitere Subsummtion scheint obsolet zu sein. Aber der Sexroboter löst nicht nur im Bereich des Datenschutzrechts Kontroversen und Debatten aus. Die große philosophische Frage, ob Roboter Rechte bekommen sollen oder die Frage, ob Menschen vereinsamen, bei Einführung dieser neuen Technologie, können neu aufgerollt werden.

12:00
Legal aspects of content moderation in the context of disinformation in UGC video games

ABSTRACT. This paper addresses the issue of dissemination of disinformation in UGC, or Sandbox video games. First, it discusses the specific principles of disinformation dissemination in video games and the so-called procedural rhetoric. Second, the paper deals with the problematic understanding and detection of disinformation in video games, including the unclear application of the Digital Services Act in the context of the essence of user-generated content and outlines the issues that arise from this problematic application, such as the practical ineffectiveness of content moderation or, on the contrary, the po-tential infringements on the artistic freedom and freedom of expression of UGC game users.

11:00-12:30 Session 7C: E-Government II
11:00
Panel: Dresdner Forderungen 2.0 - 20 Thesen für eine digitale Zeitenwende zur Staatsmodernisierung
PRESENTER: Tanja Krins

ABSTRACT. Die digitale Transformation Deutschlands stockt, und der erhoffte Modernisierungsschub für Staat und Verwaltung bleibt aus. Die im Oktober 2024 von der Fachgruppe Verwaltungsinformatik der Gesellschaft für Informatik e.V. vorgestellten „Dresdner Forderungen 2.0“ knüpfen an die Dresdener Forderungen zur Digitalisierung von 2021 an und formulieren 20 Thesen, die aufzeigen, wie eine erfolgreiche digitale Zeitenwende die Staatsmodernisierung vorantreiben kann. Vor dem Hintergrund multipler Krisen – von der Corona-Pandemie über den Ukraine-Konflikt bis hin zu Fachkräftemangel und Klimakrise – werden in 20 prägnanten Thesen Lösungen für die Modernisierung des deutschen Staatswesens aufgezeigt.

Zentraler Fokus der Thesen ist die Forderung nach einer Neuinterpretation des Föderalismus, der Vereinfachung von Rechts- und Verwaltungsnormen, einer konsequenten Standardisierung und der Integration von semantischer Interoperabilität. Die Thesen stellen den Bedarf nach durchgängigen, transparenten und interoperablen Prozessen in den Vordergrund und fordern die Verwaltung auf, mutig und innovativ neue Wege zu gehen. Dazu gehören eine datengetriebene Verwaltung, die Schaffung sicherer Räume für Innovation und Experimente sowie die verstärkte Einbindung von Datenschutz und Informationssicherheit als Kernelemente der digitalen Verwaltung.

Ziel der 90-minütigen Paneldiskussion, organisiert von den Autoren aus der Fachgruppe Verwaltungsinformatik, ist eine fundierte, wissenschaftlich basierte Auseinandersetzung über die strategischen und strukturellen Weichenstellungen für eine erfolgreiche digitale Transformation. Ein weiteres Ziel ist es, die Thesen in die Fachcommunity zu tragen, den Austausch zwischen Forschung und Praxis zu fördern und konkrete Maßnahmen zur digitalen Zeitenwende zu identifizieren. Die Diskussion dient nicht nur der Verbreitung der Thesen, sondern auch als Plattform für kritische Reflexion und die Entwicklung neuer Ideen, um die digitale Zukunft von Staat, Verwaltung und Justiz aktiv zu gestalten.

Moderator: NN (GI) Panelistin: Tanja Krins (Stv. Fachbereichssprecherin RVI/GI e.V.) Panelist: Prof. Dr. Jörn von Lucke (Wissenschaft) Panelist: NN (Wirtschaft) Panelist: NN (Politik)

Im Anhang finden sich die 20 Thesen der Dresdner Forderungen. Das Dokument ist in dieser Form nicht als Beitrag für den Tagungsband vorgesehen. Im Fall einer Annahme könnte ein wissenschaftliches Papier auf Basis der 20 Thesen eingereicht werden.

11:30
Digitale Nachhaltigkeitsinitiativen in der öffentlichen Verwaltung
PRESENTER: David Richter

ABSTRACT. Nachhaltigkeit gewinnt immer mehr an Bedeutung, doch bislang werden der Nachhaltigkeitsdiskurs und der E-Government Diskurs großteils separat geführt. Wir zeigen auf, wo schon jetzt Überschneidungen existieren (OGD / Open APIs, digitale Selbstbestimmung etc. sowie E-Gov Portale für die Wirtschaft) und worauf in Zukunft vermehrt ein Augenmerk gelegt werden sollte. Im Fokus stehen unter anderem Genehmigungsverfahren und Initiativen zur digitalen Nachhaltigkeit. Betrachtet und gegenübergestellt werden Beispiele aus Deutschland und der Schweiz.

12:00
"Produktionsstraße" für standardisierte Erstellung von Bürgerservices
PRESENTER: Marianne Mauch

ABSTRACT. Ende-zu-Ende digitalisierte Bürgerservices nach dem Onlinezugangsgesetz (OZG) erfordern einen systematischen, strukturierten Ansatz zur Sicherstellung hoher Qualität, Effizienz und Rechtskonformität. Die Ergebnisse der Arbeitsgruppe Offenes Design digitaler Verwaltungsarchitekturen (AG openDVA) bzgl. des in 2024 vorgestellten und seitdem weiter verfolgten Weges vom Gesetzestext zur digitalisierten Leistung resultieren in einer “Produktionsstraße“ zur effektiven Entwicklung und Bereitstellung smarter Bürgerservices. Ausgangspunkt sind User Stories, die in der öffentlichen Verwaltung erhoben wurden. Mit Hilfe der FIM-Methodik werden auf der Handlungsgrundlage basierende strukturierte und standardisierte Stamminformationen zur Verwaltungsleistung selbst, Prozessen und Datenfeldern erhoben. Entscheidungen werden mit Rulemapping an den jeweiligen Prozessschritten des Stammprozesses modelliert. Die Rechtskonformität wird dabei durch die gesetzgebende Instanz bereits im Anschluss an die Modellierung geprüft und bildet so die Grundlage für die Umsetzung. Wissensgraphen beschreiben und verknüpfen dieses Wissen und stellen es maschineninterpretierbar zur Verfügung. Diverse Plattformen können dieses Wissen durchsuchen, visualisieren, Anwendungen zur Verfügung stellen und zukünftig auch erweitern. Nach der Transformation von Wissen zu Prozess- und Datenfeldinformationen entsteht ein erstes initiales Verfahren, das mit weiteren Informationen angereichert wird. FIM-Standards und Basisdienste wie FIT-Connect gewährleisten dabei die Interoperabilität mit anderen (Behörden-)Systemen, während weiterführende Informationen Datenschutz und Sicherheit während der Anreicherung von Prozessinformationen verbessern können. Erst nach umfassenden Funktional- und Akzeptanz-Tests sowie erfolgreicher Validierung können digitalisierte Bürgerservices bereitgestellt und iterativ basierend auf Monitoring und Nutzerfeedback verbessert werden. Diese “Produktionsstraße” für die Erstellung OZG-konformer Services bietet einen durchdachten, iterativen Prozess, der von der Analyse bis zur kontinuierlichen Optimierung reicht. Eine klare Struktur und Fokussierung auf Standards, Nutzbarkeit und Rechtskonformität stellt sicher, dass Dienstleistungen den Anforderungen aller Stakeholder gerecht werden.

11:00-12:30 Session 7D: Rechtstheorie I / Legal Theory I
11:00
Can we agree on what privacy means? Philosophical, legal, and social context

ABSTRACT. Privacy is a critical concern in the digital age, especially with the rise of AI technologies. Despite its importance, privacy lacks a universally accepted definition, making it a complex and multifaceted issue. This paper offers an overview of privacy conceptualisations in philosophy, law, and social sciences. By integrating these disciplinary perspectives, we propose a composite, operational definition of privacy. Having such a definition is particularly relevant to AI governance through regulations due to the textual nature of the law. The interdisciplinary approach of this paper aims to bridge theoretical insights with practical implications for privacy protection in the era of AI.

11:30
Digitale und reflexive Kompetenzen für JuristInnen

ABSTRACT. Mit der digitalen Transformation von Universitäten und der durch Künstliche Intelligenz bedingten Veränderung des juristischen Berufsfeldes (Hunter, 2020) ergibt sich die Notwendigkeit, die curriculare Ausgestaltung rechtswissenschaftlicher Studien zu analysieren und eventuell neu auszurichten. Digitale Kompetenzen an Universitäten zu fördern, stellt eine Notwendigkeit dar, die sich an universitäre Institutionen, Lehrende, Studierende wie auch Verwaltungspersonal richtet. Damit angehende JuristInnen ihr Handeln selbstgesteuert an rechtliche und technologische Veränderungen adaptieren können, braucht es neben einer praxisorientierten Anwendung digitaler Arbeitsmittel (Datenbankrecherche), der Befassung mit neuen Arbeitsmitteln im Rahmen der Rechtsdurchsetzung (Legal Tech) und dem IT-Recht (Zwickel, 2023) vor allem auch ein Technikverständnis und -wissen bzw. eine entsprechende Reflexionsfähigkeit. Ein Modul zum Technikverständnis mit einer Einführung in die Informatik, in Data Science, Text Mining, Webtechnologien, Datenbanken in Unternehmen oder beispielsweise IT-Security (Mielke, 2023) scheint angebracht. Gleichzeitig ist eine Sensibilisierung im Umgang mit digitalen Technologien erforderlich, die neben positiven Aspekten auch mit Verschlechterungen, Risiken und Schäden verbunden ist. Neben einer Anwendungskompetenz der UserInnen braucht es auch ein Verständnis für die zugrunde liegenden Funktionen und Auswirkungen digitaler Technologien. Ein interdisziplinärer, fächerübergreifender Zugang hinsichtlich soziologischer, psychologischer oder beispielsweise ethisch-philosophischer Fragestellungen wird unumgänglich.

Hunter, D. (2020). The death of the legal profession and the future of law. University of New South Wales Law Journal, 43(4), 1199–1225. Mielke, B. (2023). Law goes digital: Lehrkonzepte zur Digitalisierung–vom Grundstudium bis zum Referendariat. In M. Schmidt & H. H. Trute (Hrsg.), Lehre der Digitalisierung in der Rechtswissenschaft (S. 229-248). Nomos. Zwickel, M. (2023). Digitalisierung und Recht – Plädoyer für ein Querschnittscurriculum. In J. Griebel, F. Gröblinghoff, T. Kuhn, & R. Schimmel (Hrsg.), 2023. Rechtsdidaktik: Erreichtes-Misslungenes-Zukünftiges. (S. 83-122). Nomos.

12:00
Learning Analytics meets AI: Rechtliche Herausforderungen und Schutzmechanismen für Transparenz, Fairness und Datenschutz

ABSTRACT. Learning Analytics hat sich in den letzten Jahren als wertvolles Instrument im Bildungssystem etabliert, insb um Lernprozesse durch datenbasierte Analysen zu verbessern. Hierbei eröffnen Anwendung der künstlichen Intelligenz neue Potentiale in der personalisierten Lernförderung sowie der Prädiktion von Lernergebnissen. Gleichzeitig stellt die Integration von KI jedoch erhebliche rechtliche Herausforderungen dar, zumal diese mit datenschutzrechtlichen Problemstellungen, Transparenzanforderungen und möglichen Diskriminierungsrisiken verbunden sind. Learning Analytics bezeichnet die Sammlung, Analyse und Nutzung von Daten aus Lernprozessen, zur Verbesserung von Bildung und Lernen. Dabei werden Informationen über das Verhalten, den Fortschritt sowie die Interaktionen von Lernenden in digitalen Lernumgebungen erfasst und ausgewertet. Diese Daten stammen oft aus Lernmanagementsystemen, Online-Kursen, Quiz-Ergebnissen oder anderen digitalen Bildungstools und umfassen zB Klickverhalten, Bearbeitungszeit oder Testresultate. Ziele und Nutzen von Learning Analytics sind weitreichend: Learning Analytics kann Muster im Lernverhalten erkennen. Dadurch erhalten Lernende durch personalisierte Rückmeldungen individuelle Lernförderungen, die sich auf deren Lernoptimierung auswirken sollen. Durch die Datenanalyse lässt sich zudem voraussagen, wie erfolgreich ein Lernender den Kurs abschließen wird oder welche (individuellen) Schwierigkeiten auftreten könnten. Dies ermöglicht den Lehrenden wiederum frühzeitige Interventionen zu ergreifen. Aggregierte Daten können Einblicke in Lernprozesse auf systemischer Ebene liefern, um didaktische Ansätze oder Bildungstechnologien zu verbessern. Zuletzt lassen sich durch Learning Analytics Lernprozesse auch auf institutioneller Ebene optimieren sowie Ressourcen besser verteilen. Durch den Einsatz von KI in Bereich von Learning Analytics entstehen nicht nur neue Potentiale, sondern auch ethische und rechtliche Herausforderungen. Das betrifft insb den Schutz der Privatsphäre, die Einhaltung des Prinzips der Datenminimierung und die transparente Entwicklung und Nutzung von KI-Algorithmen zur Vermeidung von Diskriminierung und Verzerrungen. KI ermöglicht komplexe Analysen und Vorhersagen; doch auch die „Black Box“-Problematik – dass KI-Entscheidungen nicht immer transparent nachvollziehbar sind – stellt besonders im Bildungskontext eine große Herausforderung dar. Der Vortrag soll darauf abzielen, die rechtlichen Anforderungen an KI-gestützte Learning-Analytics-Systeme zu identifizieren und zu analysieren, um die Balance zwischen Nutzen und den notwendigen rechtlichen Schutzmechanismen sicherzustellen. Besonders im Fokus stehen die Anforderungen an Transparenz, Fairness und sowie den Datenschutz, die vor dem Hintergrund des aktuellen europäischen Rechtsrahmens, insb der Verordnung über künstliche Intelligenz, beleuchtet werden

14:00-15:30 Session 8A: Datenschutz & Data Governance III
14:00
Personendaten im Zeitalter von Machine Learning – Eine erste Annäherung

ABSTRACT. Das, was wir meinen können, wenn wir von Personendaten sprechen, ändert sich laufend mit der fortschreitenden Entwicklung der Informations- und Kommunikationstechnologie. Sowohl im europäischen als auch im schweizerischen Recht ist die Auslegung dieses Begriffs von zentraler Bedeutung für den datenbezogenen Persönlichkeitsschutz, da nur Personendaten bzw. personenbezogene Daten den Geltungsbereich der DSGVO bzw. der schweizerischen Daten-schutzgesetze eröffnen. Mit dem Advent der lernenden KI in der Form von large language mo-dels (LLM) im Mainstream der Gesellschaft stellt sich die Frage, ob und gegebenenfalls wie sich der Begriff der Personendaten und damit der Regulierungsgegenstand des Datenschutz-rechts durch den Wechsel von evidenz-basierten oder «kausalen» Daten hin zu statistik-basierten oder «stochastischen» Daten verändert. Wie es scheint, hängt die Antwort mit der semantischen Interpretierbarkeit der Verknüpfung zwischen Personen und Daten zusammen.

14:30
Portability of Data - Contemporary Legal and Technical Issues
PRESENTER: Nils Wiedemann

ABSTRACT. In its data strategy the EU envisions a digital single market for data that shall enable the sharing of data between and across different sectors, which necessitates the portability of the data that is to be shared. Even prior to the EU’s data strategy, the GDPR introduced the right to data portability, which pursues, inter alia, the sharing of personal data. This right serves as a template for the sharing of product data and related service data according to Chapter II of the Data Act. However, as a consequence of various legal and technical obstacles, the practical impact of the GDPR’s right to data portability has been fairly limited. Therefore, this contribution analyses whether the framework of the DA is prone to the same shortcomings, with a particular emphasis on the technical challenges.

15:00
Collective aspects of privacy in the context of personalization

ABSTRACT. Personalization is a powerful business strategy that tailors content to individuals based on their specific interests. However, effective targeting requires companies to maintain extensive databases filled with vast amounts of consumer behavior and preference data. In this work, I first explain how companies process personal data to target individuals, and I analyze how personalization impacts privacy. I also briefly discuss broader collective aspects of personalization, such as its potential to reinforce discrimination, societal stereotypes, and biases. The main part of this contribution focuses on collective aspects of personalization, where I examine how data processing for personalization not only impacts the individuals whose data is collected but also has significant implications for other consumers. In our interconnected world, digital services thrive on a deep understanding of their customers, deriving value from both individual and aggregated data to analyze behavioral patterns. This analysis focuses on the concept of informational self-determination, which enhances individuals’ control of their personal data and possibility to make informed decisions about its use and is crucial in the context of data protection. Furthermore, I will explore how predictive algorithms, while enhancing personalization, can undermine this self-determination by creating profiles about individuals, using aggregated data about other consumers’ behavior. Additionally, this article will assess the application of GDPR tools, highlighting the limitation by the nature of data used for personalization.

14:00-15:30 Session 8B: KI, Ethik & Recht III / AI, Ethics & Law III
Chair:
14:00
Führen Unterschiede in den Sprachfassungen der KI-VO zu unterschiedlichen technischen und juristischen Interpretationen? Eine Untersuchung anhand ausgewählter Tatbestandsmerkmale.
PRESENTER: Axel Adrian

ABSTRACT. Die KI-Verordnung der EU soll den Einsatz von künstlicher Intelligenz in den Mitgliedsstaaten regulieren. Sie ist, wie alle Verordnungen der EU, in 24 Amtssprachen verbindlich; es ist dementsprechend schwierig, bei einem Text von etwa 80.000 Wörtern (in der deutschen Fassung) stringente Konsistenz über alle Sprachen hinweg zu gewährleisten. Insbesondere unter Berücksichtigung des technischen Kontextes der Tatbestandsmerkmale „Genauigkeit“ und „Robustheit“ beschäftigt sich die vorliegende Untersuchung auf Basis einer Korpusanalyse mit den Unterschieden in den amtlichen Sprachfassungen der Normen und der Frage, ob diese Unterschiede Einfluss auf technische Anforderungen sowie rechtliche Bewertungen haben.

14:30
„Wertebasierte Standardisierung“ – ein erfolgversprechender Ansatz der Technikregulierung?
PRESENTER: David Bierbauer

ABSTRACT. Eine Steuerungsschwäche, wenn nicht gar ein Steuerungsversagen wird dem Recht häufig im Verhältnis zur Technik zugeschrieben. Das dieser Kritik zugrundeliegende Problem besteht im Wesentlichen darin, dass Rechtsnormen Tatbestände unter den Anforderungen der Gerechtigkeit und des Gemeinwohls dauerhaft ordnen sollen; die Einzelheiten der Konstruktion und Ausführung von technischen Systemen sich jedoch einer statischen Ordnung entziehen. Um diesen Anforderungen gerecht werden zu können, entschied sich der europäische Gesetzgeber in den 1980er Jahren mit dem „New Approach“ für eine Zusammenarbeit mit privaten Normungsorganisationen. Diese Form der Ko-Regulierung wurde Anfang der 2000er Jahre positiv evaluiert und in der Folge mit dem "New Legislative Framework" (NLF) sowie der Standardisierungsverordnung VO (EU) 1025/2012 bekräftigt und weiter verrechtlicht. Nach jüngsten Evaluierungen beider Bereiche wurden Mängel und Herausforderungen offenbar, die die neue Standardisierungsstrategie der Europäischen Kommission zu beheben versucht. Deren Kernanliegen sind ein wertebasierter, menschenzentrierter Ansatz sowie Stakeholderbeteiligung. Der interdisziplinäre Beitrag greift das Regulierungskonzept als Versuch auf, der hochtechnisierten europäischen Gesellschaft einen adäquaten Rechtsrahmen zu ermöglichen und diskutiert den Ansatz rechtswissenschaftlicher Sicht.

15:00
AI in a Sandbox: Zur Bedeutung von Reallaboren als Instrument der KI-Regulierung

ABSTRACT. Die Auswirkungen innovativer digitaler Anwendungen, insbesondere im Bereich Künstlicher Intelligenz, stellen Gesetzgeber, Verwaltung und Wirtschaftsbeteiligte gleichermaßen vor erhebliche Herausforderungen. Häufig fehlt die notwendige Expertise, um etwa ein KI-basiertes Vorhaben oder Geschäftsmodell im Kontext des einschlägigen (Materien-)Rechts hinsichtlich seiner tatsächlichen Auswirkungen abschließend zu bewerten. Dies führt zu Rechtsunsicherheiten für Wirtschaftsbeteiligte, die entweder gezwungen sind, rechtliche Risiken in Kauf zu nehmen, oder mitunter in Erwägung ziehen, auf den Einsatz der Technologien zu verzichten. Angesichts der rasanten technologischen Entwicklungen bieten Reallabore, auch bekannt als Regulatory Sandboxes, einen vielversprechenden Ansatz, um diesen Herausforderungen sachgerecht zu begegnen. Reallabore erlauben es, va neue Technologien über einen definierten Zeitraum hinweg zu erproben. Unter der Aufsicht und/oder in Kooperation mit der zuständigen Behörde können solche Technologien und deren Anwendungen in Produkten oder Dienstleistungen unter realen Bedingungen getestet werden, ohne dass sämtliche rechtlichen Anforderungen erfüllt werden müssen. Auf diese Weise können Gesetzgeber und Verwaltung die Auswirkungen, Potentiale und Risiken von KI-basierten Projekten evaluieren und darauf basierend mit geeigneten rechtlichen Regelungen oder einer Anpassung der Verwaltungspraxis reagieren. Gleichzeitig profitieren Wirtschaftsbeteiligte von dieser geschützten Umgebung, indem sie ihre Vorhaben gezielt weiterentwickeln bzw adaptieren und so den rechtlichen Anforderungen entsprechen können. Die Rechtsordnung bietet bereits einzelne Möglichkeiten zur Einrichtung von Testumgebungen in Form von Reallaboren. So sieht auch der AI-Act in seinen Art 57 ff Bestimmungen über die Einrichtung von KI-Reallaboren vor. Dabei sind die Mitgliedstaaten angehalten, entsprechende Rahmenbedingungen zu schaffen und jedenfalls ein Reallabor einzurichten. Mit dem Real Decreto 817/2023 hat das Königreich Spanien als erster Mitgliedstaat ein derartiges Reallabor implementiert. Der Vortrag analysiert die rechtlichen Möglichkeiten und Regelungseckpunkte von Reallaboren mit besonderem Fokus auf die Bestimmungen des AI-Acts zum KI-Reallabor.

14:00-15:30 Session 8C: E-Government III
14:00
KI IN DER ÖFFENTLICHEN VERWALTUNG – EINE ANALYSE VON E-GOVERNMENT-PROJEKTEN

ABSTRACT. Zuletzt waren unter den prämierten Beiträgen des DACH-weit ausgeschriebenen eGovernment-Wettbewerbs vermehrt solche, die KI einsetzen. Dieser Beitrag betrachtet prämierte Einreichungen über fünf Jahre (seit 2020). Dabei wird der offenen Frage nachgegangen, was diese erfolgreichen KI-Projekte in der öffentlichen Verwaltung kennzeichnet und, ob sich Empfehlungen für weitere Anwendungsfelder oder auch zu Vorgehensweisen ableiten lassen.

14:30
DAS SEMINAR E-GOVERNMENT-ARCHITEKTUREN AN DER HWR BERLIN – EIN ERFAHRUNGSBERICHT

ABSTRACT. Seit 2016 wird an der HWR Berlin im Bachelorstudiengang Verwaltungsinformatik das Pflichtmodul „IT-Vertiefung“ angeboten, das auch das Seminar „E-Government-Architekturen“ umfasst. Der beabsichtigte Vortrag liefert einen Erfahrungsbericht einer Lehrkraft zum Aufbau, den Inhalten, Zielen, Vorgehensweisen und Herausforderungen des Seminars, das sowohl theoretische Grundlagen wie auch praktische Aufgaben mit einem Architekturmanagement-Tool umfasst.

Mehr zu den Vortragsinhalten ist aus dem 2-Seite umfassenden Kurzbeitrag zu entnehmen.

15:00
Auswirkungen auf die digitalen Transformation der öV in BW
PRESENTER: Antje Dietrich

ABSTRACT. In diesem Beitrag wird das Konzept für die Evaluation der Auswirkungen auf die digitale Transformation in der öffentlichen Verwaltung in Baden-Württemberg auf Grund der Einführung des neuen Studiengangs Digitales Verwaltungsmanagements (DVM) vorgestellt. Der DVM-Studiengang in Kehl stellt eine moderne, spezialisierte Alternative zu klassischen Verwaltungs- und Informatikstudiengängen dar. Er richtet sich besonders an diejenigen, die Interesse an der Schnittstelle zwischen öffentlicher Verwaltung und Digitalisierung haben. Während andere Studiengänge eine breitere Basis für Verwaltung oder eine spezialisierte Ausbildung in IT bieten, schließt DVM die Lücke zwischen diesen Bereichen und bereitet gezielt auf die Herausforderungen der digitalen Transformation im öffentlichen Sektor vor. Nachdem nun seit nun bereits zwei Absolventenjahrgänge in der Praxis angekommen sind, sollen zum einen das entstandene Absolventen-Netzwerk, aber auch die Auswirkungen im Speziellen und im Zusammenhang in BW evaluiert und beschreiben werden, so dass auch wiederum die Studieninhalte angepasst werden können. Die Studierenden bearbeiten im Verlauf des Studiums fünf Fallstudien, diese sollen entsprechend des Ergebnisses der Evaluation angepasst werden. Das Konzept der Evaluation und die Reifegrad Bestimmung werden vorgestellt.

14:00-15:30 Session 8D: E-Demokratie / E-Democracy
14:00
Leitlinien für KI in Parlamenten
PRESENTER: Jörn von Lucke

ABSTRACT. Parlamente setzen zunehmend auf digitale Werkzeuge und Dienste. Die Verbreitung von künstlicher Intelligenz (KI) wird diesen Trend voraussichtlich weiter beschleunigen und eine wichtige Rolle bei der digitalen Transformationen von Parlamenten von papiergestützten Organisationen in datengestützte Institutionen spielen und damit bisherige Paradigmen in Frage stellen. Aus diesem Grunde wurden von einer internationalen Gruppe parlamentarischer Wissenschaftler und Fachleute über einen Zeitraum von acht Monaten, von September 2023 bis April 2024, Leitlinien für KI in Parlamenten erstellt, die auf früheren Arbeiten in diesem Bereich aufbauen. Sie sollen auf die Einführung und Nutzung von KI in der parlamentarischen Arbeit vorbereiten.

Die Leitlinien sind für lokale, regionale, nationale und supranationale Parlamente in einem Multi-Level-Governance-Kontext relevant. Bei der Erarbeitung wurde ein ganzheitlicher Ansatz verfolgt. Die Leitlinien beinhalten Ausführungen zu Ethik, Daten-schutz, Informationssicherheit, Aufsicht, Systemgestaltung und Bildung. Sie befassen sich mit spezifischen Aspekten des Einsatzes von KI in Parlamenten, einschließlich Anmerkungen zum Umfang, zu Beispielen und zu Faktoren, die für eine erfolgreiche Umsetzung entscheidend sind. Dadurch sind sie sowohl für die Behandlung aktueller Fragen als auch für die Beurtei-lung eher theoretischer Fragen von Nutzen, wie zum Beispiel die Auswirkungen Künstlicher Allgemeiner Intelligenz (KAI) auf die Gesetzgebung.

Die Leitlinien, deren Übersetzung in deutscher Sprache bis zur IRIS 2025 vorliegt, sollen in einem Beitrag/Vortrag vorgestellt werden. Darauf aufbauend, ist an eine Diskussion über KI in Parlamenten, mögliche Grenzen und eine Übertragung einzelner Leitlinien auf deutschsprachige Parlamente gedacht.

14:30
KI als potentielles Werkzeug im Gesetzgebungsprozess

ABSTRACT. Der Beitrag zeigt auf, wie KI im Gesetzgebungsprozess zur Unterstützung eingesetzt werden kann, um spätere Schwierigkeiten bei der Rechtsanwendung zu antizipieren und zu minimieren. Durch eine KI-gestützte Risikoabschätzung sollen handwerkliche Fehler, z. B. sprachliche Ungenauigkeiten, in Gesetzesentwürfen rechtzeitig erkannt und behoben werden. Ziel ist es, den Umsetzungsaufwand rechtlicher Vorgaben zu senken und rechtliche Unschärfen, die bisher durch die Rechtsprechung geklärt werden müssen, so weit wie möglich zu vermeiden. Darüber hinaus soll die KI dabei unterstützen, dass Gesetze einfacher digital umgesetzt werden können.

Bei der Entwicklung dieses Vorhabens sollen insbesondere die Erfahrungswerte des Föderalen Informationsmanagements (FIM) zur Harmonisierung des Vollzugs von Verwaltungsleistungen in Deutschland mitberücksichtigt werden. Die Dokumentation aus FIM und die Metadaten von öffentlich zugänglichen Registern sollen als Wissensbasis für die KI nachgenutzt werden.

14:00-15:30 Session 8E: Rechtstheorie II / Legal Theory II
14:00
Außerrechtliche Kontexte der Rechtsanwendung

ABSTRACT. Gelungene Rechtsanwendung erfolgt methodengerecht. Dies soll die Anwendung der von der juristischen Methodenlehre näher spezifizierten Auslegungs- und Anwendungskonzepte gewährleisten. Rechtsanwendung ist ein Phänomen der Rechtserzeugung. Rechtserzeugung erfasst nicht nur die Anwendung von generellen Rechtsvorschriften in einem individuellen Fall, sondern auch die Erzeugung dieser Rechtsvorschriften selbst. So erfolgt die Produktion von Gesetzen unter Anwendung der in der Verfassung dafür vorgegebenen Rechtserzeugungsregelungen. Beide Arten der Rechtserzeugung sind insofern strukturell gleich gelagert, als bindende Vorgaben mit einem Spielraum kombiniert werden, der freilich für die Erzeugung von Gesetzen weit größer ausfällt als für die Erzeugung von Einzelfallentscheidungen. Rechtserzeugung lässt grundsätzlich als selbstreferentiell sehen. In diesem Sinn regelt das Recht seine eigenen Erzeugungsbedingungen und steht insofern unabhängig von außerrechtlichen Kontexten. Dennoch stechen eine Reihe von Voraussetzungen bzw. Rahmenbedingungen für die Rechtserzeugung ins Auge, die offensichtlich nicht abschließend von Rechtsvorschriften geregelt werden können: • Rechtsvorschriften sind sprachabhängig. Sprache befindet sich in einem beständigen Wandel und ist insofern offen, in ihrer Eigenständigkeit entzieht sie sich einer (abschließenden) rechtlichen Regelung. Für die Erzeugung von Rechtstexten sind die Gesetzlichkeiten der verwendeten Sprache zu beachten. • Rechtsnormen müssen aus sprachlichen Texten zugänglich sein und daraus präzise erfasst werden können. Zur Standardfestlegung bietet sich hier die legistische Dimension des Konzeptes der „intern morality of law“ von Lon L. Fuller an, die mit ihren „principles of legality“ mehrere einschlägige Gesichtspunkte wie etwa die öffentliche Kundmachung sowie die leichte Verständlichkeit und Konsistenz aufzählt. • Die Konzepte der Rechtsauslegung und Rechtsanwendung lassen sich schon deshalb nicht abschließend rechtlich normieren, weil die dafür maßgebende juristische Methodenlehre auch für das Verständnis von methodenregelnden Rechtsvorschriften (vgl. etwa §§ 6,7 ABGB) ausschlaggebend ist. Von den drei für die Ermittlung des normativen Inhaltes von Rechtsvorschriften relevanten Komponenten – Normtext, Sprache, Auslegungsmethoden – erweisen sich damit zwei als nicht abschließend rechtlich regulierbar. • Rechtsvorschriften sind in einem kulturellen und zivilisatorischen Lebenszusammenhang kontextualisiert. Diese Kontexte konstituieren Verständnisroutinen für Phänomene und deren sprachliche Erfassung, die als implizites Wissen bei den Teilnehmer:innen einer sozialen Praxis bestehen. Mitunter inkorporieren Rechtsvorschriften etwa die „Verkehrsübung“ im Rahmen dieser Praxis inhaltlich direkt im Wege von Verweisungen. • Die Rechtserzeugung ist auch in moralische Vorstellungen, die nicht rechtlich geregelt bzw. regelbar sind, eingebettet. Normen moralischen Charakters sind aber u.a. für die Auslegung von unbestimmten Rechtsbegriffen, für rechtliche Wertentscheidungen und die Anwendung von Verhältnismäßigkeitsrelationen nicht unwesentlich.

14:30
Zum Begriff und zur Regulierung von Desinformation

ABSTRACT. Zur Bestimmung des Desinformationsbegriffs bzw. zur Unterscheidung desselben von anderen Formen des Täuschens unternimmt der vorliegende Beitrag eine sprachtheoretische Begriffsanalyse. Daraus wird gefolgert, dass der Begriff der Desinformation insbesondere mit der Vorstellung eines kritischen Risikos verbunden ist. Dieses kritische Risiko, das auf der Basis entsprechender Rechtsgüter zu ermitteln ist, stellt die Grundlage für die Regulierung sonst nicht-rechtswidriger Desinformation dar. In der EU erfolgt diese Regulierung, die u.a. den Grundrechten der Nutzenden (Meinungsfreiheit) und der Anbieter (Unternehmerische Freiheit) geschuldet ist, zwischen einer EU-Verordnung (DSA), einem Verhaltenskodex und einzelnen Nutzungsbedingungen, deren Verhältnisse zueinander im vorliegenden Beitrag erörtert werden.

15:00
Ulfried Neumanns Argumentationstheorie

ABSTRACT. It is not the task of the theory of argumentation to create or even improve a system of values that would make possible univocal deciding. It can only bring to decisionmakers a vision of the nature and structure of legal deciding, of the elements of which legal decision consists, and of merely possible legal arguments that define the context of legal deciding. The factual starting point of deciding can be of any kind. The normative starting point of deciding can be of any kind. But the connecting of the one to other, and the legal decision itself are always responsible human acts, ones that create law in the fullest sens of the word.

16:00-17:30 Session 9A: Datenschutz & Data Governance IV
16:00
Der Datenvermittlungsdienst im Lichte der Neutralitätspflicht des Daten-Governance-Rechtsakts

ABSTRACT. Die Datenvermittlungsdienste sollen nach dem Daten-Governance-Rechtsakt eine Schlüsselrolle in der Datenwirtschaft einnehmen, indem er den Datenaustausch zwischen Datengebenden und Datennehmenden sicherer und einfacherer ermöglicht. Er bietet einen nichtdiskriminierenden Datenzugang, der in vielen Bereichen wie etwa der KI-Entwicklung benötigt wird. Der Beitrag beschäftigt sich mit der praktischen Frage, wie sich die Neutralitätsvorgaben des DGA auf die Einrichtung eines Datenvermittlungsdienstes auswirken, indem der Beitrag sowohl die organisatorische Trennung des Dienstes von sonstigen datenbasierten Diensten als auch die Bindung an den Vermittlungszweck betrachtet.

16:30
Berechtigtes Interesse oder Grauzone? Webscraping im Spannungsfeld von KI-Entwicklung und Datenschutz

ABSTRACT. Anmerkung - Mein Interesse an der Schnittstelle von Künstlicher Intelligenz und Recht wurde durch die Betreuung meiner Diplomarbeit durch Prof. Mayrhofer und Mag. Denk vertieft. Die Arbeit, die sich mit dem Einsatz von Künstlicher Intelligenz im staatlichen Bereich befasst, habe ich am Institut für Verwaltungsrecht und Verwaltungslehre der Johannes Kepler Universität verfasst und eröffnete mir wertvolle Einblicke in die komplexen rechtlichen Fragestellungen rund um neue Technologien. Diese Erkenntnisse bestärkten meinen Entschluss, meine berufliche Laufbahn auf diesem Gebiet weiterzuführen. Meine aktuelle Tätigkeit bei einer der führenden Anwaltskanzleien in Israel, die sich auf Datenschutz, neue Technologien und Künstliche Intelligenz spezialisiert, erlaubt es mir meine fachliche Expertise hierzu kontinuierlich auszubauen.

Webscraping wird zunehmend zur Entwicklung und zum Training von KI-Modellen eingesetzt. KI-Entwickler nutzen diese Praxis häufig, um auf umfangreiche Datenpools zuzugreifen und ihre Modelle mit vielfältigen Informationen zu trainieren und zu optimieren. Im Anwendungsbereich der DSGVO wird häufig das berechtigte Interesse als Rechtsgrundlage herangezogen, wie sich auch aus den Datenschutzerklärungen vieler KI-Entwickler entnehmen lässt. Um sich auf das berechtigte Interesse stützen zu können, muss der Verantwortliche ein Legitimate Interest Assessment („LIA“) durchführen, in dem die Interessen des Verantwortlichen und der berechtigten Person abgewogen werden. Allerdings bleibt unklar, wie die bestehenden Leitlinien dazu auf den spezifischen Kontext der KI-Entwicklung und des Trainings angewendet werden sollen. Aufgrund der fehlenden rechtlichen Klarheit wird das „berechtigte Interesse“ (Art 6 Abs 1 lit f DSGVO) häufig bevorzugt als Rechtsgrundlage herangezogen – und zwar ungeachtet der Tatsache, dass es sich bei dieser Praxis um einen erheblichen Eingriff in das Recht auf Datenschutz handelt. Es stellt sich daher die Frage, ob diese Praxis in jeder Hinsicht mit der DSGVO konform ist. Die europäischen Datenschutzbehörden befassen sich zunehmend intensiver mit dieser Thematik. So erkennen sowohl der Europäische Datenschutzausschuss, die Commission nationale de l'informatique et des libertés, als auch das Information Commissioner's Office in ihren Richtlinien und Veröffentlichungen an, dass Webscraping grundsätzlich zur KI-Entwicklung genutzt werden kann. Allerdings betonen sie zugleich die Notwendigkeit einer sorgfältigen Interessenabwägung. Die dabei von den Behörden dazu formulierten Leitlinien sind bislang allerdings für die praktische Anwendung (zu) unpräzise und unklar. Im Gegensatz dazu verfolgt die Autoriteit Persoonsgegevens eine restriktivere Linie, indem sie klarstellt, dass wirtschaftliche Interessen allein nicht ausreichen, um Webscraping zu rechtfertigen. Der EuGH hat kürzlich in der Rs C‑621/22 entschieden, dass wirtschaftliche Interessen als berechtigtes Interesse anerkannt werden können. Dies führt zu der Frage, wie wirtschaftliche Interessen im Rahmen der Interessenabwägung beim Webscraping zu bewerten sind und ob eine solche Bewertung auch bei dieser stark eingreifenden Praxis des Webscrapings Anwendung finden kann. Die dargestellte Behördenpraxis und das rezente Urteil des EuGH schaffen derzeit Raum für eine potenziell übermäßige Nutzung der Rechtsgrundlage des berechtigten Interesses. Neben der Frage der Rechtsgrundlage bestehen auch weitere Herausforderungen in Bezug auf die DSGVO, insbesondere im Hinblick auf die Einhaltung der Informationspflichten. Mein Vortrag soll einen Beitrag zur Klärung der rechtlich unsicheren Situation leisten. Anzustreben sind praxisnahe rechtliche Lösungen für KI-Entwickler bei der Durchführung des LIA. Dazu werde ich zusätzliche Prüfmethoden für das LIA und praxisorientierte Ansätze vorstellen. Ziel ist es, die datenschutzrechtlichen Bedingungen für die Erhebung personenbezogener Daten durch Webscraping zu klären, um die Handlungsfähigkeit der KI-Entwickler zu erhalten und gleichzeitig die Rechte der betroffenen Personen zu wahren.

17:00
The Impact of EU Data Protection Law on National Criminal Procedure Rules – A Finnish Perspective on Two CJEU Cases

ABSTRACT. In this paper, I examine the rising influence of EU data protection law in national criminal proceedings through the analysis of two recent CJEU judgments – Ministerstvo na vatreshnite raboti (C-205/21) and Bezirkshauptmannschaft Landeck (C-548/21). After briefly presenting each case, I describe Finnish reactions to them and discuss possible legislative responses from national legislators in relation to criminal procedure rules concerning the systematic collection and registration of biometric data of suspects, and searches of mobile devices. Subsequently, I analyse the relationship between EU data protection law and national criminal procedural law more broadly. I argue that although the recent CJEU case law further limits the national procedural autonomy, and may also risk some negative effects on the efficiency of criminal investigations, this is necessary for the effective protection of rights related to data protection and privacy in the law enforcement sector.

17:30
Berechtigte Interessen der KI?

ABSTRACT. Dieser Beitrag möchte der Frage nachgehen, ob ein berechtigtes Interesse nach Art. 6 Abs. 1 f) DSGVO an der Verarbeitung von Trainingsdaten besteht. Nach US-Verständnis mag es sich bei Daten aus dem Internet um "öffentliche Daten" Daten handeln. In der EU wird diese Frage allerdings lebhaft diskutiert. Erste Aufsichtsbehörden, wie der LfDI Baden-Württemberg, haben bereits geäußert, dass hier ein berechtigtes Interesse oder jedenfalls eine zulässige Zweckänderung bei Portalbetreibern vorliegen könnte. Auf der anderen Seite sind aber auch Verfahren gegen Meta und X anhängig, die gerade diese Position anlehnen. Eine differenzierte Bewertung dieser Frage bietet sich entlang der Linien an, ob das gesamte Internet ausgelesen wird oder ob ein Portalbetreiber nur die dortigen Daten nutzt. Hierbei hat wiederum das Vorliegen entsprechender Datenschutzinformationen bei der Bewertung der vernünftigen Erwartungen der betroffenen Personen nach Erwägungsgrund 47 Relevanz. Dabei müsste dann zudem der Zeitpunkt berücksichtigt werden, wann die Datenschutzinformationen mitgeteilt wurden.

16:00-17:30 Session 9B: KI, Ethik & Recht IV / AI, Ethics & Law IV
16:00
Automating Employment Disputes: A Case Selection Framework
PRESENTER: Pavel Loutocký

ABSTRACT. The increasing volume of legal disputes, particularly within labour law, has overburdened judicial systems, extending case durations and undermining legal certainty for affected individuals. Recent technological advancements offer potential solutions for alleviating this load through automation and augmented decision-making processes. However, the integration of technology in labour dispute resolution must be approached cautiously, adhering to principles such as Susskind’s maxim, which emphasizes that any technology deployed should substantively improve legal processes. This article explores a structured framework for deploying automation within labour law, identifying case types suitable for automation based on factors like legal and technological complexity. It outlines the need for a multi-tiered approach that escalates from negotiation to binding decisions, tailored specifically for less complex, high-volume cases. The framework also highlights critical legal considerations, such as safeguarding fundamental rights, procedural due process, and human oversight, ensuring that automated systems do not compromise these protections. By establishing pilot cases within a controlled environment, we aim to ensure that the technology's application not only enhances efficiency but also respects legal standards and safeguards human dignity and autonomy in automated labour dispute resolution

16:30
Prompt Engineering for Lawyers

ABSTRACT. Generative AI (“GenAI”) tools have captured the attention of legal practitioners, as lawyers become interested in using them for legal practice and producing legal products. To use these GenAI tools, prompts are required to request the GenAI tool to produce the right output. This paper explores the integration of prompt engineering, a critical skill in utilizing large language models (LLMs), within the legal practice. It outlines key use cases, such as legal research and contract drafting, emphasizing how advanced prompting can aid in delivering comprehensive legal products. The paper also addresses challenges, including methodological aspects and ethical considerations as a lawyer and the risk of hallucinations. By analysing both the opportunities and limitations of prompt engineering, this work aims to provide legal professionals with a general practical understanding of how to harness GenAI.

17:00
Jurisdictional Issues, Extra-Territorial Effect and Future of International Data Transfers

ABSTRACT. In the digital age, data flows seamlessly across borders, fueling global commerce and communication. By 2025, the global data sphere is projected to reach 175 zettabytes, challenging traditional concepts of jurisdiction and territoriality.

Cyberspace transcends physical borders, blurring jurisdictional lines and posing significant challenges to pre-digital legal frameworks. This fluidity necessitates a rethinking of how legal authority is determined and exercised in the digital realm.

Key Explorations in this paper: - Historical context of jurisdiction and territoriality - Case studies and legal precedents - Challenges in determining applicable law - Tautological issues in international data transfers

Towards Solutions - Theoretical and practical solutions proposed - Role of sovereignty and rule of law in data transfers - Recommendations for harmonizing international data protection laws - Balancing data privacy with global data flows

16:00-17:30 Session 9C: E-Government IV - KI Fragen / AI Questions
16:00
Mit Predictive Analytics Risiken vorhersagen und gezielt managen
PRESENTER: Özlem Kölem

ABSTRACT. Predictive Analytics revolutioniert die Datenanalyse, indem es historische Daten nutzt, um Vorhersagen über zukünftige Ereignisse zu treffen. Der Schlüssel dazu liegt in der Erstellung mathematischer Modelle, die aus der Vergangenheit lernen und dieses Wissen auf aktuelle Daten anwenden. Dabei spielt maschinelles Lernen, insbesondere das überwachte maschinelle Lernen, eine zentrale Rolle: Modelle werden mit Trainingsdatensätzen „gefüttert“, die sowohl Eingabe- als auch Ausgabewerte enthalten. So „kennen“ die Modelle die richtigen Antworten und können ihr Wissen gezielt einsetzen.

Der Erfolg von Predictive Analytics hängt von einem umfangreichen historischen Datenbestand ab, aus dem die Modelle lernen können. Trainiert man die Modelle, sind diese in der Lage, zukünftige Entwicklungen vorzusagen und optimale Handlungsempfehlungen abzuleiten. Ob zur Risikominimierung oder zur Entscheidungsoptimierung – Predictive Analytics bietet eine leistungsstarke Möglichkeit, datengetrieben in die Zukunft zu blicken.

16:30
Risk Identification and Proactive Conflict Management in AI-Driven Care

ABSTRACT. AI development affects various stakeholders, potentially leading to conflicts of interest—clashes between the interests of different parties. These conflicts can hinder the progress and deployment of AI systems. This study addresses the proactive management of conflicts of interest, aiming to prevent them. It advocates for the use of risk identification methods to achieve this goal. The approach is supported by elucidating the concepts of conflict of interest and risk, and exploring their interconnections. The paper then demonstrates the application of the risk identification methods to conflicts arising from the processing of personal data by AI systems in a care context.

17:00
AI AND THE HUMAN BEING - MEANINGFUL COOPERATION WITHIN THE AI ACT
PRESENTER: Johannes Feiner

ABSTRACT. Artificial Intelligence (AI) has arrived in the heart of society. This paper explores the issue of meaningful cooperation between AI and humans to fulfil the promise to create a better world. To do so, this paper takes a closer look at the role and protection of humans in the AI Act (AIA) but also in the GDPR. AI is often described as being designed to help overburdened staff and offer better and/or more accessible services for individuals. But there are also instances when AI can be unhelpful or worse harmful. This paper contributes to the ongoing discourse on the implications of AI-driven interventions, fostering a critical dialogue. Our hypothesis is that AI has potential but it does not always make life easier, better, more efficient or cheaper. In some cases, AI can do quite the opposite. We support the idea of the incorporation of ex-ante (a priori) evaluations as a prerequisitie for any intervention that incorporates AI. This would involve identifying if - and to what extent - the use of AI makes sense in the first place, followed by a clear labelling of any AI elements. Furthermore, we support the inclusion of obligatory and meaningful human oversight to ensure, combined with AI literacy, a regular assessment of AI interventions as well as accessible remedies for users and affected persons.

16:00-17:30 Session 9D: Universitätsausbildung in der Rechtsinformatik / University Education in Legal Informatics
16:00
Rechtsinformatikausbildungen im deutschen Sprachraum

ABSTRACT. Folgt.

16:30
Weiterbildungsangebote in Rechtsinformatik und Informationsrecht am Beispiel von Hochschul- und Universitätslehrgängen in Österreich

ABSTRACT. Der nach 1950 zunehmende Einsatz elektronischer Datenverarbeitungsanlagen, zunächst in Form von Großrechenanlagen, verlangte auch nach neuen Formen der Aus- und Weiterbildung, sowohl im technischen, als auch im juristischen Bereich. Um sich adäquat mit diesen Neuerungen im Bereich der Computertechnik und den damit verbundenen juristischen Fragestellungen beschäftigen zu können, wurde auch bald eine darauf abgestimmte juristische Ausbildung als notwendig erachtet.

17:00
European Legal Informatics Study Programme (EULISP), inbes. an der Uni Wien

ABSTRACT. Folgt.