IRIS25: INTERNATIONALES RECHTSINFORMATIK SYMPOSION 2025
PROGRAM FOR FRIDAY, FEBRUARY 21ST, 2025
Days:
previous day
next day
all days

View: session overviewtalk overview

09:00-10:30 Session 11A: Datenschutz & Data Governance V
09:00
The Impact of EU Data Protection Law on National Criminal Procedure Rules – A Finnish Perspective on Two CJEU Cases

ABSTRACT. In this paper, I examine the rising influence of EU data protection law in national criminal proceedings through the analysis of two recent CJEU judgments – Ministerstvo na vatreshnite raboti (C-205/21) and Bezirkshauptmannschaft Landeck (C-548/21). After briefly presenting each case, I describe Finnish reactions to them and discuss possible legislative responses from national legislators in relation to criminal procedure rules concerning the systematic collection and registration of biometric data of suspects, and searches of mobile devices. Subsequently, I analyse the relationship between EU data protection law and national criminal procedural law more broadly. I argue that although the recent CJEU case law further limits the national procedural autonomy, and may also risk some negative effects on the efficiency of criminal investigations, this is necessary for the effective protection of rights related to data protection and privacy in the law enforcement sector.

09:30
Berechtigte Interessen der KI?

ABSTRACT. Dieser Beitrag möchte der Frage nachgehen, ob ein berechtigtes Interesse nach Art. 6 Abs. 1 f) DSGVO an der Verarbeitung von Trainingsdaten besteht. Nach US-Verständnis mag es sich bei Daten aus dem Internet um "öffentliche Daten" Daten handeln. In der EU wird diese Frage allerdings lebhaft diskutiert. Erste Aufsichtsbehörden, wie der LfDI Baden-Württemberg, haben bereits geäußert, dass hier ein berechtigtes Interesse oder jedenfalls eine zulässige Zweckänderung bei Portalbetreibern vorliegen könnte. Auf der anderen Seite sind aber auch Verfahren gegen Meta und X anhängig, die gerade diese Position anlehnen. Eine differenzierte Bewertung dieser Frage bietet sich entlang der Linien an, ob das gesamte Internet ausgelesen wird oder ob ein Portalbetreiber nur die dortigen Daten nutzt. Hierbei hat wiederum das Vorliegen entsprechender Datenschutzinformationen bei der Bewertung der vernünftigen Erwartungen der betroffenen Personen nach Erwägungsgrund 47 Relevanz. Dabei müsste dann zudem der Zeitpunkt berücksichtigt werden, wann die Datenschutzinformationen mitgeteilt wurden.

09:00-10:30 Session 11B: KI, Ethik & Recht V / AI, Ethics & Law V
09:00
“MY BYTES HAVE NEVER BEEN SO MOIST”: AI INFLUENCERS BETWEEN ADVERTISING LAW AND AI ACT
PRESENTER: Burkhard Schafer

ABSTRACT. The paper discusses legal and technological responses to the dangers that virtual or AI-based social influencers pose. Unlike other studies, it covers both AI systems that pretend to be humans, but also humans or human collectives that claim to be AIs. Both types of strategies can be found. The former is rare, but received most of the attention of commentators and legislators, the other much more prevalent, but under-researched. We argue for a mix of legal responses (bot disclosure laws) and technical measures (through verifiable authentication, implemented in a blockchain environment)

09:30
A Trustworthy Hybrid Legal-AI Model Based on GPT and Prolog
PRESENTER: Ratko Savic

ABSTRACT. This paper evaluates the performance of a hybrid LegalAI approach which combines Large Language Models (LLMs) and rule-based systems (Prolog) when applied to Austrian statutory inheritance law. The study demonstrates significant improvements in accuracy and consistency of information extraction and legal case resolution when comparing this kind of model to ChatGPT. Limitations include the scope restricted to Austrian provisional inheritance law and problems of handcrafting a knowledge base for rule bases approach. The results encourage further research of this approach, aiming to create a reliable and accessible LegalAI system that can contribute to the democratization of access to justice.

10:00
AI Act Chatbot: Erfahrungen vom Aufbau eines RAGs im juristischen Bereich
PRESENTER: Thomas Schreiber

ABSTRACT. Um Anfragen effizient beantworten zu können, und ein Self-Service anzubieten, lässt die in der RTR-GmbH angesiedelte KI-Servicestelle im Fachbereich Telekommunikation und Post einen „Chatbot“ zum AI Act entwickeln. Dabei möchten wir so transparent wie möglich sein und jeden einzelnen Verarbeitungsschritt offenlegen sowie Code und Dokumentation als Open Source und Open Data veröffentlichen.

In diesem Vortrag möchten wir unsere Erfahrungen mit dem Projekt teilen und die entstandene Lösung vorstellen. Dabei möchten wir uns besonders Aspekten wie Datenschutz, Self-Hosting, Datenaufbereitung, Qualitätssicherung und Begleitdokumentation widmen.

09:00-10:30 Session 11D: Cybersicherheit, digitale Beweisführung & Recht II / Cybersecurity, Digital Evidence & Law II
09:00
Zum Auschluss von Hochschulen aus dem cybersicherheitsrechtlichen Rahmen der NIS2-Richtlinie
PRESENTER: Diogo Sasdelli

ABSTRACT. Der vorliegende Beitrag diskutiert rechtliche Probleme, die mit dem Ausschluss von Hochschulen aus dem Anwendungsbereich der NIS2-Richtlinie verbunden sind, etwa im Hinblick auf die adoptierte Definition von ‚Forschungseinrichtung‘, auf die zentrale Bedeutung von Hochschulen in der Cybersicherheitsarchitektur der Union sowie auf die Unsicherheit, die aufgrund der Möglichkeit entsteht, Hochschulen unter mehrere der für NIS2 einschlägigen Sektoren zu subsumieren. An den Beispielen Deutschlands, Österreichs und Tschechiens werden zudem Probleme behandelt, die durch abweichende Umsetzungen in den einzelnen Mitgliedstaaten entstehen.

09:30
KI UND BEWEISE

ABSTRACT. Ausgaben von generativer KI bzw KI-Modellen kommen in immer mehr Kontexten vor: Geschäftsdokumente werden durch sie erstellt (Zusammenfassung von Besprechungen, Untertitel, automatische E-Mail Antworten etc) oder überarbeitet (Rechtschreibkorrektur bis hin zu Stilverbesserung). Diese Ausgaben können, neben den Modellen selbst, als Be-weise in Verfahren erforderlich sein. Daraus folgt, dass Inhalte sowohl als echt, verändert oder generiert erkannt werden sollten (idealerweise ohne aufwändige Prüfung durch Sachverständige), bzw dass Modelle oder deren Ausgabe als Beweise gesichert werden müssen. Dieser Artikel beschreibt, welche Fragestellungen bzw Probleme dabei auftreten und untersucht, wie man KI-Ausgaben bzw Modelle als Beweise sichert sowie nach wel-chen Kriterien der Beweiswert von KI-Inhalten beurteilt werden könnte.

10:00
Innovationseinheit „Cyber Innovation Hub der Bundeswehr“ – Erfahrungsbericht und kritische Erfolgsfaktoren

ABSTRACT. Der Cyber Innovation Hub der Bundeswehr (CIHBw) wurde 2017 durch das Bundesministerium der Verteidigung ins Leben gerufen. Er ist die erste Digital Innovation Unit (DIU) eines deutschen Bundesministeriums und die erste militärische DIU Europas. Als Schnittstelle zum Startup-Ökosystem trägt er mit seinem Intrapreneurship-Programm maßgeblich zu einem Kulturwandel hin zu mehr „unternehmerischem Denken“ in Streitkräften und Verwaltung bei. Mit seinen Innovationsvorhaben im Bereich Cyber/IT soll der CIHBw bereits existierende Lösungen identifizieren, validieren und gegebenenfalls weiterentwickeln und der Bundeswehr zur Einführung vorschlagen. Der Vortrag befasst sich mit den Erkenntnissen, Erfolgen und Erfahrungen des rund 8-jährigen Betriebes der Innovationseinheit und fasst die kritischen Erfolgsfaktoren reflektiert zusammen. Außerdem wird dargestellt, welche weiteren Konzepte im In- und Ausland auf dem CIHBw aufgesetzt haben.

11:00-12:30 Session 12A: KI, Ethik & Recht VI / AI, Ethics & Law VI
11:00
The unbearable lightness of being AI, is sentiency necessary to take ethical decisions? Does it need a legal personhood

ABSTRACT. Artificial intelligence is increasingly developing to be autonomous. If we may believe the further development of AI, taking account Moore’s law we are on then route to singularity, AI reaching and surpassing human intelligence. The question is if AI will develop also a consciousness when improving itself autonomously. Thus this includes ethical sentiency, respect for fundamental rights and sustainable society. Will autonomous AI as so called Artificial General Intelligence, or AGI, take a place next to natural persons and existing legal persons and would it be a requirement to obtain a form of legal personhood?

11:30
Legal Linguistic Memos mit LLMs zur automatisierten Erfassung von Sachverhaltsbeschreibungen im Familienrecht. Wissen im Spannungsfeld von KI, Ethik & Recht – nicht ohne sprachwissenschaftliche Sicht

ABSTRACT. Mein Beitragsvorschlag präsentiert ein Vorhaben an der Schnittstelle von rechtslinguistischer Forschung (Dissertationsvorhaben Universität Heidelberg) und Prototypenentwicklung (AI Incubator), in dem Daten mit Sachverhaltsbeschreibungen zum Kindeswohl in familiengerichtlichen Verfahren automatisiert und hinsichtlich ihrer Wahrscheinlichkeit und Relevanz klassifiziert und visualisiert werden sollen. Die mithilfe von LLMs und einem kombinierten Ansatz (Finetuning, Retrieval Augmented Generation, kurz: RAG u. a.) vorstrukturierten Daten sollen Familiengerichten eine rasche Orientierung in umfangreichen Gerichtsakten für die juristische Würdigung der Sachverhalte und eine Grundlage für fundierte verantwortliche Entscheidungen zum Wohl des Kindes bieten. Dazu werden zunächst sprachliche Phänomene in der Domäne des Rechts (Felder & Vogel 2017) sowie in einer textlinguistischen Pilotstudie erhobene sprachliche Auffälligkeiten zur Konstitution und Kommunikation von Sachverhalten im Kindschaftsrecht und daraus resultierende Implikationen für professionelle Akteur:innen im Recht dargestellt (Mundorf 2021). Ausgangspunkt ist zum einen die sozialkonstruktivistische Annahme, dass Fachwissen und die Sachverhalte dieser Wissensdomänen sprachlich konstituiert werden (Felder 2008, Forschungsnetzwerk Sprache und Wissen“), zum anderen, dass sie dabei grundlegenden Perspektivierungs-verfahren unterliegen (Köller 2004) und Sachverhalte daher nie vollkommen ‚neutral‘ oder ‚objektiv‘ dargestellt werden können. Eine Analyse der Perspektivierungsmuster und -strategien bei der Vermittlung juristischen Wissens an juristische und nicht-juristische Akteur:innen, Expert:innen und Lai:innen wird als heuristisches Konzept genutzt, um sprachliche Vermittlungsstrategien im Recht zu beschreiben (Mundorf 2024: 277). Diese Erkenntnisse dienen als Grundlage, um Large Language Models durch datengetriebene Analysen mit Fachwissen aus Gerichtsentscheidungen und Daten der Entscheidungsfindung aus Gerichtsakten spezifisch für juristische Anwendungen dezentral zu trainieren und für eine Testphase in familiengerichtlichen Ver-fahren nutzbar zu machen. Der Beitrag gibt Einblick in das Projekt mit einem Ansatz, der rechtslinguistisches Wissen und empirische Studienergebnisse mit der fachspezifischen Datenintegration in verschiedene Open Source-Modelle, einer Visualisierung und Bewertung mittels Graphdatenbanken und regelbasierter Entscheidungsunterstützung verknüpft. Zielsetzung ist es, die Trias von KI, Ethik und Recht aus Sicht der Angewandten Linguistik zu beleuchten, indem Machine Learning-Verfahren und Risikobewertung mit sprachwissenschaftlichen Methoden kombiniert, geprüft und verbessert werden. Der Beitrag versteht sich damit als sprachwissenschaftlicher, methodischer und methodologischer Brückenschlag zwischen Rechtsinformatik und Rechtsanwendung – für eine zukunftsfähige Rechtspraxis, die ohne KI und Ethik und ohne sprach(wissenschaft)liche Perspektive nicht auskommt.

12:00
Die personalisierte Erbfolge: Herausforderungen und Potenziale granularen Rechts

ABSTRACT. Die Entwicklung und Verbreitung informationstechnischer Systeme sollen es in absehbarer Zeit ermöglichen, Rechtsnormen zu „personalisieren“. Gemeint ist damit, dass Rechtsnormen durch die algorithmische Auswertung großer Datensätze präzise auf die individuellen Bedürfnisse, Fähigkeiten und Präferenzen der jeweiligen Rechtssubjekte zugeschnitten werden können. Im rechtsökonomischen Bereich wird diese Entwicklung bereits intensiv diskutiert und die datenbasierte Personalisierung des Rechts in Bezug auf eine Vielzahl von Regelungsbereichen als vielversprechende Chance gesehen.

Der Vortrag beschäftigt sich mit der Frage, ob und unter welchen rechtlichen Voraussetzungen eine Personalisierung des Gesetzesrechts zukünftig denkbar wäre und welche rechtlichen Rahmenbedingungen die technische Entwicklung eines personalisierten Gesetzesrechts weiter anleiten müssen. Als Anschauungs- und Studienobjekt dient dabei die gesetzliche Erbfolge (§§ 1924 ff. BGB), die sich – wie gezeigt wird – in besonderer Weise als Referenzmaterie der Personalisierungsidee eignet.

11:00-12:30 Session 12B: E-Justice I
11:00
Neues aus der europäischen e-Justice

ABSTRACT. Folgt.

11:30
Das Bundesrechenzentrum als Dienstleister für die österreichische Justiz

ABSTRACT. Folgt.

12:00
Update Justiz 3.0

ABSTRACT. Folgt.

11:00-12:30 Session 12D: Cybersicherheit, digitale Beweisführung & Recht II / Cybersecurity, Digital Evidence & Law II
11:00
RISK CLASSIFICATION OF AI CYBER SECURITY SAFETY COMPONENTS ALONG THE AI-ACT

ABSTRACT. This paper seeks to provide guidance on the legal implications of integrating AI cybersecurity systems into critical infrastructure under the AI Act. It first considers when AI cybersecurity systems can and should be considered 'security components', particularly in critical digital infrastructure, and the system boundaries that define their use. It also examines the relevance of redundant measures to prevent harm in the event of AI system failure or error, and whether this distinction has significant legal consequences.

11:30
On The Legal Limits and Criminal Procedural Implications of Applying Artificial Intelligence in Corporate Internal Investigations

ABSTRACT. The paper addressed the following questions: how can AI be applied in corporate internal investigations and what are the legal limits for its use? In case of effective application, how can it affect the admissibility and valuation of the information collected from these procedures in an eventual criminal lawsuit? It was demonstrated that, with the expectation of increasing the effectiveness and efficiency of compliance programs, AI has been used in real-time – and often predictive – supervision of employees, as well as in carrying out internal investigations, through, for example, lie detection systems. However, due to the limitations and risks of this technology, its employment must comply with legal parameters and restrictions. Therefore, three categories of restrictions were analyzed: with respect to (i) legal requirements for data processing, we noted that the processing of data to be used as input in those systems must find legal support in one of the hypotheses provided for in Articles 6 and 9(2) of the GDPR. Furthermore, the fundamental principles that substantiate the test of proportionality between the intended purpose and the intervention to be carried out, provided for in Article 5, must be observed. Regarding (ii) possible prohibitions on the use of AI systems in the context of internal investigations, we observed that the use of technologies to control and supervise the work environment must take into account the requirements of legality, shall not affect areas in which employees’ expectations of privacy must prevail, and, lastly, must observe a second test of proportionality, aimed at assessing whether the technology in question is adequate and necessary to achieve the purpose intended with it and whether the rights possibly affected by it should not prevail. About the (iii) limits to the admissibility and valuation of elements of information from internal investigations, we concluded that their admission in criminal proceedings will depend on a new judgment of legality and proportionality. In addition, they may be admitted when presented by the company, in its defence, or by Public Prosecution, provided that a third test of proportionality is observed and that these elements of information are not considered sufficient to substantiate the conviction of any defendant, therefore having probative value similar to elements from state investigation acts.

12:00
Regulatory approaches to the use of AI-based tools in cybersecurity

ABSTRACT. This article addresses the issue of AI tools used in cybersecurity and the legal aspects of utilizing such tools. The introductory first chapter will provide a basic introduction to the issue, discussing the main advantages of deploying AI tools in cybersecurity, as well as outlining the shortcomings of these tools. The main advantages include AI’s ability to analyze and process vast amounts of data in real-time, while the biggest drawback is its lack of transparency, along with the associated dual nature of this technology. First chapter will also identify basic AI tools used in cybersecurity, such as intrusion detection and intrusion prevention systems, honeypots, decoys etc. In the following part of the text, the emphasis will be placed on the legal perspective of the issue. First, key regulations are identified, and then their specific provisions relevant to particular types of AI tools in cybersecurity are discussed. The aim of the article is to present the issue to the reader in the context of the current EU legal framework.

14:00-15:30 Session 13A: KI, Ethik & Recht VII / AI, Ethics & Law VII
14:00
Die KI-Verordnung und deren (unternehmens)ethische Prinzipien

ABSTRACT. Mit der KI-Verordnung (EU) 2024/1689 ist für Anbieter und Betreiber von KI-Systemen ein risikobasierter Ansatz gewählt worden, der sich an sieben Grundsätzen für eine vertrauenswürdige und ethisch vertretbare KI orientiert: menschliches Handeln und menschliche Aufsicht, technische Robustheit und Sicherheit, Privatsphäre und Daten-Governance, Transparenz, Vielfalt, Nichtdiskriminierung, Fairness, soziales und ökologisches Wohlergehen sowie Rechenschaftspflicht. Dieser Vortrag befasst sich damit, welchen Beitrag die prinzipienorientierte Unternehmensethik zur KI-Verordnung leistet, insofern primär Unternehmen als Anbieter und Betreiber von KI-Systemen im Fokus stehen. Prinzipien als fundamentale normative Gesichtspunkte handeln nicht von konkreten Einzelfällen, sondern von ganzen Klassen von Fällen, die bestimmten Typen von Handlungen einen bestimmten moralischen Status zuschreiben, die es auszuführen oder zu unterlassen gilt (Neuhäuser et al., 2023). Die im Bereich der Prinzipienethik bestehende Lücke im Kontext von Unternehmen kann geschlossen werden, indem auf die 4-Ebenenmatrix der Führungs- und Unternehmensethik mit den zugrundeliegenden (unternehmensethischen) Prinzipien der Partizipation, Autonomie/Freiheit, Verantwortung und Gerechtigkeit zurückgegriffen (Traunwieser, 2021). Eine Verflechtung mit den rechtlichen Normierungen der KI-Verordnung wie auch den sieben Grundsätzen ist evident.

Hochrangige Expertengruppe für künstliche Intelligenz. (2019). Ethik-Leitlinien für eine vertrauenswürdige KI https://op.europa.eu/de/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1 Neuhäuser, C., & Raters, M. L. (2023). Handbuch Angewandte Ethik. R. Stoecker (Ed.). Stuttgart: JB Metzler. Traunwieser, S. (2021). Einführung in die Unternehmensethik: Ausführungen zur 4-Ebenenmatrix der Führungs- und Unternehmensethik. facultas.

14:30
Rechtsinformatik und KI – Fährt der Trolley an die Wand?

ABSTRACT. Für Recht und Ethik besteht schon seit langem eine Tradition des Diskurses. Auf Seiten der Informatik gibt es einerseits jene, die in Anlehnung an Turing die Entwicklung von technischen Systemen der Beschäftigung mit „philosophical questions“ vorziehen. Andererseits wird von Informatikern dem Diskurs über ethische Fragen auch große Bedeutung beigemessen. Vor allem, wenn es um die Abbildung ehtischer Fragestellungen in KI-Systemen geht, wird dieser Diskurs auch für die Praxis wichtig. Dies wird am Beispiel des LLM-Systems Gemini und des Trolley-Problems dargestellt. Für die Rechtsinformatik von Bedeutung sind in diesem Zusammenhang juristische Trolley-Anwendungen, die im Fehlerfall wie autonome Fahrzeuge Menschenleben kosten können.

15:00
Alternative Darstellungsformen normativer Diagramme
PRESENTER: Bianca Steffes

ABSTRACT. Sogenannte normative Diagramme stellen eine hochstrukturierte bzw. formale Rechtsvisualisierungsmethode dar, die zur präzisen Darstellung mehrerer normativer bzw. rechtstheoretischer Phänomene eingesetzt werden kann. Trotz ihrer vielen Vorteile weist die Methode in ihrer ursprünglichen Form den Mangel auf, dass vollständige Repräsentationen in konsolidierter Form die Darstellung vierdimensionaler Hyperrechtecke erfordern. Der vorliegende Beitrag beschreibt und diskutiert vier alternative Darstellungsformen normativer Diagramme, die dieses Problem vermeiden.

14:00-15:30 Session 13B: E-Justice II
14:00
Das digitale Basisdokument. Ergebnisse aus dem Deutschlandweit ersten Reallabor im Rechtswesen
PRESENTER: Bettina Mielke

ABSTRACT. Im vorliegenden Beitrag berichten wir über wesentliche Ergebnisse des Projekts digitales Basisdoku-ment, dessen von den Justizministerien Bayerns und Niedersachsens geförderte Phase im Sommer 2024 zu Ende gegangen ist und das deutschlandweit erste Reallabor im Rechtswesen darstellt. Im Mittel-punkt des Projektes stand die Erprobung eines interaktiven webbasierten Prototyps, mit dem die betei-ligten Parteien eines Zivilprozesses den Parteivortrag erfassen können, statt Schriftsätze als Textdoku-mente auszutauschen. Die Erprobung fand im Rahmen zahlreicher erstinstanzlicher Prozesse an den Landgerichten Hannover, Landshut, Osnabrück und Regensburg von Februar 2023 bis Juni 2024 statt. Die Ergebnisse leiten sich aus mehr als 50 qualitativen Interviews her, die mit Prozessbeteiligten ge-führt wurden.

14:30
Roundtable Diskussion - Erfahrungswerte KI in der Justiz und der öffentlichen Verwaltung

ABSTRACT. Roundtable mit Praktikern aus dem Bereich Justiz und öffentliche Verwalatung zu Erfahrung mit dem Einsatz von KI Diskussionn von Potenzialen und Gefahren Ausblick und Entwicklungen in den den nächsten drei bis fünf Jahren

14:00-15:30 Session 13C: IP-Recht I / IP Law I
14:00
Regulation of Digital Patient Twin in Healthcare under EU law
PRESENTER: Jakub Karfilat

ABSTRACT. Short Abstract: The healthcare sector, facing challenges like aging populations, chronic disease prevalence, and workforce shortages, is exploring digital twin (DT) technology as a transformative solution. DT digitally replicates physical entities, allowing real-time data analysis and feedback, which enables preventative care and operational efficiency across various sectors. In healthcare, DT is particularly promising for patient care, creating dynamic models that monitor medical and lifestyle data in real time. However, DT’s complexity raises ethical and legal questions, especially around data protection and patient autonomy. As DT evolves, an adequate legal framework will be essential to address these challenges.

Full Abstract: The healthcare sector stands as one of the fastest-growing segments of the global economy. Simultaneously, healthcare system worldwide, including the European Union (EU), are contending with multiple challenges: an ageing population, a rise in chronic diseases, escalating demand for services, underfunding, and a shortage and uneven distribution of healthcare professionals. Digital twin (DT) technology is increasingly viewed as a transformative tool that can address these challenges and foster advancements in precise and personalized medicine. DT is designed to digitally replicate a physical asset, system, or process (physical object) by creating a virtual model of the physical object. DT is usually composed of two core components: mechanistic models, which simulate the actual parts and interactions of the physical object, and machine learning models, which learn dynamically through experience from data inputs rather than relying on pre-set rules. DT operates on a bidirectional data exchange principle, collecting data from its mirrored physical counterpart, processing and analysing that data, and then sending insight back to the physical object or its operator. This enables DT systems to work in real-time or near-real-time, supporting rapid or preventive responses. The versatility of DT applications may range from preventive screenings and planning to testing and other activities, enhancing efficiency and potentially reducing costs. Current examples of DT in practice are evident, for example, in the automotive sector, where DT technology can simulate production lines, machinery, and vehicles to test scenarios, predict issues, plan maintenance, and improve processes without interrupting actual plant operations. In the aerospace industry, DT is used to create virtual replicas of airplane engines to monitor functionality, assess potential risks, and plan maintenance. This demonstrates the potential broad applicability and value of this technology across industries. In healthcare, DT can support a variety of activities, generally categorized into four main areas: (i) patient care, which includes prevention, monitoring, treatment, surgery, and post-operative care, (ii) operational management, covering safety protocols, facility operational controls, and scheduling, (iii) research and development, for the development and testing of new medications and medical devices, or (iv) self-management and well-being, which encompasses, for example, managing personal diet, physical activity, sleep, and mental health. Our research focuses specifically on DT’s application in patient care, as described in category (i). However, since DT can also significantly support preventive measures within personal well-being activities, the line between patient care and self-management is expected to blur over time. In patient care, DT aims to create a dynamic mirror of the patient or specific body systems, capturing their medical status in real-time. This could include molecular and physiological data as well as aspects of patient’s lifestyle or environment over time. While some scholars speculate that DT might eventually encompass mental status as well, this remains theoretical for now. The depth of data and detail DT can represent will ultimately depend on the sophistication and complexity of the underlying technology. From both legal and ethical standpoints, the development and implementation of DT in healthcare brings forward critical considerations guided by the four major ethical principles: autonomy, beneficence, justice and fairness, and non-maleficence. DT integrates a range of sophisticated technologies, including mechanistic modelling, machine learning, the Internet of Things (IoT), artificial intelligence (AI), and big data analytics. Given reliance on patient data, which is subject to stringent data protection laws, DT combines well-regulated technologies, necessitating careful attention of issues of data protection, cybersecurity, transparency, informed consent, and question of responsibility and accountability in patient care. However, as DT is expected to continue to evolve into more complex models, potentially mirroring multi-organ interactions and whole-body systems, the associated legal and ethical challenges are expected to deepen. DT’s transformative potential for patient care, self-management, and overall well-being will likely raise more nuanced concerns. These may include ensuring fair access to DT technologies, addressing how DT reshapes the nature of healthcare services, establishing clear lines of responsibility and liability in using such sophisticated technologies, and mitigating risks around insufficient human oversight and result interpretation duet to system complexity. Additionally, the potential for clinicians to over-rely on DT, the possible misuse of highly detailed patient data, and questions around the ownership rights over digital patient reflections (twins) will require careful scrutiny. Currently, DT technology remains in an early developmental stage, with no comprehensive human-reflective DT models available. Presently, DT applications are primarily localized, creating digital reflections of individual organs – examples of which include DT models for the heart, lungs, and liver. This gradual evolution presents timely opportunity to address the challenges that will emerge as DT technology advances toward more complex, system-wide human reflections. To build a solid foundation for tackling the anticipated complexities of future DT Technology, it is essential to map the existing legal frameworks and evaluate their adequacy for regulation DT applications. Consequently, our research and forthcoming paper aim to analyse current EU regulations applicable to DT and assess their capacity to address the range of regulatory issues that this technology introduces.

14:30
Schutz von Geschäftsgeheimnissen in Prozessketten mithilfe einer Analogie zu neuronalen Netzen
PRESENTER: Tim Schneider

ABSTRACT. Durch die fortschreitende Globalisierung und Digitalisierung der Industrie entstehen kontinuierlich neue Herausforderungen für Technik und Recht, um einen angemessenen Schutz unternehmerischen Know-hows zu gewährleisten. Insbesondere bei der Prozessoptimierung im Rahmen organisationsübergreifender Prozessketten besteht die Gefahr, dass durch den Optimierungsvorgang Geschäftsgeheimnisse der involvierten Akteure offengelegt und von Geschäftspartnern oder Dritten aufgegriffen werden können. In diesem Beitrag wird daher erläutert, wie Unternehmen im Rahmen der Prozesskette ihr Know-how durch den Einsatz neuronaler Netze schützen können.

15:00
Overcoming the regulatory uncertainty of innovative medical software classification
PRESENTER: Frantisek Kasl

ABSTRACT. The subject of this paper is the mapping of specific legal obligations related to medical software, in particular the requirements arising from the Medical Device Regulation (EU) 2017/745 (MDR), and possibly also Regulation (EU) 2024/1689 Act on Artificial Intelligence (AIA). Software products intended for medical purposes (e.g. diagnosis, prevention, monitoring, prediction, prognosis), or smart devices or cloud-based solutions over medical data represent a diverse and rapidly evolving area of health technology. The legal regulation of medical devices scales the requirements for these products into several categories. A new classification of software tools using AI will be added shortly. Applying these classifications to healthcare software requires consideration of a number of factors, often posing a significant challenge for developers. The goal of this paper would be to map the legal classification of healthcare software according to MDR and AIA, identify relevant factors to consider in this classification, and propose a tool to facilitate the identification of the legal classification of a particular healthcare software.

14:00-15:30 Session 13D: Cybersicherheit, digitale Beweisführung & Recht II / Cybersecurity, Digital Evidence & Law II
14:00
Disrupting the Ransomware Ecosystem: Evolving Cyber Operations and Emerging Challenges

ABSTRACT. Building on the approach and conclusions of the 2022 study 'Releasing the Hounds? Disruption of the Ransomware Ecosystem Through Offensive Cyber Operations,' this article continues the case-study-driven examination of the effects of disruptive cyber operations on ransomware groups and the broader cybercriminal ecosystem — an area that remains underexplored in academic literature.

Over the past three years, several notable disruption operations targeting ransomware and major malware groups (e.g., Operations 'Cronos,' 'Endgame,' and the takedown of the 'Hive' group) have been primarily conducted by law enforcement agencies. However, the methods, approaches, and tools employed would traditionally be associated with intelligence and military organizations. A notable evolution has been the increasing focus on influence and psychological strategies aimed at undermining trust across all levels of the cybercriminal ecosystem, down to individual actors. In another case study, Operation ‘Aquila,’ tied to the Australian ‘Medibank incident,’ cooperation between law enforcement and intelligence agencies was crucial for identifying the perpetrator and executing subsequent actions. This new data, analyzed in the first section, reinforces the original conclusion that while cyber operations are not a panacea, they remain a vital tool in a whole-of-government approach, especially when dealing with perpetrators operating in territorial safe havens.

The second part of the article shifts to the next step. Based on available data, the ransomware ecosystem appears to be trending towards fragmentation, with large affiliate programs dissolving in favor of smaller, more tightly organized and vetted groups, or abandoning the encryption paradigm in favor of ‘data extortion’ attacks. Some ransomware operations are also being linked to state-affiliated threat actors or contractors. These developments ensure that ransomware remains a persistent threat—both financially and in terms of real-world impacts. However, they also potentially increase the operational costs of successful disruption operations. This section explores the prospects and risks of emerging trends and strategies to address these challenges, such as enhanced public-private cooperation in threat research and operational efforts, private actors’ exploitation of ransomware infrastructure, or the potential implications of designating ransomware as a form of terrorism.

14:30
Disinformation Websites and the Digital Services Act: A Limited Case Study from Czechia

ABSTRACT. Disinformation poses a growing threat to democratic society, the rule of law, and European values. In the Czech Republic, this challenge is highlighted by the prevalence of disinformation websites, exemplified by Parlamentnilisty.cz and similar. This article investigates the impact of the Digital Services Act (DSA) as a regulatory tool targeting disinformation websites in Czechia, assessing compliance with the DSA obligations. Despite these websites being subject to some DSA obligations, such as content moderation and transparency requirements, the study finds widespread non-compliance. Additionally, due to the limited nature of user-generated content on these sites, DSA obligations targeting online platforms generally do not apply. This analysis concludes that while the DSA aids in regulating major online platforms like YouTube and Facebook, it offers limited solutions for directly addressing disinformation sources.

15:00
Bias und KI in der Gerichtlichen Anwendung

ABSTRACT. In dieser Arbeit werden die internationalen Entwicklungen für die Eindämmung von Bias und die Ursachen und Konsequenzen von nicht beachteten Bias in der IT-Forensik, die bei Ermittlungs- und Sachverständigentätigkeiten genutzt wird, analysiert. Die KI bietet dafür neuartige und interessante Möglichkeiten an, wobei nicht alle Arten von Bias bei Einsatz einer KI relevant sind. Zu beachten ist auch, dass mehrere Bias nacheinander auftreten können, und so wird die Fehlerhaftigkeit der Ermittlungsergebnisse noch mehr verstärkt. LLMs als spezielle KI-Systeme können durchaus verschiedene Anwendungsgebiete in der Sachverständigenarbeit oder Ermittlungsarbeit anbieten, wobei zu beachten ist, dass LLMs stark zu Halluzinationen tendieren. Schließlich sollen internationale Entwicklungen zum Einsatz von KI bei Gericht erhoben werden, und mit welchen Problemen speziell beim Einsatz von LLMs dabei zu rechnen ist.

Anm.: Diese Version 0.1 kann sich noch ändern, bzw. kann erweitert werden, was sehr wahrscheinlich ist. Ich muss noch darüber nachdenken ...

16:00-17:30 Session 14A: KI, Ethik & Recht VIII / AI, Ethics & Law VIII
16:00
„KI, lös‘ mir den Fall!“ Zur Evaluierung großer Sprachmodelle für Anwendungen im deutschsprachigen Rechtswesen
PRESENTER: Christian Wolff

ABSTRACT. Der Beitrag soll einen Überblick zur Evaluierung der Anwendung großer Sprachmodelle im Rechtswesen geben. Wir skizzieren den State of the Art in diesem Bereich zunächst allgemein und gehen dann auf spezifische Ansätze im Rechtswesen ein. Dabei wird auch die wissenschaftliche Dikussion um die Anwendung großer Sprachmodelle allgemein bzw. im deutschsprachigen Bereich reflektiert. Abschließend machen wir Vorschläge für die Vorgehensweise bei künftigen Evaluierungsprojekten.

16:30
MASCHINELLES SCHLIESSEN MIT S(CASP) – ANMELDUNG EINES NEUEN GESCHÄFTSFÜHRERS EINER GMBH ZUM HANDELSREGISTER
PRESENTER: Axel Adrian

ABSTRACT. Das Forschungsprojekt DIREGA hat die Erforschung der Möglichkeiten und Grenzen der maschinellen Automatisierbarkeit der rechtlichen Prüfung von Handelsregisteranmeldungen zum Forschungsgegenstand. Am Beispiel der Geschäftsführeranmeldung soll veranschaulicht werden, wie der juristische Prüfvorgang auf dem Gebiet der symbolischen KI formalisiert und mithilfe der Answer-Set-Programming-Sprache s(CASP) maschinell vollzogen werden kann, wobei s(CASP) – anders als klassische Implementierungen – in der Lage ist, dem User vereinfachte logische Begründungen nicht nur für den Erfolg, sondern auch den Fehlschlag der maschinellen Prüfung auszugeben.

17:00
AI-assisted German Employment Contract Review: A Benchmark Dataset
PRESENTER: Oliver Wardas

ABSTRACT. Employment contracts are used to agree upon the working conditions between employers and employees all over the world. Understanding and reviewing contracts for void or unfair clauses requires extensive knowledge of the legal system and terminology. Recent advances in Natural Language Processing (NLP) hold promise for assisting in these reviews. However, applying NLP techniques on legal text is particularly difficult due to the scarcity of expert-annotated datasets. To address this issue and as a starting point for our effort in assisting lawyers with contract reviews using NLP, we release an anonymized and annotated benchmark dataset for legality and fairness review of German employment contract clauses, alongside with baseline model evaluations.

16:00-17:30 Session 14B: E-Commerce I
16:00
The Relationship Between the Digital Services Act and the Artificial Intelligence Liability Directive

ABSTRACT. The rapid use of artificial intelligence (AI) in moderating content on digital platforms has changed how we analyze and regulate user-generated content (Enarsson T, “Navigating Hate Speech and Content Moderation under the DSA: Insights from ECtHR Case Law” (2024) 33 Information & Communications Technology Law 384; Nahmias Y and Perel M, “The Oversight of Content Moderation by AI: Impact Assessments and Their Limitations” (2021) 58 Harvard Journal on Legislation 145). While AI helps manage this large volume of content, it also brings challenges. One major issue occurs when AI mistakenly classifies lawful content as harmful or illegal, resulting in unnecessary removal and potential harm to users Sander B, “Freedom of expression in the age of online platforms: The promise and pitfalls of a human rights-based approach to content moderation” (2019) 43 Fordham International Law Journal 950). In the European Union (EU), this situation is governed by the Digital Services Act (DSA), which sets out clear requirements for platforms, such as being transparent in their moderation processes and offering protections for users (Husovec M, Principles of the Digital Services Act (Oxford University Press 2024; Hofmann F and others, Digital Services Act: Gesetz über digitale Dienste (1. Auflage) Nomos 2023). However, the specific risks linked to high-risk AI applications, like content moderation, show that the DSA alone may not fully address these issues (Hoeyweghen SV, “Speaking of Games: AI-Based Content Moderation of Real-Time Voice Interactions in Video Games under the DSA” (2024) 7 Interactive Entertainment Law Review 30). To tackle difficulties related to the actions of the artificial intelligence, the EU introduced the AI Act and the proposed Artificial Intelligence Liability Directive (AILD). This paper looks at how the DSA, AI Act, and AILD interact and where they may leave gaps in protecting users, especially when AI systems incorrectly classify illegal content. We believe, that the AI Act treats content moderation tools as systemic-risk (Art. 3 (65), Art. 51 AI Act) and demands adequate risk management practices (Eder N, “Making Systemic Risk Assessments Work: How the DSA Creates a Virtuous Loop to Address the Societal Harms of Content Moderation” [2024] German Law Journal 1). The infringement of obligations under Union law intended to protect fundamental rights is considered as the serious incident under the AI Act (Art. 3 (49) AI Act). This includes ensuring human oversight and notifying users when AI decisions affect their content. These rules improve the Digital Services Act (DSA) by introducing specific responsibilities regarding artificial intelligence (AI). They require platforms to recognize biases and the potential dangers of AI mistakes, particularly when these errors impact users during AI moderation. The AILD goes a step further by establishing a liability mechanism for damages caused by AI decisions (Diega NL, “Can There Be Responsible AI without AI Liability? Incentivizing Generative AI Safety through Ex-Post Tort Liability under the EU AI Liability Directive” (2024) 32 International Journal of Law and Information Technology; De Bruyne J, Dheu O and Ducuing C, “The European Commission’s Approach to Extra-Contractual Liability and AI – An Evaluation of the AI Liability Directive and the Revised Product Liability Directive” (2023) 51 Computer Law & Security Review). If users suffer damage to their reputation or financial loss due to incorrect AI moderation, the AILD enables them to seek compensation. It shifts the burden of proof in some cases, assuming fault when damage results from non-compliance with the AI Act (Art. 4(1)(a) AILD). This paper argues that a synchronized approach using both the DSA and AI regulations is important for protecting users and holding platforms liable, especially when AI systems make mistakes regarding content legality.

16:30
Gedanken zum Digitalen Versammlungsrecht im österreichischen Recht

ABSTRACT. Im Jänner 2021, am Höhepunkt der "Lockdown"-Maßnahmen zur Bekämpfung des Covid-19-Virus, hielt die Freiheitliche Partei Österreichs (FPÖ) im Internet eine „Demonstration“ gegen diverse Maßnahmen zur Bekämpfung der Pandemie ab; Vertreter:innen der Gesundheitsgewerkschaft forderten wenige Wochen später bei einer „Online-Demo“ mehr Menschlichkeit für das öffentliche Gesundheitssystem; und schließlich riefen Ende 2021 Unbekannte, offenbar als Reaktion auf Beteiligung der FPÖ an Protesten gegen „Coronamaßnahmen“, im Internet dazu auf, „die FPÖ-Server mit mehreren Terabyte Pferdevideos und Bilder (sic!) [zu] fluten“.

Es lässt sich fragen: Handelt es sich bei den genannten Ereignissen tatsächlich um "Online-Demos" und "Online-Gegendemos"? Grundsätzlicher und dogmatisch formuliert: Sind digitale oder virtuelle "Versammlungen" in Österreich grundrechtlich als Versammlungen im Sinne der Versammlungsfreiheit geschützt? Wenn ja, was wären potenzielle Konsequenzen?

Diese Thematik ist Gegenstand einer im Entstehen befindlichen Monographie, deren erste (Zwischen-)Ergebnisse ich bei der Tagung gerne vorstellen würde.

Ich verbleibe mit freundlichen Grüßen Roman Friedrich

16:00-17:30 Session 14C: IP-Recht II / IP Law II
16:00
KI Input und Output - Der AI Act an der Schnittstelle zum Urheberrecht

ABSTRACT. Der AI Act bringt spezielle Vorschriften für KI Modelle mit allgemeinem Verwendungszweck. Deren Anbieter müssen insb eine Strategie zur Einhaltung des EU-Urheberrechts auf den Web bringen und gewährleisten, dass (maschinenlesbare) Vorbehalte gegenüber dem Text- und Data Mining gem Art 4 DSM-RL beachtet werden. Dies stellt die Anbieter dieser Modelle vor große Herausforderungen. Was gilt, wenn das "Training" außerhalb des Anwendungsbereichs des EU-Urheberrechts stattfindet? Inwieweit trifft diese Pflicht auch Anbieter von KI-Systemen, in die (von dritter Seite entwickelte) KI-Modelle integriert sind? Was bedeutet die Pflicht zur Etablierung einer Strategie mit Blick auf den Output? Folgt daraus (ähnlich wie auch Art 17 DSM-RL bzgl Online-Plattformen) ein Gebot der Filterung?

Diese Fragen greift der ggst Beitrag auf.

16:30
Mechanisms for Enforcing Copyright in the Age of Machine Learning: Application of the Digital Services Act and Procedural Possibilities

ABSTRACT. The rapid emergence of machine learning technologies and generative artificial intelligence has significantly transformed the digital services market, raising substantial concerns about the effectiveness of copyright enforcement procedures. During the same period, the European Union introduced the Digital Services Act (DSA)—Regulation (EU) 2022/2065—bringing new mechanisms for enforcing not only copyright but also other legal rights. In this article, I explore the possibilities of copyright enforcement by AI providers or operators within the context of European legislation, with a particular emphasis on the IPRED Directive, and specifically examine the Slovak legal framework concerning procedural rules as transposed from the IPRED Directive.

An in-depth analysis is provided on traditional legal tools available under Slovak law, including preliminary measures in intellectual property matters, types of lawsuits that can be filed, conditions for such actions, and claims arising from the Copyright Act—such as informational, declaratory, or injunctive relief. The article examines who is entitled to file a petition (standing), the existence of time limits for hearings and decisions, the types of enforceable claims, the binding nature of decisions, the finality of dispute resolution, and access to justice, including fee considerations.

The central research question of this article is: How can copyright protection be enforced in a context where content creation and dissemination are increasingly facilitated by AI technologies, and what are the possibilities and limitations of the procedural mechanisms provided by the Digital Services Act compared to traditional legal instruments within the Slovak legal framework as transposed from the IPRED Directive?

This research aims to assess the effectiveness and practicality of enforcing copyright protection amid the challenges posed by artificial intelligence. It analyzes the procedural aspects of the DSA, including mechanisms for reporting illegal content, internal complaint-handling systems of online platforms, and access to certified out-of-court dispute resolution bodies, as stipulated in Articles 16, 17, 20, and 21 of Regulation (EU) 2022/2065. By comparing these with traditional court proceedings in Slovakia, the article highlights differences in procedural requirements, the scope of enforceable claims, the binding nature of decisions, the finality of dispute resolution, and accessibility in terms of costs.

By evaluating aspects such as standing, time limits, types of claims pursued, the binding nature of decisions, finality of dispute resolution, and fees associated with seeking justice, the findings aim to determine the viability of various enforcement mechanisms. The article concludes by assessing what can and cannot be achieved through the DSA's mechanisms versus traditional court proceedings, offering insights into their effectiveness as alternative or complementary avenues for enforcing copyright—especially considering the anonymity and difficulty of identifying infringers in the AI-dominated digital age.

17:00
AI and Intellectual Property Law in the Digital Age: Creating a Cohesive Global System for Ethical Innovation and Societal Benefit

ABSTRACT. This article examines the imperative to reassess and align international intellectual property (IP) systems due to the disruptive influence of artificial intelligence (AI) on innovation. AI-generated products are progressively contesting conventional concepts of authorship and inventorship, which have been solely human-centric. The existing discord across national and regional intellectual property rules is insufficient for tackling the intricate realities of AI-driven innovation, resulting in regulatory voids that compromise legal clarity and security for inventors and investors. The disparities in intellectual property protection laws among nations impede international collaboration and equal access to technology, eliciting ethical and social concerns over ownership, accountability, and the economic concentration of AI-generated intellectual property. This article proposes the creation of a worldwide standardized intellectual property system that acknowledges AI-generated ideas while protecting human innovation. The concept entails delineating new classifications for AI-assisted inventions, establishing defined inventorship criteria, and ensuring an equitable distribution of economic and creative rewards. The article underscores ethical aspects that encompass justice, transparency, and extensive societal advantages derived from AI-driven advancements. A unified and inclusive intellectual property governance framework is essential for promoting fair global growth in the AI-driven economy, safeguarding the rights of current holders while facilitating technological advancement and social responsibility.

16:00-17:30 Session 14D: Cybersicherheit, digitale Beweisführung & Recht II / Cybersecurity, Digital Evidence & Law II
16:00
Workshop: Cybersicherheit und KI - Managementverantwortung und Haftung

ABSTRACT. EU Vorschriftren wie NIS2, DORA aber auch dei KI VO bringen eine neue Form der Verantwortung von Leitungsorganen

Zwiel des Workshops ist die Erarbeitung von standardisierten Ansätzen, die Leitungsorganen in der Wirtschaft aber auch in der Justiz und öffentlichen Verwaltung helfen mit dieser Verantwortung umzugehen, Gefahren zu erkennen, die richtigen Organisationsmaßnahmen zu ergreifen, die rechtliche Einordnung zu verstehen.

16:00-17:30 Session 14E: European E-Health Data Space I
16:00
Gesundheitsdatenraum – Datenraum?

ABSTRACT. Datenräume prägen die EU-Datenstrategie (COM/2020/66 final) maßgeblich. Seit der Mitteilung der Kommission zum „Aufbau eines gemeinsamen europäischen Datenraums“ (COM/2018/232 final) aus dem Jahr 2018 ist der Begriff auf Unionsebene nicht mehr wegzudenken. Als erster sektorspezifischer Datenraum ist der europäische Raum für Gesundheitsdaten derzeit in Diskussion; er ist damit nicht nur richtungsweisend für den Gesundheitssektor, sondern auch für die Ausgestaltung weiterer Datenräume, beispielsweise für die Industrie, die Mobilität und den Green Deal. Während Datenräume in der Due Diligence bereits eine lange Tradition haben (Vgl ua Kozak/Uitz, Virtuelle Daten(t)räume, ecolex 6/2007, 440), ist das Konzept des „Datenraums“ im Kontext der Digitalstrategie neu. Um ein wissenschaftlich fundiertes Verständnis für den „Datenraum“ zu erlangen, werden die Konzepte von „Cloud“, „Akte“ und „Raum“ gegenübergestellt und verglichen, um so den Begriff des Datenraums besser erfassen zu können. Daraus werden erste Schlussfolgerungen für die derzeit noch im Entwurfsstadium befindliche Verordnung des Europäischen Parlaments und des Rates über den europäischen Raum für Gesundheitsdaten (COM[2022] 197 final) gezogen.

16:30
Digitale Gesundheitsanwendungen und Künstliche Intelligenz – Behandlungsrevolution oder Risiko? Ein interdisziplinärer Diskurs
PRESENTER: Katrin Forstner

ABSTRACT. Digitale Gesundheitsanwendungen (DiGA) bieten vielfältige Chancen für die Unterstützung und Behandlung von Patient*innen. Die Weiterentwicklung künstlicher Intelligenz (KI) vergrößert zusätzlich das Potential. Jedoch werfen diese neuen Möglichkeiten auch eine Menge rechtlicher Fragen auf. Viele sind derzeit vom österreichischen Gesetzgeber unbeantwortet. Rechtlich noch kniffliger wird es, wenn bei einer DiGA KI zum Einsatz kommt. Im gegenständlichen Beitrag wird zunächst auf die Bedeutung und Chancen von DiGA für die Praxis eingegangen. Aus rechtlicher Perspektive werden grundlegende Fragestellungen hinsichtlich des Einsatzes von DiGA diskutiert: Wer ist befugt, über den Einsatz von DiGA zu entscheiden? Welche Voraussetzungen müssen erfüllt werden? Anschließend wird beleuchtet, welche Aspekte beim Einsatz von KI darüber hinaus zu berücksichtigen sind – etwa, welche Arten von KI für den Einsatz bei DiGA rechtlich grundsätzlich in Frage kommen bzw. wie die Weiterentwicklung der KI und die damit mögliche einhergehende Veränderung der DiGA rechtlich einzuordnen sind. Zudem stellt sich die Frage, inwieweit der Einsatz von KI als Behandlung einzustufen ist. Dabei ergeben sich auch wissenschaftsphilosophische sowie epistemologische Fragestellungen, auf die weiter abschließend eingegangen werden soll.

17:00
Wie weit reicht der Gesundheitsbereich und wo startet das „Enhancement“?
PRESENTER: Petra Zandonella

ABSTRACT. Neurotechnologien sind wirkmächtige Technologien in einem rasant wachsenden Wirtschaftssektor. Während der Nutzen im medizinischen Bereich zum Teil etabliert ist, drängen Unternehmen vor allem in den „Enhancement“-Sektor. Die Grenze zwischen „bloß“ medizinisch-therapeutischen Zwecken und Enhancement scheinen fließend und können nicht immer klar gezogen werden. Entsprechend ändert sich bei solchem Grenzübergang die moralische, ethische und gesetzliche Basis für das Entscheidungstreffen hinsichtlich Kosten und Nutzen von Neurotechnologien mit dramatischen transformativen gesellschaftlichen Konsequenzen. Die damit verbundenen Risiken werden von internationalen Organisationen wie der UNESCO bereits erkannt. Doch gerade für den rechtlichen Rahmen ist diese Zuordnung ein wesentliches Unterscheidungsmerkmal. Obwohl die Menschenrechte und Grundrechte in der EU ein gutes Basisschutzniveau liefern, ist die spezifische Ausgestaltung im Sekundärrecht noch unzureichend. So sind einerseits Medizinprodukte in der MPVO auf hohem Niveau reglementiert für Neuro-Enhancement, das nicht unter Gesundheitszwecke fällt, gelten hingegen nur die allgemeinen Produktsicherheitsvorschriften. Gesundheitsdaten werden in der DSGVO besonders geschützt, doch soll künftig durch die EHDS-VO der Zugang zu „elektronischen Gesundheitsdaten“ auf breiter Basis ermöglicht werden soll. Auch bloße „Enhancement-“ und „Entertainment-“Produkte schweben in der EU keinesfalls in einem „rechtsleeren“ Raum. Für diese gelten weiterhin die allgemeinen Produkt- und Gewährleistungsregeln. Insgesamt stellt sich die Frage ob und wie „neural data“ und Neurotechnologie-Produkte im bestehenden regulatorischen Feld zuzuordnen sind. Fraglich ist, ob dieses den behaupteten Besonderheiten von Neurotechnologien gerecht wird. Der interdisziplinäre Beitrag verbindet und setzt auf Neuropsychologie, Ethik und Rechtswissenschaften auf. Die Neuropsycholog:innen stellen eingangs den aktuellen Stand der Neurotechnologie und deren Wirkungsweise anhand von drei einschlägigen Beispielen dar. Diese werden in der Folge von den Ethikern untersucht und von den Rechtswissenschafterinnen analysiert und so der legislative Handlungsbedarf verortet. Um die Praxistauglichkeit des Ergebnisses sicherzustellen, wird der eruierte normative Lösungsansatz interdisziplinär diskutiert und – wiederum an den konkreten Beispielen – nachgeschärft. Das Fazit fasst die wesentlichen Erkenntnisse der Studie knapp zusammen.