View: session overviewtalk overview
| 09:00 | Online-Verfahren – Gamechanger für den Zivilprozess? PRESENTER: Bettina Mielke ABSTRACT. In Deutschland wird seit längerem diskutiert, wie der Zivilprozess modernisiert werden kann. Vor dem Hintergrund rückläufiger Verfahrenszahlen in der Zivilgerichtsbarkeit vor allem im Bereich niedriger Streitwerte erfährt der Aspekt eines verbesserten Zu-gangs zur Justiz durch ein Online-Verfahren große Aufmerksamkeit. Ein aktuelles Ge-setzesvorhaben sieht die Erprobung dieses Verfahrens vor, das konzeptuell vor großen Herausforderungen steht. Bedeutend sind vor allem verschiedene Elemente der Gesetz-gebung wie die Kommunikationsplattform, die Einführung eines Verfahrensdokuments sowie das Aufgreifen des Konzepts Reallabor. |
| 09:30 | EJUSTICE AND AUTOMATION IN EUROPE: A FRAGMENTED LANDSCAPE PRESENTER: Andrej Krištofík ABSTRACT. The presented article seeks to demonstrate the state of eJustice across selected European countries, most notably in relation to their use of advanced technological solutions, specifically automation, within the judicial process. The presented countries demonstrate varied level of not only automation and the possibilities of automation in the near future, but more crucially they display great variety on the „lower“ technological level of a mere electronisation and digitalization of judicial procedures. By describing these differences and current status via analysis of national reports this article seeks to show that while advanced automation presents an interesting and emerging opportunity for eJustice, the current fragmented approach and the state of infrastructure across Europe does not provide ample opportunity for its realization. |
| 10:00 | Human-Machine cooperation in the Brazilian Judiciary: from digitalization to artificial intelligence and its impact on Justice PRESENTER: Patricia Eliane da Rosa Sardeto ABSTRACT. The growing cooperation between humans and machines is reshaping the way society interacts and all sectors are being affected by this transformation, including the Judiciary. Within this context of profound change, the research seeks to critically assess the tangible benefits and emerging risks of human–machine cooperation within the Brazilian Judiciary. Specifically, it aims to: examine the trajectory of the Judiciary’s digital transformation; identify artificial intelligence systems currently under development, as well as those already implemented or in operation within the courts; and analyze the potential implications of human–machine cooperation for the paradigm of justice. Methodologically, the study adopts a deductive approach, combining qualitative and quantitative perspectives and relying on bibliographic and documentary research techniques. The findings indicate that the Brazilian Judiciary has been undergoing an official process of digital transformation since 2006. The analysis on the adoption of artificial intelligence systems reveals that several courts have either developed their own solutions or are in the process of doing so. Moreover, the data show that most machine-assisted tasks are currently confined to administrative functions, repetitive procedures, and features designed to support human activity. More recently, research and development efforts have begun to focus on decision-making systems. From the analysis of the ideal of justice, the study identifies potential benefits, but also emerging risks such as excessive objectivity in decision-making, loss of contextual and semantic interpretation, the standardization and massification of judgments, and technological power asymmetries. The article concludes by proposing regulatory and ethical guidelines aimed at safeguarding fundamental rights and preventing the transformation of justice into an opaque, automated decision-making system devoid of human connection. |
| 10:30 | Automatisch generierte Relationen: Ein KI-Booster für das Verfahrensdokument? PRESENTER: Christian Wolff ABSTRACT. Wir stellen vor dem Hintergrund der Entwicklung eines digitalen Basis- bzw. Verfahrensdokumentes eine Pilotstudie vor, in der untersucht wird, wie sich generative Künstliche Intelligenz nutzen lässt, um aus Schriftsätzen in Zivilprozessen automatische Relationstabellen zu erzeugen. Dazu verwenden wir wenige verfügbare Schriftsatzpaare (Klägervortrag und Beklagtenvortrag) als Testmaterial, um unter Anwendung von Retrieval-Augmented Generation (RAG) bzw. Cache-Augmented Generation (CAG) Relationstabellen automatisch erstellen zu lassen. Ergänzend betrachten wir, ob generative KI auch genutzt werden kann, um aus veröffentlichten Urteilen Schriftsätze zu rekonstruieren (reverse document engineering), die dann wiederum als Trainingsmaterial für die Relationserzeugung dienen könnten. |
| 09:00 | Hybride KI-Lösungen als Alternative zu Large Language Models (LLMs) - zuverlässiger, nachvollziehbarer, nachhaltiger? PRESENTER: Philippe Baumann ABSTRACT. Die Größe der neuronalen Netze, die von den wichtigsten KI-Konzernen trainiert werden, hat viele Debatten ausgelöst. Unter anderem wurden Umweltauswirkungen, Trainings- und Betriebskosten, digitale Souveränität und Compliance erwähnt, aber auch ethische und soziale Probleme. Aus einer wissenschaftlichen Perspektive wurde der zutiefst fehlerhafte theoretische Hintergrund der Technologie kritisiert. (Sprachmodelle haben sehr wenig mit Sprache zu tun: Bender and Koller, 2020). Aus rechtlicher Sicht ist der letztere Aspekt wahrscheinlich der beunruhigendste. Wenn KI-Systeme in Bereichen eingesetzt werden sollen, die Vorschriften und Regelungen unterliegen, müssen sie fähig sein, Datenstrukturen zu kodieren, die die relevanten Aspekte dieser realen Welt widerspiegeln. In ihrer derzeitigen Form sind sie aber, per Design, unfähig, dies zu tun. In diesem Beitrag untersuchen wir den Einsatz von großen Sprachmodellen im geschäftlichen Kontext. Wir besprechen, wann und wo die Technologie der LLMs in ihrer jetzigen Form angewendet werden kann und zeigen Problembereiche auf. Abschliessend schlagen wir eine Alternative in Form von hybriden ‘kleinen’ Sprachmodellen vor, die die Stärken von Transformer-basierten Architekturen und semantischen Algorithmen kombinieren und damit gleichzeitig auch weitere positive Effekte auf Kosten, Umwelt, Souveränität, Compliance und Ethik einhergehen. |
| 09:30 | Recht für Fachfremde – Ein empirischer Vergleich von Fachtext, Rechtsvisualisierung und KI-Sprachmodell ABSTRACT. Viele Ansätze zur Rechtsvisualisierung sollen vor allem fachfremden Personen zu einem besseren Verständnis juristischer Inhalte verhelfen als jenes, das „klassische“ juristische Fachtexte vermitteln. Allerdings fehlen bislang Evaluationen, die ihre Wirksamkeit bestätigen. Daneben rückt – mit ähnlicher Zielsetzung – zunehmend auch die Nutzung großer KI-Sprachmodelle (LLMs) wie ChatGPT in den Fokus. In diesem Beitrag wird die Nutzung von Rechtsvisualisierungen und LLMs den Fachtexten gegenübergestellt und ihr jeweiliger Beitrag zum Verständnis rechtlicher Inhalte durch Laien empirisch untersucht. Dadurch soll ein tieferer Einblick in ihren Nutzen gegeben und zum Aufbau einer empirischen Basis beigetragen werden. |
| 10:00 | Data Governance in Data Trusts: Analysis of Main Concepts and Components PRESENTER: Maria A. Wimmer ABSTRACT. As data has become a critical asset in today’s digital economies, the sharing and reuse of data has received high attention from researchers. New concepts of data intermediaries have evolved, addressing the strategic goal of greater digital sovereignty while ensuring compliance with European legal frameworks. Among these concepts is Data Trusts, which act as intermediaries facilitating secure and trustworthy data stewardship and sharing within relevant ecosystems. In literature, Data Trusts are defined as legal, technical, and organizational entities established to responsibly manage and facilitate the sharing of data while preserving the interests of the data subjects and/or the data owners. Data Trusts operate as a trusted intermediary, ensuring data accessibility, transparency, security, and compliance with relevant regulations and ethical standards throughout the data lifecycle (Austin and Lie 2021; Ayappane et al. 2024; Feth and Rauch 2024; Stachon et al. 2023). While a number of research publications exist on data governance, a systematization of the different concepts of what data governance comprises is lacking. The underlying research goal is to develop a comprehensive understanding of key assets and components of comprehensive Data Governance Frameworks for ensuring trustworthiness in data trust ecosystems. In the presentation, we will share insights from the EG-DAS project, where we have conducted a structured analysis of existing literature on the different concepts - distinguishing the assets to achieve and the corresponding components with which these assets can be achieved. We then synthesize the findings and develop them into a data governance framework that maps the assets assets of data governance which represent desired values to achieve, and the corresponding components that help acieving these desired governance values. Among the data governance assets, we identified for example data quality, data security, data privacy, data value, legal compliance, data interoperability and standardization, data accuracy, accountability, data accessibility, data transparency and business goal alignment. Components to achieve these assets are e.g. data and data lifecycle management, data ownership and provenance management, metadata management, compliance and risk management, data architecure management, stakeholder management, identity and access management, and trust management. |
Organisation: BMJ
| 11:00 | Der AI Act und der Brüssel-Effekt ABSTRACT. Die DSGVO sieht sich als sog. "Gold-Standard". In der Tat ist die anfängliche Skepsis gewichen und zahlreiche internationale Datenschutzgesetze orientieren sich an der DSGVO. Kann der AI Act eine ähnliche internationale Karriere machen oder wird er als zu streng und innovationsfeindlich wahrgenommen? Aktuell ist die internationale Landschaft der KI-Regulierungen uneinheitlich. So existieren wesentliche Elemente des AI Acts übernehmende Gesetze in Brasilien und Südkorea. Gegenüber dem AI Act offenere risikobasierte Regulierungsmodelle finden sich u.a. in Singapur, Hong Kong und Dubai. Uneinheitlich wiederum ist die Rechtslage in den USA. Während auf Bundesebene eine KI-Regulierung abgelehnt wird, finden sich auf Ebene der Bundesstaaten durchaus Gesetze, die jedenfalls in Teilen dem AI Act vergleichbar sind. So wurden jüngst in Kalifornien und Texas, mithin in den Standorten großer KI-Unternehmen, entsprechende Gesetze implementiert. In Kalifornien wird sogar schon von einem "Sacramento Effect" gesprochen. In China schließlich ist die Rechtsentwicklung noch unentschlossen. So existiert keine umfassende und abschließende KI-Regulierung. Dennoch gibt es in China Stimmen, die gerade einen "global consensus on AI regulation" anstreben. Kann der AI Act Vorbild für diesen globalen Konsens sein? Der AI Act leidet an einem wichtigen "Verkaufsargument": Er ist nicht stringent mit anderen EU-Regularien, insb. nicht mit der DSGVO. Zwar gehen beide von einem risikobasieren Ansatz aus. Tatsächlich handelt es sich aber um zwei verschiedene Regulierungsmodelle. Die DSGVO basiert auf einem offenen risikobasierten Ansatz. Der Verantwortliche bestimmt das Risiko der jeweiligen Datenverarbeitung und implementiert davon ausgehend die entsprechenden Maßnahmen. Demgegenüber sieht der AI Act vordefinierte und geschlossene Risikokategorien vor. Es ist somit zu hinterfragen, ob der AI Act einen Brüssel-Effekt auslösen kann. Dieser Beitrag möchte diesen Fragen nachgehen. |
| 11:30 | Praktische Implikationen des AI Act für die klein und mittel Unternehmen in Österreich PRESENTER: Natalia Trudova ABSTRACT. Ziel der Arbeit ist es, rechtssichere Szenarien für die Integration von großen Sprachmodellen (LLM) in die Geschäftsprozesse von kleinen und mittleren Unternehmen (KMU) im europäischen Kontext zu untersuchen, wobei die Erfahrungen des Projekts RADIUS (FH JOANNEUM) genutzt werden. |
| 12:00 | Integration von KI-Systemen und Sprachmodellen in die Rechtspraxis: Anforderungen und Bedenken von Juristen ABSTRACT. KI-Systeme und große Sprachmodelle haben in den letzten Jahren mehr und mehr Einzug in die juristische Praxis gehalten. Auch die rechtswissenschaftliche Forschung sieht viele Anwendungsmöglichkeiten für künstliche Intelligenz. Offen ist jedoch, welche Anwendungen von künstlicher Intelligenz Juristen für ihre tägliche Arbeit als sinnvoll ansehen und welche Aspekte sie bspw. als wichtig zur Bestimmung der Güte von KI-generierten Texten erach-ten. Um diese Lücke in der Forschung zu füllen, stellt der vorliegende Beitrag die Ergeb-nisse einer durchgeführten Studie vor, in der Juristen zu ihren Wünschen und Anforderun-gen an KI-Systeme und KI-generierte Texte befragt wurden. |
| 11:00 | Mapping FOSS in EU's Cybersecurity Regulations ABSTRACT. This paper examines the EU’s legislative framework governing cybersecurity and information technology, with particular attention to how it addresses Free and Open Source Software (F/OSS). As a global phenomenon, F/OSS contributes substantially to innovation, transparency, and security. This raises the question of whether EU legislators are paying sufficient attention to F/OSS and whether or how they incorporated the specific characteristics and challenges of F/OSS into their regulatory approach. This paper therefore seeks to critically analyse the position of F/OSS within the EU’s cybersecurity and IT legislation, identifying potential inconsistencies, gaps, and implications for stakeholders involved in its development and distribution. The research adopts a legal analysis of selected key EU legislative acts that shape the cybersecurity and information technology legal framework. The study focuses primarily on the Cyber Resilience Act (CRA) and its criterium of commercial use of products with a digital element. Further, paper also analyses the Directive on measures for a high common level of cybersecurity across the Union (NIS2 Directive), but also the Artificial Intelligence Act (AI Act) and others. By examining these instruments, the paper aims to uncover what is EU’s general approach towards F/OSS and how EU regulators conceptualize software accountability, product security, and compliance obligations, and whether these frameworks adequately reflect the collaborative, non-commercial, and decentralized nature of F/OSS projects. The study also introduces special provisions and legal exceptions concerning F/OSS contained in EU regulations and directives, providing comprehensive overview of F/OSS regulation. Ultimately, this paper sheds light on how F/OSS is regulated in EU and analyses what measures have been taken to avoid unnecessary regulatory burdens on F/OSS, such as legal exceptions, conditions and criteria used in aforementioned legislation. |
| 11:30 | Immaterialgüter- und Datenrechtliche Anforderungen an föderierte Cyber Threat Intelligence PRESENTER: Diogo Sasdelli ABSTRACT. Cyber Threat Intelligence (CTI) ist essenzieller Bestandteil aktueller Cybersicherheits-strategien und gehört somit zu den wichtigsten Tätigkeiten von Anbietern verwalteter Sicherheitsdienste (Managed Security Service Providers, MSSP). Das Teilen von Daten zu Cyberbedrohung bzw. von CTI steht prinzipiell im Interesse der Akteure, die Cyberbedrohungen ausgesetzt sind, und zwar erst-recht dann, wenn diese Cyberbedrohun-gen ähnlicher Natur sind. Damit entsteht indes ein potenzieller Interessenskonflikt mit den MSSP, die sich durch das Teilen solcher Daten bspw. in ihren Immaterialgüterrechten verletzt sehen könnten. Der vorliegende Beitrag diskutiert den rechtlichen Rahmen für föderierte CTI mit besonderem Fokus auf urheberrechtliche und daten-rechtliche Anforderungen. |
| 12:00 | Direkte und indirekte Datenerhebung im Rahmen der europäischen Cybercrime-Konvention ABSTRACT. Das Übereinkommen des Europarats über die Cyberkriminalität vom November 2001 ist das erste internationale Übereinkommen im Bereich des «Computerstrafrechts». Im Rahmen der Konvention stellt die indirekte Beschaffung von Daten im Ausland mittels Rechtshilfe den Standard für die Erhebung von Beweismitteln im Ausland dar, während der direkte Zugriff auf Daten in anderen Staaten unter den Vorbehalt der Zustimmung der betroffenen Person gestellt wird. Die 2018 in Kraft getretenen Bestimmungen des US-Amerikanischen CLOUD-Acts über direkte Zugriffsmöglichkeiten US-Amerikanischer Ge-richte auf gewisse Daten im Ausland haben im schweizerischen Recht zu einer Diskussion darüber geführt, inwiefern Art. 18 des Übereinkommens die Staaten dazu ermächtigt, unilaterale Rechtsgrundlagen für die extraterritoriale Datenerhebungen durch ihre Behörden zu erlassen. Der Beitrag untersucht das rechtliche Verhältnis zwischen den Vorgaben der Konvention zur indirekten und direkten Datenerhebung im Ausland und stellt diese in Beziehung zur Hanoi-Konvention der Vereinten Nationen gegen Computerkriminalität. |
Organisation: Miron Schneckenberger
| 16:00 | SETTING THE RULES FOR AI JUSTICE: EXPLORING THE APPROACHES TO AI REGULATORY SANDBOXES FOR JUDICIARY THROUGHOUT EU WITH FOCUS ON THE CZECH REPUBLIC PRESENTER: Veronika Příbaň Žolnerčíková ABSTRACT. The justice system requires technological advancement through AI tools, which the EU's AI Act regulates via regulatory sandboxes (Articles 57-60). These flexible frameworks allow tested AI deployment in high-risk settings, including judiciaries, though implementation varies significantly across Member States. Three distinct approaches have emerged: lean structures (Lithuania, Spain) prioritizing conformity assessment; comprehensive systems (Netherlands, Ireland) with centralized access points; and less restrictive models (Germany, France) with distributed authority. Lithuania launched the first judicial AI sandbox in September 2025, while the Netherlands plans mid-2026 deployment. AI is already deployed across EU justice systems in three ways: citizen-facing chatbots (Portugal's "Practical Guide to Justice"), risk-assessment tools (Spain's EPV-R for gender violence cases), and administrative analytics (Austria). These raise critical governance questions regarding transparency, fairness, and judicial independence. The Czech regulatory framework presents specific challenges. At present, only a fintech sandbox operates as an advisory tool under private law. The draft implementation of the AI Act (Sections 13–15) introduces statutory regulatory sandboxes designed to allow AI testing with limited exemptions from certain legal obligations. In parallel, new comprehensive sandbox provisions under Section 63 of the Research and Innovation Act are expected to take effect in 2027; however, these explicitly exclude AI systems from their scope. This potential inconsistency will be examined in detail, as we assess both frameworks based on their efficiency, legal certainty, and protection of fundamental rights. Key issues discussed in the contribution include whether regulatory sandboxes suit justice sectors directly and how Member States' implementations will determine sandbox applicability to judicial innovation testing. |
| 16:30 | Towards User-Friendly Contracts for Online Services ABSTRACT. Terms of Service are created by lawyers to define a contract’s provisions and resolve disputes. However, this does not meet the expectations of Internet users who want to quickly learn the conditions for the use of a service. Applying user-centered design and visual law techniques can adapt the presentation to the users’ expectations. Usability testing of the redesigned Facebook Terms of Service showed that its comprehensibility was significantly improved compared with the original documents. We argue that Terms of Service should be provided in two formats: one that is easy to understand for service users, and another that presents the legal provisions in a clear and concise manner for lawyers. |
| 17:00 | eIDAS 2.0 im Spannungsfeld der technischen Realität: Implikationen des Übergangs zu neuen europäischen elektronischen Identitäten PRESENTER: Tobias Gösslbauer ABSTRACT. Digitale IDs sind eine zentrale Voraussetzung moderner Verwaltungsprozesse. Trotz der wei-terhin geltenden und durch eIDAS 2.0 angepassten eIDAS-Verordnung bestehen weiterhin rechtliche Unklarheiten in der technischen Spezifizierung. Die Analyse ordnet das europäi-sche Identitätsökosystem in fünf Technologietypen und zeigt, dass hardwarebasierte Systeme überwiegend hohe Datenschutzanforderungen erfüllen, während z.B. bestimmte Implementie-rungen verteilter Systeme im Widerspruch mit Prinzipien der DSGVO stehen (können). Die regulatorische Lücke liegt dabei weniger im Rechtsrahmen, sondern ist letztlich eine Folge fehlender technischer Spezifikationen und Prüfverfahren. Die EUDI Wallet verbindet etab-lierte Vertrauensdienste mit nutzerkontrollierten Nachweisen und initiiert den schrittweisen Übergang zu einer europäischen, interoperablen Identitätsinfrastruktur. Als Lösungsansätze werden die rasche Konkretisierung durch Implementing Acts und Common Specifications so-wie die Einrichtung eines EU-weiten Test- und Zertifizierungszentrums vorgeschlagen; ergän-zend werden adaptive regulatorische Ansätze über Pilotprojekte und Sandboxes empfohlen. Solche strategischen Anpassungen werden offene Spezifikationen und Standardisierungen in-nerhalb der europäischen Zertifizierungsstrukturen schließen und helfen somit die digitale ID Souveränität Europas konkret zu stärken. |
Organisation: Jörn Erbgut, Consultant, Genf; Olga Stepanova, Rechtsanwältin und Partnerin bei ByteLaw
| 16:00 | One Word, Multiple standards? Rethinking the concept of ‘Substantial’ in EU Database Directive ABSTRACT. While the eligibility-criterion for the Copyright protection has been harmonized through CJEU jurisprudence, and the interpretation of the concept of ‘substantial’ within the sui-generis protection under EU Database Directive 1996 – though seemingly clarified for the ‘eligibility criteria’ - remains doctrinally problematic regarding ‘scope’ of protection and the ‘renewal of duration’. This paper argues that the Directive's use of ‘substantially’ across three distinct legal contexts i.e. (i) substantial investment (eligibility), (ii) substantial part (scope/infringement), and (iii) substantial change (renewal) - requires its own interpretative criteria, rather than a unified, investment-based standard. The CJEU has tied the concept `of ‘substantiality’ for determining the scope of protection to the 'investment’ made to obtain the database right, therefore conflating the conceptually different standards of ‘eligibility’ and ‘scope’. While seemingly pragmatic, this conflation creates conceptual and practical inconsistencies. Such reasoning risks collapsing the distinction between investment-based eligibility and content-based use, undermining the Directive’s internal coherence. A more coherent approach would be to assess ‘substantiality’ of a part by reference to its capability to effect the normal exploitation of the database or prejudice to the legitimate interests of the database maker (as reflected in chapter III), while treating the ‘investment’ factor as an indicative factor. Moreover, the notion of ‘substantial change’ under Article 10(3) also warrants scholarly attention. The paper thus seeks to delineate the conceptual boundaries of ‘substantiality’ to enhance doctrinal clarity and to ensure a coherent balance with the exceptions under both Database Directive and the CDSM Directive. |
| 16:30 | Originality of Copyrighted Works in French Law and in the Case Law of the CJEU ABSTRACT. The concept of originality constitutes a fundamental criterion for copyright protection, alongside the requirement that a work must be expressed in a perceptible form (STERLING, 2008, p. 328; KOUKAL, 2023). In the common law system, the requirement of originality is replaced by the criterion of sufficient labour and effort invested in the work (SAKSENA, 2009, p. 4). The continental legal system places greater emphasis on the stronger connection between the author and their work (NORDELL, 2002, p. 99). Particularly in French law, the notion of originality has undergone significant evolution, reflecting both doctrinal and judicial developments. Early scholarship, particularly HENRI DESBOIS’s subjective theory, linked originality to the author’s personality (DESBOIS, 1978, p. 6). French courts later refined this understanding, seeking balance between the subjective approach - focusing on the author’s personal imprint (Cour de Cassation, Chambre commerciale, No. 89-11.204, 25 March 1991) - and the objective approach, which stresses the work’s novel character (Cour de cassation, Chambre commerciale, No. 61-13.823, 23 March 1965; CARON, 2020, p. 88). This reconciliation was notably articulated in the Pachot decision of the Cour de cassation (Cour de Cassation, Assemblée plénière, No. 83-10.477, 7 March 1986), which emphasized the author’s effort, reflected in the scope for free creative activity, as the essence of originality (VIVANT, 2018, p. 289). At the European level, the Court of Justice of the European Union (CJEU) has harmonized the originality standard by defining it as “the author’s own intellectual creation,” a principle consistently reaffirmed in its case law (MARGONI, 2016). Recent CJEU decisions [Cofemel (C-683/17); Brompton Bicycle (C-833/18)] further clarify that this notion arises from the fusion of the author’s personal imprint and the exercise of free and conscious creative choices throughout the creation process. The dialogue between national and supranational understandings of originality demonstrates how EU copyright law transcends domestic notions while simultaneously drawing from them. The paper concludes by analysing the recent Opinion of Advocate General SZPUNAR in joined cases C-580/23 and C-795/23 (SZPUNAR, 2025, para. 30; DERCLAYE, 2025), which affirms that the EU concept of originality continues to be shaped by its French intellectual roots while evolving toward a more autonomous and harmonized European standard that could also be applicable to works produced with the assistance of AI systems. |
| 17:00 | Wer ist Urheber? Herausforderungen des Urheberrechts im Zeitalter generativer KI PRESENTER: Alexandra Thurner ABSTRACT. Die rasante Entwicklung generativer KI-Systeme stellt das Urheberrecht vor neue Herausforderungen. Programme wie ChatGPT, Claude oder Midjourney können eigenständig Texte, Bilder und Musik erzeugen, doch die Frage, wer als Urheber:in solcher Werke gilt, bleibt bislang ungeklärt. In unserem Beitrag gehen wir der Frage nach, ob und unter welchen Voraussetzungen KI-generierte Inhalte urheberrechtlich geschützt sein können. Dabei beleuchten wir, welche Rolle die menschliche Mitwirkung bei der Schöpfung spielt und ob die derzeitigen gesetzlichen Regelungen, insbesondere das österreichische Urheberrechtsgesetz, ausreichend sind, um neue Formen kreativer Zusammenarbeit zwischen Mensch und Maschine zu erfassen. Darüber hinaus wird diskutiert, ob eine Zurechnung der Schöpfung an die KI-Nutzer, die Entwickler oder überhaupt an keine natürliche Person denkbar ist. Ziel des Beitrags ist es, einen Überblick über die aktuelle Rechtslage und die bestehenden Lücken zu geben sowie mögliche Reformansätze auf europäischer Ebene aufzuzeigen. Der Beitrag versteht sich als Versuch, das Spannungsfeld zwischen technologischem Fortschritt und urheberrechtlicher Systematik aus der Sicht zweier Studentinnen zu reflektieren. |
| 16:00 | Der Cyber Solidarity Act als Komponente des EU-Cybersicherheitsrechts ABSTRACT. Der Cyber Solidarity Act (CSA) schafft unionsweite operative Kapazitäten zur gemeinsamen Erkennung, Analyse und Bewältigung schwerwiegender Cybervorfälle, insbesondere durch das Warnsystem für Cybersicherheit und den Cybernotfallmechanismus. Dieser Beitrag untersucht, in welchem Verhältnis der CSA zu bestehenden Strukturen wie dem CSIRT-Netzwerk und EU-CyCLONe steht und inwiefern er sich in die Cybersicherheitsstrategie der EU einfügt, also ob er bestehende Kooperations- und Reaktionsmechanismen sinnvoll ergänzt. |
| 16:30 | Wirksamkeit digitaler Sensibilisierungskonzepte in der Informationssicherheit an Hochschulen: Integration, Akzeptanz und nachhaltige Verhaltensänderung PRESENTER: Max Kuehnle ABSTRACT. Hochschulen, Behörden aber auch Unternehmen stehen vor der Herausforderung, die Informationssicherheit und das Bewusstsein darüber nicht nur bloß zu vermitteln, sondern dauerhaft im Alltag von Mitarbeitenden und Studierenden zu verankern. Diese Arbeit untersucht dabei verschiedene und kombinierte Ansätze aus der digitalen Sensibilisierung, Integration und praxisnaher Kommunikation, um die Sicherheitskultur an der Hochschule für öffentliche Verwaltung messbar zu beeinflussen. Dabei werden verschiedene Formate wie kurze Awareness-Filme, Lernmodule, begleitende studentische Projekte und auch Gewinnspiele hinsichtlich der Integrationsmöglichkeit, Akzeptanz und Wirksamkeit analysiert. Ziel ist es dabei die Entwicklung eines belastbaren Modells für eine nachhaltige und wirksame Awareness-Strategie im Hochschulkontext, welches über eine reine Kampagnenwirkung hinausgeht und dafür sorgt, dass die Sicherheitskultur als strategische Ressource der Hochschule gilt. Die Hochschule für öffentliche Verwaltung Kehl (Hochschule Kehl) bietet im Kontext der Informationssicherheit ein besonderes organisatorisches Umfeld, welches für die Wirksamkeit der vorgestellten Maßnahme ausschlaggebend ist, da die Informationssicherheit als Tandem-Modell zwischen Professorenschaft und der Verwaltung aufgebaut wird. Diese duale Struktur ermöglicht eine enge Verzahnung von Forschung, Lehre und der Verwaltung, wodurch es auch Studierenden in Form von verschiedenen Projekten ermöglicht wird, aktives Teil der Informationssicherheit zu werden. Zudem ist die Hochschule in dem landesweiten Arbeitskreis der Informationssicherheitsbeauftragten der Hochschulen des Landes Baden-Württemberg eingebunden, was den Vergleich, Erfahrungsaustausch und die Wirksamkeit verschiedener Maßnahmen begünstigt. |
| 17:00 | Towards a Quality Assessment for LLM in Digital Forensics PRESENTER: Federico Costantini ABSTRACT. The adoption of Artificial Intelligence in the field of Digital Forensics facilitates the optimisation of the analysis of digital artefacts, which can be collected in a variety of formats (text, tables, images, and videos), as well as from diverse sources (datasets, networks, and devices). Recently, the widespread uptake of LLM (Large Language Models) appears to hold significant potentials also in this field, however concerns emerge relating to its technological limitations – distortions, hallucinations, data absorption – which can hinder law enforcement and compromise the balance between the rights of the defense and the powers of the judicial authorities. This paper addresses AI trustworthiness focusing on features inspired by quality compliance, proposing an experimental procedure that aims to create a training dataset and define a suitable methodology for assessing algorithms for forensic purposes. To this end, a fictitious criminal scenario is designed to generate a synthetic dataset of electronic evidence, which is prompted to assess the results of LLMs. |