Unter welchen Bedingungen kann Meta's Llama 3.1 Modell in der EU verwendet werden?

Unter welchen Bedingungen kann Meta's Llama 3.1 Modell in der EU verwendet werden?

Unter welchen Bedingungen kann Meta's Llama 3.1 Modell in der EU verwendet werden?

Unter welchen Bedingungen kann Meta's Llama 3.1 Modell in der EU verwendet werden?

27.11.2024

basebox KI

basebox KI

Die Frage, ob und wie das KI-Modell LLama 3.1 von Meta in der EU kommerziell genutzt werden darf, ist recht komplex und erfordert eine detaillierte Analyse des geltenden rechtlichen Rahmens. Dieser Artikel wurde in Zusammenarbeit mit JBB Rechtsanwälte erstellt und fasst die wichtigsten rechtlichen Aspekte bezüglich des Urheberrechts und der neuen EU-KI-Verordnung, dem KI-Gesetz, zusammen. Es wird erläutert, was Unternehmen beachten müssen, wenn sie LLama 3.1 verwenden.

Was bedeutet die Nutzung von LLama 3.1?

LLama 3.1 ist ein KI-Modell von Meta, das auf Textverarbeitungsaufgaben spezialisiert ist. Die anwendbare Lizenz, die Llama 3.1 Community License Agreement (https://www.llama.com/llama3_1/license/), scheint Open Source zu sein, ist jedoch keine „echte“ Open-Source-Lizenz. Sie verknüpft Lizenzbedingungen mit der Anzahl gleichzeitiger Benutzer und enthält Nutzungsbeschränkungen durch eine akzeptable Nutzungspolitik.

Das Modell kann lokal betrieben werden, wodurch KI-gestützte Anwendungen auf privaten Servern ausgeführt werden können. Unternehmen, die beabsichtigen, LLama 3.1 zu nutzen, stehen jedoch vor zwei zentralen rechtlichen Fragen:

  1. Erlauben die EU- oder deutschen Urheberrechtsgesetze die Nutzung des Modells?

  2. Welche Anforderungen stellt das neue EU-KI-Gesetz und welche Verpflichtungen ergeben sich daraus?

Im Folgenden wird ein Überblick über diese beiden Aspekte gegeben. Es sollte beachtet werden, dass insbesondere im Urheberrecht viele Fragen in der juristischen Literatur weiterhin umstritten sind, ohne dass es bereits eine etablierte Rechtsprechung gibt. Daher sind Gerichtsurteile unvorhersehbar.

Urheberrechtsfragen im Zusammenhang mit der Nutzung von LLama 3.1

Schlüsselaspekt: Urheberrechtskonformität

Bei der Bereitstellung von KI-Modellen wie LLama 3.1 ist das Urheberrecht ein erheblicher Faktor. Der rechtliche Rahmen zielt darauf ab, sicherzustellen, dass urheberrechtsrelevante Handlungen (wie Reproduktionen) nur dann unternommen werden, wenn ordnungsgemäße Genehmigungen von den Rechteinhabern vorliegen oder wenn gesetzliche Ausnahmen („Urheberrechtsbeschränkungen“) gelten. Da KI-Modelle typischerweise auf umfangreichen Datensätzen trainiert werden, die möglicherweise geschützte Inhalte enthalten, stellt sich die Frage, ob die Nutzung vortrainierter Modelle eine unbefugte Reproduktion solcher Inhalte darstellt. Diese Analyse schließt die umstrittene Frage aus, ob das Training selbst Genehmigungen erfordert, da dies Meta betrifft und nicht die Endbenutzer, solange kein zusätzliches Training oder Feinabstimmung erfolgt.

Bedeutung der Text- und Datenmining-Ausnahme

Aktuelle rechtliche Auslegungen legen nahe, dass urheberrechtliche Bedenken hauptsächlich die Trainingsphase betreffen, nicht die Anwendungsphase. Die sogenannte Text- und Datenmining-Ausnahme (Artikel 44b/60d des deutschen Urheberrechtsgesetzes, UrhG) erlaubt Entwicklern, geschützte Inhalte unter bestimmten Bedingungen für Text- und Datenmining zu reproduzieren – eine Tätigkeit, die weitgehend so interpretiert wird, dass sie das Training generativer KI-Modelle umfasst. Diese Ausnahme gilt jedoch ausschließlich während der Entwicklungsphase des Modells. Sobald ein Modell wie LLama 3.1 unverändert trainiert und verwendet wird, wird diese Ausnahme für Endbenutzer irrelevant, da zusätzliche Reproduktionen von Trainingsdaten für Text- und Datenmining in der Regel nicht erforderlich sind. In diesem Stadium verschieben sich die urheberrechtlichen Bedenken auf die Reproduktion des KI-Modells selbst.

Risiko der Reproduktion geschützter Inhalte über das Modell

Ein weiteres urheberrechtliches Problem besteht in der Möglichkeit, dass KI-Modelle geschützte Inhalte aus ihren Trainingsdaten reproduzieren. Wenn ein Modell Trainingsdaten als Antwort auf Eingabeaufforderungen ausgibt, könnte dies eine Urheberrechtsverletzung durch den Benutzer darstellen. Generell sind KI-Modelle (außer RAG-Modellen in bestimmten Fällen) jedoch nicht darauf ausgelegt, Trainingsdaten wörtlich zu reproduzieren. Während gezielte Eingabeaufforderungen Ausgaben erzeugen könnten, die Trainingsdaten ähnlich sind, kann dieses Risiko durch Filtermechanismen gemindert werden, die eine solche Reproduktion verhindern. Diese Sorge hängt vom spezifischen Anwendungsfall ab und nicht von LLama 3.1 selbst.

Angesichts der geringen Wahrscheinlichkeit, dass geschützte Inhalte rekonstruiert werden, ist das Risiko einer Urheberrechtsverletzung durch diese Modelle entsprechend niedrig. Technische Anpassungen, wie eine strenge Überwachung und Filterung der Modelldaten in sensiblen Anwendungen, können dieses Risiko weiter verringern.

Risiko der Verbreitung von Trainingsdaten über das Modell

Eine weitere Debatte betrifft die Frage, ob das Modell Trainingsdaten enthält. Einige argumentieren, dass die Fähigkeit, Trainingsdaten durch spezifische Eingaben zu „wiederherstellen“, deren Inclusion impliziert. Technisch gesehen erzeugen Modelle – insbesondere Sprachmodelle – jedoch Text auf der Grundlage erlernter statistischer Verteilungen und Bedeutungsräume („Einbettungen“). Im Gegensatz zu Datenbanken oder Festplatten speichern sie keine Daten zur Abfrage. Die aktuellen Ansichten legen nahe, dass die Verbreitung von KI-Modellen nicht die Verbreitung von Trainingsdaten gleichkommt. RAG-Modelle sind eine Ausnahme, da sie explizit vorhandene Daten zur Reproduktion integrieren.

Das EU-KI-Gesetz und seine Anforderungen an Unternehmen

Die EU führte 2024 mit dem KI-Gesetz einen umfassenden Regulierungsrahmen für KI ein, der sich auf die Produktsicherheit in KI-Anwendungen konzentriert. Das KI-Gesetz verbietet bestimmte „unacceptable practices“ und unterscheidet zwischen allgemeinen KI-Modellen und Hochrisiko-KI-Systemen. LLama 3.1 wird im Gesetz als ein „allgemeines KI-Modell“ kategorisiert. Diese Modelle sind oft Teil von KI-Systemen, die je nach ihrer Anwendung als hochriskant eingestuft werden können.

Verpflichtungen für Anbieter und Betreiber

Nach dem KI-Gesetz trägt der Anbieter (hauptsächlich der Entwickler/Hersteller) eines KI-Modells die Verantwortung für die Einhaltung. Als Anbieter von LLama 3.1 muss Meta die Verpflichtungen für allgemeine KI-Modelle gemäß den Artikeln 53 und folgenden erfüllen. Dazu gehört die Bereitstellung von Informationen zu Modellarchitekturen und Trainingsmethoden. Wenn LLama 3.1 als allgemeines KI-Modell mit systemischen Risiken angesehen wird, können zusätzliche Verpflichtungen, wie Cybersicherheit und Risikobewertungen, anfallen.

Für Betreiber (Benutzer) eines allgemeinen KI-Modells erhebt das KI-Gesetz in der Regel keine direkten Verpflichtungen. Da diese Modelle typischerweise in KI-Systeme integriert sind, werden die Entwickler solcher Systeme zu „Anbietern“ von KI-Systemen nach dem Gesetz. Unternehmen, die LLama 3.1 in ihre Produkte integrieren, müssen spezifische Anforderungen erfüllen, wenn ihre Systeme als „hochriskante KI-Systeme“ eingestuft werden. Selbst für nicht hochriskante Systeme können Transparenz- und Kennzeichnungsanforderungen gelten.

Risikokategorisierung und regulatorische Konformität

Anwendungen wie diagnostische Werkzeuge im Gesundheitswesen könnten in die Hochrisikokategorien des KI-Gesetzes fallen. Unternehmen müssen bewerten, ob ihre KI-Systeme als hochriskant gelten und die entsprechenden Anforderungen einhalten. Die Anhänge I und III des KI-Gesetzes bieten Leitlinien zur Risikobewertung.

Umsetzungszeitplan für das KI-Gesetz

Das KI-Gesetz trat offiziell am 1. August 2024 in Kraft. Allgemeine Bestimmungen für KI-Modelle gelten ab dem 2. August 2025, während strengere Regeln für hochriskante KI-Systeme am 2. August 2026 in Kraft treten. Dieser gestaffelte Zeitplan ermöglicht es Unternehmen, sich auf die Einhaltung vorzubereiten.

Fazit: Verwendung von LLama 3.1 in der EU unter bestimmten Bedingungen möglich

Die Nutzung von LLama 3.1 in nicht hochriskanten Anwendungen innerhalb der EU ist im Allgemeinen rechtlich zulässig, vorbehaltlich möglicher Transparenzanforderungen gemäß dem KI-Gesetz. Urheberrechtsbedenken beziehen sich in erster Linie auf das Training und die Datenverarbeitung durch Meta und nicht auf den Einsatz vortrainierter Modelle.

Das KI-Gesetz legt klare Verpflichtungen für Betreiber und Betreuer von KI-Modellen und -Systemen fest, insbesondere für hochriskante Anwendungen. Generative KI-Systeme müssen spezifische Transparenz- und Kennzeichnungsanforderungen erfüllen. Unternehmen können LLama 3.1 in der Regel für allgemeine Zwecke nutzen, ohne Bedenken, sofern sie die Transparenzverpflichtungen des KI-Gesetzes einhalten und rechtzeitig Risikobewertungen für hochriskante Anwendungen durchführen.

Link kopieren

Link kopieren

Link kopieren

Link kopieren

Stay Up to Date

© 2025 basebox GmbH, Utting am Ammersee, Deutschland. Alle Rechte vorbehalten.

Made in and for the EU

© 2025 basebox GmbH, Utting am Ammersee, Deutschland. Alle Rechte vorbehalten.

Made in and for the EU

© 2025 basebox GmbH, Utting am Ammersee, Deutschland. Alle Rechte vorbehalten.

Made in and for the EU

© 2025 basebox GmbH, Utting am Ammersee, Deutschland. Alle Rechte vorbehalten.

Made in and for the EU