Mit welchen Rahmenbedingungen darf das Llama 3.1 Modell von Meta in der EU genutzt werden?

Die Frage, ob bzw. wie das KI-Modell LLama 3.1 von Meta kommerziell in der EU verwendet werden darf, ist nicht wenig komplex und erfordert eine detaillierte Analyse der rechtlichen Rahmenbedingungen. Dieser Artikel wurde in Zusammenarbeit mit den JBB Rechtsanwälten erstellt und fasst die zentralen rechtlichen Aspekte zur Urheberrechtslage sowie zur neuen KI-Verordnung der EU, dem AI Act, zusammen. Dabei wird dargestellt, was Unternehmen bei der Nutzung von LLama 3.1 beachten müssen.

Worum geht es bei der Nutzung von LLama 3.1?

LLama 3.1 ist ein KI-Modell von Meta, das auf Textverarbeitungsaufgaben spezialisiert ist. Die anwendbare Lizenz, das „Llama 3.1 Community License Agreement“ (https://www.llama.com/llama3_1/license/) klingt nach Open Source, ist aber keine „echte“ Open Source-Lizenz, weil sie zum einen die Lizenzbedingungen von der Anzahl der User zu einem bestimmten Zeitpunkt abhängig macht, und zum anderen über eine „Acceptable Use Policy“ Einschränkungen der Nutzungsmöglichkeiten vorsieht.

Das Modell kann lokal betrieben werden und bietet damit die Möglichkeit, KI-gestützte Anwendungen auf eigenen Servern zu implementieren. Unternehmen, die LLama 3.1 einsetzen möchten, sehen sich jedoch mit zwei zentralen rechtlichen Fragen konfrontiert:

1. Erlauben die urheberrechtlichen Bestimmungen der EU bzw. Deutschlands die Nutzung des Modells?

2. Welche Anforderungen stellt der neue EU AI Act (KI-Verordnung), und welche Pflichten ergeben sich daraus?

Im Folgenden werden diese beiden Aspekte überblicksartig analysiert. Es wird darauf hingewiesen, dass es sich insbesondere im Urheberrecht um teilweise in der juristischen Fachliteratur stark umstrittene Themen handelt, zu denen noch keine Rechtsprechung existiert. Wie Gerichte entscheiden würden, ist daher nicht absehbar.

Urheberrechtliche Fragen zur Nutzung von LLama 3.1

Ein zu beachtender Aspekt beim Einsatz von KI-Modellen wie LLama 3.1 ist das Urheberrecht. Der rechtliche Rahmen zielt darauf ab, sicherzustellen, dass urheberrechtlich relevante Handlungen (wie etwa Vervielfältigungen) nur dann vorgenommen werden, wenn entsprechende Genehmigungen der Rechteinhaber vorliegen oder gesetzliche Erlaubnisse („Schranken des Urheberrechts“) eingreifen. KI-Modelle werden typischerweise mit großen Mengen an Daten trainiert, die potenziell geschützte Inhalte umfassen. Daher stellt sich die Frage, ob der Einsatz solcher (durch Dritte bereits trainierte) Modelle eine unrechtmäßige Vervielfältigung dieser Inhalte darstellt. Nicht Gegenstand der Betrachtung ist die ebenfalls vieldiskutierte Frage, ob die für das Training vorgenommenen Vervielfältigungen einer entsprechenden Erlaubnis bedürfen, weil diese Frage sich – im Falle von Llama, wenn kein weiteres Training / Finetuning erfolgt – nur für Meta stellt.

Relevanz der Text- und Data-Mining-Schranke

Nach aktueller Rechtsauffassung betrifft die urheberrechtliche Problematik vor allem das Training der Modelle, nicht deren Anwendung. Die sogenannte Text- und Data-Mining-Schranke (§ 44b bzw. § 60d UrhG) erlaubt es Entwickler:innen, geschützte Inhalte unter bestimmten Umständen für Text- und Data Mining, worunter nach überwiegender Auffassung auch das Training generativer KI-Modelle zu verstehen ist, zu vervielfältigen. Diese Schranke greift jedoch nur während der Entwicklungsphase des Modells. Sobald ein Modell – wie LLama 3.1 – trainiert ist und unverändert verwendet werden soll, verliert dieser Aspekt an Relevanz für den Endanwender, weil danach in der Regel keine weiteren Vervielfältigungen von Trainingsdaten zu Text- und Data-Mining-Zwecken mehr erforderlich sind. Es geht dann nur noch um die Vervielfältigung des KI-Modells.

Gefahr der Reproduktion geschützter Inhalte durch das Modell

Eine weitere urheberrechtliche Frage betrifft die Möglichkeit, dass ein KI-Modell geschützte Inhalte aus den Trainingsdaten reproduziert. Sollte das Modell auf entsprechende Prompts hin Teile der Trainingsdaten wiedergeben, dürfte dies als Urheberrechtsverletzung duch den Verwender zu werten sein. In der Regel sind KI-Modelle (mit Ausnahme von RAG-Modellen in bestimmten Fällen) aber nicht dafür konzipiert, Trainingsdaten so wiederzugeben, dass eine Vervielfältigung anzunehmen ist. Die Möglichkeit, mit gezielten Prompts dennoch Ergebnisse zu erhalten, die sehr nah an den Trainingsdaten liegen, ist allerdings nicht auszuschließen, weshalb ggf. durch entsprechende Filtermaßnahmen die Wiedergabe von Trainingsdaten zu unterbinden ist. Dies ist jedoch eine Frage, die von der individuellen Nutzung der Modelle abhängig ist, und keine spezifische Einordnung von Llama erfordert.

Da die Wahrscheinlichkeit, dass geschützte Inhalte rekonstruiert werden, demnach als eher gering einzuschätzen ist, ist auch das Risiko einer Urheberrechtsverletzung durch die Nutzung dieser Modelle entsprechend gering. Technische Anpassungen können zur Minimierung dieses Risikos beitragen, etwa durch die strikte Überwachung und Filterung der Modellantworten in hochsensiblen Anwendungen.

Gefahr der Verbreitung von Trainingsdaten durch das Modell

Diskutiert wird ebenfalls, ob das Modell selbst Trainingsdaten enthält. Diese Frage wird immer wieder unter anderem deshalb gestellt, weil es teilweise durch gezieltes Prompting möglich ist, Trainingsdaten „wiederherzustellen“. Daraus wird sodann der Schluss gezogen, dass dies nur möglich sei, wenn die Trainingsdaten auch in dem Modell „enthalten“ sind. Bei technischer Betrachtung stellt sich jedoch heraus, dass Modelle – insbesondere Sprachmodelle – lediglich aufgrund statistischer Verteilungen und gelernter Bedeutungsräume („Embeddings“) in der Lage sind, Sätze zu produzieren. Der produzierte Text wird stets neu berechnet. Einer Speicherung von Daten zur späteren Abrufbarkeit – wie auf einer Festplatte oder in einer Datenbank – wird gerade nicht vorgenommen. Nach bisheriger Ansicht ist daher davon auszugehen, dass die Verbreitung von KI-Modellen keine Verbreitung von Trainingsdaten mit sich bringt. Auch hier stellen RAG (Retrieval-Augmented Generation)-KI-Systeme eine Ausnahme dar, weil hier gerade vorbestehende Daten dem Modell so zur Verfügung gestellt werden, dass diese auch reproduziert werden können.

Der EU AI Act und seine Anforderungen an Unternehmen

Mit dem AI Act (KI-Verordnung) führte die Europäische Union 2024 einen umfassenden regulatorischen Rahmen für KI ein, der den Einsatz von Künstlicher Intelligenz in der EU insbesondere in Bezug auf Produktsicherheit regulieren soll. Der AI Act verbietet einige als untragbar eingeordnete „verbotene Praktiken“ und unterscheidet weiter insbesondere zwischen KI-Modellen mit allgemeinem Verwendungszweck und Hochrisiko-KI-Systemen. Llama 3.1 ist nach der KI-Verordnung grundsätzlich als „KI-Modell mit allgemeinem Verwendungszweck“ einzuordnen. KI-Modelle werden in der Regel in KI-Systeme integriert, sodass auch ein KI-Modell mit allgemeinem Verwendungszweck Bestandteil eines Hochrisiko-KI-Systems werden kann.

Anbieter- und Betreiberpflichten

Gemäß AI Act ist der „Anbieter“ (insb. Entwickler/Hersteller) eines KI-Modells in erster Linie für die Einhaltung der gesetzlichen Vorgaben verantwortlich. Meta, als Anbieter von LLama 3.1, muss somit die Pflichten für KI-Modelle mit allgmeinem Verwendungszweck gemäß Art. 53 ff. AI Act erfüllen. Dies umfasst unter anderem die Bereitstellung von Informationen zu den Modellarchitekturen und Trainingsmethoden. Sollte Llama 3.1 als KI-Modell mit allgemeinem Verwendungszweck mit systemischem Risiko einzuordnen sein, gelten weitere Pflichten, die auch die Themen Cybersicherheit und Risikoabschätzung betreffen.

Für Betreiber („Nutzer“) eines KI-Modells mit allgemeinem Verwendungszweck sieht der AI Act grundsätzlich keine Pflichten vor. Allerdings erfolgt die Nutzung dieser Modelle in der Regel in der Form, dass sie in KI-Systeme eingebettet werden. Entwickler eines solchen KI-Systems sind sodann „Anbieter“ eines KI-Systems im Sinne des AI Acts. Unternehmen, die LLama 3.1 in ihre Produkte integrieren, müssen insbesondere dann spezifische Anforderungen erfüllen, wenn sie das Modell in ein „Hochrisiko-KI-System“ integrieren und dadurch zum Anbieter eines Hochrisiko-KI-Systems werden. Ist das KI-System nicht als Hochrisiko-KI-System einzustufen, können dennoch Transparenz- und Kennzeichnungspflichten einzuhalten sein.

Für Betreiber eines KI-Systems gelten – je nach Risikokategorie – ebenfalls einige Pflichten. Dies umfasst etwa die Überwachung des Betriebs, die Dokumentation der Nutzung, die Einhaltung von Kennzeichnungsanforderungen und die Bereitstellung transparenter Informationen für Endnutzer, insbesondere wenn KI-generierte Inhalte erzeugt werden (vgl. Art. 50 AI Act).

Abgrenzung zwischen KI-Systemen mit allgemeinem Risiko und Hochrisiko-KI-Systemen

KI-Systeme wie ChatGPT sind keine KI-Modelle mit allgemeinem Verwendungszweck, sondern ermöglichen die allgemeine Verwendung der zugrundeliegenden Modelle (z.B. GPT-4), was sie zu „KI-Systemen mit allgemeinem Verwendungszweck“ klassifiziert. Zu einem Hochrisiko-KI-System werden sie erst, wenn sie für hochriskante Einsatzzwecke verwendet werden und sich die Zweckbestimmung dadurch ändert.

Einige Anwendungen, wie diagnostische Tools im Gesundheitswesen, könnten potenziell in die Hochrisiko-Kategorien des AI Acts fallen. In solchen Fällen ist zu prüfen, ob die spezifische Anwendung des KI-Systems nach seinem Einsatzzweck dieser Kategorie zuzuordnen ist und ob das System entsprechend als Hochrisiko-KI-System eingestuft werden müsste. Die genaue Klassifikation obliegt einer sorgfältigen Analyse der Einsatzbereiche und -bedingungen, die Unternehmen individuell durchführen müssen. Zur Orientierung dienen die Anhänge I und III des AI Acts.

Dies bedeutet, dass Unternehmen präventiv eine Einschätzung der eigenen Anwendungen hinsichtlich ihres Risikopotenzials durchführen sollten, um frühzeitig etwaige Anforderungen an Hochrisiko-KI-Systeme zu erkennen. Diese Risikoanalyse ermöglicht eine gezielte Vorbereitung auf die entsprechenden Melde- und Informationspflichten.

Inkrafttreten und Umsetzungsfristen des AI Acts

Der AI Act ist am 1. August 2024 offiziell in Kraft getreten, wobei die konkreten Anforderungen gestaffelt Geltung erlangen. Für allgemeine KI-Modelle gelten die neuen Bestimmungen ab dem 2. August 2025, während die strikten Regeln für Hochrisiko-KI erst ab dem 2. August 2026 greifen. Unternehmen haben also spezifische Fristen, um die Einhaltung der neuen Vorschriften sicherzustellen.

Fazit: Verwendung von LLama 3.1 in der EU unter spezifischen Auflagen möglich

Die Nutzung von LLama 3.1 in der EU ist für Unternehmen in nicht-hochriskanten Anwendungen grundsätzlich rechtskonform möglich, ggf. sind jedoch Transparenzpflichten aus dem AI Act zu erfüllen. Die urheberrechtlichen Herausforderungen beziehen sich primär auf das Training und die Datenverarbeitung durch den Entwickler Meta, nicht auf den Einsatz der (unveränderten) Modelle.

Der AI Act sieht klare Anforderungen an Anbieter und Betreiber von KI-Modellen bzw. KI-Systemen vor, die insbesondere Hochrisiko-KI und KI-Modelle mit allgemeinem Verwendungszweck betreffen. Für generative KI-Systeme gelten allerdings einige Transparenz- bzw. Kennzeichnungspflichten. Unternehmen sollten daher LLama 3.1 für allgemeine Zwecke grundsätzlich bedenkenlos einsetzen können, wenn sie die spezifischen Transparenzpflichten und Fristen des AI Acts beachten und insbesondere im Falle von Hochrisiko-Anwendungen rechtzeitig eine genaue Analyse erfolgt.

Auf der Warteliste eintragen

Mit der Anmeldung erklären Sie sich mit den Datenschutzbestimmungen einverstanden.

Cookie Consent mit Real Cookie Banner