Aus für TikTok in den USA – zumindest für wenige Stunden: Während in den USA weiterhin über ein mögliches Verbot von TikTok aufgrund nationaler Sicherheitsbedenken debattiert wird und die App kürzlich für wenige Stunden gesperrt war, rückt zunehmend auch andere chinesische Technologie in den Mittelpunkt der Aufmerksamkeit. Besonders im Fokus steht derzeit das neue LLM-Modell DeepSeek R1, das durch seine Leistungsfähigkeit und seinen Open-Source-Ansatz für Aufsehen sorgt. Doch neben den vielversprechenden Aspekten werden auch kritische Stimmen laut.
DeepSeek R1 ist ein sogenanntes „Reasoning“-Modell, das komplexe Probleme schrittweise löst und dabei in Benchmarks mit den führenden Systemen von Google (Gemini) und OpenAI (ChatGPT) vergleichbar ist. Besonders hervorzuheben sind zwei Aspekte:
- Hohe Effizienz: Während Meta für das Training seiner Llama-3-Modelle über 30,8 Millionen GPU-Stunden aufwenden musste, benötigte DeepSeek nach eigenen Angaben weniger als ein Zehntel dieser Rechenleistung.
- Open-Source-Ansatz: Im Gegensatz zu den proprietären Systemen von OpenAI oder Google wurde DeepSeek R1 unter der MIT-Lizenz veröffentlicht. Entwickler können das Modell somit frei nutzen, anpassen und auf eigenen Servern betreiben. Dies reduziert die Abhängigkeit von kostenpflichtigen Cloud-Diensten.
Durch diese Eigenschaften propagiert sich DeepSeek R1 als ernstzunehmende Alternative in der Welt der generativen KI. Die Kombination aus hoher Leistungsfähigkeit und Open-Source-Ansatz stellt das bisherige Geschäftsmodell westlicher Anbieter infrage.
Trotz der vielversprechenden Möglichkeiten dürfen die Herausforderungen nicht außer Acht gelassen werden. Zwei wesentliche Kritikpunkte stehen im Raum:
DeepSeek als chinesisches Unternehmen unterliegt den dortigen Zensurgesetzen. Tests verdeutlichten, dass das Modell beispielsweise keine Fragen zu politisch sensiblen Themen wie dem Tiananmen-Massaker beantwortet und Inhalte vermeidet, die als kritisch gegenüber der chinesischen Regierung interpretiert werden könnten. Diese Mechanismen lassen sich zwar (zum Teil) umgehen („LLM-Jailbreaking“), doch scheint dies für den normalen Nutzer nur schwer umsetzbar.
Auch aus europäischer Datenschutzsicht ergeben sich Bedenken: Gemäß dem chinesischen Datensicherheitsgesetz (Data Security Law, DSL) sind Unternehmen verpflichtet, Daten auf Anfrage der Regierung bereitzustellen. Das gilt unabhängig davon, ob die Server innerhalb oder außerhalb Chinas gehostet werden.
DeepSeek schreibt dazu in seiner Datenschutzerklärung:
„The personal information we collect from you may be stored on a server located outside of the country where you live. We store the information we collect in secure servers located in the People’s Republic of China.”
Da Nutzer standardmäßig über die Weboberfläche (API) mit dem Modell interagieren, werden die Eingaben an die Server des Anbieters übertragen, sodass der Nutzer jegliche Kontrolle über seine Daten verliert.
Ein rechtssicherer Einsatz über die API? Kaum möglich. Auch wenn diese Nutzung auf den ersten Blick als kosteneffiziente und wirtschaftlich attraktive Lösung erscheint, kann man sie nicht rechtssicher durchführen, sobald personenbezogene Daten ins Spiel kommen.
Eine Alternative, um diese Risiken zu minimieren, ist das lokale Hosting des Modells, etwa mit Tools wie Ollama. Damit behalten Unternehmen die volle Kontrolle über ihre Daten und müssen sich keine Sorgen um externe Server machen. Allerdings hat auch dieser Ansatz seinen Preis: Leistungsfähige Hardware ist Pflicht, besonders bei größeren Modellen.Ob DeepSeek R1 dabei tatsächlich den Vorteil einer geringeren Rechenleistung bietet, müssen die technischen Experten genau prüfen. Ein Vergleich mit etablierten Open-Source-Modellen wie Mistral oder Llama 3, die ebenfalls für den lokalen Betrieb optimiert sind, ist unerlässlich, um eine fundierte Entscheidung treffen zu können.
Wir werden im juristischen Bereich evaluieren, ob DeepSeek R1 eine echte Alternative beispielsweise zu den Reasoning-Modellen von ChatGPT sein kann. Die Herkunft der Trainingsdaten spielt eine große Rolle – sind die Antworten wirklich neutral und vollständig genug für professionelle Anwendungen? Kann DeepSeek R1 valide Aussagen basierend auf deutschem Recht treffen, obwohl es, soweit wir wissen, im Wesentlichen auf englische Inhalte ausgelegt ist? Aktuell ist das noch offen, wir vermuten hier jedoch ähnliche Schwächen, wie bei anderen Sprachmodellen, die nicht grundlegend mit deutschen Daten trainiert wurden.
Insgesamt scheint uns der Hype um das Modell aktuell noch nicht komplett gerechtfertigt. DeepSeek R1 mag aus technischer Sicht revolutionär sein, für die Nutzung im rechtlichen Kontext können wir u. a. aufgrund der chinesischen Zensur- und Datenschutzgesetze diese Vorteile nur bei eigenem Hosting nutzen. An der Stelle kommt dann die Frage auf, ob nicht die alternativen Modelle bei einem eigenen Hosting wiederum die Vorteile von etwaig besseren Trainingsdaten bieten und DeepSeek R1 nicht unbedingt die erste Wahl sein muss.
Wer das Modell nutzen möchte, sollte unbedingt eine sorgfältige rechtliche und technische Prüfung durchführen – nicht nur, um Compliance-Risiken zu vermeiden, sondern auch, um eine wirtschaftlich sinnvolle Entscheidung zu treffen. Wir werden das Modell näher testen und von unseren Ergebnissen berichten.
Einen generellen Überblick zu dem Thema KI und Datenschutz sowie Strategien für einen möglichst datenschutzkonformen Umgang mit LLMs finden Sie in unserem Artikel „Datenschutz vs. KI: Wie lassen sich moderne Technologien rechtssicher nutzen?“.