BRW Badische Rechenwerke

Rechtsberatung / Kanzlei · 20-80 Mitarbeitende

KI in der Kanzlei: Mandantengeheimnis wahren, Kosten senken

Wie Anwaltskanzleien mit der BRW-B01 KI-Rechenstation Dokumentenanalyse, Due Diligence und Legal Research vollständig On-Premise betreiben, ohne Datenweitergabe an Cloud-Dienste.

Branche

Rechtsberatung / Kanzlei

Unternehmensgröße

20-80 Mitarbeitende

Workload

Dokumentenanalyse + RAG + Vertragsprüfung

Künstliche Intelligenz ist in juristischen Arbeitsabläufen längst keine Zukunftsvision mehr. Viele Kanzleien setzen bereits auf KI-gestützte Werkzeuge für Vertragsprüfung, Dokumentenanalyse und Recherche. Das Problem: Die meisten verfügbaren Dienste sind Cloud-basiert. Und Cloud-basiert bedeutet, dass mandantenbezogene Daten das eigene Netzwerk verlassen.

Für Anwälte ist das kein bloßes Datenschutzproblem. Es ist ein Berufsrechtsproblem.

§203 StGB und die BRAO: Kein Spielraum für Interpretation

Die anwaltliche Schweigepflicht ist in §203 StGB strafbewehrt. Wer unbefugt Geheimnisse offenbart, die ihm in seiner Eigenschaft als Rechtsanwalt anvertraut wurden, macht sich strafbar. Die BRAO konkretisiert dies in den Berufspflichten weiter. Beides gilt nicht nur für absichtliche Weitergaben, sondern auch für fahrlässige.

Wenn eine Kanzlei einen Vertrag, einen Schriftsatz oder auch nur einen kurzen Sachverhalt in ein Cloud-KI-System eingibt, findet technisch eine Übermittlung an einen Dritten statt. Der Anbieter mag Vertraulichkeit zusichern und einen Auftragsverarbeitungsvertrag anbieten. Das ändert an der grundsätzlichen Situation nichts: Die Daten verlassen die Infrastruktur der Kanzlei.

Ob das im Einzelfall strafbar ist, hängt von den konkreten Umständen ab. Aber das Risiko zu tragen, um ein Produktivitätswerkzeug zu nutzen, ist für eine seriöse Kanzlei keine akzeptable Abwägung.

On-Premise-Betrieb ist die einzige Lösung, die dieses Problem vollständig eliminiert. Die Daten liegen auf eigenen Servern, die Modelle laufen in der eigenen Infrastruktur, und nichts verlässt das Netzwerk.

DSGVO: Mehr als ein Formularproblem

Neben dem Berufsrecht kommt die Datenschutz-Grundverordnung ins Spiel. Mandantenakten enthalten personenbezogene Daten: Namen, Adressen, Geburtsdaten, wirtschaftliche Verhältnisse, gesundheitliche Informationen in erbrechtlichen oder familienrechtlichen Mandaten. Die Weitergabe an einen Cloud-Anbieter ist eine Datenübermittlung, die einer Rechtsgrundlage bedarf.

Bei US-amerikanischen Anbietern kommt hinzu, dass Drittlandübermittlungen in die USA nach dem Schrems-II-Urteil des EuGH erhöhte Anforderungen stellen. Standardvertragsklauseln reichen allein nicht aus. Das Transfer Impact Assessment muss nachweisen, dass das Schutzniveau im Drittland dem europäischen entspricht. Für Anwaltskanzleien, die ohnehin unter besonderer berufsrechtlicher Aufsicht stehen, ist dieser Aufwand unverhältnismäßig.

Ein On-Premise-System macht all das gegenstandslos. Es gibt keine Datenübertragung an Dritte, keinen Auftragsverarbeitungsvertrag mit einem US-Konzern, kein Drittland-Problem. Die Kanzlei bleibt alleinige Verantwortliche für die Verarbeitung. Das ist DSGVO in ihrer reinsten und sichersten Form.

Die Rechenstation: Was der BRW-B01 kann

Der BRW-B01 von Badische Rechenwerke ist ein 5U-Rackmount-Server mit vier NVIDIA RTX PRO 6000 Blackwell GPUs. Zusammen bringen diese GPUs 384 GB GDDR7 VRAM mit. Das ist kein Marketingversprechen, sondern eine Zahl, die für die Praxis des Kanzleibetriebs direkte Konsequenzen hat.

Auf der CPU-Seite arbeitet ein AMD EPYC Genoa mit 32 Kernen und 192 GB DDR5 ECC RAM. Als Speicher sind 4 TB NVMe im RAID-Verbund mit einer sequenziellen Leserate von 59,3 GB/s verbaut, dazu eine separate 1-TB-Boot-SSD. Das System läuft auf Ubuntu 24.04 LTS und ist für den Dauerbetrieb im Rechenzentrum oder im Technikraum der Kanzlei ausgelegt, gekühlt durch acht Lüfter.

Der Server wird in Baden-Baden gefertigt.

Warum 384 GB VRAM für Kanzleien entscheidend sind

Die meisten Argumente für On-Premise-KI drehen sich um Datenschutz. Das reicht aus, um die Entscheidung zu rechtfertigen. Aber es gibt einen zweiten, rein technischen Grund, warum ein System dieser Größenordnung für Kanzleien sinnvoll ist: Kontextlänge.

Große Sprachmodelle arbeiten mit sogenannten Kontextfenstern. Je größer das Fenster, desto mehr Text kann das Modell auf einmal verarbeiten. Ein 100-seitiger M&A-Vertrag hat etwa 40.000 bis 60.000 Token. Neuere Modelle unterstützen Kontextfenster von 128.000 Token und mehr. Aber: Je größer der Kontext, desto mehr VRAM wird benötigt.

Ein System mit 24 GB VRAM, wie es eine einzelne Prosumer-GPU bietet, kann ein solches Dokument nicht in einem Stück verarbeiten. Das Dokument muss zerhackt werden, Zusammenhänge gehen verloren, die Analyse wird fragmentiert. Mit 384 GB VRAM ist das kein Thema. Selbst sehr große Modelle mit sehr langen Kontexten passen vollständig in den Speicher.

Dazu kommt, dass in einer Kanzlei nicht nur eine Person und nicht nur eine Aufgabe gleichzeitig anfällt. Die M&A-Abteilung analysiert einen Vertrag, der Litigationsbereich sucht im Urteilsarchiv, die Assistenz fasst ein Protokoll zusammen. Mit 384 GB VRAM können mehrere Modelle parallel im Speicher gehalten werden: ein großes deutschsprachiges Hauptmodell, ein Embedding-Modell für die Vektorsuche, ein Klassifikationsmodell für die Dokumentensortierung. Jeder Bereich der Kanzlei arbeitet gleichzeitig, ohne zu warten.

Vertragsprüfung und -analyse

Ein Anwalt erhält einen 80-seitigen Lizenzvertrag mit englischem Ausgangstext. Statt ihn manuell zu lesen, lädt er ihn in das interne KI-System. Das Modell liefert eine strukturierte Zusammenfassung: Hauptverpflichtungen beider Parteien, kritische Klauseln, ungewöhnliche Regelungen, Fristen und Kündigungsrechte. Die eigentliche juristische Wertung obliegt weiterhin dem Anwalt. Aber die Vorarbeit, die früher Stunden kostete, dauert jetzt Minuten.

Das System ist vollständig intern. Der Vertragsinhalt, die Parteiennamen, die wirtschaftlichen Details: Nichts davon verlässt das Netzwerk der Kanzlei.

Due Diligence bei Unternehmenstransaktionen

Due-Diligence-Projekte erzeugen Tausende von Dokumenten: Jahresabschlüsse, Handelsregisterauszüge, Mietverträge, Arbeitsverträge, Genehmigungsbescheide. Ein Team aus Anwälten und Paralegals müsste diese Dokumente manuell sichten.

Mit einem RAG-System (Retrieval Augmented Generation) werden alle Dokumente in einen Vektorspeicher geladen. Das KI-Modell kann dann Fragen beantworten wie: “Gibt es Verträge mit Kündigungsrecht bei Kontrollwechsel?” oder “Welche Laufzeiten haben die Mietverträge der Betriebsstätten?” Das System durchsucht den gesamten Dokumentenstapel und liefert relevante Stellen mit Quellenangabe.

Die Geschwindigkeit, mit der ein Due-Diligence-Prozess abgewickelt werden kann, ist direkt wettbewerbsrelevant. Mandate werden auch danach vergeben, ob eine Kanzlei in der Lage ist, schnell zu liefern.

Viele Kanzleien haben über Jahre eigene Sammlungen von Urteilen, Gutachten und Stellungnahmen aufgebaut. Dieses Wissen ist oft schlecht erschlossen, weil es in Dateisystemen oder schlecht durchsuchbaren DMS-Systemen liegt.

Ein RAG-System über diesen Bestand macht ihn semantisch zugänglich. “Gibt es in unserer Sammlung Entscheidungen des OLG Karlsruhe zum Thema Mängelrügefristen im Werkvertragsrecht?” liefert in Sekunden relevante Dokumente, statt in stundenlangen Recherchen.

Das System lernt nicht aus den Daten im produktiven Betrieb. Die Dokumente werden indiziert, nicht zum Training verwendet. Das Modell bleibt unverändert. Nur die Suche wird intelligenter.

Schriftsatzvorbereitung und Zusammenfassungen

Lange Gerichtsurteile, mehrseitige Gutachten, umfangreiche Behördenbescheide: Der BRW-B01 kann diese Dokumente in strukturierte, gut lesbare Zusammenfassungen überführen. Für Mandantengespräche, für interne Briefings, für die schnelle Einarbeitung in ein neues Mandat.

Die Qualität ist nicht perfekt, und das ist auch nicht der Anspruch. Der Anspruch ist, dass ein erfahrener Anwalt in drei Minuten die relevanten Punkte eines 60-seitigen Dokuments kennt, statt in dreißig.

Mehrsprachige Korrespondenz

Kanzleien mit internationalen Mandaten erhalten Dokumente in Englisch, Französisch, Spanisch oder anderen Sprachen. Große Sprachmodelle sind in der Übersetzung gut, besser als viele Spezialdienste. Das Übersetzungsergebnis landet intern, nicht bei DeepL oder Google Translate.

Für besonders sensible Mandatsinhalte ist das ein echter Unterschied.

OpEx vs. CapEx: Die wirtschaftliche Seite

Cloud-KI-Dienste klingen günstig, bis man anfängt, sie zu rechnen. GPU-Kapazität in der Cloud kostet je nach Anbieter und Verfügbarkeit 8 bis 15 Euro pro GPU-Stunde. Wer vier GPUs für acht Stunden am Tag, 220 Tage im Jahr nutzt, kommt auf Kosten zwischen 56.000 und 106.000 Euro pro Jahr. Und das ist die Seite, die sich leicht berechnen lässt: die Rechenzeit. API-Kosten großer Modelle kommen obendrauf.

Der BRW-B01 kostet 75.000 € zzgl. MwSt. einmalig. Hardwarewartung, Strom und Netzwerk fallen an, aber diese Kosten sind überschaubar und planbar. Bei moderater Nutzung amortisiert sich die Anlage in 18 bis 30 Monaten. Danach trägt sie keinen laufenden Inferenzkostenberg mehr.

Für Kanzleien, die Wirtschaftlichkeit ihrer IT-Investitionen rechtfertigen müssen, ist das ein klares Argument. Ein einmaliger Kapitalaufwand, klar abgrenzbar, steuerlich als Wirtschaftsgut abschreibbar. Keine monatlichen Überraschungen je nach Nutzungsvolumen. Keine Preiserhöhungen des Cloud-Anbieters, keine Änderungen in den Nutzungsbedingungen, die plötzlich die Compliance-Lage verändern.

Integration in bestehende Kanzlei-Infrastruktur

Der BRW-B01 ist kein geschlossenes System. Er läuft auf Ubuntu 24.04 LTS und stellt über gängige Inference-Server wie Ollama oder vLLM eine OpenAI-kompatible REST-API bereit. Das bedeutet: Jede Anwendung, die mit der OpenAI-API kommunizieren kann, kann stattdessen gegen den eigenen Server gerichtet werden.

Dokumentenmanagementsysteme wie iManage, Doris oder ReNoStar lassen sich über Middleware oder eigene Skripte anbinden. n8n oder ähnliche Automatisierungsplattformen können Workflows aufbauen, die eingehende Dokumente automatisch kategorisieren, zusammenfassen und im DMS ablegen. Die Kanzlei entscheidet selbst, wie tief die Integration geht. Einstieg mit einem einfachen Chat-Interface über das interne Netzwerk ist genauso möglich wie eine vollautomatisierte Dokumentenpipeline.

Die Einrichtung erfordert technisches Know-how. Eine Kanzlei mit eigenem IT-Dienstleister oder einem technikaffinen Partner ist gut aufgestellt. Badische Rechenwerke kann bei der initialen Einrichtung unterstützen.

Was die BRW-B01 nicht ist

Klarheit ist wichtiger als Versprechen. Der BRW-B01 ist ein leistungsfähiger Inferenz-Server. Er ist kein vorkonfiguriertes Legal-Tech-Paket mit Klick-Oberfläche und automatischer Mandatsverwaltungsintegration.

Das Modell, das darauf läuft, muss ausgewählt und eingerichtet werden. Die RAG-Pipeline für den eigenen Dokumentenbestand muss aufgebaut werden. Die Schnittstellen zur bestehenden Kanzlei-Software müssen konfiguriert werden.

Das ist kein Ausschlusskriterium, sondern eine realistische Einschätzung des Aufwands. Kanzleien, die in der Lage sind, einen eigenen Server zu betreiben (oder die einen Dienstleister damit beauftragen), erhalten dafür eine Infrastruktur, die vollständig unter ihrer Kontrolle liegt.

Skalierung und Zukunftssicherheit

Das Hardware-Design des BRW-B01 ist nicht auf den aktuellen Stand der Modelle fixiert. Modelle werden schnell besser, und die Inferenzeffizienz verbessert sich ebenso. Was heute 70 GB VRAM für ein leistungsstarkes Modell benötigt, könnte in zwei Jahren mit 35 GB ähnliche Ergebnisse liefern.

Das bedeutet: Die Anlage wird mit der Zeit effektiver, nicht schwächer. Mehr Modelle parallel, größere Kontexte, schnellere Antworten. Das ist ein struktureller Vorteil von Hardware-Investitionen gegenüber Cloud-Diensten, die ihre eigene Preisgestaltung kontrollieren.

Empfehlung von Badische Rechenwerke

Für Kanzleien mit 20 bis 80 Mitarbeitenden, die ernsthaft in KI-gestützte Arbeitsabläufe investieren wollen, ist der BRW-B01 die einzig valide Option, die das Mandantengeheimnis nicht riskiert.

Der Markt für Cloud-KI-Dienste wird nicht verschwinden. Aber für Anwälte, die §203 StGB und die BRAO ernst nehmen, ist Cloud-KI für mandantenbezogene Daten schlicht kein gangbarer Weg. On-Premise ist nicht eine von mehreren Optionen, es ist die einzige.

Das Gesamtsystem ist ab 75.000 € zzgl. MwSt. erhältlich, gefertigt in Baden-Baden.

Kontakt aufnehmen

FAQ

Ist der Einsatz von Cloud-KI wie ChatGPT in einer Kanzlei erlaubt?

Nicht ohne erhebliche rechtliche Risiken. Sobald mandantenbezogene Daten in ein Cloud-Modell eingegeben werden, verlassen diese Daten das Netzwerk der Kanzlei. Das steht im direkten Konflikt mit der anwaltlichen Schweigepflicht nach §203 StGB und den Berufspflichten der BRAO. On-Premise-Betrieb löst dieses Problem vollständig.

Welche KI-Aufgaben kann die BRW-B01 in einer Kanzlei übernehmen?

Vertragsprüfung und -zusammenfassung, Analyse langer Schriftsätze und Gerichtsurteile, semantische Suche über den eigenen Aktenbestand per RAG, automatische Übersetzung fremdsprachiger Dokumente, Extraktion von Klauseln und Fristen, sowie die Unterstützung bei der Erstellung von Schriftsätzen. Mehrere Modelle können gleichzeitig laufen.

Wie unterscheidet sich der BRW-B01 von einer einfachen GPU-Workstation?

Die BRW-B01 ist ein 5U-Rackmount-Server mit 4 NVIDIA RTX PRO 6000 Blackwell-GPUs und insgesamt 384 GB GDDR7 VRAM. Das ermöglicht den gleichzeitigen Betrieb großer Sprachmodelle mit langen Kontextfenstern. 100-seitige Verträge werden als Ganzes verarbeitet, nicht in Chunks zerhackt. Eine Workstation mit einer GPU könnte diese Workloads nicht parallel abbilden.

Was kostet der Betrieb im Vergleich zu Cloud-KI-APIs?

Cloud-GPU-Kapazität kostet 8 bis 15 Euro pro GPU-Stunde. Bei vier GPUs und regelmäßigem Einsatz summiert sich das schnell auf mehrere Tausend Euro pro Monat. Der BRW-B01 kostet 75.000 Euro einmalig. Bei moderatem Betrieb amortisiert sich die Anlage in 18 bis 30 Monaten, danach fallen keine laufenden Inferenzkosten mehr an.

Welches Betriebssystem läuft auf dem BRW-B01?

Ubuntu 24.04 LTS. Der Server lässt sich über Standard-APIs (OpenAI-kompatible REST-Schnittstelle via Ollama oder vLLM) in bestehende Kanzlei-Software und Dokumentenmanagementsysteme integrieren.

Welche Modelle eignen sich besonders für den Kanzleibetrieb?

Modelle mit starker Deutschkompetenz wie Mistral-Varianten oder Llama 3 in feingetunten Versionen. Für Embeddings und RAG eignen sich multilingual-e5-large oder ähnliche Modelle. Der BRW-B01 hat genug VRAM, um ein großes Hauptmodell, ein Embedding-Modell und ein Klassifikationsmodell gleichzeitig zu halten.

Ist der BRW-B01 DSGVO-konform betreibbar?

Ja. Da alle Daten das eigene Netzwerk nie verlassen, gibt es keine Datenübertragung an Dritte. Es entfallen Fragen zu Standardvertragsklauseln, Drittlandübermittlungen oder Auftragsverarbeitungsverträgen mit US-Anbietern. Die Kanzlei bleibt alleiniger Verarbeiter der personenbezogenen Daten.

Welchen Support gibt es?

Der BRW-B01 wird von Badische Rechenwerke in Baden-Baden gefertigt und geliefert. Fragen zu Gewährleistung, Supportlevel und optionalen Wartungsverträgen klären Sie direkt über den Kontakt auf der Website.