Dass andere Unternehmen bestimmte Services nutzen, ist kein Argument, dass wir als berufsrechtlich (insbesondere PAO) und datenschutzrechtrechtlich besonders verpflichtete Berufsträger das auch dürften.
Der Threadersteller hatte nach den genutzten (oder auch überhaupt nutzbaren) KI-Lösungen gefragt. Und da bleibe ich bei der Empfehlung lokale KI-Lösungen zu nutzen und für konkrete Mandantenarbeit keine ausländischen Cloud-KI-Lösungen zu verwenden.
Meine Empfehlung lautet weiterhin und umso mehr für die nahe Zukunft, in der immer noch leistungsfähigere open-weight-Modelle sowie leistungsstarke Rechner zur lokalen KI-Verarbeitung zur Verfügung stehen, unbedingt lokale KI für die konkrete Mandantenarbeit zu verwenden. Dies betrifft ganz besonders Cloud-KI von US-Anbietern oder von Töchtern von US-Anbietern, selbst wenn sie EU-Residency anbieten.
Die DSGVO ist fast immer einschlägig, sobald Mandantenunterlagen verwendet werden, bspw. in denen der Name oder andere persönliche Daten eines Erfinders auftaucht.
Besonders problematisch sehe ich aber vor allem das Berufsrecht (39c PAO zB) Abs. 1 39c PAO fordert Erforderlichkeit des Dienstleisters, diese ist m. E. sehr eng auszulegen, seit dem Aufkommen real funktionierender lokaler Lösungen (insb. auch Hardware, aber auch leistungsfähige, kommerziell nutzbare open weight LLMs) dürfte das nur noch schwer begründbar sein. Momentan könnte vielleicht noch argumentiert werden, dass noch nicht sooo viele direkt einsetzbare lokale Lösungen für Patentanwälte existieren, in spätestens einem oder zwei Jahren wird das aber definitiv anders sein und spätestens dann wird es m. E. keine zwingende Erforderlichkeit für ausländische Cloud-KI zur Bearbeitung von konkreten Mandantenakten mehr geben. Das ist auch übrigens ein Grund, weshalb wir in unserer Kanzlei selber eine solche lokale KI-Lösung entwickeln und diese werden wirklich gut funktionieren.
Auch müssen diverse, individuelle Verträge mit diesen internationalen Unternehmen geschlossen werden, was bei US-Unternehmen gelinde gesagt nicht einfach ist.
Im Hinblick auf Anthropics Mythos und automatisierter Detektion von Sicherheitslücken sowie zukünftigen ähnlichen KI-Systemen ist auch fraglich, ob überhaupt Cloud-Anbieter im Vergleich zu lokalen Lösungen einen rechtlich ausreichenden Hacking-Schutz bieten können. Das laute Schweigen von Microsoft und auch von KI-Cloudanbietern zu durch Mythos identifizierten Sicherheitslücken in ihren eigenen Systemen ist im Hinblick darauf, dass ausgerechnet Sicherheitslücken in einem relativ ausgefallenen Betriebssystem wie OpenBSD publiziert werden, schon fast selbstredend ...
Bei US-Unternehmen oder Unternehmen, die Töchter von US-Unternehmen sind, kommt rechtlich erschwerend noch der US Cloud Act hinzu, auch wenn die EU hierzu bestimmte erleichternde Aussagen trifft oder Ansichten vertritt. Denn es ist zunächst deutsches (Berufs-)Recht von uns einzuhalten, das durch eine Meinung eines EU-Vertreters auch nicht ausgehebelt werden kann. Und abgesehen vom Rechtlichen - wäre Dir wohl bei dem Gedanken, dass durch Dich sich eine fremde Regierung nach Belieben Zugriff auf High-Tec-Knowhow Deines Mandanten verschaffen kann (selbst wenn Dein Handeln rechtlich erlaubt wäre)
Fun fact: Ich hatte übrigens noch ChatGPT selbst gefragt unter Hinweis auf DSGVO, Berufsrecht und US Cloud Act und mit Hinweis auf die existierenden open weight Modelle und KI-Hardware, ob ein Einsatz von ChatGPT oder Microsoft-basierter KI für konkrete Mandantenarbeit denkbar wäre und es kommt im Prinzip zum gleichen kritischen Ergebnis.
Also: jetzt und vorallem in sehr naher Zukunft sollte m. E. lokale KI anstelle von Cloud-KI, v. a. von US-Anbietern oder deren Töchtern, genutzt werden.