Unternehmen, die ihre Prozesse optimieren, Entscheidungen fundierter treffen oder innovative Geschäftsmodelle entwickeln wollen, setzen bekanntlich zunehmend auf KI-Systeme. Doch mit den technologischen Chancen gehen auch erhebliche rechtliche Herausforderungen einher, insbesondere im Hinblick auf das Gewährleistungsrecht. Wer ein KI-System für sein Unternehmen erwerben oder auf Plattformen wie Azure oder AWS ein eigenes neuronales Netz trainieren möchte, sollte die rechtlichen Rahmenbedingungen sorgfältig prüfen.
Gewährleistungsrecht bei KI-Systemen: Worauf Unternehmen achten sollten weiterlesenKategorie: Künstliche Intelligenz
Datenschutz und Künstliche Intelligenz
Künstliche Intelligenz (KI) ist überall – vor allem in Unternehmen. Angefangen von der Rechtschreibprüfung bis hin zu selbstlernenden Systemen, die gerade in großen Unternehmen die Kundenkorrespondenz vereinfachen sollen. Doch genau hier geht es los: Das Datenschutzrecht ist sofort bei KI in Unternehmen betroffen. Zwei zentrale Dokumente beleuchten diese Thematik umfassend, wenn auch natürlich nicht verbindlich: die jüngst von der Europäischen Datenschutzbehörde (EDPB) veröffentlichte Stellungnahme 28/2024 und die Orientierungshilfe „KI und Datenschutz“ der Datenschutzkonferenz (DSK). Gemeinsam liefern sie wertvolle Einblicke für Softwareentwickler und das Management von Unternehmen.
Beide Dokumente ergänzen sich in ihrer Zielsetzung. Während die EDPB tiefgehende rechtliche Analysen und abstrakte Prinzipien bietet, liefert die DSK praxisnahe Leitlinien zur konkreten Umsetzung. Gemeinsam verdeutlichen sie die Notwendigkeit eines ganzheitlichen Ansatzes, der technische, organisatorische und rechtliche Aspekte gleichermaßen berücksichtigt Softwareentwickler sollten vor allem die technischen Empfehlungen beider Dokumente beachten, etwa zur Minimierung von Identifikationsrisiken und zur Gestaltung transparenter Systeme.
Datenschutz und Künstliche Intelligenz weiterlesenKünstliche Intelligenz und Vertragsrecht
Der Einsatz von Künstlicher Intelligenz (KI) ist eine der treibenden Kräfte der digitalen Transformation und ist in jedem größeren Unternehmen ein Thema. Doch wie so oft bei Technik geht es auch hier schnell nach dem Prinzip „erst mal machen“, vor allem weil man den Anschluss nicht verlieren möchte – da werden grundlegende Fragen zum Vertragsrecht schnell aus dem Blick verloren. Im Folgenden geht es um die wichtigsten vertraglichen Herausforderungen mit dem Versuch praxisorientierter Impulse für Softwareentwickler und das Management.
Künstliche Intelligenz und Vertragsrecht weiterlesenHerausforderungen bei der Entwicklung von KI-Systemen: Juristische Fallstricke für Softwareentwickler
In der heutigen digitalen Welt sind künstliche Intelligenz (KI) und maschinelles Lernen mehr als nur Schlagworte – sie sind technologische Treiber, die in vielen Branchen transformative Auswirkungen haben. Für Softwareentwickler, die an der Spitze dieser Bewegung stehen, eröffnen sich neue Möglichkeiten, aber auch komplexe Herausforderungen.
Besonders juristische Fallstricke können den Entwicklungsprozess erschweren und rechtliche Konsequenzen nach sich ziehen. In diesem Artikel werfen wir einen Blick auf die zentralen Probleme und Unwägbarkeiten, die sich bei der Programmierung von KI-Systemen aus rechtlicher Sicht ergeben.
Herausforderungen bei der Entwicklung von KI-Systemen: Juristische Fallstricke für Softwareentwickler weiterlesenHaftung für KI-generierte Texte
Die Entscheidung des Landgerichts Kiel vom 29. Februar 2024 (Az. 6 O 151/23) ist eine Auseinandersetzung mit der Frage, inwieweit Betreiber von KI-gestützten Systemen für Fehler und Falschinformationen haften, die durch automatisierte Prozesse entstehen. Die Klägerin, ein mittelständisches Unternehmen, wehrte sich erfolgreich gegen die Verbreitung falscher Informationen über ihre angebliche Löschung wegen Vermögenslosigkeit.
Haftung für KI-generierte Texte weiterlesenChinesische Forscher entwickeln militärischen Chatbot mit Open-Source-KI
In einem aufsehenerregenden Schritt haben chinesische Forscher kürzlich ein KI-System namens „ChatBIT“ auf Basis von Metas Llama 2-Modell für militärische Anwendungen entwickelt. Die Arbeit, im Juni 2024 veröffentlicht, beschreibt detailliert die Anpassung des Llama 2 13B-Modells für Aufgaben wie die Sammlung und Verarbeitung von Informationen sowie die Unterstützung in operativen Entscheidungsprozessen. Diese KI-Entwicklung, die auf einem öffentlich zugänglichen Modell basiert, wird zurzeit kontrovers diskutiert und wirft zentrale Fragen zur militärischen Nutzung von Open-Source-KI auf.
Chinesische Forscher entwickeln militärischen Chatbot mit Open-Source-KI weiterlesenBlog-Beitrag: Open Source AI Definition 1.0 – Ein Standard gegen „Open-Washing“
Die kürzlich von der Open Source Initiative (OSI) veröffentlichte „Open Source AI Definition 1.0“ (OSAID) sorgt für klare Regeln im Bereich der „Open Source AI“. Die Definition gibt erstmals eine klare Orientierung, welche Anforderungen ein KI-System erfüllen muss, um als wirklich „offen“ zu gelten – also insbesondere transparent, modifizierbar und zugänglich für die Öffentlichkeit. Ich habe in meinem Blog zum Softwarerecht dazu ein paar Zeilen geschrieben:
Hintergrund: Die OSAID fordert in der nun vorgestellten Definition, dass eine Open Source KI sowohl in ihrer Nutzung, ihrer Funktionsweise und Modifizierbarkeit als auch in der Weitergabe offengelegt wird. Diese Offenheit setzt eine detaillierte Bereitstellung von Dateninformationen, Quellcode und Parametern voraus, sodass Fachleute die Modelle nachvollziehen und verändern können. Diese Definition ist ein wichtiger Schritt, doch bereits jetzt mehren sich auch kritische Stimmen.
Der Grund? Viele große KI-Anbieter, darunter Meta oder Elon Musks Grok, vermarkten ihre Systeme zwar als „open“, ohne jedoch allen Anforderungen an Transparenz und Zugang zu genügen. Hier spricht man von „Open-Washing“ – dem Marketing mit vermeintlicher Offenheit, während hinter den Kulissen Zugänge beschränkt bleiben. Dies erinnert an bekannte Formen des „KI-Washing“ und könnte langfristig den Wettbewerb verzerren. Ein spannender Aspekt dabei ist, wie die Definition auf urheberrechtliche Fragen wirkt: Urheberrechtlich geschützte Trainingsdaten und fehlende Klarheit über deren Nutzung sorgen schon jetzt für Konflikte, die durch die OSAID nur noch präsenter werden dürften.
Mein kurzer Beitrag zur „Open Source AI Definition 1.0“ wendet sich an alle, die sich im Bereich KI und Open Source engagieren oder sich über die neue Definition und ihre kritische Bewertung informieren wollen. Das Ganze ist am Ende von juristischer Bedeutung, denn im Kern können Verstöße im KI-Washing letztlich im Grunde auch wettbewerbsrechtlich verfolgt werden.
Open Source AI Definition 1.0
Endlich eine Definition für Opensource-KI („Open Source AI“): Fragen der Transparenz, Sicherheit und Zugänglichkeit spielen im Bereich KI eine zentrale Rolle. Mit der nun erfolgten Veröffentlichung der „Open Source AI Definition 1.0“ (OSAID) durch die Open Source Initiative (OSI) wurde ein wichtiger Schritt unternommen, um den offenen Zugang zu KI-Systemen zu fördern und festzulegen, welche Anforderungen an eine als „Open Source“ geltende KI zu stellen sind. Diese Definition bietet erstmals eine klare Orientierung für die Entwicklung und Nutzung offener KI und schafft Rahmenbedingungen, die sicherstellen sollen, dass KI-Systeme transparent, modifizierbar und für alle nutzbar sind.
Open Source AI Definition 1.0 weiterlesenBedrohung durch Malla-Dienste wie WormGPT: Automatisierung von Cyberkriminalität durch Generative KI
Die Geschwindigkeit, mit der sich KI-Lösungen – speziell bei den großangelegten Sprachmodellen – entwickeln, hat natürlich auch die Einsatzmöglichkeiten für Cyberkriminalität drastisch erweitert. Ein Beispiel hierfür ist „WormGPT“, ein KI-Tool, das speziell auf die Anforderungen der kriminellen Nutzung zugeschnitten ist und in einschlägigen Foren auf großes Interesse stößt. WormGPT hat sich insbesondere in der Unterstützung von „Business Email Compromise“ (BEC)-Angriffen und Phishing-Attacken bewährt, indem es täuschend echte und überzeugende E-Mails erzeugt, die häufig sogar erfahrene Nutzer täuschen können.
WormGPT ist dabei nur ein Beispiel für die neuesten Erkenntnisse zur Nutzung von Large Language Models (LLMs) im Bereich der Cyberkriminalität. Insbesondere die Rolle der sogenannten „Malla“-Dienste (Malicious LLM Applications) wirft Fragen auf: Eine aktuelle Untersuchung zeigt, dass Cyberkriminelle vermehrt auf „unzensierte“ und frei zugängliche Sprachmodelle zurückgreifen, um diese für bösartige Dienste zu missbrauchen. Die beliebtesten Systeme im Untergrund sind dabei unter anderem OpenAI-Modelle wie GPT-3.5-turbo sowie Open-Source-Modelle wie Luna AI Llama2 Uncensored und Pygmalion-13B
Bedrohung durch Malla-Dienste wie WormGPT: Automatisierung von Cyberkriminalität durch Generative KI weiterlesenUrheberrechtliche Relevanz der Aufnahme eines Fotos in einen KI-Trainingsdatensatz
Ein aktuelles Urteil des Landgerichts Hamburg (LG Hamburg, Urteil vom 27.09.2024 – 310 O 227/23) beschäftigt sich mit einer urheberrechtlichen Streitigkeit im Kontext der Nutzung eines Bildes in einem für das Training von Künstlicher Intelligenz (KI) erstellten Datensatz.
Es gilt: Die Aufnahme eines urheberrechtlich geschützten Fotos in einen Trainingsdatensatz für KI-Systeme stellt eine Vervielfältigung dar und benötigt daher grundsätzlich die Zustimmung des Urhebers
Urheberrechtliche Relevanz der Aufnahme eines Fotos in einen KI-Trainingsdatensatz weiterlesen