Gewährleistungsrecht bei KI-Systemen: Worauf Unternehmen achten sollten

Unternehmen, die ihre Prozesse optimieren, Entscheidungen fundierter treffen oder innovative Geschäftsmodelle entwickeln wollen, setzen bekanntlich zunehmend auf KI-Systeme. Doch mit den technologischen Chancen gehen auch erhebliche rechtliche Herausforderungen einher, insbesondere im Hinblick auf das Gewährleistungsrecht. Wer ein KI-System für sein Unternehmen erwerben oder auf Plattformen wie Azure oder AWS ein eigenes neuronales Netz trainieren möchte, sollte die rechtlichen Rahmenbedingungen sorgfältig prüfen.

Gewährleistungsrecht bei KI-Systemen: Worauf Unternehmen achten sollten weiterlesen

Datenschutz und Künstliche Intelligenz

Künstliche Intelligenz (KI) ist überall – vor allem in Unternehmen. Angefangen von der Rechtschreibprüfung bis hin zu selbstlernenden Systemen, die gerade in großen Unternehmen die Kundenkorrespondenz vereinfachen sollen. Doch genau hier geht es los: Das Datenschutzrecht ist sofort bei KI in Unternehmen betroffen. Zwei zentrale Dokumente beleuchten diese Thematik umfassend, wenn auch natürlich nicht verbindlich: die jüngst von der Europäischen Datenschutzbehörde (EDPB) veröffentlichte Stellungnahme 28/2024 und die Orientierungshilfe „KI und Datenschutz“ der Datenschutzkonferenz (DSK). Gemeinsam liefern sie wertvolle Einblicke für Softwareentwickler und das Management von Unternehmen.

Beide Dokumente ergänzen sich in ihrer Zielsetzung. Während die EDPB tiefgehende rechtliche Analysen und abstrakte Prinzipien bietet, liefert die DSK praxisnahe Leitlinien zur konkreten Umsetzung. Gemeinsam verdeutlichen sie die Notwendigkeit eines ganzheitlichen Ansatzes, der technische, organisatorische und rechtliche Aspekte gleichermaßen berücksichtigt Softwareentwickler sollten vor allem die technischen Empfehlungen beider Dokumente beachten, etwa zur Minimierung von Identifikationsrisiken und zur Gestaltung transparenter Systeme.

Datenschutz und Künstliche Intelligenz weiterlesen

Künstliche Intelligenz und Vertragsrecht

Der Einsatz von Künstlicher Intelligenz (KI) ist eine der treibenden Kräfte der digitalen Transformation und ist in jedem größeren Unternehmen ein Thema. Doch wie so oft bei Technik geht es auch hier schnell nach dem Prinzip „erst mal machen“, vor allem weil man den Anschluss nicht verlieren möchte – da werden grundlegende Fragen zum Vertragsrecht schnell aus dem Blick verloren. Im Folgenden geht es um die wichtigsten vertraglichen Herausforderungen mit dem Versuch praxisorientierter Impulse für Softwareentwickler und das Management.

Künstliche Intelligenz und Vertragsrecht weiterlesen

Herausforderungen bei der Entwicklung von KI-Systemen: Juristische Fallstricke für Softwareentwickler

In der heutigen digitalen Welt sind künstliche Intelligenz (KI) und maschinelles Lernen mehr als nur Schlagworte – sie sind technologische Treiber, die in vielen Branchen transformative Auswirkungen haben. Für Softwareentwickler, die an der Spitze dieser Bewegung stehen, eröffnen sich neue Möglichkeiten, aber auch komplexe Herausforderungen.

Besonders juristische Fallstricke können den Entwicklungsprozess erschweren und rechtliche Konsequenzen nach sich ziehen. In diesem Artikel werfen wir einen Blick auf die zentralen Probleme und Unwägbarkeiten, die sich bei der Programmierung von KI-Systemen aus rechtlicher Sicht ergeben.

Herausforderungen bei der Entwicklung von KI-Systemen: Juristische Fallstricke für Softwareentwickler weiterlesen

Aktuelle Hinweise zur Gestaltung „sicherer“ Software

Leitfaden zur Vermeidung von Sicherheitslücken: Sicherheitsvorfälle sind oft das Resultat komplexer Wechselwirkungen zwischen Technologie, Prozessen und menschlichen Entscheidungen.

Um dem entgegenzuwirken, ist es entscheidend, dass Softwarehersteller Sicherheit von Beginn an in ihre Entwicklungsprozesse integrieren. In diesem Beitrag werden die Best Practices und die Schritte beleuchtet, die zur sicheren Softwareentwicklung und -bereitstellung beitragen, wobei Grundlage zwei CISA-Dokumente sind.

Aktuelle Hinweise zur Gestaltung „sicherer“ Software weiterlesen

Rückzug aus der Cloud: Kosten, Herausforderungen und rechtliche Aspekte der Re-Migration

Die Cloud wurde über Jahre als Lösung für viele IT-Probleme vermarktet: flexible Skalierbarkeit, niedrigere Kosten und geringere Betriebskosten im Vergleich zu traditionellen, lokalen Serverstrukturen. Viele Unternehmen springen auf diesen Zug auf – doch mittlerweile zeichnet sich ein gegenteiliger Trend ab. Unternehmen migrieren Teile ihrer Workloads zurück in On-Premises- oder Private-Cloud-Lösungen. Doch warum entscheiden sich Unternehmen für diesen Schritt, und welche rechtlichen Hürden ergeben sich dabei?

Rückzug aus der Cloud: Kosten, Herausforderungen und rechtliche Aspekte der Re-Migration weiterlesen

Blog-Beitrag: Open Source AI Definition 1.0 – Ein Standard gegen „Open-Washing“

Die kürzlich von der Open Source Initiative (OSI) veröffentlichte „Open Source AI Definition 1.0“ (OSAID) sorgt für klare Regeln im Bereich der „Open Source AI“. Die Definition gibt erstmals eine klare Orientierung, welche Anforderungen ein KI-System erfüllen muss, um als wirklich „offen“ zu gelten – also insbesondere transparent, modifizierbar und zugänglich für die Öffentlichkeit. Ich habe in meinem Blog zum Softwarerecht dazu ein paar Zeilen geschrieben:

Hintergrund: Die OSAID fordert in der nun vorgestellten Definition, dass eine Open Source KI sowohl in ihrer Nutzung, ihrer Funktionsweise und Modifizierbarkeit als auch in der Weitergabe offengelegt wird. Diese Offenheit setzt eine detaillierte Bereitstellung von Dateninformationen, Quellcode und Parametern voraus, sodass Fachleute die Modelle nachvollziehen und verändern können. Diese Definition ist ein wichtiger Schritt, doch bereits jetzt mehren sich auch kritische Stimmen.

Der Grund? Viele große KI-Anbieter, darunter Meta oder Elon Musks Grok, vermarkten ihre Systeme zwar als „open“, ohne jedoch allen Anforderungen an Transparenz und Zugang zu genügen. Hier spricht man von „Open-Washing“ – dem Marketing mit vermeintlicher Offenheit, während hinter den Kulissen Zugänge beschränkt bleiben. Dies erinnert an bekannte Formen des „KI-Washing“ und könnte langfristig den Wettbewerb verzerren. Ein spannender Aspekt dabei ist, wie die Definition auf urheberrechtliche Fragen wirkt: Urheberrechtlich geschützte Trainingsdaten und fehlende Klarheit über deren Nutzung sorgen schon jetzt für Konflikte, die durch die OSAID nur noch präsenter werden dürften.

Mein kurzer Beitrag zur „Open Source AI Definition 1.0“ wendet sich an alle, die sich im Bereich KI und Open Source engagieren oder sich über die neue Definition und ihre kritische Bewertung informieren wollen. Das Ganze ist am Ende von juristischer Bedeutung, denn im Kern können Verstöße im KI-Washing letztlich im Grunde auch wettbewerbsrechtlich verfolgt werden.

Bedrohung durch Malla-Dienste wie WormGPT: Automatisierung von Cyberkriminalität durch Generative KI

Die Geschwindigkeit, mit der sich KI-Lösungen – speziell bei den großangelegten Sprachmodellen – entwickeln, hat natürlich auch die Einsatzmöglichkeiten für Cyberkriminalität drastisch erweitert. Ein Beispiel hierfür ist „WormGPT“, ein KI-Tool, das speziell auf die Anforderungen der kriminellen Nutzung zugeschnitten ist und in einschlägigen Foren auf großes Interesse stößt. WormGPT hat sich insbesondere in der Unterstützung von „Business Email Compromise“ (BEC)-Angriffen und Phishing-Attacken bewährt, indem es täuschend echte und überzeugende E-Mails erzeugt, die häufig sogar erfahrene Nutzer täuschen können.

WormGPT ist dabei nur ein Beispiel für die neuesten Erkenntnisse zur Nutzung von Large Language Models (LLMs) im Bereich der Cyberkriminalität. Insbesondere die Rolle der sogenannten „Malla“-Dienste (Malicious LLM Applications) wirft Fragen auf: Eine aktuelle Untersuchung zeigt, dass Cyberkriminelle vermehrt auf „unzensierte“ und frei zugängliche Sprachmodelle zurückgreifen, um diese für bösartige Dienste zu missbrauchen. Die beliebtesten Systeme im Untergrund sind dabei unter anderem OpenAI-Modelle wie GPT-3.5-turbo sowie Open-Source-Modelle wie Luna AI Llama2 Uncensored und Pygmalion-13B

Bedrohung durch Malla-Dienste wie WormGPT: Automatisierung von Cyberkriminalität durch Generative KI weiterlesen

Lokale KI-Lösungen als starke Nischenprodukte?

Im aktuellen Spiegel-Artikel „Microsoft: Wie der Tech-Konzern so mächtig wurde – und noch mächtiger wird“ wird die immense Macht und Dominanz von Microsoft in der modernen digitalen Welt und die weitreichende Abhängigkeit beleuchtet, die sowohl Unternehmen als auch Staaten von den Technologien des Tech-Giganten haben. Der Artikel zeigt auf, dass Microsoft, einst durch Windows und Office bekannt, heute mit seiner Cloud-Plattform und KI-Lösungen tief in vielen Lebensbereichen verankert ist – von Schulen über Behörden bis hin zur Landwirtschaft.

Lokale KI-Lösungen als starke Nischenprodukte? weiterlesen

Bußgelder im AI-Act: Ein Überblick über das Sanktionsregime der KI-VO

Der AI-Act oder auch die KI-VO, die neue Verordnung der Europäischen Union zur Regulierung von Künstlicher Intelligenz, sieht strenge Regelungen vor, die den sicheren und ethischen Einsatz von KI-Systemen gewährleisten sollen. Ein zentrales Element dieser Verordnung sind die hohen Bußgelder, die bei Verstößen gegen die Vorschriften drohen. Doch wie genau sieht das Sanktionsregime in der Praxis aus, und welche zusätzlichen Maßnahmen können Mitgliedstaaten ergreifen?

Bußgelder im AI-Act: Ein Überblick über das Sanktionsregime der KI-VO weiterlesen