Am 8. Dezember 2023 erzielten das Europäische Parlament, die Europäische Kommission und der Rat der EU eine wichtige politische Einigung über die Regulierung von KI. Eine Analyse des inoffiziellen endgültigen Entwurfs folgt in Kürze, doch in der Zwischenzeit ist es hilfreich, die wichtigsten Entwicklungen festzuhalten.
In erster Linie ging es um die Frage, ob die Technologie hinter KI-Systemen wie ChatGPT oder nur ihre Anwendungen reguliert werden sollten. Der Widerstand Deutschlands, Frankreichs und Italiens gegen die Regulierung von KI-Modellen für allgemeine Zwecke (KIAZ) setzte sich nicht durch, und der Vorschlag des Parlaments wurde, wie bereits erwähnt, weitgehend akzeptiert, wenn auch in weniger strenger Form.
Die Notwendigkeit einer Regulierung auf der Ebene der Technologie
Das Parlament hat erkannt, wie wichtig die Regulierung der KI-Technologie ist, insbesondere angesichts des wachsenden Einflusses der generativen KI. Es ist von entscheidender Bedeutung, die der KI innewohnenden Risiken in den Griff zu bekommen. In diesem Zusammenhang ist es notwendig, ein Gleichgewicht zwischen der Förderung der Innovation und der Gewährleistung einer verantwortungsvollen Nutzung zu finden.
Eine Sorge ist, dass große Sprachmodelle (LLMs) Fähigkeiten entwickelt haben, die von ihren Entwicklern nicht vorhergesehen wurden. Die Regulierung von KI-Anwendungen allein kann das gesamte Ausmaß des potenziellen Schadens nicht abdecken. Das EU KI-Gesetz konzentriert sich zu Recht auf KIAZ-Modelle mit systemischem Risiko und legt den Schwerpunkt auf Transparenz und Risikominderung.
Das Risiko der Selbstregulierung
Einige argumentieren, dass KI-Unternehmen bereits ähnliche Maßnahmen ergreifen, wie sie im KI-Gesetz vorgeschlagen werden. Siehe z. B. die umfangreichen Forschungspapiere, die die Veröffentlichung von Llama 2 oder GPT-4 begleitet haben. Sich allein auf die Selbstregulierung zu verlassen, ist jedoch nicht ausreichend. Unternehmen können wichtige Informationen zurückhalten, wie das Beispiel von Meta und OpenAI zeigt, die ihre Trainingsdaten nicht offenlegen. Gewinnorientierte Anreize führen oft dazu, dass Unternehmen ihren Interessen Vorrang vor dem gesellschaftlichen Wohlbefinden einräumen.
Sanktionen mit spürbaren Auswirkungen auf den Gewinn eines Unternehmens sind notwendig, um die Einhaltung von Vorschriften zu gewährleisten. Selbst die strengsten Vorschriften verlieren an Wirksamkeit, wenn es den Unternehmen freisteht, ihre Modelle nach Belieben als Open Source zu veröffentlichen.
Das verbleibende Problem des Open Sourcing
Selbst eine strenge Regulierung kann unterlaufen werden, wenn sich Unternehmen dafür entscheiden, ihre Modelle ohne angemessene Sicherheitsvorkehrungen zu veröffentlichen. Eine staatliche Aufsicht über die Freigabe von risikoreichen KI-Modellen und deren Quellcode ist unerlässlich, um Missbrauch zu verhindern. Hier ist ein Auszug aus „Llama 2: Open Foundation and Fine-Tuned Chat Models“, dem Forschungspapier, das Meta zusammen mit der Freigabe seiner Modelle veröffentlicht hat:
Schlussfolgerung
Die Bedeutung des Abkommens liegt darin, dass es die Notwendigkeit anerkennt, KIAZ-Modelle zu regulieren und Transparenz in den Bereichen Cybersicherheit, Energieverbrauch und Risikobewertung zu gewährleisten. Die EU strebt ein Gleichgewicht zwischen Innovation und dem Schutz der Gesellschaft vor Schaden an. Hier finden Sie unseren Artikel über den endgültigen Gesetzesentwurfstext.