Berlin, 05. Dezember 2023 - Die Trilog-Verhandlungen über den AI Act stehen vor dem Abschluss. Morgen kommen die Beteiligten zu entscheidenden Gesprächen zusammen, um einen Kompromiss zum EU AI Act zu finden, mit dem die Entwicklung und Anwendung von Künstlicher Intelligenz in Europa reguliert werden soll. Dazu erklärt Bitkom-Präsident Dr. Ralf Wintergerst:
„Europa steht bei Künstlicher Intelligenz vor einer Weichenstellung, die enorme Bedeutung für Gesellschaft und Wirtschaft haben wird. Der EU AI Act wird den rechtlichen Rahmen für die Nutzung und Entwicklung von KI-Technologien in Europa umfassend definieren und entscheidet darüber, wie KI in Europa künftig genutzt werden kann – aber auch wie und ob Unternehmen KI in Europa entwickeln können. Der AI Act kann durch ethische Standards und Sicherheits-Vorgaben dazu beitragen, das notwendige Vertrauen in und die Akzeptanz von KI-Systemen zu schaffen. Das erklärte Ziel des AI Act, Innovationen zu fördern, darf dabei kein Lippenbekenntnis bleiben. Die Vorschriften müssen flexibel und praxistauglich gestaltet werden, um die dynamische Entwicklung der KI-Technologie nicht zu ersticken, bevor sie richtig begonnen hat.
Eine entscheidende Frage dabei ist, ob und wie der AI Act mit KI-Modellen, also Foundation Models oder General Purpose AI Models, umgeht. Deren strikte und starre Regulierung wäre doppelt problematisch. Erstens können Anbieter die vielfältigen Verwendungszwecke ihrer Modelle nicht vorhersehen, was eine effektive Risikobewertung und -minderung unmöglich macht. Zweitens sind die technischen Entwicklungen gerade auf der Ebene der Modelle rasant, so dass feste Regeln im AI Act schnell überholt wären. Der bessere Weg liegt im Kompromissvorschlag von Deutschland, Frankreich und Italien. Der sieht vor, dass gemeinsam mit den Modell-Entwicklern möglichst viele der Anforderungen in einer verpflichtenden Selbstregulierung festgeschrieben werden. Diese kann sowohl praktisch umsetzbar als auch an die technischen Entwicklungen dynamisch anpassbar sein. Dabei bedeutet verpflichtende Selbstregulierung gerade nicht, dass es keine Regeln gibt. Vielmehr geht es darum, dass die beteiligten Akteure – Unternehmen, Forschungseinrichtungen, Entwickler, Verbände, Zivilgesellschaft – gemeinsam Standards und Richtlinien entwickeln. Diese können sehr konkret sein und zum Beispiel technische Dokumentationen, ethische Grundsätze oder Sicherheitsstandards umfassen, ohne aber Gefahr zu laufen, unnötige Hürden durch zu starre Regeln aufzubauen, die Europa von der KI-Entwicklung und -Nutzung abkoppeln oder ausschließen.“