Published On: 10. September 2024Von

Bitkom-Umfrage: AI Act beschäftigt jedes vierte Unternehmen

Knapp ein Viertel der Unternehmen in Deutschland beschäftigen sich laut einer Umfrage des Bitkom schon mit dem AI Act. Doch ebenso viele haben noch gar nichts von der neuen europäischen KI-Regulierung gehört. Über die Folgen des AI Act ist die Wirtschaft gespalten.

AI Act regelt KI-Einsatz in Unternehmen

09-09-AI-Act

AI Act regelt KI-Einsatz in Unternehmen (Bild: Annette Stadler mit PIX L R)

AI Act betrifft zahlreiche Unternehmen

Seit Anfang August gilt der AI Act – Anwendung findet er voraussichtlich in zwei Jahren. Bisher haben sich in Deutschland allerdings erst rund ein Viertel (24 Prozent) der Unternehmen mit dem neuen EU-weiten Regulierungsrahmen für Künstliche Intelligenz beschäftigt. 21 Prozent befassen sich derzeit damit, nur 3 Prozent haben sich bereits intensiv mit dem AI Act beschäftigt. Weitere 29 Prozent beabsichtigen zumindest, sich mit ihm noch auseinanderzusetzen. Zugleich sagen aber 16 Prozent, dass sie sich mit dem AI Act auch künftig nicht beschäftigen werden – und rund jedes vierte Unternehmen (24 Prozent) hat noch nie von der lange diskutierten EU-Regelung gehört. Das sind Ergebnisse einer Befragung von 602 Unternehmen aller Branchen im Auftrag des Digitalverbands Bitkom. »Unternehmen sollten sich mit dem AI Act befassen – und zwar frühzeitig. Der AI Act gibt Regeln für Anbieter und Betreiber von KI-Systemen und -Modellen vor, darunter fallen auch alle Unternehmen, die ein KI-System nicht selbst entwickeln, sondern entwickeln lassen oder eine marktübliche Standard-KI einsetzen«, sagt Bitkom-Präsident Dr. Ralf Wintergerst. »KI wird in immer mehr Anwendungen und in immer mehr Unternehmen Einzug halten. Der AI Act ist für alle verbindlich und das gilt auch dann, wenn einzelne Beschäftigte ohne Wissen des Unternehmens KI einsetzen.«

Wirtschaft bei AI Act gespalten

Noch gibt es große Unsicherheit in der Wirtschaft, welche Folgen der AI Act haben wird. 62 Prozent der Unternehmen sagen, der AI Act werde Entwicklung und Einsatz von KI rechtssicher machen. 53 Prozent gehen davon aus, dass er das Vertrauen in KI erhöhen wird. Umgekehrt befürchten aber 45 Prozent, dass der AI Act die Entwicklung von KI in Europa behindern wird, 41 Prozent glauben, dass er den Einsatz von KI in Europa behindern wird. Eine breite Mehrheit von 69 Prozent der Unternehmen braucht nach eigenem Dafürhalten Hilfe bei der Auseinandersetzung mit dem AI Act. Wintergerst: »Wir dürfen beim AI Act nicht die Fehler der Datenschutz-Grundverordnung wiederholen. Die bestehenden und neu zu schaffenden Aufsichts- und Marktüberwachungsbehörden dürfen nicht nur kontrollieren und sanktionieren, sie müssen vor allem Hilfestellung liefern, wie Künstliche Intelligenz in Deutschland rechtskonform entwickelt und eingesetzt werden kann.«

Bitkom veranstaltet AI & Data Summit

Die Chancen und Herausforderungen des AI Act stehen auch im Mittelpunkt des AI & Data Summit des Bitkom am 25. und 26. September im Kosmos in Berlin. Neben Keynotes und Panels geht es um die praktische Vermittlung von Wissen in Workshops. Die Veranstaltung findet zusammen mit dem Quantum Summit im Kosmos Berlin statt. Alle Informationen über das Programm gibt es online.

Hintergrund AI Act

Der AI Act (Verordnung zur Regulierung von Künstlicher Intelligenz) ist ein Gesetzentwurf der Europäischen Union, der darauf abzielt, den Einsatz von künstlicher Intelligenz (KI) in Europa zu regulieren. Er wurde im April 2021 von der Europäischen Kommission vorgeschlagen und hat das Ziel, ein umfassendes rechtliches Rahmenwerk für KI zu schaffen. Der AI Act ist der weltweit erste umfassende Rechtsrahmen für KI und verfolgt eine risikobasierte Herangehensweise, die den Einsatz von KI-Systemen nach ihrem potenziellen Risiko für die Gesellschaft kategorisiert.

Die wichtigsten Punkte des AI Act sind:

1. Risikokategorien für KI-Systeme

Der AI Act teilt KI-Systeme in vier Risikoklassen ein:

  • Unvertretbares Risiko: KI-Systeme, die eine ernsthafte Gefahr für die Grundrechte oder die Sicherheit darstellen, sind verboten (zum Beispiel Social Scoring durch den Staat, KI-gestützte Massenüberwachung).
  •  Hohes Risiko: KI-Systeme, die in sensiblen Bereichen wie kritischer Infrastruktur, Bildung, Beschäftigung, Strafverfolgung und Justiz eingesetzt werden, unterliegen strengen Auflagen (zum Beispiel Zertifizierungen, Transparenzpflichten).
  • Begrenztes Risiko: KI-Systeme, die nur ein geringes Risiko bergen, müssen spezifische Transparenzanforderungen erfüllen (zum Beispiel Chatbots, die den Nutzern mitteilen müssen, dass sie mit einer Maschine interagieren).
  • Minimales Risiko: Für Systeme, die wenig Risiko bergen (zum Beispiel KI-gestützte Videospiele), sind keine besonderen rechtlichen Anforderungen vorgesehen.

2. Pflichten für Anbieter und Nutzer

Anbieter von KI-Systemen: Unternehmen, die KI entwickeln oder bereitstellen, müssen strenge Anforderungen an Transparenz, Datensicherheit und die Gewährleistung menschenzentrierter Entscheidungen erfüllen. Es müssen zum Beispiel Sicherheitsprüfungen durchgeführt werden, bevor das System auf den Markt kommt.

Nutzer von KI-Systemen: Auch diejenigen, die KI-Systeme in hohem Risiko verwenden (z.B. Arbeitgeber, die KI für Einstellungsverfahren nutzen), müssen sicherstellen, dass diese Systeme im Einklang mit dem Gesetz eingesetzt werden.

3. Überwachung und Sanktionen

Es werden nationale Aufsichtsbehörden eingerichtet, um die Einhaltung des AI Act zu überwachen.

Bei Verstößen können Bußgelder verhängt werden, die ähnlich wie bei der Datenschutzgrundverordnung (DSGVO) beträchtlich sein können – bis zu 7 Prozent des weltweiten Jahresumsatzes eines Unternehmens.

4. Innovation und Sandbox-Ansätze

Der AI Act fördert die Innovation durch die Einrichtung von sogenannten »regulatory sandboxes«, in denen Unternehmen in einem regulierten, aber flexiblen Rahmen KI-Systeme entwickeln und testen können.

Insgesamt zielt der AI Act darauf ab, die Entwicklung und den Einsatz von KI zu fördern, gleichzeitig aber sicherzustellen, dass diese Technologien sicher und ethisch korrekt sind und die Grundrechte der Bürger gewahrt bleiben.

Weitere Artikel

About the Author: Annette Stadler

Annette Stadler ist IT-Journalistin und leitet das Online-Portal ECMGUIDE.
Nach oben