EU AI Act - Fluch oder Segen?

Stichtag: 1 August 2024, ist Ihr Unternehmen bereit?!

Autor: Jan Paschen (Consultant #FORTSCHRITT)
- 01.08.2024 -

In unserer Welt gewinnt die Artificial Intelligence (künstliche Intelligenz; kurz AI) immer mehr an Bedeutung. Daher ist es wichtig, den rechtlichen Rahmen zu kennen, der diese Technologie regelt. Der EU AI Act, der am 1. August 2024 in Kraft tritt, ist ein solcher Rechtsrahmen, der speziell für die Regulierung von AI-Tools entwickelt wurde. Die Relevanz für Sie lässt sich leicht erklären: AI ist keine Science Fiction mehr. Sie ist Realität und hat bereits erheblichen Einfluss darauf, wie Unternehmen arbeiten und wachsen. Ob automatisierte Kundenservice-Bots, prädiktive Analysen oder personalisierte Marketingstrategien - AI ist überall.

Sie macht unseren Geschäftsalltag effizienter. Ohne den EU AI Act könnten Sie jedoch mit erheblichen Herausforderungen konfrontiert werden, insbesondere mit solchen, die erst spät erkannt werden. Stellen Sie sich vor, Sie implementieren eine AI-Lösung in Ihrem Unternehmen und tätigen erhebliche Investitionen, nur um später festzustellen, dass sie gegen Datenschutzgesetze verstößt. Oder Ihre AI-Lösung verursacht unbeabsichtigt Schaden - sei es durch falsche Vorhersagen oder durch Verstöße gegen ethische Richtlinien. Die finanziellen und rechtlichen Folgen wären verheerend. Der EU AI Act ist ein Gesetz, das AI regelt. Es ist ein Instrument, um die Vorteile von AI zu nutzen und gleichzeitig die damit verbundenen Risiken zu minimieren.

Der EU AI Act tritt in Kraft

Die ursprünglichen Entwürfe der im März vom EU-Parlament verabschiedeten Verordnung zur IV waren unglaublich umfangreich. Die offizielle Endfassung wurde am Freitag, den 12. Juli 2024 im Amtsblatt der EU veröffentlicht und ist mit 144 Seiten inklusive Anhängen deutlich kompakter und übersichtlicher. Der EU AI-Act ist am 1. August 2024 in Kraft getreten.

Mit dem Inkrafttreten des AI-Acts haben auch die Umsetzungsfristen der Verordnung begonnen. Die EU hat die Verordnung eingeführt, um Investitionen in sichere und vertrauenswürdige AI-Systeme zu fördern. Ab dem 2. Februar 2025 sind beispielsweise bestimmte AI-Praktiken wie das Social Scoring verboten, bei dem soziales Verhalten maschinell bewertet wird und zum Ausschluss von (gesetzlichen) Leistungen oder auch nur Chancen führen kann. Dies ist ein wichtiger Schritt, um sicherzustellen, dass AI-Tools ethisch und rechtlich vertretbar eingesetzt werden.

AI-Risikopyramide

Um AI-Tools einzuordnen kann die Risikopyramide genutzt werden, welche sie zum Beispiel nach ihrem Risiko oder an Personendaten bewertet und so zumindest eine erste Übersicht schaffen kann, welche Maßnahmen beim Entwickeln oder Nutzen nötig sind.

BlogRisikoPyramide 

Quelle: Whitepaper AI in der Arbeitswelt

Unannehmbares Risiko

Bestimmte Bereiche erfordern strenge Regeln und Verbote, insbesondere wenn sie die Sicherheit, die Rechte, die Würde oder das Grundgesetz gefährden. Dies betrifft auch alle AI-Werkzeuge und Geräte, die gefährliches Verhalten fördern könnten. Aus Sicherheitsgründen wird auf die Nennung von Beispielen verzichtet.

Hohes Risiko

AI-Systeme in kritischen Bereichen wie Verkehr können bei Fehlentscheidungen lebensbedrohlich sein. Im Bildungs- und Berufsbereich können sie den Bildungszugang und die Karriere beeinflussen, z.B. durch automatisierte Prüfungsbewertungen.

Begrenztes Risiko

Das AI-Gesetz legt fest, dass Nutzer von AI-Systemen wie Chatbots wissen müssen, dass sie mit einer Maschine sprechen. So können sie entscheiden, ob sie die Interaktion fortsetzen oder beenden möchten.

Anbieter müssen sicherstellen, dass AI-generierte Inhalte erkennbar sind. AI-Texte, die zur öffentlichen Information dienen, müssen als künstlich gekennzeichnet sein.

Geringes /kein Risiko

Das AI-Gesetz erlaubt die freie Nutzung von AI mit minimalem Risiko. Dazu gehören Anwendungen wie AI-gestützte Videospiele oder Spam-Filter. Die überwiegende Mehrheit der derzeit in der EU verwendeten AI-Systeme fällt in diese Kategorie. Es ist wichtig zu betonen, dass trotz des geringen Risikos, das diese Anwendungen darstellen, immer noch Best Practices für die AI-Nutzung gelten sollten. Dazu gehört die Transparenz darüber, wo und wie AI eingesetzt wird, sowie die Einhaltung von Datenschutzstandards.

Diesen Einstufungen, über welche Sie mehr in unserem Whitepaper “AI IN DER Arbeitswelt, Innovationen und Herausforderungen für moderne Unternehmen” erfahren, ergeben sich unterschiedliche KPIs an jede zu implementierende Softwarelösung in Abhängigkeit zu ihrem Einsatzgebiet, Nutzen oder Umfang.

Auch nach der Einstufung eines Tools kann es durch Updates, die beispielsweise den Funktionsumfang erweitern, zu einer Neueinstufung kommen. Daher sollte in regelmäßigen Abständen geprüft werden, ob Anpassungen und Nutzungsverhalten gemacht werden müssen.

Vorbereitung auf den EU AI Act

Es spielt keine Rolle, ob Sie zu den Unternehmen gehören, die AI-Tools entwickeln, oder zu den Unternehmen, deren Mitarbeitende AI-Tools nutzen. Es wird sich kaum verhindern lassen, dass einzelne Mitarbeitende AI-Tools nutzen, um ihre Arbeitsabläufe zu optimieren. Viele der neuen AI-Tools sind Cloud-basiert, d.h. sie müssen nicht auf dem Arbeitsrechner installiert werden um genutzt zu werden. Andere kommen direkt als “Zwangsupdate“ mit Windows ins System. Bei der schnellen Entwicklung und Verbreitung neuer Tools spielt es keine Rolle, ob man eine IT-Abteilung hat und wie gut diese ist. Es ist nicht möglich, alle Tools rechtzeitig zu stoppen.

Besser ist es, den Mitarbeitenden geplant die richtigen Werkzeuge zur Verfügung zu stellen, aber die Kontrolle zu behalten.

Unternehmen, die AI-Tools nutzen:

Bewertung der aktuellen AI-Systeme:
Unternehmen sollten ihre aktuellen AI-Systeme auflisten, bewerten und sicherstellen, dass sie den Vorschriften des AI-Act entsprechen. Dies könnte eine Überprüfung der Datenverarbeitungspraktiken, der Transparenz der AI-Entscheidungsfindung und der Einhaltung ethischer Richtlinien umfassen.

Schulung und Bildung:
Es ist wichtig, dass alle Mitarbeitenden, die mit AI-Systemen arbeiten, über die neuen Vorschriften informiert und geschult sind. Gleichzeitig ist es wichtig, das Bewusstsein für den Datenschutz in Bezug auf AI-Tools und die Validität der Ergebnisse zu schärfen.

Risikomanagement:
Unternehmen sollten Risikomanagementstrategien entwickeln, um potenzielle Verstöße gegen den AI-Act zu vermeiden oder im Fall eines Verstoßes korrekt reagieren zu können. Dies könnte die Implementierung von Überwachungsmechanismen und regelmäßigen Audits beinhalten.

Unternehmen, die AI-Tools entwickeln:

Entwicklung einer ethischen AI:
Unternehmen, die AI-Tools entwickeln, sollten sicherstellen, dass ihre Produkte den ethischen Richtlinien des AI-Act entsprechen. Dies könnte die Entwicklung von Algorithmen beinhalten, die Fairness, Transparenz und Datenschutz gewährleisten.

Anpassung der Produktentwicklung:
Die Produktentwicklung muss möglicherweise angepasst werden, um sicherzustellen, dass die AI-Werkzeuge den neuen Vorschriften entsprechen. Dies könnte Änderungen in der Art und Weise beinhalten, wie Daten gesammelt und verarbeitet werden, oder in der Art und Weise, wie die AI-Entscheidungsfindung funktioniert und was sie bewertet.

Kommunikation mit Kunden:
Unternehmen sollten sicherstellen, dass ihre Kunden über die Änderungen informiert sind, die aufgrund des AI-Act vorgenommen wurden. Dies könnte die Bereitstellung von Schulungen oder Ressourcen zur Unterstützung der Kunden bei der Einhaltung der Vorschriften beinhalten.

Insgesamt erfordert die Vorbereitung auf den AI-Act sowohl für Nutzer als auch für Entwickler von AI-Tools eine sorgfältige Planung und Anpassung. Es ist wichtig, dass Unternehmen proaktiv handeln und sich frühzeitig auf die Änderungen vorbereiten, um sicherzustellen, dass sie die neuen Vorschriften einhalten.

Biometrische Überwachung und Datenschutzbedenken

Biometrische Überwachungstechnologien, die AI nutzen, wie Gesichtserkennung und Fingerabdruckscanner, werden zunehmend in verschiedenen Bereichen eingesetzt. Während diese Technologien viele Vorteile bieten, gibt es erhebliches zu berücksichtigen.

Allgemeine Datenschutzbedenken:

  • Datenmissbrauch: Biometrische Daten sind einzigartig und unveränderbar. Ein Missbrauch oder Diebstahl dieser Daten kann schwerwiegende Folgen für die betroffenen Personen haben.
  • Überwachung und Kontrolle: Der Einsatz biometrischer Technologien kann zu einer umfassenden Überwachung und Kontrolle der Bevölkerung führen, was die Privatsphäre erheblich einschränkt.
  • Fehlende Transparenz: Oft ist unklar, wie und wo biometrische Daten gespeichert und verwendet werden. Dies führt zu einem Mangel an Vertrauen in die Systeme und deren Betreiber.
  • Rechtliche Rahmenbedingungen: Oft sind die gesetzlichen Regelungen zum Schutz biometrischer Daten unzureichend. Dies kann zu Lücken im Datenschutz führen und die Rechte der Bürger gefährden.

Sonderregelungen für die Polizei:

Die Polizei könnte besondere Befugnisse für den Einsatz biometrischer Überwachungstechnologien erhalten. Solche Sonderregelungen könnten es der Polizei ermöglichen, biometrische Daten in Echtzeit zu erfassen und zu analysieren, um Verdächtige schneller zu identifizieren und Straftaten wirksamer zu verhindern. Dabei müssten jedoch strenge Datenschutzrichtlinien und rechtliche Rahmenbedingungen eingehalten werden, um den Missbrauch dieser Technologien zu verhindern und die Privatsphäre der Bürger zu schützen.

 BlogBiometric

Es ist daher wichtig, dass der Einsatz biometrischer Überwachungstechnologien sorgfältig abgewogen und durch klare Datenschutzrichtlinien begleitet wird. Bei Solchen Themen wird schnell ersichtlich, warum der EU AI Act eine entscheidende Rolle bei der Festlegung dieser Richtlinien spielt und warum viele Themen reguliert werden müssen.

6. Fazit

der AI-Act sollte als Chance und nicht als Bedrohung gesehen werden. So betonen zahlreiche Experten, dass die EU als weltweit erste Institution Regeln für den Einsatz von AI festgelegt hat und dieses Unternehmen mehr Planungssicherheit für ihre Investitionen in neue Anwendungen und Dienstleistungen bietet.

Es ist jedoch wichtig, dass das notwendige Sicherheitskorsett zum Schutz vor Missbrauch nicht dazu führt, Innovation und Fortschritt zu blocAIeren. Deutschland hat einen erheblichen Nachholbedarf bei Digitalisierung, um die internationale Wettbewerbsfähigkeit des Innovationsstandorts Deutschland zukünftig stark auf die Entwicklung und Nutzung von AI vorzubereiten.

Die Branche benötigt daher eine Aufsichtsbehörde als Ansprechpartner, deren Ziel es sein muss, deutsche Unternehmen im internationalen Wettbewerb zu unterstützen. Es darf nicht zu einem Kompetenz-Chaos in 16 Bundesländern kommen. Es wird eine zentrale Instanz benötigt, die nicht nur den Datenschutz in den Mittelpunkt ihrer Arbeit stellt, sondern auch den Nutzen von innovativen AI-Anwendungen für Bürgerinnen und Bürger. Es muss also so oft wie möglich versucht werden, Innovationen zu ermöglichen, um einen Stillstand der Technologischen Weiterentwicklung und Digitalisierung zu vermeiden.

Nachdem in Österreich bereits eine „AI-Servicestelle“ der Regulierungsbehörde vorgestellt wurde, muss Deutschland jetzt nachziehen. Es ist wichtig, dass die Bundesregierung, insbesondere das BMDV (Bundesministerium für Digitales und Verkehr), schnell zu einer Entscheidung kommt, sodass jedes Unternehmen dem globalen Fortschritt folgen kann. Für Deutschland gibt es aktuell die Idee, die Überwachung in die gleichen Hände wie den Datenschutz zu legen. Wirtschaftlich und forschend betrachtet, kann man aber nur auf eine andere Lösung hoffen, da der Datenschutz ansonsten immer vor Innovation und Fortschritt gestellt werden müsste.

Bitte beachten Sie, dass die bereitgestellten Informationen und Ratschläge nicht als rechtliche Beratung interpretiert werden sollten. Obwohl wir uns immer bemühen, genaue und aktuelle Informationen über den EU AI Act zu liefern und bei der Umsetzung vieler Themen begleiten können, verstehen wir uns nicht als Rechtsberatung.

 

Wenn Sie diesen Beitrag zitieren möchten, nutzen Sie gerne folgende Quellenangabe:

Jan Paschen. (2024, 01. August). EU AI Act - Fluch oder Segen?. FORTSCHRITT GmbHhttps://fortschritt.co/publikationen/strategie/eu-ai-act

  • Europäische Kommission Brüssel, Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL. Access to European Union Law. 21.04.2024, abgerufen am 15. Juli 2024 (englisch).

Jan Paschen
Consultant

Als studierter Informatiker mit jahrelanger Erfahrung im IT-Projektmanagement und Strukturen des öffentlichen Dienstes verfügt er über ein breites Wissen in technologischen und organisatorischen Arbeits- und Anwendungsgebieten. Er hat in der Vergangenheit erfolgreich diverse IT-Projekte geleitet, Software und Frameworks implementiert und die Effizienz sowie Effektivität von Prozessen optimiert. Des Weiteren ist er seit mehr als 15 Jahren im Bereich der digitalen Medien und Social Media tätig. Durch diese Aufgabenfelder entwickelte er ein natürliches und dauerhaftes Interesse an Digitalisierungsprozessen. Für #FORTSCHRITT ist er in den Bereichen IT-Sicherheit und IT-Projektmanagement tätig.

Jan P. Paschen