Es gibt einen Satz, der derzeit in erstaunlich vielen Schweizer Unternehmen fällt: „Wir haben eine KI-Weisung – was die Mitarbeitenden wirklich nutzen, wissen wir nicht.“ Dieser Satz zeigt kein Versagen. Er zeigt einen Zielkonflikt. Und seit der EU AI Act im März 2026 vollständig in Kraft ist, wird dieser Zielkonflikt zur Führungsaufgabe.
Was der EU AI Act für Schweizer Unternehmen bedeutet
Die Schweiz ist kein EU-Mitglied. Trotzdem ist der EU AI Act für Schweizer Unternehmen, Verwaltungen und Institutionen hochrelevant – aus drei Gründen:
Erstens: Marktprinzip. Wer Produkte oder Dienstleistungen in der EU anbietet oder KI-Systeme einsetzt, die EU-Bürgerinnen und -Bürger betreffen, fällt unter den EU AI Act. Das trifft viele Schweizer Unternehmen direkt.
Zweitens: Sogwirkung. Die Schweiz orientiert sich regulatorisch stark an der EU. Das Schweizer Datenschutzgesetz (revDSG) ist bereits eng mit der DSGVO verzahnt. Der EU AI Act wird denselben Weg nehmen – nur eine Frage der Zeit.
Drittens: Vertrauen. Kunden, Partner und Mitarbeitende in der Schweiz erwarten zunehmend, dass KI-Systeme transparent, nachvollziehbar und sicher eingesetzt werden. Wer das nachweisen kann, gewinnt Vertrauen. Wer es nicht kann, verliert es – unabhängig von einer gesetzlichen Pflicht.
Der EU AI Act ist damit keine Brüsseler Bürokratie. Er ist ein Wettbewerbsfaktor.
Der Zielkonflikt: Governance vs. Wirkung
Auf der einen Seite: Governance, Datenschutz, Kontrolle. Klare Regeln, welche KI-Tools erlaubt sind, wie Daten verarbeitet werden dürfen, wer für Entscheidungen haftet.
Auf der anderen Seite: Erwartung an Geschwindigkeit, Produktivität und echte Wirkung. Mitarbeitende, die mit ChatGPT privat produktiver sind als mit dem freigegebenen Unternehmenstool. Führungskräfte, die Ergebnisse sehen wollen – jetzt.
Beides ist legitim. Problematisch wird es erst, wenn Governance und Wirkung nicht zusammenfinden. Dann entstehen zwei Szenarien, die wir regelmässig beobachten:
- KI-Tools sind freigegeben – werden aber kaum genutzt, weil sie den Alltag nicht wirklich erleichtern.
- KI-Tools werden intensiv genutzt – aber ausserhalb der freigegebenen Systeme, ohne dass jemand den Überblick hat.
In beiden Fällen bleibt das Potenzial ungenutzt. Oder wird zum Risiko.
Was der EU AI Act konkret verlangt
Der EU AI Act klassifiziert KI-Systeme nach Risikoklassen. Für die meisten Schweizer Unternehmen relevant sind:
Minimales Risiko: Chatbots, Texterstellung, einfache Automatisierung. Hier braucht es keine besonderen Massnahmen – aber Transparenz gegenüber Nutzenden ist Pflicht.
Begrenztes Risiko: KI-Systeme, die mit Menschen interagieren (z. B. Kundenservice-Bots). Nutzer müssen wissen, dass sie mit einer KI sprechen.
Hohes Risiko: KI in der Personalentscheidung, im Gesundheitswesen, in der kritischen Infrastruktur. Hier gelten strenge Anforderungen: Risikobewertung, menschliche Aufsicht, Dokumentation, Audit-Trail.
Was das für die Praxis bedeutet: Wer heute KI-Agenten für Dokumentenanalyse, Patientendaten oder Personalplanung einsetzt, braucht eine Governance-Struktur – keine Weisung in der Schublade, sondern ein lebendiges Modell mit klaren Leitplanken.
Praxisbeispiel: Aareperle zeigt, wie es geht
Was abstrakt klingt, lässt sich sehr konkret umsetzen. Ein Beispiel aus unserer eigenen Arbeit: Bei Aareperle, einer Institution der Langzeitpflege, haben wir gemeinsam mit Evoya AI den ersten Workshop auf einer gemeinsamen KI-Reise begleitet. Verwaltung, Hauswirtschaft, Küche, Betreuung, Führung – alle dabei. Alle mit denselben Fragen. Und unterschiedlichsten Perspektiven.
Genau das macht den Unterschied. KI entfaltet ihre Wirkung nicht in einzelnen Abteilungen. Sie entfaltet sie, wenn eine ganze Institution gemeinsam denkt.
Aber – und das ist entscheidend – bevor KI irgendwo eingesetzt wurde, stellten wir eine unbequeme Frage: „Brauchen wir diesen Schritt überhaupt noch?“ Das ist kein Skeptizismus. Das ist Lean Management. Wer einen umständlichen Prozess digitalisiert, hat am Ende einen digitalen umständlichen Prozess.
Mit Evoya AI hat Aareperle eine KI-Plattform, die Datenschutz, Compliance und Schweizer Standards vereint. Kein Kompromiss. Kein Flickwerk. Erste Etappe geschafft.
Es braucht kein Kompromiss – sondern ein Modell
Governance und Wirkung sind kein Gegensatz. Sie brauchen eine gemeinsame Architektur. Diese besteht aus drei Elementen:
1. Klare Leitplanken statt starrer Verbote. Eine KI-Weisung, die nur sagt, was nicht erlaubt ist, schafft Frustration. Eine KI-Governance, die zeigt, was erlaubt ist, wie es genutzt wird und wer Verantwortung trägt, schafft Vertrauen und Wirkung.
2. Freigegebene Tools, die wirklich wirken. Der häufigste Grund, warum Mitarbeitende auf nicht freigegebene Tools ausweichen: Die freigegebenen Alternativen sind schlechter. Wer Automatisierung und KI-Einsatz ernst nimmt, investiert in Tools, die im Alltag tatsächlich entlasten.
3. Prozesse zuerst. Auch hier gilt die Leanovation-Logik: Ein schlecht strukturierter Prozess wird durch ein KI-Tool nicht besser. Er wird schneller – und teurer. Erst verstehen, dann optimieren, dann KI einsetzen. Die Reihenfolge ist nicht optional.
Fazit
Der EU AI Act ist für Schweizer Unternehmen relevant – rechtlich, strategisch und kulturell. Wer jetzt handelt, schafft eine Governance, die nicht bremst, sondern ermöglicht. Der Schlüssel liegt nicht in der perfekten Weisung. Er liegt im gemeinsamen Modell: klare Leitplanken, wirksame Tools, saubere Prozesse.
Governance und Wirkung gehören zusammen. Nicht als Kompromiss – als Einheit.
Du willst KI in deinem Unternehmen oder deiner Institution datenschutzkonform und wirksam einführen? Wir begleiten dich – von der Prozessanalyse bis zum ersten KI-Agenten. Jetzt Kontakt aufnehmen.




