4. Fazit und Ausblick

Der Einsatz autonomer Inspektionsroboter wirft neue regulatorische, organisatorische und technische Fragen auf. Der Abschnitt zeigt die wichtigsten Handlungsfelder und gibt Orientierung für einen verantwortungsvollen und innovationsfördernden Umgang.

Fazit und Ausblick

Auf Basis der rechtlichen Analyse der wichtigsten EU-Regulierungen sowie der praktischen Erfahrungen aus dem Anwendungsfall ergeben sich zentrale Handlungsfelder für Unternehmen. Die folgenden Abschnitte bündeln diese Erkenntnisse in Form übergreifender Empfehlungen für Regulierung, Risikomanagement und Innovationsförderung.

1. Systematische Integration regulatorischer Anforderungen

Die zunehmende Regulierungsdichte im Bereich KI und Robotik verlangt ein systematisches Vorgehen, um neue Vorgaben konsequent in bestehende Entwicklungs- und Steuerungsprozesse einzubetten. Am Beispiel autonomer Inspektionsroboter zeigt sich, dass Unternehmen technische Innovationen frühzeitig mit regulatorischen Anforderungen rückkoppeln müssen – insbesondere bei sicherheitskritischen Funktionen und beim Einsatz in kritischen Infrastrukturen. Ziel ist es, ein konsistentes Governance-Framework zu etablieren, das neue gesetzliche Vorgaben wie die EU-KI-Verordnung, die EU-Maschinenverordnung oder die EU-Cyberresilienzverordnung ebenso integriert wie freiwillige Standards, etwa die ISO/IEC 42001. So können Unternehmen regulatorische Entwicklungen frühzeitig erkennen, Abhängigkeiten verstehen und bestehende Strukturen effizient weiterentwickeln, ohne für jedes neue Regelwerk separate Systeme aufbauen zu müssen. Erfahrungen aus Testumgebungen wie der KI-Sandbox belegen zudem, dass interdisziplinäre Zusammenarbeit entscheidend dazu beiträgt, Anforderungen praxisnah zu operationalisieren und nachhaltig in der Unternehmenssteuerung zu verankern.

2. Rolle von Standards und Managementsystemen

Freiwillige Normen gewinnen neben gesetzlichen Vorgaben zunehmend an Bedeutung – sowohl für die interne Steuerung als auch für die externe Vertrauensbildung. Mit der ISO/IEC 42001 liegt erstmals eine Norm für ein strukturiertes KI-Management-System vor. Für Unternehmen, die KI in sicherheitskritischen Anwendungsfeldern wie der autonomen Inspektion einsetzen, kann diese Norm mittelfristig einen Wettbewerbsvorteil schaffen, etwa bei Ausschreibungen, internationalen Partnerschaften oder branchenspezifischen Leitlinien. Das Sandbox-Projekt mit ANYbotics und Modulos verdeutlicht, dass die ISO/IEC 42001 insbesondere in Verbindung mit EU-Regulierungen wie der KI-Verordnung – etwa in den Bereichen Risikomanagement und Dokumentationspflichten – wertvolle Orientierung bietet. 

3. Kombination klassischer  und KI-spezifischer Anforderungen

Künftige Regulierungsrahmen müssen klassische Sicherheitsanforderungen, wie sie etwa die EU-Maschinenverordnung definiert, konsequent mit den Eigenschaften dynamischer, lernfähiger KI-Systeme verbinden. Ein risikobasierter Ansatz bildet dabei den Kern: Er berücksichtigt physische Gefahren ebenso wie digitale und algorithmische Risiken. Adaptive Konformitätsbewertungen richten sich gezielt auf KI-spezifische Eigenschaften, etwa lernfähige Algorithmen, sich verändernde Modelle oder kontextabhängige Entscheidungslogiken. Abhängig von der Risikostufe sollen differenzierte Prüf- und Nachweisanforderungen gelten – von technischer Dokumentation für statische Systeme über die Validierung von Trainingsdaten und Modellen bei lernenden Systemen bis hin zu externen Audits für sicherheitskritische, nicht deterministische Anwendungen. Ergänzend sichern kontinuierliche Monitoring- und Updatepflichten die Einhaltung von Sicherheits- und Compliance-Anforderungen auch nach dem Inverkehrbringen.

4. Abgrenzung von KI-Systemen  in komplexen Robotikanwendungen

Ein zentrales Thema in der Risikobewertung und Regulierung komplexer Robotiksysteme ist die Frage, ob das Gesamtsystem oder einzelne KI-Komponenten betrachtet werden sollen. Während eine Systembewertung die Wechselwirkungen verschiedener Module abdeckt, kann eine komponentenbasierte Bewertung dann sinnvoll sein, wenn einzelne KI-Bausteine – etwa für Navigation oder Bewegungssteuerung – in unterschiedlichen Produkten wiederverwendet werden. Für die Risikoanalyse ist zudem entscheidend, ob die Anwendung (z.B. das Nichterkennen eines Defekts) oder die Betriebssicherheit des Roboters selbst (z.B. eine physische Fehlfunktion) im Vordergrund steht. Ein klar abgegrenztes Bewertungsmodell unterstützt nicht nur die regulatorische Nachvollziehbarkeit, sondern ermöglicht auch eine flexible Wiederverwendung zertifizierter Module in verschiedenen Kontexten. Unternehmen sollten deshalb frühzeitig dokumentieren, auf welcher Ebene die Bewertung erfolgt, und ihre Risikomanagementstrategien entsprechend differenzieren. So lassen sich regulatorische Anforderungen konsistent erfüllen, während gleichzeitig Synergien in der Entwicklung und der Zertifizierung genutzt werden können.

5. KI-Testumgebungen als Lernräume

Testumgebungen für autonome Inspektionsroboter schaffen interdisziplinäre Lernräume, in denen Unternehmen, Forschungseinrichtungen und Behörden gemeinsam Sicherheit, KI-Verhalten und regulatorische Anforderungen in der Praxis erproben können. Regulatorische Experimentierklauseln oder Pilotartikel ermöglichen es, zeitlich und sachlich begrenzt von bestehenden gesetzlichen Vorgaben abzuweichen, um innovative KI-Systeme unter realitätsnahen Bedingungen zu testen. Dabei bleibt die behördliche Aufsicht zentral, ergänzt durch Schutzmassnahmen für Sicherheit und Grundrechte. Solche Testumgebungen leisten damit einen wesentlichen Beitrag dazu, regulatorische Anforderungen praxisnah umzusetzen und Innovation verantwortungsvoll zu fördern.

«Zukunftsfähige Robotik entsteht, wenn technischer Fortschritt und KI-Governance Hand in Hand gehen.»

Raphael von Thiessen, Programmleiter KI-Sandbox, Kanton Zürich

Kontakt

Amt für Wirtschaft – Standortförderung

Adresse

Walchestrasse 19
8090 Zürich
Route (Google)

Telefon

+41 43 259 49 92


Montag bis Freitag
8.00 bis 12.00 Uhr und
13.30 bis 17.00 Uhr

E-Mail

standort@vd.zh.ch