4. Fazit, Ausblick und Glossar

Der Einsatz autonomer Inspektionsroboter wirft neue regulatorische, organisatorische und technische Fragen auf. Der Abschnitt zeigt die wichtigsten Handlungsfelder und gibt Orientierung für einen verantwortungsvollen und innovationsfördernden Umgang.

Auf Basis der rechtlichen Analyse der wichtigsten EU-Regulierungen sowie der praktischen Erfahrungen aus dem Anwendungsfall ergeben sich zentrale Handlungsfelder für Unternehmen. Die folgenden Abschnitte bündeln diese Erkenntnisse in Form übergreifender Empfehlungen für Regulierung, Risikomanagement und Innovationsförderung.

Verwenden Sie die Akkordeon-Bedienelemente, um die Sichtbarkeit der jeweiligen Panels (unterhalb der Bedienelemente) umzuschalten.

Die zunehmende Regulierungsdichte im Bereich KI und Robotik verlangt ein systematisches Vorgehen, um neue Vorgaben konsequent in bestehende Entwicklungs- und Steuerungsprozesse einzubetten. Am Beispiel autonomer Inspektionsroboter zeigt sich, dass Unternehmen technische Innovationen frühzeitig mit regulatorischen Anforderungen rückkoppeln müssen – insbesondere bei sicherheitskritischen Funktionen und beim Einsatz in kritischen Infrastrukturen. Ziel ist es, ein konsistentes Governance-Framework zu etablieren, das neue gesetzliche Vorgaben wie die EU-KI-Verordnung, die EU-Maschinenverordnung oder die EU-Cyberresilienzverordnung ebenso integriert wie freiwillige Standards, etwa die ISO/IEC 42001. So können Unternehmen regulatorische Entwicklungen frühzeitig erkennen, Abhängigkeiten verstehen und bestehende Strukturen effizient weiterentwickeln, ohne für jedes neue Regelwerk separate Systeme aufbauen zu müssen. Erfahrungen aus Testumgebungen wie der KI-Sandbox belegen zudem, dass interdisziplinäre Zusammenarbeit entscheidend dazu beiträgt, Anforderungen praxisnah zu operationalisieren und nachhaltig in der Unternehmenssteuerung zu verankern.

Freiwillige Normen gewinnen neben gesetzlichen Vorgaben zunehmend an Bedeutung – sowohl für die interne Steuerung als auch für die externe Vertrauensbildung. Mit der ISO/IEC 42001 liegt erstmals eine Norm für ein strukturiertes KI-Management-System vor. Für Unternehmen, die KI in sicherheitskritischen Anwendungsfeldern wie der autonomen Inspektion einsetzen, kann diese Norm mittelfristig einen Wettbewerbsvorteil schaffen, etwa bei Ausschreibungen, internationalen Partnerschaften oder branchenspezifischen Leitlinien. Das Sandbox-Projekt mit ANYbotics und Modulos verdeutlicht, dass die ISO/IEC 42001 insbesondere in Verbindung mit EU-Regulierungen wie der KI-Verordnung – etwa in den Bereichen Risikomanagement und Dokumentationspflichten – wertvolle Orientierung bietet. 

Künftige Regulierungsrahmen müssen klassische Sicherheitsanforderungen, wie sie etwa die EU-Maschinenverordnung definiert, konsequent mit den Eigenschaften dynamischer, lernfähiger KI-Systeme verbinden. Ein risikobasierter Ansatz bildet dabei den Kern: Er berücksichtigt physische Gefahren ebenso wie digitale und algorithmische Risiken. Adaptive Konformitätsbewertungen richten sich gezielt auf KI-spezifische Eigenschaften, etwa lernfähige Algorithmen, sich verändernde Modelle oder kontextabhängige Entscheidungslogiken. Abhängig von der Risikostufe sollen differenzierte Prüf- und Nachweisanforderungen gelten – von technischer Dokumentation für statische Systeme über die Validierung von Trainingsdaten und Modellen bei lernenden Systemen bis hin zu externen Audits für sicherheitskritische, nicht deterministische Anwendungen. Ergänzend sichern kontinuierliche Monitoring- und Updatepflichten die Einhaltung von Sicherheits- und Compliance-Anforderungen auch nach dem Inverkehrbringen.

Ein zentrales Thema in der Risikobewertung und Regulierung komplexer Robotiksysteme ist die Frage, ob das Gesamtsystem oder einzelne KI-Komponenten betrachtet werden sollen. Während eine Systembewertung die Wechselwirkungen verschiedener Module abdeckt, kann eine komponentenbasierte Bewertung dann sinnvoll sein, wenn einzelne KI-Bausteine – etwa für Navigation oder Bewegungssteuerung – in unterschiedlichen Produkten wiederverwendet werden. Für die Risikoanalyse ist zudem entscheidend, ob die Anwendung (z.B. das Nichterkennen eines Defekts) oder die Betriebssicherheit des Roboters selbst (z.B. eine physische Fehlfunktion) im Vordergrund steht. Ein klar abgegrenztes Bewertungsmodell unterstützt nicht nur die regulatorische Nachvollziehbarkeit, sondern ermöglicht auch eine flexible Wiederverwendung zertifizierter Module in verschiedenen Kontexten. Unternehmen sollten deshalb frühzeitig dokumentieren, auf welcher Ebene die Bewertung erfolgt, und ihre Risikomanagementstrategien entsprechend differenzieren. So lassen sich regulatorische Anforderungen konsistent erfüllen, während gleichzeitig Synergien in der Entwicklung und der Zertifizierung genutzt werden können.

Testumgebungen für autonome Inspektionsroboter schaffen interdisziplinäre Lernräume, in denen Unternehmen, Forschungseinrichtungen und Behörden gemeinsam Sicherheit, KI-Verhalten und regulatorische Anforderungen in der Praxis erproben können. Regulatorische Experimentierklauseln oder Pilotartikel ermöglichen es, zeitlich und sachlich begrenzt von bestehenden gesetzlichen Vorgaben abzuweichen, um innovative KI-Systeme unter realitätsnahen Bedingungen zu testen. Dabei bleibt die behördliche Aufsicht zentral, ergänzt durch Schutzmassnahmen für Sicherheit und Grundrechte. Solche Testumgebungen leisten damit einen wesentlichen Beitrag dazu, regulatorische Anforderungen praxisnah umzusetzen und Innovation verantwortungsvoll zu fördern.

«Zukunftsfähige Robotik entsteht, wenn technischer Fortschritt und KI-Governance Hand in Hand gehen.»

Raphael von Thiessen, Programmleiter KI-Sandbox, Kanton Zürich

Glossar

Verwenden Sie die Akkordeon-Bedienelemente, um die Sichtbarkeit der jeweiligen Panels (unterhalb der Bedienelemente) umzuschalten.

U-Zertifizierung für Geräte, die in explosionsgefährdeten Bereichen eingesetzt werden. Eine ATEX-Zertifizierung ist die Voraussetzung für den Betrieb autonomer Roboter wie ANYmal X in sensiblen Industrieumgebungen.

Virtuelle Abbilder physischer Systeme, die kontinuierlich mit Echtzeitdaten gespeist werden. Sie dienen der Zustandsüberwachung, der Simulation und der Entscheidungsunterstützung – insbesondere bei autonomer Inspektion und vorausschauender Wartung.

EU-Verordnung zur Verbesserung der Cybersicherheit vernetzter digitaler Produkte und Dienste. Sie legt Anforderungen an Design, Entwicklung und Wartung fest – mit direkter Relevanz für KI-basierte, netzwerkfähige Robotiksysteme.

EU-Verordnung zur Förderung der fairen Nutzung und Weitergabe von Daten. Sie regelt insbesondere den Zugang zu und die Nutzung von Daten, die durch vernetzte Geräte oder Dienste erzeugt werden – mit Auswirkungen auf KI-gestützte Inspektionssysteme. 

EU-Verordnung zur Regulierung von künstlicher Intelligenz. Sie klassifiziert KI-Systeme in Risikostufen (z.B. gering, hoch oder unzulässig) und legt spezifische Anforderungen an Entwicklung, Transparenz, Sicherheit und Überwachung fest. 

Bisherige EU-Richtlinie zur Sicherheit von Maschinen und deren Inverkehrbringen im europäischen Binnenmarkt. Sie definiert grundlegende Sicherheits- und Gesundheitsschutzanforderungen für Konstruktion, Bau und Betrieb von Maschinen. Sie wird 2027 vollständig durch die neue EU-Maschinenverordnung ersetzt

Nachfolgerin der EU-Maschinenrichtlinie. Als Verordnung gilt sie unmittelbar in allen Mitgliedstaaten und enthält aktualisierte Anforderungen an Sicherheit, Digitalisierung und den Einsatz von KI in Maschinen. Sie legt u.a. Pflichten für Hersteller fest und berücksichtigt die Interaktion mit dem EU-AI-Act.

KI-Systeme, die nicht nur für einen einzelnen spezifischen Zweck entwickelt wurden, sondern in verschiedenen Anwendungen und Kontexten einsetzbar sind. General-Purpose AI zeichnet sich durch eine breite Funktionalität aus und kann sowohl allgemeine Aufgaben (z.B. Textverarbeitung, Bilderkennung oder Sprachinteraktion) als auch spezialisierte Anwendungen in unterschiedlichen Branchen abdecken.

Ein Verfahren der Konformitätsbewertung, bei dem der Hersteller eigenverantwortlich erklärt, dass ein Produkt die geltenden gesetzlichen Anforderungen erfüllt. Im Rahmen der EU-Maschinenverordnung bedeutet dies, dass Unternehmen die Übereinstimmung ihrer Maschine mit den relevanten Sicherheits- und Gesundheitsschutzanforderungen selbst prüfen und dokumentieren dürfen. 

Internationale Norm für das Management von KI-Systemen. Ziel ist, dass Organisationen KI verantwortungsvoll, sicher und nachvollziehbar einsetzen – inklusive Governance-Strukturen, Risikomanagement, Transparenz und Stakeholder-Einbindung. Besonders relevant ist die Norm für Unternehmen, die KI-Systeme in sicherheitskritischen Bereichen entwickeln oder betreiben.

Eine Testumgebung, in der KI-basierte Technologien – wie autonome Inspektionsroboter – unter realen Bedingungen erprobt werden können. Dabei arbeiten Unternehmen, Behörden und Forschungseinrichtungen zusammen, um technische, rechtliche und sicherheitsrelevante Aspekte frühzeitig zu klären. Reallabore ermöglichen eine risikobewusste Erprobung vor dem breiten Markteinsatz.

Verfahren zur Prüfung, ob ein Produkt oder ein System die regulatorischen Anforderungen erfüllt (z.B. gemäss EU-KI-Verordnung oder EU-Maschinenverordnung). Je nach Risikoklasse kann es durch interne Prüfungen, externe Audits oder benannte Stellen erfolgen.

Ein optisches Messverfahren zur präzisen Abstandsmessung und Umfelderfassung. LIDAR-Systeme senden Laserimpulse aus und messen die Zeit, bis das Licht von Objekten reflektiert wird. Aus diesen Daten lassen sich dreidimensionale Karten der Umgebung erstellen. In der Robotik dient LIDAR insbesondere zur Navigation, zur Hinderniserkennung und zur Kartierung (z.B. im Rahmen von SLAM).

Eine unabhängige, offiziell benannte Prüforganisation, die bestimmte Produkte auf ihre EU-Konformität bewertet. Bei autonomen Inspektionsrobotern mit sicherheitsrelevanter KI-Funktion (z.B. Hindernisvermeidung) ist ihre Einschaltung erforderlich, wenn eine Selbstzertifizierung gemäss EU-Maschinenverordnung nicht zulässig ist. 

Ein Teilgebiet des maschinellen Lernens, bei dem ein KI-System durch gezielte Interaktion mit seiner Umgebung lernt, bestimmte Aufgaben optimal auszuführen. Im Kontext von autonomen Robotern wird Reinforcement Learning zur Steuerung der Lokomotion eingesetzt: Der Roboter lernt, wie er sich stabil und effizient auf komplexem Terrain fortbewegt – etwa durch Treppensteigen oder das Umgehen von Hindernissen.

Ein Verfahren aus der Robotik und der Computer Vision, das es einem mobilen System ermöglicht, sich gleichzeitig in einer unbekannten Umgebung zu orientieren (Lokalisierung) und eine Karte dieser Umgebung zu erstellen (Mapping). SLAM wird typischerweise mit Sensoren wie LIDAR oder Kameras realisiert und ist zentral für die autonome Navigation ohne externe Referenzsysteme wie GPS.

Ein Verfahren des maschinellen Lernens, bei dem ein Modell aus gekennzeichneten Trainingsdaten lernt, bestimmte Muster zu erkennen oder Vorhersagen zu treffen. Bei autonomen Robotern wird Supervised Learning eingesetzt, um visuelle, thermische und akustische Inspektionsdaten auszuwerten – bspw. zur Erkennung von Anzeigewerten, ungewöhnlichen Geräuschen oder Temperaturabweichungen an Maschinen.

Kontakt

Amt für Wirtschaft – Standortförderung

Adresse

Walchestrasse 19
8090 Zürich
Route (Google)

Telefon

+41 43 259 49 92


Montag bis Freitag
8.00 bis 12.00 Uhr und
13.30 bis 17.00 Uhr

E-Mail

standort@vd.zh.ch