Zur Zukunft intelligenter Gefahrenerkennung

Ein Interview mit Marlon Possard – Experte für künstliche Intelligenz
Marlon Possard ist Assistant Professor, Rechts-, Verwaltungswissenschaftler und Philosoph. Er lehrt und forscht als Habilitand am Department für Verwaltung, Wirtschaft, Sicherheit und Politik (VWSP) und am Research Center Administrative Sciences (RCAS) der Hochschule für Angewandte Wissenschaften Campus Wien (HCW). Zudem lehrt und forscht er am Institut für digitale Transformation und künstliche Intelligenz an der Rechtswissenschaftlichen Fakultät der Sigmund-Freud-Privatuniversität Wien und Berlin (SFU), wo er das Department für Ethik der künstlichen Intelligenz leitet. Darüber hinaus ist er Gastforscher an der Harvard University (USA). Er ist Autor zahlreicher Publikationen und Beiträge zu Fragen des Rechts, der Verwaltung und der Ethik (140+).
Im Vorfeld der Campus Lecture in Wien hat er sich Zeit genommen, unsere Fragen zu beantworten.
Hinweis: Im Sinne der besseren Lesbarkeit verwenden wir keine gegenderten Formen. Dies ist keine Wertung und schließt alle Menschen ausdrücklich ein.
Frage:
Herr Possard, in Ihren Forschungsgebieten spielt die Ethik künstlicher Intelligenz eine zentrale Rolle. Welche Kriterien sind aus Ihrer Sicht entscheidend, damit KI‑gestützte Gefahrenerkennung – wie sie heute in modernen Leitstellen eingesetzt wird – verantwortungsvoll und auch rechtssicher genutzt werden kann?
Marlon Possard:
„Entscheidend ist zunächst der Grundsatz der Zweckbindung und Verhältnismäßigkeit. KI-gestützte Gefahrenerkennung darf nicht nach dem Prinzip „so viele Daten wie möglich“ betrieben werden, sondern muss klar definierte Sicherheitszwecke verfolgen. Systeme zur Erkennung von Brandereignissen, unbefugtem Zutritt oder eskalierenden Situationen unterscheiden sich rechtlich und ethisch erheblich von flächendeckender Verhaltensüberwachung.
Zweitens braucht es Transparenz und Nachvollziehbarkeit. Betreibern müssen erklären können, nach welchen Kriterien ein System Alarm auslöst, priorisiert oder Risiken bewertet. Gerade in sicherheitskritischen Umgebungen reicht ein „Black Box“-Ansatz nicht aus. Entscheidungen müssen auditierbar sein – sowohl technisch als auch organisatorisch.
Drittens ist menschliche Aufsicht zentral. KI sollte in Leitstellen primär als Entscheidungsunterstützung fungieren, nicht als autonom handelnde Instanz. Die finale Bewertung einer Lage muss bei qualifizierten Menschen verbleiben – vor allem dann, wenn Maßnahmen mit erheblichen Grundrechtseingriffen verbunden sind.
Viertens ist Datenqualität ein Schlüsselfaktor. Verzerrte oder unvollständige Trainingsdaten können zu Fehlalarmen oder diskriminierenden Bewertungen führen. Deshalb benötigen solche Systeme kontinuierliche Validierung, regelmäßige Bias-Prüfungen und klare Qualitätsstandards. Und schließlich braucht es eine robuste Governance. Dabei handelt es sich um klare Verantwortlichkeiten, dokumentierte Prozesse, Datenschutz-Folgenabschätzungen sowie unabhängige Kontrollen. Rechtssicherheit entsteht nicht allein durch Technik, sondern im Speziellen durch institutionelle und organisatorische Einbettung.“
Frage:
Systeme zur Echtzeitdetektion erkennen heute Feuer, Waffen oder ungewöhnliche Bewegungsmuster und priorisieren Ereignisse automatisch. Welche wissenschaftlichen oder juristischen Herausforderungen sehen Sie, wenn maschinelle Risikoanalysen zu einer zentralen Entscheidungsgrundlage werden?
Marlon Possard:
„Die größte Herausforderung liegt primär in der Verschiebung von Entscheidungsmacht. Wenn nämlich Systeme Risiken nicht nur erkennen, sondern tatsächlich auch priorisieren, beeinflussen sie unmittelbar das, worauf Menschen ihre Aufmerksamkeit richten. Das kann enorme Effizienzgewinne bringen, birgt aber ebenso die Gefahr eines sogenannten „Automation Bias“. Dies kann dazu führen, dass Menschen tendieren, algorithmischen Einschätzungen zu stark zu vertrauen.
Wissenschaftlich stellt sich deshalb die Frage nach der Validität solcher Systeme unter realen Bedingungen. Ein Modell kann im Labor sehr präzise sein, aber unter Stress, schlechten Lichtverhältnissen oder in komplexen Umgebungen deutlich schlechter funktionieren. Gerade seltene Ereignisse – zum Beispiel bewaffnete Angriffe – sind statistisch schwierig zu modellieren, weil hochwertige Trainingsdaten begrenzt sind.
Juristisch ist besonders relevant, wer die Verantwortung trägt, wenn ein System falsch priorisiert oder eine Gefahr übersieht. Mit zunehmender Automatisierung verschwimmen sukzessive auch Verantwortlichkeiten zwischen Hersteller, Betreiber und Anwender. Das ist gegenwärtig besonders im europäischen Rechtsrahmen ein zentrales Thema. Hinzu kommt die Frage der Grundrechte. Systeme, die Bewegungsmuster oder Verhaltensanomalien analysieren, bewegen sich schnell im Bereich sensibler Persönlichkeitsprofile. Hier muss jedenfalls klar geregelt sein, welche Daten erhoben werden dürfen, wie lange sie gespeichert werden und unter welchen Voraussetzungen automatisierte Bewertungen überhaupt zulässig sind.“
Frage:
Technologien zur Echtzeitüberwachung und automatisierten Gefahrenanalyse stehen oft im Spannungsfeld von Sicherheitsinteressen, Datenschutz und gesellschaftlicher Akzeptanz. Was braucht es, damit Menschen KI‑gestützte Sicherheitssysteme als legitim und vertrauenswürdig wahrnehmen?
Marlon Possard:
„Vertrauen entsteht nicht allein durch technische Leistungsfähigkeit, sondern durch nachvollziehbare Regeln und faire Anwendung. Menschen akzeptieren Sicherheitstechnologien eher, wenn sie auch wirklich verstehen, welchem Zweck sie dienen und wo ihre Grenzen liegen.
Wichtig ist daher zunächst die Offenlegung. Betreiber sollten transparent kommunizieren, welche Daten verarbeitet werden, welche Risiken erkannt werden sollen und welche Entscheidungen automatisiert beziehungsweise menschlich getroffen werden.
Zweitens braucht es den Grundsatz der Datensparsamkeit. Systeme sollten so konzipiert sein, dass sie möglichst wenige personenbezogene Daten benötigen. Viele Sicherheitsanwendungen lassen sich etwa mit Ereignis- oder Mustererkennung realisieren, ohne umfassende Identitätsprofile zu erstellen.
Drittens ist Rechenschaftspflicht entscheidend. Wenn KI-Systeme Fehler machen, muss klar sein, wie Vorfälle überprüft, korrigiert und dokumentiert werden. Menschen vertrauen Systemen eher, wenn es wirksame Kontroll- und Beschwerdemechanismen gibt.
Schließlich darf der Aspekt der gesellschaftlichen Teilhabe nicht vergessen werden, der ebenfalls eine wichtige Rolle einnimmt. Technologien, die tief in öffentliche Räume eingreifen, sollten nicht ausschließlich von Herstellern oder Behörden definiert werden. Der Grund liegt auf der Hand: Akzeptanz entsteht dort, wo Unternehmen, Wissenschaft, Politik und Zivilgesellschaft gemeinsam Standards entwickeln.“
Frage:
In Ihrer wissenschaftlichen Arbeit analysieren Sie datengetriebene Strafverfolgung und KI‑gestützte Polizeiarbeit. Welche Methoden oder Erkenntnisse aus diesem Bereich könnten aus Ihrer Sicht auch für zivile Sicherheitsanwendungen wertvoll sein, etwa in Unternehmen oder öffentlichen Einrichtungen?
Marlon Possard:
„Ein wichtiger Ansatz ist die risikobasierte Priorisierung. Moderne Analysesysteme können große Mengen heterogener Daten – ich denke da beispielsweise an Sensorik, Zutrittsdaten oder Videoströme – zusammenführen und Ereignisse kontextbezogen bewerten. Für zivile Anwendungen kann das helfen, Ressourcen gezielter einzusetzen und kritische Situationen schneller zu identifizieren.
Ebenso relevant ist das Prinzip der „Human-in-the-Loop“-Architektur, wie sie auch der Artificial Intelligence Act (AI Act) der Europäischen Union vorschreibt. Speziell in sicherheitskritischen Bereichen hat sich gezeigt, dass Systeme besonders zuverlässig arbeiten, wenn KI Voranalysen liefert, die endgültige Bewertung jedoch bei geschulten Menschen verbleibt. Diese Kombination erhöht sowohl Effizienz als auch Verantwortlichkeit.
Aus der Forschung zur Polizeiarbeit stammt außerdem die Erkenntnis, dass technische Systeme kontinuierlich evaluiert werden müssen. Modelle verändern ihre Leistungsfähigkeit über die Zeit (zum Beispiel durch veränderte Umgebungen oder neue Bedrohungsmuster). Deshalb braucht es regelmäßige Audits, Qualitätskontrollen und Anpassungsmechanismen.
Letztlich ist auch Interoperabilität ein zentrales Thema, da Sicherheitslagen selten isoliert entstehen. Der Mehrwert moderner Plattformen liegt oft darin, unterschiedliche Datenquellen und Sicherheitssysteme intelligent zu integrieren – allerdings unter klaren Datenschutz- und Zugriffsregeln.“
Frage:
Sie lehren und forschen zu Fragen staatlicher Sicherheit, Digitalisierung und Governance. Wie lässt sich aus Ihrer Sicht eine sinnvolle Balance zwischen automatisierter Entscheidungsunterstützung und menschlicher Verantwortung herstellen, insbesondere in Einsatzsituationen, in denen jede Sekunde zählt?
Marlon Possard:
„Die entscheidende Frage lautet nicht „Mensch oder Maschine“, sondern wie beide sinnvoll zusammenspielen. Mein Appell: KI als Partner sehen. Gerade in zeitkritischen Situationen kann KI Menschen entlasten, indem sie Informationen vorsortiert, Muster erkennt oder Warnungen priorisiert. Das erhöht sowohl die Geschwindigkeit als auch das Situationsbewusstsein.
Gleichzeitig dürfen wir Verantwortung aber nicht an Systeme delegieren, die weder Kontextverständnis noch normative Urteilsfähigkeit besitzen. Menschen können Unsicherheiten bewerten, ethische Abwägungen treffen und außergewöhnliche Situationen interpretieren. All diese Fähigkeiten sind gerade in Krisensituationen von enormer Bedeutung.
Für die Praxis bedeutet dies konkret: KI sollte Empfehlungen geben, aber Entscheidungsräume offenlassen. Systeme müssen so gestaltet sein, dass Operator Eingriffe nachvollziehen, korrigieren oder übersteuern können. Gute Mensch-Maschine-Schnittstellen sind daher ebenso wichtig wie die Qualität der Algorithmen selbst. Unverzichtbar ist darüber hinaus Ausbildung und eine effiziente Organisationskultur. Wer mit KI-gestützten Sicherheitssystemen arbeitet, muss nicht nur die Funktionen verstehen, sondern auch deren Grenzen. Technologische Kompetenz wird somit also zunehmend Teil der professionellen Sicherheitsarbeit.“
Frage:
Wenn Sie an die nächsten fünf bis zehn Jahre denken: Welche Entwicklungen im Bereich KI, Ethik und kritische Ereigniserkennung werden Ihrer Ansicht nach den größten Einfluss auf Lösungen wie das Critical Event Management haben, wie es Primion auf der Campus Lecture am 20. Mai vorstellen wird?
Marlon Possard:
„Diesbezüglich sehe ich vor allem drei Entwicklungen, die ich skizzieren möchte.
Erstens wird KI deutlich kontextsensitiver werden. Systeme werden künftig nicht nur einzelne Ereignisse erkennen, sondern komplexe Lagebilder aus unterschiedlichen Quellen zusammenführen (zum Beispiel Videoanalyse, Zutrittskontrolle, Gebäudesensorik oder Kommunikationsdaten). Dadurch entsteht eine wesentlich präzisere Echtzeitbewertung kritischer Situationen, was positiv zu bewerten ist.
Zweitens wird das Thema vertrauenswürdige KI strategisch entscheidend, weil regulatorische Anforderungen – insbesondere in Europa – dazu führen werden, dass Nachvollziehbarkeit, Dokumentation, Auditierbarkeit und menschliche Kontrolle zu zentralen Wettbewerbsvorteilen werden. Unternehmen, die Sicherheitstechnologie entwickeln, müssen künftig nicht nur leistungsfähige, sondern auch erklärbare und governancefähige Systeme anbieten.
Drittens wird cyberphysische Sicherheit stärker zusammenwachsen. Kritische Ereignisse betreffen immer häufiger sowohl physische als auch digitale Infrastrukturen. Moderne Sicherheitsplattformen werden deshalb integrierter denken müssen: Ein Angriff auf IT-Systeme, Gebäudetechnik oder Zutrittsinfrastrukturen wird künftig als zusammenhängende Sicherheitslage betrachtet.
Langfristig wird der Erfolg solcher Lösungen nicht allein daran gemessen werden, wie viele Ereignisse sie erkennen, sondern wie verantwortungsvoll sie Entscheidungen unterstützen. Die zentrale Herausforderung der kommenden Jahre wird meines Erachtens deshalb sein, technologische Leistungsfähigkeit mit rechtsstaatlichen und ethischen Prinzipien dauerhaft in Einklang zu bringen. Kurzum: Die beste Sicherheitslösung ist für mich nicht die autonomste, sondern diejenige, die die Stärken von Mensch und KI sinnvoll vereint.“ .
Andere Artikel

Zur Zukunft intelligenter Gefahrenerkennung

Österreich im Fokus: Primion verstärkt Engagement im österreichischen Markt

Fünf Erkenntnisse aus der ASIS Europe 2026 Keynote von Francis Cepero

Jährliche Schulungen reichen für NIS-2 nicht aus – darauf achten Auditoren wirklich

Nur wenn Systeme unterstützen und nicht behindern können Menschen Bestleistungen erreichen
