
Datenschutz Strategie für Intelligente Assistenzsysteme in der Produktion
Intelligente Assistenzsysteme unterstützen uns in vielen Bereichen des Alltags: im Büro, zu Hause, im Auto. Die dahinterstehende KI hat in den letzten Jahren enorme Fortschritte gemacht und ihre Performance hat diese Unterstützungen oftmals für uns unentbehrlich gemacht. Nur selten wird reflektiert, welche persönlichen Daten der KI dazu einsehbar gemacht werden. Im privaten Bereich ist dies für viele Personen akzeptabel, in der Arbeitswelt müssen sich die Systeme hohen Datenschutzvorgaben stellen. Das betrifft Industriespionage genauso wie das Konfliktfeld Arbeitnehmer*innen vs. Arbeitgeber*innen zum Beispiel im Kontext verdeckter Leistungsüberprüfungen.
ErgoBest
Im Rahmen des ErgoBest-Projektes arbeiten wir mit dem DFKI, Uni Kassel, Mfcit und UNIKIMS an einem Assistenzsystem, das mit Hilfe diverser Körper-Sensoren Arbeiter*innen vor ergonomischen Fehlhaltungen schützen soll. Der traditionelle Ablauf sah hier bisher ein Bewertungsverfahren durch geschultes und in der Ergonomiebewertung erfahrenes Personal vor, das für Körperhaltungen, Aktionskräfte, manuelle Handhabung, Belastung der oberen Extremitäten in einem EAWS (Ergonomic Assessment Worksheet) festhält und bewertet. Im ErgoBest-System überwacht ein Sensoranzug in industriellen Arbeitsprozessen die Körperhaltungen einer Arbeitskraft und warnt direkt über Mixed Reality Apps vor Gefahrenpotenzialen. Dies erlaubt eine EAWS-Score Bewertung eines komplexen Arbeitsprozesses sowie eines ganzen Arbeitstages. Darüber hinaus ermöglicht ein solches System auch eine EAWS-Bewertung direkt in Mitarbeiterschulungen, ist geeignet für einen dauerhaften Einsatz am Arbeitsplatz oder kann vorab in der Produktionsplanung zur ergonomisch optionalen Einrichtung von Arbeitsplätzen eingesetzt werden.
Datenschutz-Datennutz-Spagat
Aus Datenschutzsicht steht dabei der Schutz der Arbeitnehmer*innen im Fokus. Angriffsszenarien reichen in einem solchen Umfeld von Leistungsüberprüfungen der Mitarbeiter*innen bis hin zu Ausfall- und Krankheitsvorversagen über einzelne Mitarbeitende. Der typische Spagat, der hier zu leisten ist, betrifft die gegensätzlichen Anforderungen an genutzte und übergebene Datenmengen: KI-Systeme werden mit zunehmenden Datenmengen stärker, auf der anderen Seite zielt der Datenschutz auf den Schutz jedes einzelnen Mitarbeitenden und damit auf möglichst schlanke und anonymisierte, d.h. oft verrauschte Datensammlungen.
Privacy-by-Design
Im ErgoBest-Projekt wurde daher schon im Planungsprozess auf Datensparsamkeit und maximale Reduktion des Datenverkehrs geachtet. So verlassen z.B. im täglichen Einsatzszenario keine Daten den Anzug. Die anfallenden Sensordaten sind lediglich lokal und werden zudem nicht über eine Session hinaus gespeichert. Aus Datenschutzsicht kritisch ist einzig die Übertragung der Daten von den Sensoren zur Recheneinheit des Anzugs, die sich durch technische Maßnahmen wie eine Übertragungsverschlüsselung sicher abbilden lässt. Für eine allgemeinere erweiterte Anwendungssituation mit KI-gesteuerten Handlungsempfehlungen oder automatisierter Prozesserkennung müssen Sensordaten zentral aggregiert und verarbeitet werden. Um hier Datenschutzgarantien quantifizieren zu können, müssen sämtliche Datenflüsse des Gesamtsystems schematisch erfasst und die Sensibilität der Daten nach Privatheits-Metriken hinsichtlich ihrer (differentiellen) Privatheit konzeptionell bewertet werden.
Privatheits-Metriken: differentielle Privatheit in metrischen Räumen
Konzeptionelle Bewertung hinsichtlich der Privatheit bedeutet dabei, dass wir an jeder ErgoBest-Schnittstelle überprüfen müssen, ob die Beantwortung einer Anfrage negative Auswirkungen auf den Nutzenden hätte. Doch wie bewertet man so etwas? Im Falle der differentiellen Privatheit, die wir in ErgoBest nutzen, stellt man sich auf den Standpunkt, dass die sicherste Datenbank diejenige ist, die die eigenen Daten nicht enthält. Da man in diesem Fall auch keinen Nutzen von der Datenbank hätte, verlangt man statt dessen, dass der Informationsunterschied, den ein Angreifender aus einer Datenbank mit den eigenen Daten und einer ohne die eigenen Daten gewinnen könnte, möglichst gering ist. Typischerweise werden zur Überprüfung Bewertungssalgorithmen angewendet, deren Ergebnisse nur schwer zu interpretieren sind. In ErgoBest verwenden wir stattdessen aktuelle Forschungsergebnisse aus dem Bereich differentielle Privatheit in metrischen Räumen.
Basierend auf einer solchen Bewertungsmethode werden insbesondere die Daten der Prozesserkennungs- und Handlungsempfehlungsalgorithmen durch zielgerichtetes künstliches Verrauschen und Re-Skalierung der originalen Daten so optimiert, dass deren Ergebnisse hinreichend stabil bleiben, aber die Privatsphäre des Nutzenden geschützt ist und insbesondere keine Rückschlüsse auf die Mitarbeiterperformance möglich sind.