Autor, Sprecher und Episodenbild
Thorsten Siefert
Technik und Gestaltung
Thorsten Siefert
Es gilt das gesprochene Wort
Kennen Sie Ray-Ban?
Die haben tolle Brillen.
Zumindest vom Design her.
Von der Optik.
Und wenn die Blues Brothers Ray-Bans getragen haben:
Dann wissen Sie, wie ikonisch das sein kann.
Schwarzer Anzug.
Schwarze Brille.
โWir sind im Auftrag des Herrn unterwegs.โ
Seit einiger Zeit gibt es von Ray-Ban auch Brillen mit kรผnstlicher Intelligenz.
Smart Glasses.
Mit Kamera.
Mit Mikrofon.
Mit โHey, mach mal KIโ.
Ray-Ban arbeitet dafรผr mit niemand anderem als Meta zusammen.
Also: Facebook.
Instagram.
WhatsApp.
Meta.
Das ist doch โne tolle Kombi, oder?
Was kann da schon schiefgehen?
HmmmโฆLassen Sie uns mal gemeinsam รผberlegen.
Wann nutzen Sie als Brillentrรคger Ihre Brille?
Direkt nach dem Aufstehen?
Beim Zรคhneputzen?
Beim Frรผhstรผck?
Auf dem Weg zur Arbeit?
Auf der Arbeit?
Beim Arzt?
Welchen Job haben Sie?
Arzt?
Busfahrer?
Bรคnker?
Lehrer?
Fรผr Brillentrรคger wie mich gilt: Die Brille ist immer dabei.
Und wenn die Brille โsmartโ ist?
Dann sieht sie, was ich sehe.
Sie hรถrt, was ich hรถre.
Sie lรคuft im Alltag einfach mit.
Immer.
รberall.
Und genau da wird es spannend.
Ich bin externer Datenschutzbeauftragter, Datenschutzauditor und Datenschutzkoordinator.
Ja, ich bin grundsรคtzlich vorsichtig mit personenbezogenen Daten.
Und gleichzeitig liebe ich KI.
Vor allem in der Softwareentwicklung.
Als Assistent fรผr Engineering, Coding und Debugging.
Es wird Sie nicht wirklich รผberraschen, dass mein Lieblingskonzept โPrivacy by Designโ ist.
Also: Datenschutz von Anfang an.
Nicht als Sticker auf der Verpackung.
โTrust me broโ als Privacy- und Security-Level?
Das ist nicht mein Ding.
Wie in letzter Zeit ganz oft, ist der Auslรถser fรผr diese Episode ein Artikel, den ich bei Adafruit gefunden habe.
Adafruit ist ein 2005 von der MIT-Ingenieurin Limor Fried gegrรผndetes, vollstรคndig frauengefรผhrtes Elektronik-Unternehmen aus Brooklyn (NYC), das Maker-freundliche Lernangebote sowie sorgfรคltig getestete und kuratierte Tools und Komponenten entwickelt, fertigt und verkauft.
Hinter dem Bericht, รผber den Adafruit berichtet, steckt eine gemeinsame Recherche von Svenska Dagbladet und Gรถteborgs-Posten.
Kurz zusammengefasst:
Menschen in Nairobi, Kenia, schauen sich Inhalte an, die mit Meta-Ray-Ban-Brillen aufgenommen wurden.
Nicht โdie KIโ.
Echte Menschen.
Als sogenannte Data Annotators.
Wozu?
Um KI zu trainieren.
Um Modelle zu verbessern.
Um Systeme โsmarterโ zu machen.
Laut der Recherche berichten Beschรคftigte bei einem Subdienstleister namens Sama, dass sie extrem intime Szenen sehen.
Leute beim Ausziehen.
Leute nackt im Bad.
Pornografie.
Sex.
Bankkarten-Details.
Und halt alles, was der User dieser Brillen auf der Toilette sieht.
Und das ist der Punkt, der bei Wearables besonders weh tut:
Viele Betroffene wissen gar nicht, dass sie gerade aufgenommen werden.
Und das stinkt mir.
โAber das wird doch anonymisiert, oder?โ
Theorie: Gesichter werden unkenntlich gemacht.
Praxis: Das klappt nicht sooooooooo zuverlรคssig.
Die Recherche beschreibt, dass das Blur- oder Anonymisierungs-Verfahren Gesichter und Kรถrper teils nicht korrekt erfasst.
Vor allem bei schwierigem Licht.
Und jetzt stellen Sie sich vor, das passiert im Alltag.
Im Bus.
In der Schule.
Im Bรผro.
Im Wohnzimmer.
Oder im Meeting zu einem geheimen Projekts Ihres Arbeitgebers.
Ein einziger โUpsiโ reicht.
Und aus โanonymisiertโ wird โerkennbarโ.
โDas bleibt doch lokal in der Appโ โ wirklich?
Ein weiteres Detail aus der Recherche:
Verkaufspersonal soll gesagt haben, alles bleibe lokal auf dem Gerรคt oder in der App.
Die Journalisten haben dann Netzwerkverkehr analysiert.
Und sie berichten von laufender Kommunikation mit Meta-Servern.
Fรผr mich ist das der klassische Moment, in dem โPrivacy by Marketingโ auf โReality by Packet Captureโ trifft.
Meta sagt: Passiert โNur wenn du teilstโ
Meta argumentiert sinngemรคร:
Wenn Nutzer Inhalte mit Meta AI teilen, kรถnnen Auftragnehmer diese Daten mit prรผfen, um das Erlebnis zu verbessern.
Und man wรผrde Filter einsetzen, um Privatsphรคre zu schรผtzen.
Das klingt erst mal โnormalโ.
So nach: โMachen doch alle.โ
Aber bei einer Brille ist die Grundannahme falsch bequem.
Weil die Brille immer dabei ist.
Und weil Teilen oft nicht wie โTeilenโ wirkt.
Ein Voice-Befehl.
Ein KI-Feature.
Ein Klick.
Und schon kann Material ungewollt in einem Review-Prozess landen. Toll, oder?
Vertraue ich Meta?
Lassen Sie mich so antworten:
Cambridge Analytica โ sagt Ihnen das noch was?
Kurzer Reality-Check.
Cambridge Analytica.
Da ging es um Daten.
Um Profile.
Um Psychometrie.
Um politische Werbung.
Und um die Frage: Wer ist hier eigentlich Kunde โ und wer ist Produkt?
Im Brexit-Kontext wurde damals ebenfalls diskutiert, ob und wie Daten und Targeting Einfluss nehmen.
Es gab Untersuchungen und viel Nebel.
Aber der Vertrauensschaden war real.
Warum erwรคhne ich das hier?
Weil es ein Muster zeigt.
Meta verkauft gern das Gefรผhl:
โDu kontrollierst das.โ
โDu entscheidest.โ
โIst doch dein Gerรคt.โ
Und dann liest man die Details.
Oder man sieht die Schlagzeilen.
Oder man erkennt:
Das Geschรคftsmodell ist nicht โverkaufenโ.
Das Geschรคftsmodell ist Aufmerksamkeit.
Daten.
Modelle.
Optimierung.
Wachstum.
Der Nutzer ist nicht Kunde.
Der Nutzer ist Rohstoff.
Und dann hรถre ich immer: โIch habe nichts zu verbergenโ
Und er ist so wahnsinnig bequem.
Aber bei Brillen kann er Ihnen schnell ins Auge gehen.
Weil Brillen halt nicht nur Ihre Daten erfassen.
Sondern auch die Daten anderer.
Und weil viele Menschen nicht damit rechnen, gefilmt zu werden.
Schon gar nicht in intimen Momenten.
Dazu kommt:
Die meisten klicken โTerms & Conditionsโ weg.
Nicht aus Dummheit.
Sondern weil es Alltag ist.
Weil es Zeit kostet.
Weil es kompliziert ist.
Und lesen so furchtbar nervt.
Und genau darauf bauen viele Systeme.
Auf Zustimmung durch Mรผdigkeit.
Und dann ist da noch Kenia, oder besser gesagt der โDrittlandtransferโ personenbezogener Daten.
Wenn personenbezogenes Material zur Verarbeitung in Drittlรคnder geht, wird es in der EU juristisch schnell ernst.
Unter der DSGVO braucht es dafรผr klare Grundlagen und Schutzmaรnahmen.
Kenia ist aus EU-Sicht ein sensibles Thema, weil ein EU-Angemessenheitsbeschluss der Game-Changer wรคre โ und der Prozess dafรผr politisch und formal aufwendig ist.
Es gibt dazu zwar seit 2024 einen offiziellen โAdequacy Dialogueโ zwischen EU und Kenia, aber โDialogโ ist halt noch kein โBeschlussโ.
Aber ich bin Realist: Selbst, wenn Vertrรคge existieren:
โVertraglich geregeltโ bedeutet nicht automatisch โpraktisch sicherโ.
Was ich als Entwickler daran besonders schlimm finde.
Ich mag KI.
Sehr sogar.
Aber ich will transparente Datenflรผsse.
Klare Grenzen.
Und robuste Standardeinstellungen in Hard- und Software.
Wenn ein Produkt behauptet:
โDesigned for privacy, controlled by youโ,
dann muss die technische Realitรคt das auch tragen.
Nicht nur im Kleingedruckten.
Nicht nur im Idealfall.
Sondern im Alltag.
Im Bus.
Im Klassenzimmer.
Im Bรผroflur.
Denn Wearables, zu dieser Gerรคtegruppe gehรถren smarte Brillen, sind nicht โnur ein Gadgetโ.
Sie sind Sensoren am Kรถrper.
Und im Zweifel: Kameras im sozialen Raum.
Kommen wir zum konstruktiven Teil dieser Episode.
Wie kann Privacy by Design fรผr Wearables konkret aussehen?
Was wรคre besser?
Fรผr mich ist ein ziemlich gutes Leitbild:
So viel wie mรถglich on-device, also Verarbeitung auf dem Gerรคt.
So wenig wie mรถglich in die Cloud.
Und wenn Cloud, dann stark begrenzt.
Mit Minimierung.
Mit Zweckbindung.
Mit kurzer Speicherung.
Das geht heute.
Und bevor Sie jetzt denken: Schon wieder Apple? Ja, Apple kommt dem in Teilen recht nahe. Nรคher als andere.
Beispiel Apple Vision Pro:
Optic-ID-Daten sind verschlรผsselt und verlassen das Gerรคt nicht.
Sie liegen im Secure Enclave.
Und jetzt fรผr Nicht-ITler:
Stellen Sie sich Ihr Gerรคt wie ein Haus vor.
Der Hauptprozessor ist das Wohnzimmer: da passiert fast alles. Apps laufen, das System arbeitet, das Internet ist da.
Die Secure Enclave ist ein separater, abgeschlossener Tresorraum im Haus. Selbst wenn im Wohnzimmer Chaos ist โ zum Beispiel weil ein Einbrecher eine Tรผr aufbekommt โ bleibt der Tresorraum trotzdem zu.
Und Apple beschreibt fรผr โEyes & Handsโ explizit, dass Blickdaten nicht an Apps, Websites oder Apple weitergegeben werden.
Das ist fรผr mich Privacy by Design im Wearable-Kontext:
- Lokale Verarbeitung als Standard (nicht als Option).
- Datenminimierung: Nur das, was wirklich nรถtig ist.
- Klare Trennung: Sensoren liefern nicht โRohdaten an Appsโ, sondern nur vom informierten User freigegebene Ergebnisse.
- Sichere Hardware-Zonen fรผr hochsensible Daten.
- Transparenz, die den Namen verdient: Dezente, kurze aber klare Hinweise direkt im Moment der Erfassung. Fรผr Sie und Ihre Umwelt.
- โHuman reviewโ als absolute Ausnahme โ und wenn, dann mit echter, informierter Einwilligung, die auch Nicht-Juristen und Nicht-ITler verstehen.
Das ist nicht โKI-feindlichโ.
Das ist KI nur in โerwachsenโ.
Was bleibt?
Ray-Ban kann Design.
Keine Frage.
Und Smart Glasses sind technisch faszinierend. Ich hรคtte haufenweise Anwendungsfelder. Auch beim Golf.
Und was machen Sie als Nutzer, wenn Sie so ein Gerรคt haben wollen? Fragen Sie den Verkรคufer nach den oben beschriebenen Eigenschaften der Hardware. Immerhin sprechen wir hier รผber Brillen, die zwischen 300 und 500 Euro kosten. Da darf man auch mal nachfragen.
Der Optiker meines Vertrauens fragt im Zweifel beim Hersteller nach. Das weiร ich. Und wenn Ihnen das Konzept nicht schlรผssig erscheint: Finger weg! So schwer es auch fรคllt.
Denn sobald Unternehmen wie Meta im Spiel sind, muss man sehr genau hinschauen.
Weil nicht nur die Vergangenheit zeigt:
โTrust meโ reicht nicht.
Thorsten Siefert fรผr netkiosk.digital.


