netkiosk.digital

Wo Meinungen aufeinander treffen

Meta Ray-Ban

Autor, Sprecher und Episodenbild

Thorsten Siefert

Technik und Gestaltung

Thorsten Siefert

Es gilt das gesprochene Wort

Kennen Sie Ray-Ban?

Die haben tolle Brillen.

Zumindest vom Design her.

Von der Optik.

Und wenn die Blues Brothers Ray-Bans getragen haben:

Dann wissen Sie, wie ikonisch das sein kann.

Schwarzer Anzug.

Schwarze Brille.

โ€žWir sind im Auftrag des Herrn unterwegs.โ€œ

Seit einiger Zeit gibt es von Ray-Ban auch Brillen mit kรผnstlicher Intelligenz.

Smart Glasses.

Mit Kamera.

Mit Mikrofon.

Mit โ€žHey, mach mal KIโ€œ.

Ray-Ban arbeitet dafรผr mit niemand anderem als Meta zusammen.

Also: Facebook.

Instagram.

WhatsApp.

Meta.

Das ist doch โ€™ne tolle Kombi, oder?

Was kann da schon schiefgehen?

Hmmmโ€ฆLassen Sie uns mal gemeinsam รผberlegen.

Wann nutzen Sie als Brillentrรคger Ihre Brille?

Direkt nach dem Aufstehen?

Beim Zรคhneputzen?

Beim Frรผhstรผck?

Auf dem Weg zur Arbeit?

Auf der Arbeit?

Beim Arzt?

Welchen Job haben Sie?

Arzt?

Busfahrer?

Bรคnker?

Lehrer?

Fรผr Brillentrรคger wie mich gilt: Die Brille ist immer dabei.

Und wenn die Brille โ€žsmartโ€œ ist?

Dann sieht sie, was ich sehe.

Sie hรถrt, was ich hรถre.

Sie lรคuft im Alltag einfach mit.

Immer.

รœberall.

Und genau da wird es spannend.

Ich bin externer Datenschutzbeauftragter, Datenschutzauditor und Datenschutzkoordinator.

Ja, ich bin grundsรคtzlich vorsichtig mit personenbezogenen Daten.

Und gleichzeitig liebe ich KI.

Vor allem in der Softwareentwicklung.

Als Assistent fรผr Engineering, Coding und Debugging.

Es wird Sie nicht wirklich รผberraschen, dass mein Lieblingskonzept โ€žPrivacy by Designโ€œ ist.

Also: Datenschutz von Anfang an.

Nicht als Sticker auf der Verpackung.

โ€žTrust me broโ€œ als Privacy- und Security-Level?

Das ist nicht mein Ding.

Wie in letzter Zeit ganz oft, ist der Auslรถser fรผr diese Episode ein Artikel, den ich bei Adafruit gefunden habe.

Adafruit ist ein 2005 von der MIT-Ingenieurin Limor Fried gegrรผndetes, vollstรคndig frauengefรผhrtes Elektronik-Unternehmen aus Brooklyn (NYC), das Maker-freundliche Lernangebote sowie sorgfรคltig getestete und kuratierte Tools und Komponenten entwickelt, fertigt und verkauft.

Hinter dem Bericht, รผber den Adafruit berichtet, steckt eine gemeinsame Recherche von Svenska Dagbladet und Gรถteborgs-Posten.

Kurz zusammengefasst:

Menschen in Nairobi, Kenia, schauen sich Inhalte an, die mit Meta-Ray-Ban-Brillen aufgenommen wurden.

Nicht โ€ždie KIโ€œ.

Echte Menschen.

Als sogenannte Data Annotators.

Wozu?

Um KI zu trainieren.

Um Modelle zu verbessern.

Um Systeme โ€žsmarterโ€œ zu machen.

Laut der Recherche berichten Beschรคftigte bei einem Subdienstleister namens Sama, dass sie extrem intime Szenen sehen.

Leute beim Ausziehen.

Leute nackt im Bad.

Pornografie.

Sex.

Bankkarten-Details.

Und halt alles, was der User dieser Brillen auf der Toilette sieht.

Und das ist der Punkt, der bei Wearables besonders weh tut:

Viele Betroffene wissen gar nicht, dass sie gerade aufgenommen werden.

Und das stinkt mir.

โ€žAber das wird doch anonymisiert, oder?โ€œ

Theorie: Gesichter werden unkenntlich gemacht.

Praxis: Das klappt nicht sooooooooo zuverlรคssig.

Die Recherche beschreibt, dass das Blur- oder Anonymisierungs-Verfahren Gesichter und Kรถrper teils nicht korrekt erfasst.

Vor allem bei schwierigem Licht.

Und jetzt stellen Sie sich vor, das passiert im Alltag.

Im Bus.

In der Schule.

Im Bรผro.

Im Wohnzimmer.

Oder im Meeting zu einem geheimen Projekts Ihres Arbeitgebers.

Ein einziger โ€žUpsiโ€œ reicht.

Und aus โ€žanonymisiertโ€œ wird โ€žerkennbarโ€œ.

โ€žDas bleibt doch lokal in der Appโ€œ โ€“ wirklich?

Ein weiteres Detail aus der Recherche:

Verkaufspersonal soll gesagt haben, alles bleibe lokal auf dem Gerรคt oder in der App.

Die Journalisten haben dann Netzwerkverkehr analysiert.

Und sie berichten von laufender Kommunikation mit Meta-Servern.

Fรผr mich ist das der klassische Moment, in dem โ€žPrivacy by Marketingโ€œ auf โ€žReality by Packet Captureโ€œ trifft.

Meta sagt: Passiert โ€žNur wenn du teilstโ€œ

Meta argumentiert sinngemรครŸ:

Wenn Nutzer Inhalte mit Meta AI teilen, kรถnnen Auftragnehmer diese Daten mit prรผfen, um das Erlebnis zu verbessern.

Und man wรผrde Filter einsetzen, um Privatsphรคre zu schรผtzen.

Das klingt erst mal โ€žnormalโ€œ.

So nach: โ€žMachen doch alle.โ€œ

Aber bei einer Brille ist die Grundannahme falsch bequem.

Weil die Brille immer dabei ist.

Und weil Teilen oft nicht wie โ€žTeilenโ€œ wirkt.

Ein Voice-Befehl.

Ein KI-Feature.

Ein Klick.

Und schon kann Material ungewollt in einem Review-Prozess landen. Toll, oder?

Vertraue ich Meta?

Lassen Sie mich so antworten:

Cambridge Analytica โ€“ sagt Ihnen das noch was?

Kurzer Reality-Check.

Cambridge Analytica.

Da ging es um Daten.

Um Profile.

Um Psychometrie.

Um politische Werbung.

Und um die Frage: Wer ist hier eigentlich Kunde โ€“ und wer ist Produkt?

Im Brexit-Kontext wurde damals ebenfalls diskutiert, ob und wie Daten und Targeting Einfluss nehmen.

Es gab Untersuchungen und viel Nebel.

Aber der Vertrauensschaden war real.

Warum erwรคhne ich das hier?

Weil es ein Muster zeigt.

Meta verkauft gern das Gefรผhl:

โ€žDu kontrollierst das.โ€œ

โ€žDu entscheidest.โ€œ

โ€žIst doch dein Gerรคt.โ€œ

Und dann liest man die Details.

Oder man sieht die Schlagzeilen.

Oder man erkennt:

Das Geschรคftsmodell ist nicht โ€žverkaufenโ€œ.

Das Geschรคftsmodell ist Aufmerksamkeit.

Daten.

Modelle.

Optimierung.

Wachstum.

Der Nutzer ist nicht Kunde.

Der Nutzer ist Rohstoff.

Und dann hรถre ich immer: โ€žIch habe nichts zu verbergenโ€œ

Und er ist so wahnsinnig bequem.

Aber bei Brillen kann er Ihnen schnell ins Auge gehen.

Weil Brillen halt nicht nur Ihre Daten erfassen.

Sondern auch die Daten anderer.

Und weil viele Menschen nicht damit rechnen, gefilmt zu werden.

Schon gar nicht in intimen Momenten.

Dazu kommt:

Die meisten klicken โ€žTerms & Conditionsโ€œ weg.

Nicht aus Dummheit.

Sondern weil es Alltag ist.

Weil es Zeit kostet.

Weil es kompliziert ist.

Und lesen so furchtbar nervt.

Und genau darauf bauen viele Systeme.

Auf Zustimmung durch Mรผdigkeit.

Und dann ist da noch Kenia, oder besser gesagt der โ€žDrittlandtransferโ€œ personenbezogener Daten.

Wenn personenbezogenes Material zur Verarbeitung in Drittlรคnder geht, wird es in der EU juristisch schnell ernst.

Unter der DSGVO braucht es dafรผr klare Grundlagen und SchutzmaรŸnahmen.

Kenia ist aus EU-Sicht ein sensibles Thema, weil ein EU-Angemessenheitsbeschluss der Game-Changer wรคre โ€“ und der Prozess dafรผr politisch und formal aufwendig ist.

Es gibt dazu zwar seit 2024 einen offiziellen โ€žAdequacy Dialogueโ€œ zwischen EU und Kenia, aber โ€žDialogโ€œ ist halt noch kein โ€žBeschlussโ€œ.

Aber ich bin Realist: Selbst, wenn Vertrรคge existieren:

โ€žVertraglich geregeltโ€œ bedeutet nicht automatisch โ€žpraktisch sicherโ€œ.

Was ich als Entwickler daran besonders schlimm finde.

Ich mag KI.

Sehr sogar.

Aber ich will transparente Datenflรผsse.

Klare Grenzen.

Und robuste Standardeinstellungen in Hard- und Software.

Wenn ein Produkt behauptet:

โ€žDesigned for privacy, controlled by youโ€œ,

dann muss die technische Realitรคt das auch tragen.

Nicht nur im Kleingedruckten.

Nicht nur im Idealfall.

Sondern im Alltag.

Im Bus.

Im Klassenzimmer.

Im Bรผroflur.

Denn Wearables, zu dieser Gerรคtegruppe gehรถren smarte Brillen, sind nicht โ€žnur ein Gadgetโ€œ.

Sie sind Sensoren am Kรถrper.

Und im Zweifel: Kameras im sozialen Raum.

Kommen wir zum konstruktiven Teil dieser Episode.

Wie kann Privacy by Design fรผr Wearables konkret aussehen?

Was wรคre besser?

Fรผr mich ist ein ziemlich gutes Leitbild:

So viel wie mรถglich on-device, also Verarbeitung auf dem Gerรคt.

So wenig wie mรถglich in die Cloud.

Und wenn Cloud, dann stark begrenzt.

Mit Minimierung.

Mit Zweckbindung.

Mit kurzer Speicherung.

Das geht heute.

Und bevor Sie jetzt denken: Schon wieder Apple? Ja, Apple kommt dem in Teilen recht nahe. Nรคher als andere.

Beispiel Apple Vision Pro:

Optic-ID-Daten sind verschlรผsselt und verlassen das Gerรคt nicht.

Sie liegen im Secure Enclave.

Und jetzt fรผr Nicht-ITler:

Stellen Sie sich Ihr Gerรคt wie ein Haus vor.

Der Hauptprozessor ist das Wohnzimmer: da passiert fast alles. Apps laufen, das System arbeitet, das Internet ist da.

Die Secure Enclave ist ein separater, abgeschlossener Tresorraum im Haus. Selbst wenn im Wohnzimmer Chaos ist โ€“ zum Beispiel weil ein Einbrecher eine Tรผr aufbekommt โ€“ bleibt der Tresorraum trotzdem zu.

Und Apple beschreibt fรผr โ€žEyes & Handsโ€œ explizit, dass Blickdaten nicht an Apps, Websites oder Apple weitergegeben werden.

Das ist fรผr mich Privacy by Design im Wearable-Kontext:

  • Lokale Verarbeitung als Standard (nicht als Option).
  • Datenminimierung: Nur das, was wirklich nรถtig ist.
  • Klare Trennung: Sensoren liefern nicht โ€žRohdaten an Appsโ€œ, sondern nur vom informierten User freigegebene Ergebnisse.
  • Sichere Hardware-Zonen fรผr hochsensible Daten.
  • Transparenz, die den Namen verdient: Dezente, kurze aber klare Hinweise direkt im Moment der Erfassung. Fรผr Sie und Ihre Umwelt.
  • โ€žHuman reviewโ€œ als absolute Ausnahme โ€“ und wenn, dann mit echter, informierter Einwilligung, die auch Nicht-Juristen und Nicht-ITler verstehen.

Das ist nicht โ€žKI-feindlichโ€œ.

Das ist KI nur in โ€žerwachsenโ€œ.

Was bleibt?

Ray-Ban kann Design.

Keine Frage.

Und Smart Glasses sind technisch faszinierend. Ich hรคtte haufenweise Anwendungsfelder. Auch beim Golf.

Und was machen Sie als Nutzer, wenn Sie so ein Gerรคt haben wollen? Fragen Sie den Verkรคufer nach den oben beschriebenen Eigenschaften der Hardware. Immerhin sprechen wir hier รผber Brillen, die zwischen 300 und 500 Euro kosten. Da darf man auch mal nachfragen.

Der Optiker meines Vertrauens fragt im Zweifel beim Hersteller nach. Das weiรŸ ich. Und wenn Ihnen das Konzept nicht schlรผssig erscheint: Finger weg! So schwer es auch fรคllt.

Denn sobald Unternehmen wie Meta im Spiel sind, muss man sehr genau hinschauen.

Weil nicht nur die Vergangenheit zeigt:

โ€žTrust meโ€œ reicht nicht.

Thorsten Siefert fรผr netkiosk.digital.