Wie Fotos zur neuen Schwachstelle jeder Privatsphäre werden: KI erkennt bald jeden Ort

Quelle: https://commons.wikimedia.org/wiki/File:Geotaggirp.jpg

SAN FRANCISCO – Mit Hilfe von „KI“ ist es nun möglich auf der Basis ausschließlich visueller Inhalte einen Ort zu ermitteln, mit der Folge, dass jeder Schnappschuss nun über eine Maschinenanalyse zu einem Bewegungsprofil zusammengefügt werden kann, sei es „nur für Werbezwecke“ oder bei der Suche nach „Andersdenkenden“ ohne daß der Betroffene das jemals bemerkt.

.

.

Die Rechenleistungen nehmen weiter zu und damit auch die Fähigkeiten von Softwareprogrammen, Daten zu verarbeiten. Aktuell wird so etwas oft als „künstliche Intelligenz“ bezeichnet. Mit der zunehmenden Rechenleistung steigt auch die Leistung Daten zu analysieren und damit auch die Fähigkeit Bilder und deren Bilddaten zu analysieren. Bildinformationen, die früher bedeutungslos waren erhalten vor diesem Hintergrund eine völlig neue Gewichtung und einen völlig neuen Wert.

Jeder, der ein Selfie einer Person vor der Freiheitsstatue der USA sieht, weiß wo dieses Bild aufgenommen wurde. Durch die Zunahme der Rechenleistung kann nun aber auch eine unbedeutend erscheinende Kleinigkeit dazu führen den Ort der Aufnahme eines Bildes genau zu bestimmen, z.B. mit Hilfe einer Schnecke, die zufällig mitaufgenommen wurde und die nur in einer genau definierten Regionen lebt.

So kann z.B. der früher in einem Bild missachtete Hintergrund eines Bilds in KI-Zeiten dazu mitherangezogen werden, den genauen Ort einer Bildaufnahme und damit den Ort des Fotografen offenzulegen.

.

KI ersetzt den Willensakt der Offenlegung von Standortdaten

Am 16.4. hat ChatGBT ein neues „Modell“ (das ist so etwas, wie ein Softwareprogramm) freigeschaltet, das frühere Fähigkeiten verbessert und einige neue Fähigkeiten hinzufügt. Darunter auch die Fähigkeit Bilder zu analysieren.

Umsetzbar ist das z.B. mit Hilfe des seit zwei Wochen neuen „Modells“ von ChatGBT, das als „o3“ und „o4-mini“ bekannt ist. In beiden „Modellen“ ist nun die Fähigkeit implementiert, Bilder zu analysieren. Stellt man dann ChatGBT zu einem Bild die Frage „wo ist das?“, analysiert das KI-Modell das Bild, sucht im Bild nach Hinweisen und versucht auf Basis der Hinweise weltweit nach dem Ort, den das Bild widergeben könnte.

  • Schilder,
  • architektonische Stile,
  • Schriftarten auf Speisekarten oder die
  • Form von Straßenlaternen etc.

können also von nun an dazu dienen, diesen Ort festzustellen.

Damit wird der Willensakt der Offenlegung eins Orts in Zukunft durch eine Maschine ersetzt und das ohne Willensakt des Fotografen oder des Aufgenommenen. Diese Informationen werden aus den Pixeln herausgeholt von denen der Betroffene zuvor keine Ahnung hatte. ein neues Paradies für Stalker!

Neue Fähigkeiten von OpenAI

ChatGPT Denken mit Bildern

OpenAI stellt diese neuen Fähigkeiten in einem eigenen Blogbeitrag vor und führt  hierbei auch gleich wieder eine neue „Sprache“, genauer gesagt ein neues Kauderwelsch ein. OpenAI behauptet in diesem Zusammenhang, daß  diese Versionen o3 und o4-mini

„mit Bildern denken können“.

Das soll bedeuten:

„Sie sehen Bilder nicht nur, sondern können visuelle Informationen direkt in ihre Argumentationskette integrieren.“

Dazu gehört beispielsweise auch, dass die Modelle selbstständig Bilder drehen können oder in diese hineinzoomen und diese Schritte im „Denkprozess“ verarbeiten.

OpenAI bezeichnet dies in seiner eigenen Vorstellung der neuen „Modelle“ als als „Denken mit Bildern

Es ist natürlich völliger Unfug diese Rechenleistungen als „Denken“ zu bezeichnen aber wer die Macht hat, kann derartige Fake-News natürlich ungestraft verbreiten.

Was nun möglich ist:

Normalerweise hinterlegen Digitalkameras in Aufnahmen Zusatzinformationen, die „Metadaten“ genannt werden und auch Standortdaten beinhalten können. Bisher benötigte man diese Metadaten, um eine Bildaufnahme, auf der keine Ortsdaten erkennbar waren, einem Ort zuordnen zu können. Das ist mit dem neuen „Modell“ von OpenAI nun vorbei. OpenAI analysiert den optisch sichtbaren Teil des Bilds und sucht mit Hilfe dieses Analyseergebnisses nach dem Aufnahmeort.

Diese neue Fähigkeit schafft damit auch eine neue Möglichkeit zur Standortverfolgung. Der Nutzer benötigt dazu nun auch keinerlei technische Kenntnisse mehr. Man benötigt nun nur noch einen Zugang zu einem solchen KI-Tool und man muß wissen, was man fragt und benötigt ein Bild nutzen und schon kann man frühere Aufenthaltsorte einer Person erfragen.

Das Neue ist nun: Diese Technologie benötigt weder eine Genehmigung des Fotografen, noch eine Genehmigung des Abgebildeten, noch irgend eine andere Interaktion von der Person, die das Bild veröffentlicht hat!

Das Ergebnis:

Die Fähigkeit, allein durch visuelle Inhalte einen Ort zu erschließen, verändert die Erwartungen an digitale Privatsphäre grundlegend. Was früher eingebettete Daten oder eine explizite Offenlegung erforderte, kann jetzt lautlos durch Maschinenanalyse aufgedeckt werden. Ein Moment, den man beiläufig teilen wollte, kann heute zu einem rückverfolgbaren Ereignis werden, für jeden zugänglich, der das richtige Tool besitzt. So kann man mit Hilfe von ChatGBT nun auch Bewegungsprofile erstellen!

Maschinelles Lernen, trainiert auf Milliarden von Bildern, beginnt nun, Verbindungen herzustellen, die früher unmöglich waren. Es heißt nicht mehr:

„Das ist Berlin“,

sondern es heißt:

„Diese Person besucht wohl gerne Donnerstags nach dem Einkaufen den selben Dönerladen im Wedding“

Man braucht nur in einer gewissen Regelmäßigkeit Fotos aus der Umgebung posten und darauf sind die derselben Straßenlaternen, Ziegelmuster, die selbe Buslinie. Und wie gesagt: man braucht keinen Standort mehr taggen und kann sein GPS deaktiviert haben. Das Ergebnis ist dennoch:

Die KI kennt Ihre Gewohnheiten jetzt besser als Ihre Freunde und sie wird sie nie mehr vergessen.

Journalisten, Aktivisten, Kriminelle und normale Nutzer gingen bisher von der Grundrege aus: Keine Metadaten, kein Risiko! Bisher war es daher State of the Art beim Schutz der Privatsphäre und beim Teilen von Fotos folgende Regeln einzuhalten:

  • Entferne die Metadaten.
  • Lösche die EXIF-Daten
  • Lösche die GPS-Koordinaten
  • Lösche die Kamerainformationen
  • Lösche die Zeitstempel

Nun ist es so: sogar Nutzer, die die Standortdienste deaktiviert haben, Metadaten entfernt haben und sogar VPNs genutzt haben, können nun mit Hilfe der Abbildungen leichter als bisher geortet werden, denn das Abbild selbst ist nun zur Quelle der Geo-Lokalisierung geworden.

Der Betroffene wird auch nie erfahren, daß seine früheren Aufenthaltsorte und damit seine Präferenzen identifiziert wurden, obwohl der Betroffene selbst einen Standort niemals geteilt hatte und niemals einen Name erwähnt hatte.

Beispiele:

Nutzer haben nun eine neue Unterhaltung gefunden. Sie geben ein Bild bei ChatGBT ein und fragen nach dessen Aufnahmeort.

Man stelle sich vor: Jemand fertigt einen Screenshot der Instagram-Story einer Person an. Ein Foto zeigt z.B. lediglich das Gedeck auf einem Tisch, also ohne sichtbare Schilder, ohne Gesichter, ohne Text-Hinweise. Durch Einspeisen des Bildes in eines dieser Modelle kann der Einspeiser ermitteln, in welchem Café man war, in welchem Viertel es liegt und in welcher Stadt.

Auf Plattformen wie X haben Nutzer nun damit begonnen mit dieser Fähigkeit herumzuspielen, indem sie verschiedenste Bilder analysieren lassen. Manche stark gefiltert oder verschwommen, andere völlig unscheinbar. Die KI antwortet oft mit erstaunlicher Präzision:

  • Ein Teilnehmer lud ein düster beleuchtetes Bild aus einer Bar hoch. Das Modell identifizierte mit Hilfe eines Bilds eines lilafarbenen, ausgestopften Nashornkopfes zutreffend ein Speakeasy in Williamsburg.
  • Ein anderer testete ein unscheinbares Foto aus einer Bibliothek und diese wurde gefunden.

X ist schon nach 2 Wochen voll von weiteren Beispielen von Benutzern, die ChatGPT

geben und o3 anweisen, sich vorzustellen, es würde „GeoGuessr“ spielen, ein Onlinespiel, bei dem die Spieler Standorte anhand von Google Street View-Bildern erraten müssen.

Das GeoGuessr-Phänomen: Wenn Teenager und Chatbots zum neuen Überwachungsstaat deiner Nachbarschaft werden

Es gibt ein Browserspiel, namens „GeoGuessr„, das zum Internethit wurde. Dabei wird der Spieler zufällig auf Google Street View platziert und man muß erraten, wo man sich befindet. Dieses Spiel ist durch diese neue Fähigkeit nun für jeden Erdenbewohner ungewollten Realität geworden. Der Spieler wurde nun durch KI ersetzt. Nicht mehr die Spieler, sondern die KI erkennt nun den Kontinent, das Land, die Stadt, den Ort des Aufenthalts mit Hilfe von Charakteristika.

  • TikTok hat Kanäle, auf denen Nutzer Screenshots fremder Posts hochladen und ihre Follower herausfordern, den genauen Ort zu finden.
  • Reddit hat Subforen, in denen Hobbydetektive Schatten, Schilder und sogar Mülltonnen-Architektur analysieren.

.

Stalkers Paradise

Die moderne Version dieses Spiels nutzt keine zufälligen Google-Platzierungen mehr. Sie nutzt echte Fotos von einem Telefon, von einem Posts, aus dem realen Leben einer Person. Nutzer beauftragen das Modell „o3“ einfach als ihren persönlichen Detektiv. Dieser Detektiv hat auch keine menschlichen Schwächen. Er murrt nicht, will nicht nachverhandeln, schläft nicht ein und erkennt sogar kleinste Hinweise, wie z.B. das Wort „Café“ in winziger Helvetica-Schrift an der Glas-Eingangstüre in Spiegelschrift. Die KI analysiert das Bild, dreht das Bild, zoomt hinein, analysiert Materialien, Schatten und Reflexionen und die Umgebung und begibt sich dann im gesamten Internet auf die Suche nach einer möglichst passgenauen Antwort.

In wenigen Sekunden weiß dann der Nutzer, daß der Betroffene z.B. im Franziskaner in München daß.

Oder man stellt ein Bild vom morgendlichen Gassi-Gehen mit dem Hund online. Die Blätter sehen schön aus, das Licht ist gut, die Schlappen sind auch schon alt. Zehn Minuten später kommt eine Nachricht herein:

„Das ist die Brotmanufaktur am Kufsteiner Pl. 2, 81679 München, oder?“

Das digitale Detektivspiel ist in nur 2 Wochen bereits jetzt zum Breitensport für jedermann geworden, GeoGuessr war gestern. In den neuen Zeiten der ChatGBT-Onlinekultur im Jahr 2025 ist viel mehr möglich. Gelangweilte, Kriminelle, Geheimdienstler haben nun ein neues Instrument in der Hand. Die Privatsphäre der Zielperson war ja schon immer deren Rätsel.

Neue Anwendungen und Verdienstmöglichkeiten

Manche dieser Aktivitäten haben gute Absichten – z.B. bei

  • der Suche nach Vermissten oder bei einer Katastrophenhilfe.
  • Ein Neugieriger will wissen, wo der hübsche Park ist, den man gepostet hat
  • ein Urlauber will wissen, ob ein Reiseberichter gelogen hat.

Aber der Werbebranche und der politischen Manipulation öffnen sich neue Möglichkeiten des Micro-Targeting: Werbung nach Postleitzahl oder Suchverlauf im Browser war gestern. OpenAI kann die Zielperson nun direkt ansprechen, basierend auf den realen Orten, die jemand wohl besucht oder ggf. besuchen will, auch ohne daß die Zielperson den Ort jemals erwähnt hat!

  • Wer der KI ein Foto von sich im Fitnessstudio geschenkt hat, darf sich nicht wundern wenn er dann auf einmal Proteinpulver und Fitness-Apps angezeigt bekommt und das ggf. sogar von einem Geschäft an dem er gerade vorbei läuft.
  • Nach Brunch-Fotos bietet einem das Lieblings-Cafe auf einmal Treuepunkte an.

All das kann dann automatisch erfolgen! Das Ergebnis ist ein neues Überwachungsökosystem, das vielfach genutzt werden kann. Sogar bei Demonstrationen gegen die Regierung, z.B. wegen idiotischer Masken-Regeln, weil gerade wieder Schnupfen-Saison ist.

Das Basteln am digitalen Zwilling

Daß irgendjemand den Aufenthaltsort einer Person erraten kann ist die kleinere Gefahr. Viel größer ist die Gefahr, daß alle, also Plattformen, Vermarkter, KI-Entwickler, etc. zu wissen beginnen, wo sich ein Individuum gerne aufhält, welchen Beschäftigungen es nachgeht, mit wem man sich trifft und wie man sich wahrscheinlich in Zukunft verhalten wird. Die Digital-Konzerne bauen sich damit also einen digitalen Zwilling einer echten Person auf. Doch was passiert, wenn dieser digitale Zwilling mit der staatlichen digitalen Identität verknüpft wird und/oder mit dem „digitalen Geld“?

Datenhygiene weicht der Datenunvermeidbarkeit.

Die Überwachung durch visuelle KI-Analyse wird nicht nur von Regierungen betrieben. Sie wird nicht von Gerichten überwacht. Sie erfordert keine Durchsuchungsbefehle oder Vorladungen. Sie geschieht leise, individuell, auf einer Skala, die schwer zu erfassen und unmöglich vollständig anzufechten ist.

Es gibt keine Benachrichtigungen, wenn ein Foto analysiert wird. Keine Protokolle, die dokumentieren, wer was angefragt hat. Kein Widerspruchsverfahren für Nutzer, die ins Visier geraten.

  • Datenschutzerklärungen nützen hiergegen nicht! Rechtstexte in Schriftgröße können eine neuronale KI nicht daran hindern, den Ort Ihres Selfies anhand der Form einer Mülltonne zu erkennen.
  • Ortungsdienste deaktivieren nützen hiergegen nicht! Das System benötigt keine GPS-Signale etc.

Die Zukunft braucht kein Signal , sondern nur ein Muster. Und die KI lernt dieses Muster, zur Not auch in Echtzeit!