Hat Google zu weit gegangen? Chrome wird beschuldigt, heimlich massive KI-Modelle auf den Computern der Nutzer zu installieren.
Über Jahre hinweg haben die größten Technologieunternehmen der Welt versprochen, dass künstliche Intelligenz unsere Geräte smarter, schneller und persönlicher machen würde. Was sie selten diskutierten, war, wie leise diese Transformation stattfinden würde — oder wie wenig Kontrolle die Nutzer letztendlich über die Maschinen behalten könnten, die sie angeblich besitzen.
Jetzt braut sich ein wachsender Gegenwind zusammen wegen der Vorwürfe, dass Googles Chrome-Browser begonnen hat, automatisch große KI-Modelle auf die Computer der Nutzer herunterzuladen, ohne klare Zustimmung, ausdrückliche Genehmigung oder sogar offensichtliche Benachrichtigung.
Die Kontroverse hat eine tiefere und zunehmend unangenehme Frage im Herzen der KI-Revolution neu entfacht: Wann genau wurden Verbraucher nicht mehr gefragt, bevor ihre Computer in die Infrastruktur für die Ambitionen des Silicon Valley umfunktioniert wurden?
Die Anschuldigungen stammen von dem Sicherheitsforscher Alexander Hanff, der online weithin als „That Privacy Guy“ bekannt ist, und der eine detaillierte technische Analyse veröffentlicht hat, die behauptet, dass Chrome stillschweigend ein lokales KI-Modell herunterlädt, das mit Googles Gemini Nano-System verbunden ist.
Laut Hanff kann die Datei — angeblich weights.bin genannt — eine Größe von rund vier Gigabyte erreichen und wird automatisch auf Maschinen installiert, die bestimmte Hardwareanforderungen erfüllen.
Vier Gigabyte sind kein triviales Hintergrundupdate.
Bis vor kurzem war dieses Maß an Speicherverbrauch mit großen Softwarepaketen oder modernen Videospielen verbunden, nicht mit einem Webbrowser, der hauptsächlich zum Öffnen von Tabs und Streamen von Videos verwendet wird.
Dennoch behauptet Hanff, dass der Prozess unsichtbar im Hintergrund während gewöhnlicher Browsing-Sitzungen abläuft, ohne signifikante Offenlegung und ohne einen klaren Opt-in-Mechanismus.
Noch alarmierender ist seiner Ansicht nach die Persistenz der Installation.
Nutzer, die die Datei manuell finden und löschen, könnten später feststellen, dass sie nach weiteren Aktivitäten in Chrome leise wieder auftaucht.
Laut seinen Erkenntnissen könnte es erforderlich sein, bestimmte Browserfunktionen tief in den Einstellungen von Chrome zu deaktivieren oder den Browser insgesamt zu entfernen, um den Download vollständig zu verhindern.
Um seine Behauptungen zu testen, führte Hanff in macOS ein kontrolliertes Experiment mit einem völlig neuen Chrome-Profil durch.
Er überwachte das Journaling-Dateisystem des Betriebssystems — einen unabhängigen Protokollierungsmechanismus, der die Dateiaktivität unabhängig von der Anwendungsebene aufzeichnet — und beobachtete, wie Chrome Verzeichnisse mit KI-Infrastruktur erstellte und das Modell im Hintergrund über etwa vierzehn Minuten herunterlud.
Der Browser, so behauptet er, bewertete zuerst die Hardwarefähigkeiten der Maschine, bevor er entschied, ob sie geeignet war, ein lokales KI-Modell auszuführen.
Praktisch gesehen wartete Chrome angeblich nicht darauf, dass die Nutzer KI-Tools aktivierten.
Stattdessen entschied er proaktiv, welche Computer on-device KI unterstützen konnten, und stellte automatisch die notwendige Infrastruktur bereit.
Die Implikationen reichen weit über ein Browser-Update hinaus.
Im Zentrum der Kontroverse steht eine breitere Transformation, die die Technologiebranche durchdringt: die Migration künstlicher Intelligenz von entfernten Cloud-Servern direkt auf persönliche Geräte.
Unternehmen argumentieren, dass lokale KI-Modelle die Geschwindigkeit verbessern, die Serverkosten senken, den Datenschutz stärken und die Abhängigkeit von ständiger Internetverbindung verringern.
Googles Gemini Nano-Initiative ist speziell für diese Zukunft konzipiert — leichtgewichtige KI-Systeme, die direkt auf Handys und Computern funktionieren können, ohne ständige Kommunikation mit zentralen Rechenzentren.
Aus ingenieurtechnischer Sicht ist die Logik überzeugend.
Aus Sicht der Nutzerrechte sagen Kritiker, ist die Ausführung tief beunruhigend.
Hanff argumentiert, dass das Problem nicht nur technisch, sondern philosophisch ist.
Seiner Ansicht nach behandeln Unternehmen zunehmend Verbrauchgeräte als Bereitstellungsziele und nicht als privat kontrolliertes Eigentum.
Funktionen werden standardmäßig aktiviert.
Hintergrundprozesse arbeiten stillschweigend.
Opt-out-Systeme sind hinter unübersichtlichen Menüs vergraben.
Und zunehmend entdecken die Nutzer große Änderungen erst, nachdem unabhängige Forscher sie aufgedeckt haben.
Die Kritik echoiert Jahre von Beschwerden zu sogenannten „dunklen Mustern“ — Benutzeroberflächendesigns, die absichtlich so strukturiert sind, dass sie das Nutzerverhalten manipulieren, wichtige Informationen verschleiern oder das Abmelden von Datensammlung und Aktivierung von Funktionen erschweren.
Datenschutzbefürworter sagen, die KI-Ära riskiert, diese Praktiken in die Höhe zu treiben, indem sie groß angelegte maschinelle Lerninfrastruktur direkt in Verbrauchshardware unter dem Vorwand nahtloser Bequemlichkeit einbettet.
Die rechtlichen Implikationen könnten ebenfalls explosiv werden.
Hanff argumentiert, dass die stille KI-Bereitstellung mit europäischen Datenschutzrahmen wie der Datenschutz-Grundverordnung und der ePrivacy-Richtlinie in Konflikt stehen könnte, die beide strenge Regeln bezüglich Nutzerzustimmung, Transparenz und lokaler Gerätespeicherung auferlegen.
Europäische Regulatoren haben immer wieder Bereitschaft gezeigt, mit großen Technologieunternehmen über versteckte Tracking-Systeme, aggressive Datenpraktiken und undurchsichtige Zustimmungsflüsse zu konfrontieren.
Wenn Regulierungsbehörden feststellen, dass stille KI-Installationen bestehende Datenschutzgesetze verletzen, könnten die Konsequenzen für die Branche enorm sein.
Im Moment bleiben die Behauptungen Vorwürfe von unabhängigen Forschern und wurden noch nicht vor Gericht geprüft.
Aber die Kontroverse kommt zu einem Zeitpunkt, an dem das öffentliche Vertrauen in große Technologiefirmen bereits unter dem Gewicht ständiger KI-Expansion bröckelt.
Über den Datenschutz hinaus hebt Hanff auch eine weniger diskutierte Konsequenz der Bereitstellung lokaler KI hervor: die Belastung der Infrastruktur.
Für Nutzer in wohlhabenden städtischen Märkten, die mit unbegrenzten Glasfasernetzen verbunden sind, mag ein vier Gigabyte großes Hintergrund-Download unbedeutend erscheinen.
Aber Hunderte Millionen Menschen weltweit sind weiterhin mit begrenzten Internetplänen, mobilen Hotspots, instabiler Infrastruktur oder teuren Bandbreitenbeschränkungen konfrontiert.
Ein Browser, der stillschweigend Gigabytes an Daten verbraucht, kann in realen finanziellen Kosten resultieren.
Dann gibt es die Umweltfrage.
Hanff schätzt, dass, wenn ähnliche Modelle auf hunderten Millionen Geräten weltweit verteilt werden, der bloße Transfer dieser Dateien Zehntausende Tonnen Kohlenstoffemissionen erzeugen könnte, bevor ein einziges KI-Feature jemals aktiv genutzt wird.
Zu einem Zeitpunkt, an dem Technologieunternehmen aggressiv Nachhaltigkeitsverpflichtungen und kohlenstoffneutrale Ambitionen vermarkten, sagen Kritiker, dass massenhafte unsichtbare Downloads einen wachsenden Widerspruch zwischen der Umweltmarke der Unternehmen und der Ressourcenintensität der KI-Expansion offenlegen.
Gleichzeitig gestaltet Google aggressiv eine weitere Säule des Internets um: die Suche selbst.
Neben der Chrome-Kontroverse kündigte das Unternehmen an, dass seine KI-gesteuerten Suchsysteme — einschließlich AI Overview und AI Mode — zunehmend Antworten einbeziehen werden, die aus Reddit-Diskussionen, Fachforen, persönlichen Blogs und sozialen Medien stammen.
Der Wandel spiegelt eine tiefgreifende Veränderung der Art und Weise wider, wie Menschen online nach Informationen suchen.
In den letzten Jahren haben Nutzer zunehmend das Wort „Reddit“ an gewöhnliche Google-Suchen angehängt, getrieben von der Frustration, dass traditionelle Suchergebnisse mit suchmaschinenoptimierten Marketinginhalten, Affiliate-Spam und generischen Artikeln gesättigt sind, die hauptsächlich für Werbeeinnahmen und nicht für Nützlichkeit konstruiert wurden.
Die Antwort von Google ist effektiv ein Eingeständnis, dass die wertvollsten Informationen im Internet jetzt weniger auf polierten Unternehmenswebsites und mehr in chaotischen öffentlichen Diskussionen zwischen normalen Nutzern zu finden sein könnten.
Unter dem neuen System plant Google, einen Abschnitt mit dem Titel „Expertenrat“ einzuführen, der Kommentare, Benutzernamen, Community-Diskussionen und Forenantworten direkt in von KI generierten Suchantworten anzeigt.
Das Unternehmen wird auch mehr Links in KI-Zusammenfassungen integrieren und längere Lesematerialien empfehlen, die sich auf die Anfrage beziehen.
Auf den ersten Blick scheint die Strategie praktisch.
Echte menschliche Gespräche bieten oft reichhaltigere, ehrliche Antworten als sterile SEO-Inhaltsfarmen.
Aber der Schritt offenbart auch eine weitere unangenehme Realität für Verleger und unabhängige Websites: Da Googles KI zunehmend fähig wird, Informationen direkt in Suchergebnisse zu synthetisieren, fühlen sich möglicherweise weniger Nutzer genötigt, ursprüngliche Websites überhaupt zu besuchen.
Die Internetwirtschaft wurde auf Verkehr aufgebaut.
Die KI-Suche bedroht, dieses Ökosystem mit Extraktion zu ersetzen.
Was aus beiden Kontroversen hervorgeht — der stillen KI-Bereitstellung in Chrome und der von der Gemeinschaft erzeugten KI-Suche — ist ein Porträt einer Branche, die mit atemberaubender Geschwindigkeit voranschreitet, während die öffentliche Aufsicht Mühe hat, Schritt zu halten.
Dieselben Unternehmen, die einst Werkzeuge entwickelten, um Nutzern das Navigieren im Internet zu erleichtern, gestalten nun die Architektur von Informationen, Computing und sogar persönlichen Geräten selbst um.
Und zunehmend scheinen sie bereit zu sein, es zuerst zu tun — und es später zu erklären.
Newsletter
Related Articles