Nein, Google stoppt nur Cookietracking im eigenen Spionagebrowser, der den größten Marktanteil in der Welt besitzt. Innerhalb des Browsers werden dann Werbeprofile angelegt. Das kommt zwar einerseits dem Datenschutz tatsächlich zugute, andererseits sichert sich Google damit das Monopol auf diese Werbung, sowie auf die Art und Weise, wie Werbeprofile erstellt werden.
Du hast teilweise recht. Google hört nicht mit personalisierter Werbung auf. Aber du liegst wahrscheinlich falsch, dass die neue Methode besser für den Datenschutz ist.
Die Einteilung in Nutzergruppen (Kohorten) geschieht automatisiert mit Federated Learning of Cohorts (FLoC). Jede Kohorte soll mindestens tausend Personen groß sein und wöchentlich aktualisiert werden. Informationen zu Kohorten werden an Kunden weitergegeben. Niemand hindert diese Kunden daran, bisherige Fingerprinting-Techniken einzusetzen, um einzelne Personen zu identifizieren. Das wird sogar einfacher, wenn nicht unter Millionen, sondern nur noch Tausenden geschaut werden muss.
Die Electronic Frontier Foundation (EFF) beschreibt es in einem ausführlichen Artikel.
ZitatIn a world with FLoC, it may be more difficult to target users directly based on age, gender, or income. But it won’t be impossible. Trackers with access to auxiliary information about users will be able to learn what FLoC groupings “mean”—what kinds of people they contain—through observation and experiment. Those who are determined to do so will still be able to discriminate. Moreover, this kind of behavior will be harder for platforms to police than it already is. Advertisers with bad intentions will have plausible deniability—after all, they aren’t directly targeting protected categories, they’re just reaching people based on behavior. And the whole system will be more opaque to users and regulators.
Die EFF geht auch auf die Problematik des Algorithmus ein.
ZitatBut FLoC will use an unsupervised algorithm to create its clusters. That means that nobody will have direct control over how people are grouped together. [...] Google has proposed that it can monitor the outputs of the system to check for any correlations with its sensitive categories. [...]
This solution sounds both orwellian and sisyphean. In order to monitor how FLoC groups correlate with sensitive categories, Google will need to run massive audits using data about users’ race, gender, religion, age, health, and financial status. Whenever it finds a cohort that correlates too strongly along any of those axes, it will have to reconfigure the whole algorithm and try again, hoping that no other “sensitive categories” are implicated in the new version. This is a much more difficult version of the problem it is already trying, and frequently failing, to solve.
Der tagesschau-Artikel liest sich dagegen wie eine PR-Meldung von Google.