Meta stoppt den Start von Meta AI in Europa wegen Datenschutzbedenken!
Die 5 wichtigsten Aussagen:
- Meta hat die Einführung von Meta AI in Europa abgesagt, aufgrund von Einwänden gegen seinen Plan, seine Modelle mit Nutzerdaten von sozialen Medien zu trainieren.
- Die vorgeschlagenen Änderungen in den Nutzungsbedingungen von Meta stießen auf heftige Gegenreaktionen von GDPR-Regulierungsbehörden und Datenschutzgruppen.
- Selbst die irische Datenschutzkommission, die Meta ursprünglich Schutz bot, hat jetzt gesagt, dass Meta’s Pläne zu weit gehen könnten.
- Die Datenschutzgruppe NOYB, die 11 Beschwerden gegen Meta’s Pläne eingereicht hat, begrüßt die neuesten Entwicklungen mit Vorsicht.
- Mit den GDPR-Anforderungen wäre Meta zufrieden, wenn die Nutzer ausdrücklich über ein Opt-in zustimmen würden, anstatt ein Opt-out zu benötigen.
Ganzen Artikel lesen:https://ki-techlab.de/ki-news/meta-backs-down-on-using-eu-social-media-to-train-its-ai/
KI-Update in Kurzform:
Meta hat seine Pläne, Meta AI in Europa zu starten, auf Eis gelegt. Der Tech-Riese geriet unter heftigen Beschuss von Datenschützern und Regulierungsbehörden, als er ankündigte, Nutzerdaten von Facebook und Instagram zur Trainierung seiner Modelle zu verwenden. Selbst die irische Datenschutzkommission, die oft als Schutzschild für Technologieunternehmen gegen die strengen EU-Datenschutzgesetze agiert, fand Metas Vorgehen zu gewagt.
Die Datenschutzgruppe NOYB, die 11 Beschwerden gegen Metas Pläne einreichte, begrüßt die jüngsten Entwicklungen. Sie betont allerdings, dass Meta immer noch die Möglichkeit hätte, AI-Produkte auf Basis einer ausdrücklichen Zustimmung der Nutzer anzubieten – eine Option, die das Unternehmen bisher nicht in Betracht zieht.
Trotz der Kontroverse in Europa setzt Meta seine Praxis fort, Daten von Nutzern außerhalb der EU ohne Möglichkeit zum Opt-out zu verwenden. Die Geschichte zeigt aber, dass Regulierung und Gemeinschaftsdruck durchaus Wirkung zeigen können. Bleibt dran, um zu sehen, wie sich diese spannende Geschichte weiterentwickelt.