LinkedIn hat möglicherweise KI-Modelle anhand von Benutzerdaten trainiert, ohne seine Bedingungen zu aktualisieren.
LinkedIn-Nutzer in den USA – aber nicht in der EU, dem EWR oder der Schweiz, wahrscheinlich aufgrund der dort geltenden Datenschutzbestimmungen – haben die Möglichkeit, sich abzumelden. Umschalten in ihrem Einstellungsbildschirm, in dem angegeben wird, dass LinkedIn persönliche Daten sammelt, um „KI-Modelle zur Inhaltserstellung“ zu trainieren. Der Schalter ist nicht neu. Aber als erstes gemeldet von 404 Media: LinkedIn hat seine Datenschutzrichtlinie zunächst nicht aktualisiert, um die Datennutzung widerzuspiegeln.
Die Servicebedingungen wurden nun aktualisiertaber normalerweise geschieht das lange vor einer großen Änderung, wie der Verwendung von Benutzerdaten für einen neuen Zweck wie diesen. Die Idee ist, dass Benutzer die Möglichkeit haben, Kontoänderungen vorzunehmen oder die Plattform zu verlassen, wenn ihnen die Änderungen nicht gefallen. Diesmal scheint es nicht so zu sein.
Welche Modelle bietet LinkedIn also für die Ausbildung? Das eigene, das Unternehmen sagt in einer Frage-und-Antwort-Runde, einschließlich Modellen zum Schreiben von Vorschlägen und Post-Empfehlungen. LinkedIn sagt aber auch, dass generative KI-Modelle auf seiner Plattform von „einem anderen Anbieter“ trainiert werden können, beispielsweise von der Muttergesellschaft Microsoft.
„Wie bei den meisten Funktionen auf LinkedIn erfassen und verwenden (oder verarbeiten) wir bei Ihrer Nutzung unserer Plattform Daten über Ihre Nutzung der Plattform, einschließlich personenbezogener Daten“, heißt es in den Fragen und Antworten. „Dies kann Ihre Nutzung der generativen KI (KI-Modelle zur Erstellung von Inhalten) oder anderer KI-Funktionen, Ihre Beiträge und Artikel, Ihre Häufigkeit der Nutzung von LinkedIn, Ihre Sprachpräferenz und jegliches Feedback, das Sie unseren Teams gegeben haben, umfassen. Wir verwenden diese Daten im Einklang mit unserer Datenschutzrichtlinie, um die LinkedIn-Dienste zu verbessern oder weiterzuentwickeln.“
LinkedIn hatte TechCrunch zuvor mitgeteilt, dass es „Datenschutztechniken, darunter das Redigieren und Entfernen von Informationen, verwendet, um den Anteil personenbezogener Daten in den für das Training generativer KI verwendeten Datensätzen zu begrenzen.“
Um das Daten-Scraping von LinkedIn zu deaktivieren, gehen Sie auf dem Desktop zum Abschnitt „Datenschutz“ des LinkedIn-Einstellungsmenüs, klicken Sie auf „Daten zur Verbesserung der generativen KI“ und deaktivieren Sie dann die Option „Meine Daten zum Trainieren von KI-Modellen zur Inhaltserstellung verwenden“. Sie können auch versuchen, sich umfassender abzumelden über dieses FormularLinkedIn weist jedoch darauf hin, dass eine etwaige Abmeldung keine Auswirkungen auf bereits stattgefundene Schulungen hat.
Die gemeinnützige Open Rights Group (ORG) hat das Information Commissioner’s Office (ICO), die unabhängige britische Regulierungsbehörde für Datenschutzrechte, aufgefordert, LinkedIn und andere soziale Netzwerke zu untersuchen, die standardmäßig mit Benutzerdaten trainieren. Anfang dieser Woche gab Meta bekannt, dass es seine Pläne zur Erfassung von Benutzerdaten für KI-Training wieder aufnimmt, nachdem es mit dem ICO zusammengearbeitet hatte, um den Opt-out-Prozess zu vereinfachen.
„LinkedIn ist das jüngste Social-Media-Unternehmen, das unsere Daten verarbeitet, ohne um unsere Zustimmung zu bitten“, sagte Mariano delli Santi, Rechts- und Politikbeauftragter von ORG, in einer Erklärung. „Das Opt-out-Modell erweist sich einmal mehr als völlig unzureichend, um unsere Rechte zu schützen: Man kann nicht erwarten, dass die Öffentlichkeit jedes einzelne Online-Unternehmen überwacht und verfolgt, das beschließt, unsere Daten zum Trainieren von KI zu verwenden. Die Opt-in-Zustimmung ist nicht nur gesetzlich vorgeschrieben, sondern eine vernünftige Anforderung.“
Die irische Datenschutzkommission (DPC), die Aufsichtsbehörde, die für die Überwachung der Einhaltung der DSGVO, des übergreifenden Datenschutzrahmens der EU, zuständig ist, teilte TechCrunch mit, dass LinkedIn sie letzte Woche darüber informiert habe, dass heute Klarstellungen zu seiner globalen Datenschutzrichtlinie veröffentlicht würden.
„LinkedIn hat uns darauf hingewiesen, dass die Richtlinie eine Opt-out-Einstellung für seine Mitglieder enthält, die nicht möchten, dass ihre Daten für das Training von Inhalten zur Generierung von KI-Modellen verwendet werden“, sagte ein Sprecher des DPC. „Diese Opt-out-Möglichkeit steht EU-/EWR-Mitgliedern nicht zur Verfügung, da LinkedIn derzeit keine Daten von EU-/EWR-Mitgliedern verwendet, um diese Modelle zu trainieren oder zu optimieren.“
TechCrunch hat LinkedIn um einen Kommentar gebeten. Wir werden diesen Artikel aktualisieren, wenn wir eine Antwort erhalten.
Die Nachfrage nach mehr Daten zum Trainieren generativer KI-Modelle hat dazu geführt, dass immer mehr Plattformen ihre riesigen Mengen an benutzergenerierten Inhalten umfunktionieren oder anderweitig wiederverwenden. Einige sind sogar dazu übergegangen, diese Inhalte zu monetarisieren – Tumblr-Eigentümer Automattic, Photobucket, Reddit und Stack Overflow gehören zu den Netzwerken, die Daten an Entwickler von KI-Modellen lizenzieren.
Nicht alle haben es einfach gemacht, sich abzumelden. Als Stack Overflow ankündigte, dass es mit der Lizenzierung von Inhalten beginnen würde, löschten mehrere Benutzer aus Protest ihre Beiträge – nur um zu sehen, dass diese Beiträge wiederhergestellt und ihre Konten gesperrt wurden.