So verhindern Sie, dass LinkedIn KI mit Ihren Daten trainiert

So verhindern Sie, dass LinkedIn KI mit Ihren Daten trainiert

LinkedIn zugelassen Mittwoch, dass es seine eigene KI mit den Daten vieler Benutzer trainiert hat, ohne deren Zustimmung einzuholen. Jetzt gibt es für Benutzer keine Möglichkeit mehr, bereits erfolgtes Training abzulehnen, da LinkedIn die Ablehnung nur auf zukünftiges KI-Training beschränkt.

In einem Blog mit detaillierten Informationen zu den am 20. November anstehenden Updates bestätigte Blake Lawit, General Counsel von LinkedIn, dass die Benutzervereinbarung und die Datenschutzrichtlinie von LinkedIn geändert werden, um besser zu erklären, wie die persönlichen Daten der Benutzer die KI auf der Plattform antreiben.

Unter dem neuen DatenschutzrichtlinieLinkedIn informiert seine Benutzer nun darüber, dass „wir Ihre personenbezogenen Daten verwenden können, um … Modelle künstlicher Intelligenz (KI) zu entwickeln und zu trainieren, unsere Dienste zu entwickeln, bereitzustellen und zu personalisieren und mithilfe von KI, automatisierten Systemen und Schlussfolgerungen Erkenntnisse zu gewinnen, damit unsere Dienste für Sie und andere relevanter und nützlicher werden.“

Ein Häufig gestellte Fragen erläuterte, dass die personenbezogenen Daten immer dann erhoben werden könnten, wenn ein Benutzer mit generativer KI oder anderen KI-Funktionen interagiert, sowie wenn ein Benutzer einen Beitrag verfasst, seine Einstellungen ändert, LinkedIn Feedback gibt oder die Plattform für einen beliebigen Zeitraum verwendet.

Diese Daten werden dann gespeichert, bis der Benutzer den KI-generierten Inhalt löscht. LinkedIn empfiehlt Benutzern, sein Datenzugriffstool zu verwenden, wenn sie über frühere LinkedIn-Aktivitäten gesammelte Daten löschen oder deren Löschung anfordern möchten.

Die KI-Modelle von LinkedIn, die die generativen KI-Funktionen antreiben, „können von LinkedIn oder einem anderen Anbieter trainiert werden“, wie etwa Microsoft, das einige KI-Modelle über seinen Dienst Azure OpenAI bereitstellt, heißt es in den FAQ.

Ein potenziell großes Datenschutzrisiko für Benutzer besteht laut den FAQs von LinkedIn darin, dass Benutzer, die „persönliche Daten als Input für eine generative KI-gestützte Funktion bereitstellen“, am Ende möglicherweise sehen, dass ihre „persönlichen Daten als Output bereitgestellt werden“.

LinkedIn behauptet, dass es „versucht, personenbezogene Daten in den Datensätzen, die zum Trainieren der Modelle verwendet werden, zu minimieren“, indem es sich auf „datenschutzfördernde Technologien verlässt, um personenbezogene Daten aus dem Trainingsdatensatz zu redigieren oder zu entfernen“.

Während Lawits Blog keine Klarstellung dazu gibt, ob bereits erfasste Daten aus den KI-Trainingsdatensätzen entfernt werden können, wird in den FAQ bestätigt, dass Benutzer, die automatisch der Weitergabe personenbezogener Daten für das KI-Training zugestimmt haben, der invasiven Datenerfassung nur „in Zukunft“ widersprechen können.

Der Ausstieg habe „keine Auswirkungen auf bereits erfolgte Schulungen“, heißt es in den FAQ.

Ein LinkedIn-Sprecher sagte gegenüber Ars, dass es „für alle Mitglieder von Vorteil“ sei, „standardmäßig“ an KI-Schulungen teilzunehmen.

„Die Leute können sich dafür entscheiden, sich abzumelden, aber sie kommen zu LinkedIn, um für Jobs und zum Netzwerken gefunden zu werden, und generative KI ist ein Teil dessen, wie wir Fachleuten bei diesem Wandel helfen“, sagte der Sprecher von LinkedIn.

Durch die Möglichkeit, sich von zukünftigen KI-Trainings abzumelden, gibt die Plattform den „LinkedIn-Nutzern noch mehr Auswahl und Kontrolle darüber, wie wir Daten zum Trainieren unserer generativen KI-Technologie verwenden“, behauptete ein Sprecher von LinkedIn zusätzlich.

So melden Sie sich von KI-Schulungen auf LinkedIn ab

Benutzer können das KI-Training deaktivieren, indem sie in ihren Kontoeinstellungen zum Abschnitt „Datenschutz“ navigieren und dann die Option deaktivieren, die das Sammeln von „Daten zur generativen KI-Verbesserung“ erlaubt, die LinkedIn sonst für die meisten Benutzer automatisch aktiviert.

Die einzige Ausnahme gilt für Nutzer im Europäischen Wirtschaftsraum oder in der Schweiz, die durch strengere Datenschutzgesetze geschützt sind, die entweder die Zustimmung der Plattformen zur Erhebung personenbezogener Daten oder die Rechtfertigung der Datenerhebung als berechtigtes Interesse erfordern. Diesen Nutzern wird keine Option zur Abmeldung angezeigt, da sie nie zugestimmt haben, wie LinkedIn wiederholt bestätigte.

Darüber hinaus können Benutzer „der Verwendung ihrer persönlichen Daten für das Training“ generativer KI-Modelle widersprechen, die nicht zur Generierung von LinkedIn-Inhalten verwendet werden – wie etwa Modelle, die für Personalisierungs- oder Inhaltsmoderationszwecke verwendet werden, The Verge bemerkt— durch die Übermittlung der LinkedIn Datenverarbeitung Widerspruchsformular.

Letztes Jahr, LinkedIn geteilt KI-Prinzipien und verspricht, „sinnvolle Schritte zu unternehmen, um die potenziellen Risiken der KI zu reduzieren.“

Ein Risiko, dass die aktualisierte Nutzungsvereinbarung Es wird darauf hingewiesen, dass die Verwendung der generativen Funktionen von LinkedIn zum Ausfüllen eines Profils oder zum Generieren von Vorschlägen beim Verfassen eines Beitrags zu Inhalten führen kann, die „möglicherweise ungenau, unvollständig, verzögert, irreführend oder für Ihre Zwecke nicht geeignet“ sind.

Benutzer werden darauf hingewiesen, dass sie dafür verantwortlich sind, keine irreführenden Informationen weiterzugeben oder anderweitig KI-generierte Inhalte zu verbreiten, die möglicherweise gegen die Community-Richtlinien von LinkedIn verstoßen. Außerdem werden Benutzer ermahnt, vorsichtig zu sein, wenn sie sich auf Informationen verlassen, die auf der Plattform geteilt werden.

„Wie bei allen Inhalten und anderen Informationen auf unseren Diensten sollten Sie diese sorgfältig prüfen, bevor Sie sich darauf verlassen, unabhängig davon, ob sie als von ‚KI‘ erstellt gekennzeichnet sind oder nicht“, heißt es in der Benutzervereinbarung von LinkedIn.

Im Jahr 2023 behauptete LinkedIn, dass es stets „versuchen werde, auf klare und einfache Weise zu erklären, wie sich unser Einsatz von KI auf die Menschen auswirkt“, weil das „Verständnis der Benutzer für KI mit Transparenz beginnt“.

Gesetze wie der AI Act der Europäischen Union und die DSGVO – insbesondere mit ihren starken Datenschutzbestimmungen – würden, wenn sie anderswo umgesetzt würden, weniger Schocks für ahnungslose Benutzer bedeuten. Das würde alle Unternehmen und ihre Benutzer beim Training von KI-Modellen auf die gleiche Stufe stellen und weniger böse Überraschungen und verärgerte Kunden zur Folge haben.

Leave a Comment

Your email address will not be published. Required fields are marked *