Auch LinkedIn will KI-Modelle mit unseren Daten trainieren


Auch LinkedIn beschreitet diesen heiklen Weg: Das Unternehmen möchte seine KI-Modelle mit unseren Daten trainieren. Dies soll ab dem 3. November geschehen, wie vor einigen Tagen in einer aktualisierten Datenschutzrichtlinie angekündigt wurde. Auch Meta würde diesen Weg gerne beschreiten, hat ihn aber nach zahlreichen Protesten und Klärungsanfragen europäischer Behörden bisher blockiert.
Offenbar hat Linkedin (ein Microsoft-Unternehmen) mehr Glück als sein großer Tech-Kollege.
LinkedIns Ankündigung vom 3. November: Es wird unsere Daten verwenden, um KI zu trainieren
„Ab dem 3. November 2025 werden wir in Europa, der Schweiz, Großbritannien und Hongkong beginnen, bestimmte Mitgliederdaten zu verwenden, um KI-Modelle zu trainieren, die Inhalte generieren, die Ihr Erlebnis verbessern und unsere Mitglieder besser mit Möglichkeiten verbinden.“ „Dazu können“, erklärt LinkedIn auf seiner Website, „Daten wie Ihre Profildetails und öffentliche Inhalte gehören, die Sie auf LinkedIn posten; Ihre privaten Nachrichten sind nicht eingeschlossen“ (und Gott sei Dank, könnte man hinzufügen).
LinkedIn glaubt wie Meta, dies ohne die Zustimmung der Nutzer tun zu können, da es ein „berechtigtes Interesse“ daran hat, wie es die DSGVO vorschreibt. LinkedIn erlaubt den Nutzern lediglich, sich abzumelden – genau wie Meta –, also ihre Zustimmung zu verweigern. Diese Option dürfte wohl nur wenigen Menschen bekannt sein.
Die Formel ermöglicht die Verarbeitung personenbezogener Daten, wenn ein Unternehmensinteresse vorliegt, das als verhältnismäßig erachtet wird und die Grundrechte des Einzelnen nicht außer Kraft setzt, vorausgesetzt, dass ein Widerspruchsrecht (Opt-out) gewährleistet ist.
Anschließend müssen Sie hier auf den Schalter https://www.linkedin.com/mypreferences/d/settings/data-for-ai-improvement klicken, um die Option „Meine Daten für die Erstellung von Trainingsinhalten für KI-Modelle verwenden“ zu deaktivieren.
Ein separates Kapitel befasst sich mit den Feedback-Daten, die wir LinkedIn zur Verfügung stellen. Diese werden auch dann verwendet, wenn wir die Option deaktivieren. Um sich abzumelden, müssen wir ein spezielles Formular verwenden: https://www.linkedin.com/help/linkedin/ask/TS-DPRO.
Auf der Datenverwaltungsseite https://www.linkedin.com/help/linkedin/answer/a1340649 können wir auch sehen, was es über uns weiß, und einige Informationen löschen.
Zu den Daten, die das Unternehmen verwenden möchte, gehören „Ihre Nutzung generativer KI (KI-Modelle zur Erstellung von Inhalten) oder anderer KI-Funktionen, Ihre Beiträge und Artikel, Antworten auf Bewerbungen und gespeicherten Lebensläufe, Ihre Häufigkeit der LinkedIn-Nutzung, Ihre Sprachpräferenzen und jegliches Feedback, das Sie unseren Teams gegeben haben.“ Dies geschieht, um den Service zu verbessern und kann zu diesem Zweck KI einsetzen. Diese Daten werden jedoch nicht mit Daten von Minderjährigen verwendet.
Linkedin erklärt ausführlich, was es mit unseren Daten macht.
Wenn Sie beispielsweise „Profil-Schreibvorschläge“ nutzen, generiert LinkedIn anhand relevanter Daten aus Ihrem Profil Textvorschläge, die Sie anschließend prüfen, bearbeiten und gegebenenfalls Ihrem Profil hinzufügen können. Ein weiteres Beispiel: „Vorgeschlagene Beiträge“ können den Inhalt des Beitrags zusammenfassen, einschließlich aller von Ihnen eingegebenen personenbezogenen Daten. „Wir können auch gespeicherte Antworten auf Bewerbungen oder Ihre Lebenslaufdaten als Eingabe verwenden. Wenn Sie Ihre Lebenslaufdaten an Arbeitgeber weitergeben, können diese als Eingabe dienen, um Ihnen bei der Suche nach Ihnen und der Überprüfung Ihrer Eignung für die Stelle zu helfen.“
Darüber hinaus können die KI-Modelle, die LinkedIn für seine generativen KI-Funktionen verwendet, von LinkedIn oder einem anderen Anbieter trainiert werden. „Wir könnten beispielsweise Modelle verwenden, die von Microsofts Azure OpenAI-Diensten bereitgestellt werden.“
Insbesondere verwendet LinkedIn: Profildaten: Daten, die von Mitgliedern in ihrem LinkedIn-Profil bereitgestellt werden, wie etwa: Name, Foto, aktuelle Position, bisherige Berufserfahrung, Ausbildung, Standort, Fähigkeiten, Zertifizierungen, Lizenzen, ehrenamtliche Tätigkeit, Veröffentlichungen, Patente, Empfehlungen und Befürwortungen.
KI-Nutzungsdaten: Von Mitgliedern in generative KI-Funktionen eingegebene Inhalte (z. B. Eingabeaufforderungen, Suchtext, Anfragen, Fragen).
Beschäftigungsdaten: Antworten auf Auswahlfragen und Lebensläufe, die Mitglieder ihrem LinkedIn-Konto zur laufenden und zukünftigen Verwendung hinzufügen (aber nicht an bestimmte Kunden oder Stellenbewerbungen gebunden sind).
Gruppendaten: Gruppenaktivität und Gruppennachrichten.
Mitgliederinhalte: Beiträge, Artikel, Umfrageantworten, Beiträge und Kommentare von Mitgliedern
Feedback: Feedback- und Verbesserungsdaten, die Supportanfragen von Mitgliedern, positive/negative Reaktionen auf KI-generierte Vorschläge, Berichte über Probleme mit KI-generierten Inhalten oder über unsere Feedback-Funktionen übermitteltes Feedback umfassen können.
Stattdessen werden keine privaten Nachrichten verwendet (einschließlich InMail- und Posteingangsnachrichten).
Anmeldeinformationen (wie Passwörter, Authentifizierungsdaten und Token, Verschlüsselungs- und Signaturschlüssel).
Zahlungsmethoden und Kreditkarteninformationen.
Von Mitgliedern bereitgestellte Gehaltsdaten oder einem bestimmten Mitglied zuordenbare Bewerbungsdaten.
Aber wir werden sehen, was in den nächsten Tagen passiert.
Datenschutzorganisationen wie die langjährige Noyb argumentieren gegen Meta, dass in diesem Fall kein berechtigtes Interesse vorliege, da das Training von KI-Modellen nicht als „notwendig“ im engeren Sinne angesehen werden könne und die massive Nutzung sensibler Daten beinhalten könne. Auch die Opt-out-Mechanismen von Meta wurden als unklar, komplex und manchmal als regelrechte Dark Patterns kritisiert.
Auf regulatorischer Ebene ist die Frage noch offen. In Deutschland entschied das Oberlandesgericht Köln zugunsten von Meta und erkannte an, dass die Nutzung öffentlicher Nutzerinhalte legitime Interessen sein kann. In anderen Ländern äußerten Datenschutzbehörden jedoch ernsthafte Bedenken und forderten Klärung. In Irland, dem europäischen Hauptsitz von Meta, forderte die Aufsichtsbehörde das Unternehmen auf, die Umsetzung des Plans vorübergehend auszusetzen. Gleichzeitig hat Noyb Klage eingereicht und mit einer möglichen Sammelklage auf europäischer Ebene gedroht.
Das Ergebnis der Debatte könnte nicht nur für Meta, sondern für den gesamten Sektor der künstlichen Intelligenz in Europa einen Präzedenzfall schaffen.
Unterdessen machen Unternehmen wie LinkedIn Fortschritte und trotzen dem Gegenwind.
Neuigkeiten und Einblicke in politische, wirtschaftliche und finanzielle Ereignisse.
Melden Sie sich anilsole24ore