Samsung verbietet Mitarbeitern Nutzung von ChatGPT, entwickelt eigene KI
Ein Samsung-Mitarbeiter hat sensiblen Code an ChatGPT übergeben, was nun zu einem unternehmensweiten Verbot von Chatbots geführt hat, wie Bloomberg berichtet. Samsung hat Mitarbeiter am Montag durch ein internes Memo auf die neuen Verhaltensregeln aufmerksam gemacht.
In der offiziellen Begründung heißt es, dass der Konzern besorgt sei, dass sensible, unternehmensinterne Informationen durch KI-Chatbots wie Bard oder Bings ChatGPT-Integration auf den Servern von Konkurrenten wie Google oder Microsoft gespeichert werden. Das würde es nicht nur ausgesprochen schwierig machen, die Daten zu löschen, es wäre sogar möglich, dass die künstliche Intelligenz die gesammelten Daten Nutzern als Teil einer generierten Antwort zur Verfügung stellt.
Samsung-Mitarbeiter dürfen KI-Chatbots wie ChatGPT nicht mehr auf Smartphones, Tablets oder Notebooks verwenden, die dem Konzern gehören. Auf privaten Endgeräten ist die Nutzung untersagt, solange diese mit dem Firmennetzwerk verbunden sind. Wer ChatGPT in seiner Freizeit verwendet, darf keine persönlichen oder unternehmensinternen Daten angeben. Wer diese Regeln bricht, riskiert eine Kündigung.
Unterdessen entwickelt Samsung eigene Software, die auf einer künstlichen Intelligenz basiert, inklusive einer App, die Dokumente übersetzen und intelligent zusammenfassen kann, sowie KI-Werkzeuge, welche die Software-Entwicklung erleichtern. OpenAI arbeitet parallel daran, die Privatsphäre-Bedenken gegenüber ChatGPT zu mindern. Dazu hat der Konzern im April einen Inkognito-Modus eingeführt. Wird dieser von einem Nutzer aktiviert, so werden Konversationen nicht zum Training der KI verwendet, allerdings werden diese dennoch 30 Tage lang auf den Servern von OpenAI gespeichert.