Chatgpt – was steckt hinter dem neuen KI-hype?
12 Jan, 20235 minutesChatGPT hat in den letzten Monaten die Berufswelt vollständig erobert. Menschen nutzen ...
ChatGPT hat in den letzten Monaten die Berufswelt vollständig erobert. Menschen nutzen den von künstlicher Intelligenz angetriebenen Chatbot, um Verwaltungsaufgaben zu erledigen, lange Texte wie Briefe und Aufsätze zu schreiben, Lebensläufe zu erstellen und vieles mehr, da er in der Lage ist, Inhalte zu generieren und nahezu jede Anfrage zu beantworten.
Eine Untersuchung zeigt, dass 46 % der Berufstätigen ChatGPT zur Erledigung von Aufgaben bei der Arbeit nutzen. Laut den Ergebnissen einer anderen Umfrage glauben 45% der Arbeitnehmer, dass die Nutzung von ChatGPT ihnen hilft, ihre Arbeit effektiver zu erledigen.
Dennoch scheinen die Arbeitnehmer einen negativen Aspekt von Software mit künstlicher Intelligenz (KI) zu ignorieren. Viele Unternehmen sind besorgt, dass ihre Mitarbeiter private Unternehmensdaten mit KI-Chatbots wie ChatGPT teilen könnten, die von Cyberkriminellen genutzt werden könnten. Wenn Mitarbeiter ChatGPT nutzen, um automatisch Inhalte zu generieren, stellt sich auch die Frage nach dem Urheberrecht.
KI-Technologien können sogar voreingenommen und diskriminierend sein, was für Unternehmen, die sie zur Überprüfung von Stellenbewerbern oder zur Beantwortung von Kundenanfragen einsetzen, äußerst problematisch sein kann. Viele Experten haben aufgrund dieser Probleme die Sicherheit und die rechtlichen Auswirkungen der Verwendung von ChatGPT am Arbeitsplatz in Frage gestellt.
Datensicherheits-Risiken
Laut Neil Thacker, Chief Information Security Officer (CISO) bei Netskope, werden Unternehmen durch den zunehmenden Einsatz von generativen KI-Technologien am Arbeitsplatz immer anfälliger für erhebliche Datenlecks.
Er verweist auf die Tatsache, dass OpenAI, das Unternehmen hinter ChatGPT, seine Modelle anhand von Daten und Abfragen trainiert, die auf seinen Servern gespeichert sind. Wenn jedoch Cyberkriminelle in die Systeme von OpenAI eindringen, könnten sie Zugang zu "sensiblen und geschützten Daten" haben, die für Unternehmen " schädlich" wären.
In dem Bemühen, den Datenschutz zu verbessern, hat OpenAI inzwischen Opt-Out"- und Deaktivierungsoptionen für den Verlauf" hinzugefügt, aber laut Thacker müssen die Nutzer diese immer noch aktiv auswählen.
Laut Thacker gibt es "derzeit nur wenige Zusicherungen darüber, wie Unternehmen, deren Produkte generative KI nutzen, Daten verarbeiten und speichern werden", auch wenn Gesetze wie das britische Datenschutzgesetz und das vorgeschlagene KI-Gesetz der Europäischen Union Schritte in die richtige Richtung sind, was die Regulierung von Software wie ChatGPT angeht.
Verbot von KI?
Unternehmen können beschließen, die Nutzung von KI-Diensten am Arbeitsplatz zu verbieten, wenn sie über die damit verbundenen Sicherheits- und Compliance-Probleme besorgt sind. Allerdings warnt Thacker davor, dass dies nach hinten losgehen kann.
Die Nutzung nicht autorisierter KI-Dienste von Drittanbietern, die sich der Kontrolle des Unternehmens entziehen, die so genannte "Schatten-KI", würde wahrscheinlich zu einem Verbot von KI-Diensten am Arbeitsplatz führen, so Thacker, was das Problem nicht lösen würde.
KI ist wertvoller, wenn sie mit menschlicher Intelligenz gepaart wird.
Die Verantwortung dafür, dass Mitarbeiter KI-Tools sicher und verantwortungsbewusst nutzen, liegt letztlich bei den Sicherheitsverantwortlichen. Um dies zu erreichen, müssen sie wissen, wo sensible Informationen gespeichert werden, sobald sie in Systeme von Drittanbietern eingegeben wurden, wer Zugriff auf diese Daten hat, wie sie verwendet werden und wie lange sie aufbewahrt werden.
Unternehmen sollten sich darüber im Klaren sein, dass Mitarbeiter generative KI-Integrationsangebote von renommierten Unternehmensplattformen wie Teams, Slack, Zoom und anderen nutzen werden. Mitarbeiter sollten auch darauf hingewiesen werden, dass die Nutzung dieser Dienste mit den Standardeinstellungen zur Weitergabe sensibler Informationen an Drittparteien führen kann.
Sichere Nutzung von KI-Tools am Arbeitsplatz
Wer ChatGPT und andere KI-Tools bei der Arbeit einsetzt, könnte unbeabsichtigt gegen das Urheberrecht verstoßen, was sein Unternehmen teuren rechtlichen Schritten und Strafen aussetzen könnte.
Da ChatGPT Papiere aus Informationen generiert, die bereits im Internet aufgezeichnet und gespeichert sind, können einige der verwendeten Daten unweigerlich dem Urheberrecht unterliegen.
Unternehmen stehen vor dem Problem - und dem Risiko - nicht zu wissen, wann Mitarbeiter das Urheberrecht eines anderen verletzt haben, da sie nicht in der Lage sind, die Quelle der Informationen zu überprüfen.
Wenn Unternehmen mit KI auf sichere und ethische Weise experimentieren wollen, ist es wichtig, dass Sicherheits- und HR-Teams ganz eindeutige Richtlinien entwickeln und umsetzen, in denen festgelegt ist, wann, wie und in welchen Situationen sie eingesetzt werden kann.
Unternehmen können sich dafür entscheiden, KI "nur für interne Zwecke" oder "in bestimmten externen Kontexten" zu nutzen. Das IT-Sicherheitsteam muss sicherstellen, dass es danach, soweit technisch möglich, jede weitere Nutzung von ChatGPT unterbindet, sobald das Unternehmen diese Berechtigungen festgelegt hat.
Gefälschte Chatbots
Cyberkriminelle machen sich die wachsende Begeisterung für ChatGPT und generative KI zunutze, indem sie gefälschte Chatbots entwickeln, die Daten von ahnungslosen Nutzern stehlen sollen.
Viele dieser nachgeahmten Chatbot-Anwendungen behaupten, die öffentliche ChatGPT-API zu verwenden, aber einige von ihnen verwenden ihre eigenen riesigen Sprachmodelle. Dennoch geben sich diese gefälschten Chatbots häufig nur als schwache Kopien von ChatGPT aus oder sind im Grunde genommen bösartige Vorwände für die Sammlung privater oder sensibler Informationen.
CISOs sollten über den Einsatz von Software wie einem Cloud Access Service Broker nachdenken, wenn sie besonders besorgt über die Auswirkungen von ChatGPT auf den Datenschutz sind (CASB).
Granulare SaaS-Anwendungskontrollen bedeuten, dass Mitarbeitern der Zugriff auf geschäftskritische Anwendungen gewährt wird, während der Zugriff auf risikoreiche Anwendungen wie generative KI eingeschränkt oder deaktiviert wird. Schließlich ist eine ausgeklügelte Datensicherheit zu berücksichtigen, die unbeabsichtigte Lecks von Firmengeheimnissen in generative KI-Programme erkennt und verhindert, indem sie Daten mithilfe von maschinellem Lernen klassifiziert.
Auswirkungen auf die Zuverlässigkeit der Daten
Die Vertrauenswürdigkeit der Daten, die für die Algorithmen von ChatGPT verwendet werden, ist ein weiteres großes Problem, das sich nicht nur auf das Urheberrecht und die Cybersicherheit auswirkt. Man warnt davor, dass selbst kleine Fehler die Ergebnisse unglaubwürdig machen.
MaN hörT immer mehr Sorgen über die Überprüfbarkeit und die Einhaltung von Vorschriften, wenn Fachleute versuchen, KI und Chatbots am Arbeitsplatz zu nutzen. Daher muss die Anwendung und Ausführung dieser sich entwickelnden Technologien gut durchdacht sein, insbesondere im Hinblick auf die Quelle und die Qualität der Daten, die zur Erstellung und Einspeisung der Modelle verwendet werden.
Anwendungen, die generative KI einsetzen, sammeln Daten von Websites aus dem gesamten Internet und nutzen sie, um auf Benutzeranfragen zu reagieren. Da jedoch nicht alle Online-Inhalte korrekt sind, besteht die Möglichkeit, dass Tools wie ChatGPT falsche Informationen verbreiten.
Um Fehlinformationen zu bekämpfen, sollten die Entwickler generativer KI-Software laut Verschuren sicherstellen, dass die Daten nur aus seriösen, lizenzierten und ständig aktualisierten Quellen stammen. Deshalb sei die menschliche Erfahrung so wichtig, da die KI nicht entscheiden könne, welche Quellen sie nutze oder wie sie auf sie zugreife.
ChatGPT verantwortungsvoll nutzen
Organisationen müssen eine Reihe von Maßnahmen ergreifen können, um zu gewährleisten, dass ihre Mitarbeiter diese Technologie vernünftig und sicher nutzen. Die erste Maßnahme ist die Berücksichtigung von Datenschutzgesetzen.
Organisationen müssen sich an Gesetze wie das CCPA und die GDPR halten. Verlässliche Verfahren für den Umgang mit Daten einzurichten, wie etwa die Einholung der Zustimmung der Nutzer, die Einschränkung der Datenerfassung und die Verschlüsselung sensibler Daten. Um beispielsweise die Privatsphäre der Patienten zu schützen, muss eine Gesundheitsorganisation, die ChatGPT einsetzt, die Patientendaten in Übereinstimmung mit dem Datenschutzgesetz behandeln.
Unternehmen, die ChatGPT einsetzen, sollten die Rechte am geistigen Eigentum berücksichtigen. Das liegt daran, dass ChatGPT im Grunde ein Werkzeug zur Erstellung von Inhalten ist. Für geschütztes und urheberrechtlich geschütztes Material sollten Unternehmen, klare Richtlinien über Eigentums- und Nutzungsrechte zu erstellen.
Organisationen können Streitigkeiten und die unbefugte Nutzung von geistigem Eigentum vermeiden, indem sie die Eigentumsverhältnisse klar festlegen. Ein Medienunternehmen, das ChatGPT einsetzt, muss beispielsweise nachweisen, dass es der rechtmäßige Eigentümer von Artikeln oder anderen Kunstwerken ist, die von der KI erstellt wurden; dies sei jedoch auslegungsfähig.