5 Min Lesezeit

Was man nicht mit AI-Chatbots teilen sollte

Bitdefender

März 26, 2024

Promo Ein Produkt zum Schutz aller Geräte - ohne Performance-Einbußen.
30 Tage kostenfrei testen
Was man nicht mit AI-Chatbots teilen sollte

ChatGPT war der allererste KI-Chatbot, der weltweit Anerkennung gefunden hat. Seit seiner Einführung sind viele andere fähige KI-Chatbots aufgetaucht, die eine breitere Palette von Optionen für Ihre spezifischen Bedürfnisse bieten. KI-Chatbots haben sich zu äußerst beliebten und nützlichen Werkzeugen entwickelt, um Informationen, Ratschläge und Unterstützung zu verschiedenen Themen zu erhalten. Sie können sie nutzen, um einen Geschäftsplan zu erstellen, Ihren Garten zu planen, Artikel oder Codes zu schreiben, E-Mails zu verfassen, Kunst, Bilder, Videos und so ziemlich alles, was Sie sich vorstellen können, zu erzeugen.

Je fortschrittlicher und integrierter diese KI-Assistenten jedoch in unserem Leben werden, desto vorsichtiger müssen wir sein, wenn es darum geht, persönliche Informationen mit ihnen zu teilen. Und warum? Weil man ihnen sensible Daten nicht anvertrauen kann.

Hinter dem freundlichen Chatbot

Um die mit KI-Chatbots verbundenen Risiken für den Datenschutz zu verstehen, ist es wichtig zu wissen, wie sie funktionieren. Diese Chatbots sammeln und speichern die vollständigen Transkripte der Unterhaltungen, die stattfinden, wenn Sie mit ihnen interagieren. Dazu gehören alle Fragen, Aufforderungen, Nachrichten, die Sie an den Chatbot senden, und die Antworten des Chatbots. Die Unternehmen, die hinter diesen KI-Assistenten stehen, analysieren und verarbeiten diese Gesprächsdaten, um ihre umfangreichen Sprachmodelle zu trainieren und zu verbessern.

Stellen Sie sich den Chatbot wie einen Schüler vor, der im Unterricht Notizen macht. Der Chatbot schreibt alles, was Sie sagen, wortwörtlich auf, sodass der gesamte Kontext und alle Details erfasst werden. Das KI-Unternehmen überprüft dann diese "Notizen", um dem Chatbot beim Lernen zu helfen, ähnlich wie ein Schüler seine Unterrichtsnotizen studieren würde, um sein Wissen zu erweitern. Während die Absicht darin besteht, das Sprachverständnis und die Dialogfähigkeiten der KI zu verbessern, bedeutet dies, dass Ihre rohen Konversationsdaten - die möglicherweise persönliche Informationen, Meinungen und sensible Details enthalten, die Sie preisgeben - von den KI-Unternehmen gesammelt, gespeichert und untersucht werden, zumindest vorübergehend.

Wenn Sie im Internet unterwegs sind, sind Ihre persönlichen Daten bereits überall zu finden. Möchten Sie sehen, wo sie sind? Verwenden Sie Bitdefender Digital Identity Protection, um Ihre persönlichen Daten online zu finden und zu verwalten.

Die Risiken der Überfremdung

Wenn Sie persönliche oder sensible Informationen mit einem KI-Chatbot teilen, verlieren Sie die Kontrolle darüber, wo diese Daten hingehen oder wie sie verwendet werden können. KI-Chatbots speichern Daten auf Servern, die anfällig für Hacking-Versuche oder Sicherheitslücken sein können. Diese Server enthalten eine Fülle von Informationen, die von Cyberkriminellen auf verschiedene Weise ausgenutzt werden können. Sie können die Server infiltrieren, die Daten stehlen und sie auf Dark-Web-Marktplätzen verkaufen. Außerdem können Hacker diese Daten nutzen, um Passwörter zu knacken und sich unbefugten Zugang zu Ihren Geräten zu verschaffen.

Alle von Ihnen zur Verfügung gestellten Daten können potenziell aufgedeckt, gehackt oder missbraucht werden, was zu Identitätsdiebstahl, Finanzbetrug oder der öffentlichen Preisgabe intimer Informationen führen kann, die Sie lieber für sich behalten würden. Um Ihre Privatsphäre zu schützen, müssen Sie die Details, die Sie KI-Chatbots offenlegen, sorgfältig auswählen.

Was man einem Chatbot nicht sagen sollte

Um Ihre Privatsphäre und Ihre persönlichen Daten zu schützen, sollten Sie sich genau überlegen, was Sie mit KI-Chatbots teilen.

Seien Sie äußerst vorsichtig mit diesen Daten:

Persönliche Identifikationsdaten: Vermeiden Sie es, wichtige persönliche Informationen wie Ihren vollständigen Namen, Ihre Adresse, Telefonnummer, Ihr Geburtsdatum, Ihre Sozialversicherungsnummer oder andere staatliche Ausweisnummern weiterzugeben. Jede dieser Angaben kann ausgenutzt werden, um sich als Sie auszugeben, was zu Identitätsdiebstahl, Finanzbetrug oder anderem kriminellen Missbrauch Ihrer persönlichen Daten führen kann.

Benutzernamen und Passwörter: Geben Sie niemals Passwörter, PINs, Authentifizierungscodes oder andere Anmeldedaten an KI-Chatbots weiter. Selbst Hinweise auf Ihre Anmeldedaten könnten Hackern den Zugang zu Ihren Konten erleichtern.

Ihre finanziellen Informationen: Sie sollten niemals finanzielle Kontoinformationen, Kreditkartennummern oder Einkommensdetails mit KI-Chatbots teilen.

Sie können sie um allgemeine Finanztipps und Ratschläge, allgemeine Fragen zur Haushaltsplanung oder sogar Steuerberatung bitten, aber halten Sie Ihre sensiblen Finanzdaten geheim, da dies leicht dazu führen könnte, dass Ihre Finanzkonten und Ihr Vermögen kompromittiert werden.

Private und intime Gedanken: KI-Chatbots können Ihnen zwar ein offenes Ohr schenken, aber Sie sollten es vermeiden, sehr persönliche Gedanken, Erfahrungen oder Meinungen preiszugeben, die Sie nicht öffentlich teilen möchten. Alles, von politischen oder religiösen Ansichten bis hin zu Beziehungsproblemen oder emotionalen Kämpfen, könnte aufgedeckt werden, wenn die Konversationsprotokolle gehackt oder falsch gehandhabt werden.

Vertrauliche arbeitsbezogene Informationen: Wenn Sie mit geschützten Informationen, Geschäftsgeheimnissen, Insiderwissen oder vertraulichen Arbeitsplatzdaten jeglicher Art arbeiten, sollten Sie diese nicht mit öffentlichen KI-Chatbots besprechen. Vermeiden Sie die Verwendung von KI-Chatbots, um Sitzungsprotokolle zusammenzufassen oder sich wiederholende Aufgaben zu automatisieren, da dies das Risiko birgt, unbeabsichtigt sensible Daten preiszugeben oder Vertraulichkeitsvereinbarungen und den Schutz des geistigen Eigentums Ihres Arbeitgebers zu verletzen.

In einem Bloomberg-Bericht wurde ein Fall geschildert, in dem Samsung-Mitarbeiter ChatGPT für Programmierzwecke nutzten und versehentlich vertraulichen Code auf die generative KI-Plattform hochluden. Dieser Vorfall führte zur Offenlegung vertraulicher Informationen über Samsung und veranlasste das Unternehmen, die Nutzung von KI-Chatbots zu verbieten.

Große Technologieunternehmen wie Apple, Samsung, JPMorgan und Google haben sogar Richtlinien eingeführt, die ihren Mitarbeitern die Nutzung von KI-Chatbots bei der Arbeit untersagen.

Ihre ursprüngliche kreative Arbeit: Teilen Sie niemals Ihre originellen Ideen mit Chatbots, es sei denn, Sie sind damit einverstanden, dass sie potenziell mit allen anderen Nutzern geteilt werden.

Gesundheitsbezogene Informationen:

Eine vom Gesundheitstechnologie-Unternehmen Tebra durchgeführte Umfrage ergab, dass:

  • 1 von 4 Amerikanern würde eher mit einem KI-Chatbot sprechen, als eine Therapie zu besuchen.
  • Über 5 % der Amerikaner haben sich für eine medizinische Diagnose an Chat GPT gewandt und dessen Rat befolgt.

Ihre Gesundheitsdaten zu schützen bedeutet, Ihren Zugang zu angemessener medizinischer Versorgung zu sichern, die Vertraulichkeit zu wahren und sich gegen potenzielle Datenschutzverletzungen oder den Missbrauch sensibler medizinischer Informationen zu schützen. Geben Sie also niemals Ihren Gesundheitszustand, Ihre Diagnosen, Behandlungsdetails oder Medikamentenschemata an KI-Chatbots weiter. Sprechen Sie stattdessen mit qualifizierten medizinischen Fachkräften in einer sicheren und privaten Umgebung.

Sichere Nutzung von Chatbots

Hier sind 3 Dinge, die Sie tun können, um Chatbots sicher zu nutzen und Ihre Privatsphäre zu schützen.

  • Seien Sie vorsichtig mit den Informationen, die Sie bereitstellen.
  • Lesen Sie die Datenschutzrichtlinien und achten Sie auf Chatbot-Datenschutzeinstellungen.
  • Nutzen Sie die Option, die Verwendung Ihrer Daten für das Training von Sprachmodellen abzulehnen, sofern verfügbar.

Im Allgemeinen sind die Verwendung des Inkognito-/Privatmodus, das Löschen des Gesprächsverlaufs und die Anpassung der Dateneinstellungen die wichtigsten Möglichkeiten, um die Datenerfassung durch KI-Chatbots einzuschränken. Die meisten großen KI-Chatbot-Anbieter bieten diese Optionen an.

Hier sind einige Beispiele:

OpenAI (ChatGPT, GPT-3):

  • Verwenden Sie den Inkognito/Private-Browsing-Modus
  • Aktivieren Sie "Verlauf nicht speichern" in den Einstellungen
  • Löschen Sie Ihren Gesprächsverlauf regelmäßig

Anthropic (Claude):

  • Aktivieren Sie die Einstellung "Datenschutzfilterung", um die Datenerfassung zu verhindern
  • Verwenden Sie die Funktion "Inkognito-Modus".

Google (Bard, LaMDA):

  • Verwenden Sie den Gastmodus oder den Inkognito-Modus
  • Überprüfen Sie Ihre Google-Dateneinstellungen und passen Sie sie an

Nächste Stufe: KI soll Sie schützen

Vorsicht ist zwar klug, aber wie wäre es, wenn Sie den Schutz Ihrer Privatsphäre noch weiter ausbauen könnten, indem Sie einen KI-Assistenten einsetzen, der speziell für Ihren Schutz entwickelt wurde?

Scamio ist unser KI-gestützter Chatbot der nächsten Generation, der entwickelt wurde, um Betrug und betrügerische Aktivitäten zu erkennen. Sie können Scamio den betrügerischen Text, die E-Mail, die Sofortnachricht, den Link oder sogar den QR-Code senden, den Sie erhalten haben, und Scamio wird sofort analysieren, ob es sich um einen Betrugsversuch handelt.

Um ein Gespräch zu beginnen, besuchen Sie scamio.bitdefender.com/chat oder chatten Sie direkt mit Scamio auf Facebook Messenger.

tags


Autor


Bitdefender

The meaning of Bitdefender’s mascot, the Dacian Draco, a symbol that depicts a mythical animal with a wolf’s head and a dragon’s body, is “to watch” and to “guard with a sharp eye.”

Alle Beiträge sehen

Das könnte Sie auch interessieren

Bookmarks


loader