PrivateGuard Logo

ChatGPT + Cybersicherheit: Spaßiges Lernen und Fakes erkennen

01.09.2023
von: PrivateGuard Team

"ChatGPT wurde hauptsächlich zur Erstellung von Texten und zum Kommunizieren mit Menschen programmiert."

Der Hype und die Diskussionen um ChatGPT sind nach wie vor auf dem Höchststand. Seit einiger Zeit ist GPT 4.0 verfügbar, diese gibt es allerdings nur als Abo-Modell. Für den privaten Alltag ist die kostenfreie Version 3.5 aber vollkommen ausreichend und für dich und deine Familie eine gute Möglichkeit, mit KI-Modellen zu interagieren und somit den Umgang mit dieser neuen Technologie zu lernen. Gleichzeitig ist die Beschäftigung mit diesem sog. LLM (Large Language Model) ganz einfach aber auch deshalb anzuraten, weil dudurch das Verständnis dafür auch einfacher „KI-Fakes“ erkennen kannst. Denn die werden mehr zu einem Sicherheitsrisiko für deine Cybersicherheit.

zunächst ein wenig Hintergrundwissen, wie ChatGPT funktioniert und wie du Fakes erkennen und Betrugsmaschen schneller auf die Schliche kommen kannst. Generative KI wie ChatGPT wird zukünftig eine wachsende Rolle in Unternehmen einnehmen und gerade beim Kundenkontakt wirst du damit mehr und mehr in Berührung kommen. Wir (das PrivateGuard Team) möchten dich und deine Familie gerne aufklären und auch dazu ermutigen, euch mit dem Tool etwas mehr auseinander zu setzen – sowohl für eure Sicherheit als auch für eure „Convenience“.

 

Wie funktioniert ChatGPT

Generative KI sowie ChatGPT funktionieren über maschinelles Lernen. Der Unterschied zum menschlichen Lernen ist dabei (gemäß neuester Gehrinforschung) vermutlich gar nicht so groß, nur ist ChatGPT dabei schneller und effizienter als der Mensch. Als Grundlage zum Lernen dient dabei insbesondere das gesamte öffentliche Internet. Aus den Texten, die mehrheitlich von Menschen geschrieben wurden, werden Muster erkannt und reproduziert. Deshalb ist der Bot in der Lage, verschiedene Sprachen zu lernen und Sachverhalte überraschend genau darzustellen.

Dabei sei bemerkt, dass ChatGPT hauptsächlich zur Erstellung von Texten und zum Kommunizieren mit Menschen programmiert wurde. Hol dir also besser keine Finanztipps und erwarte keine adäquate Kaufberatung. Eine Garantie auf Richtigkeit bekommst du bei den Antworten von ChatGPT sowieso nicht. Sieh es also eher als Kommunikationstool und Möglichkeit zum Üben, wie man mit generativer KI umgeht. ChatGPT wird dir auf jede Frage / Aufforderung antworten. Die Qualität der Antwort kann aber stark schwanken.

 

Welche Fakes gibt es im Zusammenhang mit ChatGPT?

So, und warum erzählen wir dir das alles?

Bei jedem Hype gibt es natürlich auch Personen, die eine Möglichkeit sehen, Geld damit zu verdienen – abgesehen vom eigentlichen Betreiber. Fakes zu erkennen kann dich also schützen, in keine Abofalle zu tappen oder von Identitätsdiebstahl betroffen zu sein.

Der Zugang zu ChatGPT (3.5) ist derzeit „kostenlos“ für die private Nutzung. Der Gewinn für den Hersteller OpenAI liegt vor allem darin, dass sich viele Millionen Menschen mit dem Tool auseinandersetzen und dadurch Testdaten entstehen, die zur Verbesserung genutzt werden. Daher steht „kostenlos“ auch in Anführungszeichen, denn du bezahlst die Benutzung nicht mit Geld, sondern mit deinen Daten, genauso wie bei deinen liebglings Social Media Plattformen. Du bekommst also einen relativ gesehen „kostenlosen Einblick“ in die Welt der generativen KI und OpenAI gewinnt kostenfreie Tester*innen.

Um Fakes zu erkennen, solltest du natürlich wissen, was gerade an Betrugsmaschen im Umlauf ist und welche auch oft funktionieren. Deshalb möchten wir in diesem Artikel etwas Awareness für die Schattenseiten von ChatGTP schaffen, ohne dir den Spaß am Lernen und am Umgang mit der Plattform zu nehmen.

 
Fake-Bots

Chat-Bots sind per se keine neue Erfindung, allerdings werden inzwischen einige damit angeworben, dass sie auf Grundlage von ChatGPT funktionieren. Die Webseiten sehen der vom offiziellen OpenAI ChatGPT sehr ähnlich und es ist auch möglich, mit dem Bot zu kommunizieren. Allerdings wird das Gespräch gelenkt und man kommt schnell zu dem Punkt, bei dem man beispielsweise über Finanzen spricht. Es ist wichtig, diesen Fake zu erkennen, da im Endeffekt entweder deine Finanzdaten oder eine Überweisung von Geld das Ziel sind. Überweise niemals einfach so Geld oder gib deine Bankdaten preis. Investitionen solltest du nur über deine Bank oder vertrauenswürdige Institute tätigen.

 
Fake-Mails

Phishing ist weiterhin eine beliebte Betrugsmasche, über die wir auch schon in anderen Blogartikeln informiert haben. Mit Texten, die von menschlichen kaum zu unterscheiden sind, nutzen natürlich auch Cyberkriminelle ChatGPT, um zum Beispiel Fake-Mails zu erstellen. Diesen Fake zu erkennen ist gar nicht so einfach. Gerne wird mit etwas gelockt. Es kann sich also um ein Gewinnspiel handeln oder man wird aufgefordert, auf einen Link zu klicken, weil man sonst „negative Folgen“ befürchten muss – wie beispielsweise die Schließung des Bankkontos oder eine Strafzahlung.

Den Fake am Text zu erkennen ist nicht leicht, aber in der Regel kann man ihn am Absender der Mail identifizieren. Sei also skeptisch und kontaktiere im Zweifel die Institution, von der die Mail angeblich stammen soll – immer über die offizielle Webseite und nicht über einen Link aus der E-Mail.

Menschenähnlicher Roboter sitzt mit einem Tablet auf einer roten Bank.
Drei junge Erwachsene die in einem Café in mit ihren Laptops und Büchern and einem Tisch sitzen und lachen.
Handy auf dem die App ChatGTP geöffnet ist.
Ein in rosa gekleidetes asiatisches Mädchen, das in die Hand von einem menschenähnlichen weißen Roboter hält und in die Kamera guckt.

"Unter einem Fake verstehen wir vor allem die Absicht, falsche Tatsachen vorzutäuschen."

Generierte Texte

Auf allen Kanälen können (von ChatGPT) generierte Texte an dich gesendet werden, die wie von echten Menschen klingen. Es ist schwierig, einen Fake zu erkennen, aber das ist auch nicht unbedingt notwendig. Wichtig ist, dass du auf keine Links klickst und keine Daten von dir preisgibst oder gar Geld überweist.

Egal ob per WhatsApp, über soziale Medien oder via E-Mail, sei immer skeptisch bei Nachrichten, denn wirklich wichtige Informationen erhältst du über offizielle Kanäle. Deine Bank würde dir beispielsweise eine Nachricht im Postfach hinterlassen oder dir einen Brief schreiben, wenn es etwas Wichtiges zu klären gibt. Auch offizielle Organe wie die Staatsanwaltschaft, Polizei etc. kontaktieren dich entweder persönlich oder per offiziellem Schreiben – ganz sicher aber nicht per Chat mit der Aufforderung, etwas sofort zu bezahlen oder deine Daten preiszugeben.

Bei Texten einen Fake zu erkennen, wird also schwieriger, mit einem kühlen Kopf und einer gesunden Skepsis schützt du aber deine Daten.

 

Wie erkennt man Fakes von ChatGPT?

ChatGPT selbst zu nutzen kann dir aktiv dabei helfen, Fakes besser zu erkennen. Probiere also gerne aus, was für Möglichkeiten ChatGPT dir bieten kann und wie vielfältig die generierten Texte aussehen. Es geht nicht immer darum, dass der Bot alles korrekt wiedergibt, sondern darum, dass du siehst, wie einfach sich Fake-Texte erstellen lassen, und zwar in wenigen Sekunden.

Allein durch dein aufgewecktes Verständnis wird es unwahrscheinlicher, dass du auf Fake Benachrichtigungen hereinfällst und gleichzeitig machst du dich mit aktuellen KI-Tools wie ChatGPT vertraut und entdeckst vielleicht auch Möglichkeiten für deinen Alltag – zum Beispiel zur Recherche der Urlaubsplanung oder zum Schreiben von Hochzeitsreden. Das schadet niemanden! Du solltest dir die Ergebnisse aber vorher trotzdem sorgfältig durchlesen, bevor du sie benutzt weitergibst!

 
Fake oder falsche Informationen?

Uns ist gerade beim Umgang mit ChatGPT wichtig zu erwähnen, dass nicht alles Fake ist, was faktisch nicht stimmt. Unter einem Fake verstehen wir vor allem die Absicht, falsche Tatsachen vorzutäuschen. Werden also E-Mails versandt, die denen von Banken oder Behörden ähneln, um an deine Daten zu gelangen, dann sind dies Fake-Mails.

Postet aber jemand einen Text auf seiner Webseite oder seinen sozialen Medien, in der ChatGPT falsche oder ungenaue Informationen auf Fragen ausgegeben hat, ist das nicht zwangsläufig ein Fake, sondern oftmals eine fehlende Überprüfung der generierten Texte– also eine Falschninformation.

Fragt man ChatGPT selbst, ob es immer korrekte Antworten gibt, dann weist es darauf hin, dass die Antworten auf den Trainingsdaten basieren und nicht immer korrekt sind. Da die KI aber kein Urteilsvermögen oder gar Moral besitzt, handelt es sich dabei nicht um bösartige Fakes, sondern schlicht um falsche Informationen. Man könnte die Unterscheidung also folgendermaßen treffen:

• Erstellt man mit ChatGPT absichtlich falsche Informationen, handelt es sich um einen Fake.

• Möchte man einen informativen Text mit ChatGPT erstellen und die KI gibt falsche Informationen aus, handelt es sich dabei und eine Falschinformation.

 

Keine Moral, kein Urteilsvermögen?

In das „Verhalten“ von ChatGPT wurden tatsächlich Reaktionen integriert, die beispielsweise Diskriminierung vorbeugen sollen. So versucht die KI zum Beispiel keine Witze zu erstellen, die sich über Minderheiten lustig machen. Auch hier gibt es natürlich eine Fehlerquote, aber der richtige Ansatz ist vorhanden.

Da die Trainingsdaten aus menschlichen Texten stammen, können aber Vorurteile oder gesellschaftliches „Fehlverhalten“ in den Antworten abgebildet werden. Die KI lernt also von uns und verhält sich in etwa wie der Querschnitt der Gesellschaft. Deshalb kann man nicht ausschließen, dass ChatGPT auch diskriminierende Annahmen trifft, wenn die Mehrheit der Trainingstexte diese Annahmen auch getroffen hat. Es basiert also auf keinen moralischen Werten oder einem Urteilsvermögen, sondern schlicht auf Angelerntem von uns Menschen.

Auch beim Erstellen von Fake-Texten gibt es keine moralische Instanz. ChatGPT ist für alle Nutzer*innen gleichermaßen verfügbar – also auch für Cyberkriminelle. Ob die Texte am Ende zur Unterhaltung, zur Bildung oder für betrügerische Fakes genutzt werden, liegt nicht in der Hand von ChatGPT, sondern in der der Benutzer.

 

Fazit

Jede Innovation hat seine Licht- und Schattenseiten – bei ChatGPT ist das nicht anders. Gerade wenn es einen solchen Hype gibt und so gut wie jeder Mensch kostenfreien Zugriff darauf hat, kann es auch für Cybercrime genutzt werden, beispielsweise für Fakes. Das sollte dich aber nicht davon abhalten, dich selbst mit ChatGPT zu befassen – ganz im Gegenteil.

Nur wenn man weiß, was für Möglichkeiten es mit den neusten Tools gibt und wie einfach und schnell die Handhabung ist, kann man sich auf Fakes und andere Betrugsversuche vorbereiten bzw. lernen diese leichter identifizieren. Wir möchten die wichtigsten Punkte von ChatGPT und dem Potenzial von Fakes nochmals zusammenfassen, damit du einen guten Überblick bekommst:

 
ChatGPT

• ChatGPT ist in der Version 3.5 kostenfrei für die private Nutzung.
• Die offizielle Webseite lautet: https://chat.openai.com/.
• Die offizielle App findest du unter „OpenAI ChatGPT“ in deinem App-Store.
• ChatGPT nutzt maschinelles Lernen – lernt also aus großen Datenmengen.
• Das Tool hat keine Moral, versucht aber Diskriminierung zu vermeiden.
• Es gibt keine Garantie, dass die generierten Texte von ChatGPT faktisch korrekt sind.

 
Fakes

• KI-generierte Texte lassen sich kaum oder gar nicht von menschlichen unterscheiden.
• Die Texte werden für Fakes via Mail, Messenger etc. genutzt.
• Auch angeblich auf ChatGPT basierende Bots werden genutzt, um an deine Daten oder dein Geld zu gelangen.

Um Spaß am Lernen im Umgang mit der KI zu haben, solltest du nur die offiziellen Seiten nutzen und unter keinen Umständen deine persönlichen (Finanz-) Daten weitergeben. Deine Bank benötigt diese nicht und auch keine andere offizielle Behörde. Diese kontaktieren dich persönlich, über offizielle Apps oder postalisch. Auch das Bauchgefühl ist bei der Erkennung von Fakes entscheidend. Wie wir immer gerne erwähnen:

Ist es zu schön, um wahr zu sein, dann ist es vermutlich nicht wahr!

Solltest du trotzdem von einem Identitätsdiebstahl betroffen sein, schützt unsere Cyberversicherung dich und deine Familie. Wir von PrivateGuard möchten, dass du neue Tools und Möglichkeiten nutzen kannst und dabei gut abgesichert bist! Möchtest du mehr erfahren? Dann sieh dich hier einfach um!

Unsere PrivateGuard Cyberversicherung

Trotz aller Aufklärung zu den Gefahren in der Online-Welt und den Möglichkeiten, dich dagegen zu wappnen, bieten wir dir mit PrivateGuard Cyber eine am Markt einzigartige Versicherung, die dich vor finanziellen Schäden durch Onlinebetrug, Cyberangriffe und Datendiebstahl schützt. Sollte also trotz aller Vorkehrungen mal was schiefgehen, bist du mit unserer Cyberversicheurng bis zu 30.000 € versichert.

Der Schutz gilt weltweit und versichert deine ganze Familie oder Haushalt.
Für schlanke 3,99 € im Monat genießen du und deine Liebsten mit PrivateGuard Cyber vollumfänglichen Schutz, egal ob beim Online shoppen, Online Banking oder zum Schutz eurer Online-Identitäten
Der Abschluss unserer Versicherung erfolgt pfeilschnell und ganz unkompliziert online. Die Police bekommst du in wenigen Sekunden per Email – ganz ohne Papierkram, und doch vollkommen rechtsverbindlich. Du kannst deinen Versicherungsvertrag monatlich kündigen und hast über unser Portal online Zugriff auf all deine Unterlagen, Schadensmeldung und Schadensregulierung.

Noch nicht sicher?
Hier haben wir für dich ein paar weitere konkrete und typische Anwendungsfälle beschrieben, in denen dich PrivatGuard Cyber schützt:

in sekunden zum vertrag

Einfacher gehts kaum...

1. Daten eingeben

2. Zahlung wählen

3. Abschließen

Fragen?
Lass mal hören!

Cookie Consent mit Real Cookie Banner