(Auszug aus der Pressemitteilung)

Fast ein Drittel der deutschen Nutzer befürchtet, dass sich die KI-Technologie zu schnell entwickelt, während ein Viertel nicht bereit ist, sensible Informationen mit Chatbots zu teilen, wie eine neue Studie von NordVPN zeigt.
Die meisten Menschen sind noch dabei, sich an die KI-Technologie zu gewöhnen, die vor nicht allzu langer Zeit eher noch wie eine Fantasie als wie die Realität wirkte. Die Grenze zwischen diesen Welten scheint immer noch verschwommen zu sein. Derzeit gibt es unter den Deutschen eine besorgniserregende Tendenz, KI-generierte Inhalte mit der Realität zu verwechseln.
Die überwiegende Mehrheit der deutschen Nutzer (92 %) traut sich nicht zu, KI-generierte Bilder zu erkennen, obwohl 13 % angeben, selbst solche Bilder mit einem Chatbot erstellt zu haben.
„Die KI-Revolution ist da und ihre schnell voranschreitende Entwicklung verändert die Art und Weise, wie wir leben und arbeiten. KI-Chatbots sind zwar nützliche Tools, aber es ist wichtig, bei ihrer Nutzung auf Datenschutz, Privatsphäre und Sicherheit zu achten, um nicht zum Ziel von Cyberkriminellen zu werden“, sagt Marijus Briedis, CTO bei NordVPN.
Deutsche sind von KI-Chatbots genervt
In Deutschland ist die Nutzung von KI-Chatbots gering, nur 10 % der Nutzer verwenden täglich KI-Chatbots. Es scheint, dass die Menschen sich immer noch viel wohler fühlen, wenn sie Unterstützung von anderen Menschen erhalten. 19 % der Befragten geben sogar an, dass sie genervt sind, wenn Unternehmen KI-Chatbots für ihren Kundensupport einsetzen. Dies ist besonders bei der Generation X (44 bis 59 Jahre) zu beobachten.
Fast ein Drittel (29 %) der Nutzer von KI-Chatbots befürchtet, dass sich KI zu schnell entwickelt, wobei die Babyboomer (60 bis 78 Jahre) mit 38 % die größte Sorge äußern. All diese Gründe, zusammen mit den derzeitigen Grenzen von KI-Chatbots, führen dazu, dass sie sich nur langsam im Alltag durchsetzen.

Image by StartupStockPhotos from Pixabay
Gleichzeitig machen sich aber nur 11 % der Befragten Sorgen, dass KI sie irgendwann am Arbeitsplatz ersetzen wird. Am meisten besorgt sind die Millennials (28 bis 43 Jahre alt) und die Generation Z (18 bis 27 Jahre alt).
„KI verändert die Arbeitswelt. Untersuchungen zeigen, dass jüngere Menschen und Menschen mit höherer Bildung sich schneller an KI gewöhnen und die künstliche Intelligenz eher als nützliches Tool für ihre Arbeit betrachten. Im Fokus steht dabei die Cybersicherheit. Wir schützen nicht mehr nur traditionelle digitale Landschaften, sondern sichern eine Zukunft, in der KI mit jedem Aspekt unserer Arbeit verflochten ist. Dies erfordert sich ständig weiterentwickelnde Sicherheitsmaßnahmen, Richtlinien und Schulungsprogramme, die den Arbeitnehmern helfen, sich an die sich schnell verändernde digitale Umgebung anzupassen“, sagt Briedis.
Die Generation Z zeigt das geringste Interesse, den Umgang mit KI zu lernen
Positiv zu vermerken ist, dass 32 % aller Deutschen sich bemühen, mehr über KI zu erfahren, um sich besser auf die technologische Zukunft einstellen zu können. Am meisten Interesse am Thema KI zeigen die Babyboomer mit 36 %, während die Generation Z das geringste Interesse zeigt.
Die Daten widersprechen interessanterweise gängigen Annahmen und zeigen, dass sich ältere Generationen stärker mit KI beschäftigen. Diese Beobachtung stellt die Vorstellung infrage, dass ältere Generationen vom technologischen Fortschritt abgekoppelt sind.
Die Generation Z (18 bis 27 Jahre) zeigt im Vergleich zu anderen Gruppen das geringste Interesse, was auf eine potenzielle Kluft bei der Akzeptanz und dem Verständnis dieser Technologie in dieser Bevölkerungsgruppe hindeutet.
Nur ein Zehntel aller Befragten nutzt KI-Chatbots regelmäßig im Alltag, beispielsweise um KI-Bilder zu erstellen, während nur 10 % der Befragten sie für die Arbeit und lediglich 4 % für die Schule oder Universität nutzen.
Experte rät, wie man sich bei der Nutzung von KI-Chatbots sicherer fühlen kann
Ein Viertel der Befragten vermeidet es, sensible Daten mit KI zu teilen, weil sie ihr nicht trauen. Dies trägt dazu bei, dass nur 6 % der Deutschen schon einmal Opfer eines KI-Betrugs geworden sind. Die skeptischsten Gruppen, die KI deutlich misstrauen, sind die Babyboomer und Menschen mit geringerem Einkommen.
Dies zeigt, dass die Deutschen besonders auf Betrugsversuche mit KI achten. Um sicherer im Umgang mit KI sein zu können, gibt Marijus Briedis einige Tipps:
- Vermeiden Sie es, sensible Daten wie Ihren vollständigen Namen, Ihre Adresse, Finanzinformationen oder andere persönliche Daten weiterzugeben, es sei denn, dies ist absolut notwendig.
- Lesen Sie vor der Nutzung eines Chatbots die Datenschutzrichtlinie des Dienstanbieters, um zu verstehen, wie Ihre Daten erfasst, gespeichert und verwendet werden.
- Verwenden Sie nach Möglichkeit Pseudonyme, temporäre E-Mail-Adressen oder virtuelle private Netzwerke (VPNs), um Ihre wahre Identität und Ihren Standort zu verbergen.
- Geben Sie keine persönlichen Informationen in öffentlichen oder ungesicherten Umgebungen – wie z. B. in offenen WLAN-Netzwerken – weiter, da Ihre digitale Kommunikation möglicherweise abgefangen oder überwacht werden könnte.
- Stellen Sie sicher, dass Ihre Geräte und die Anwendungen, die Sie für den Zugriff auf KI-Chatbots verwenden, regelmäßig mit den neuesten Sicherheitspatches aktualisiert werden, um Schwachstellen zu minimieren.
- Wenn Sie während oder nach der Nutzung eines KI-Chatbots auf verdächtige oder nicht autorisierte Aktivitäten im Zusammenhang mit Ihren persönlichen Daten stoßen, melden Sie dies umgehend dem Dienstanbieter und den zuständigen Behörden.
Methodik: Diese Studie wurde von NordVPN in Auftrag gegeben und zwischen dem 18. und 28. November 2024 von Cint durchgeführt. Insgesamt wurden 4.000 Befragte aus Deutschland, Japan, Italien und Brasilien im Alter zwischen 18 und 74 Jahren befragt. Die Experten legten Quoten für das Geschlecht, das Alter und den Wohnort der Befragten fest, um eine landesweit repräsentative Stichprobe unter den Internetnutzern zu erhalten.
Neueste Kommentare
24. April 2025
24. April 2025
18. April 2025
15. April 2025
14. April 2025
14. April 2025