Von Datenlecks bis Deepfakes – ohne speziell geschulte Sicherheitsteams droht der Einsatz von KI mehr Schaden als Nutzen zu bringen:
Künstliche Intelligenz ist längst zum Dauerthema geworden – Politiker fordern sie, Unternehmen werben mit ihr, und Verwaltungen wollen effizienter durch sie werden. Doch der Wettlauf um den schnellsten Einsatz birgt Risiken: verfassungswidrige Datenanalysen, diskriminierende Bewerbungsfilter, millionenschwere Deepfake-Betrugsfälle und gravierende Sicherheitsvorfälle bei Start-ups.
Die Lektion ist klar: Wer bei KI aufs Gaspedal tritt, ohne Bremsen und Airbags zu haben, riskiert nicht nur den eigenen Schaden, sondern auch das Vertrauen der Gesellschaft. Sicherheit, Transparenz und speziell geschulte Fachkräfte sind kein Bremsklotz – sie sind das Fundament für verantwortungsvollen Fortschritt.
Künstliche Intelligenz (KI) beschreibt Systeme, die selbstständig Texte schreiben, Bilder erzeugen, Entscheidungen vorbereiten oder Daten analysieren können. Chatbots, Übersetzungsdienste, Gesichtserkennung oder auch automatische Bewerbungsfilter sind bereits weit verbreitet.
Doch neben all den Chancen gibt es Gefahren, die für Laien oft schwer durchschaubar sind:
- Halluzinationen: KI erfindet Informationen, die falsch sind, aber sehr überzeugend klingen.
- Pakethalluzinationen: Ganze „Päckchen“ konsistenter, aber frei erfundener Inhalte – z. B. erfundene Gerichtsurteile mit scheinbar realistischen Aktenzeichen.
- Datenvergiftung: Trainingsdaten werden manipuliert, sodass die KI falsche Muster lernt.
- Prompt Injection / ASCII Smuggling: Unsichtbare Befehle werden in Texte eingeschleust, die KI manipuliert diese versteckten Anweisungen.
- Deepfakes: KI-generierte Stimmen oder Videos täuschen Identitäten vor, etwa bei Betrugsversuchen.
- Supply-Chain-Angriffe: Manipulierte Bibliotheken oder Modelle schleusen Schadsoftware über scheinbar vertrauenswürdige Quellen ein.
Kritische Vorfälle als Warnsignal
Dass diese Risiken real sind, zeigen mehrere dokumentierte Fälle in Deutschland und Europa:
- Hessendata (Deutschland)
Das Bundesverfassungsgericht erklärte im Februar 2023 den Einsatz automatisierter Datenanalysen zur Polizeiarbeit in Hessen und Hamburg für verfassungswidrig. Grund: unklare Eingriffsschwellen und massive Grundrechtsrisiken. „KI-Systeme dürfen nicht zu Black Boxes im Rechtsstaat werden – Transparenz und Rechtsgrundlagen sind zwingend.“
(Prof. Ulrich Kelber, Bundesdatenschutzbeauftragter) - SCHUFA-Urteil (Deutschland/EU)
Der Europäische Gerichtshof entschied 2023, dass automatisierte Bonitäts-Scores nicht allein Grundlage für Vertragsentscheidungen sein dürfen. Rein KI-gesteuerte Ablehnungen sind unzulässig. „Die DSGVO schützt uns vor intransparenten Maschinenurteilen – Menschen müssen das letzte Wort behalten.“
(Johannes Caspar, Ex-Landesdatenschutzbeauftragter Hamburg) - Amazon Recruiting-KI (international)
Amazons Bewerbungsfilter bevorzugte Männer, weil historische Trainingsdaten vorwiegend männliche Erfolge abbildeten. Das Projekt wurde gestoppt – ein Beispiel für algorithmische Diskriminierung. „KI übernimmt immer die Vorurteile ihrer Daten. Wer Fairness will, muss gezielt gegensteuern.“
(Dr. Katharina Zweig, Algorithm Watch) - Localmind.ai (Österreich, Oktober 2025)
Durch eine Fehlkonfiguration erhielt ein Beta-Testkonto Administratorrechte. Ein Angreifer konnte interne Wikis, Passwörter und Kundensysteme einsehen. Teile der Infrastruktur mussten abgeschaltet werden. „Das Beispiel zeigt: Die größten Risiken liegen oft nicht in der KI selbst, sondern in der Infrastruktur drumherum.“
(Prof. Haya Shulman, Fraunhofer SIT) - Deepfake-Betrug („CEO-Fraud“)
Angreifer nutzten KI-generierte Stimmen oder Videos von Führungskräften, um Überweisungen auszulösen. Solche Fälle haben bereits zu Millionenverlusten geführt. „Deepfakes sind die Spear-Phishing-Mails der Zukunft – nur überzeugender.“
(Linus Neumann, Chaos Computer Club)
Warum speziell geschulte KI-Sicherheitsmitarbeiter unverzichtbar sind
Klassische IT-Sicherheitsabteilungen sind auf Netzwerkschutz und Malware spezialisiert. Doch KI bringt neue Angriffsflächen:
- Manipulation durch unsichtbare Zeichen (Prompt Injection).
- Erfundene Bibliotheken (Supply Chain).
- Bias und Diskriminierung in automatisierten Entscheidungen.
Hier braucht es eigene Rollen wie einen KI-Sicherheitsbeauftragten oder AI Security Officer, der:
- KI-spezifische Risiken versteht und testet.
- Schnittstelle zwischen IT, Recht, Datenschutz und Fachbereichen ist.
- Mitarbeitende schult und Awareness aufbaut.
- sicherstellt, dass Compliance (DSGVO, AI Act) eingehalten wird.
„Wer KI sicher einsetzen will, muss Spezialisten an Bord holen. Klassische IT-Security reicht nicht mehr.“
(Martin Bichler, Regional Country Manager DACH, Climb Channel Solutions)
Diese Rolle bedeutet Verantwortung statt Rückschritt: Wer nicht sofort auf jeden KI-Trend aufspringt, handelt nicht altmodisch, sondern verantwortungsvoll – ähnlich wie man beim Straßenverkehr auch nicht ohne Führerschein losfährt.
Und was ist mit Privatpersonen?
Privatnutzer sind besonders verwundbar, weil:
- Sie nicht geschult sind, KI-Ausgaben kritisch zu prüfen.
- Viele bereits von der allgemeinen Digitalisierung überfordert sind.
- Sie oft bedenkenlos persönliche Daten in Chatbots eingeben.
Welche Gesetze greifen hier?
- DSGVO (Datenschutz-Grundverordnung): schützt persönliche Daten – auch, wenn sie in KI-Systeme eingegeben werden.
- EU AI Act (verabschiedet 2024, in Kraft ab 2025/26): verbietet Hochrisiko-Einsatz von KI ohne Auflagen, verlangt Transparenz und Risikoabschätzungen.
- Produkthaftungsrecht: Anbieter von KI-Systemen können haftbar gemacht werden, wenn fehlerhafte Entscheidungen Schaden verursachen.
- Verbraucherschutzgesetze: greifen bei Irreführung oder intransparenten AGB von KI-Diensten.
„Privatnutzer sind die schwächste Stelle der Kette – ohne Aufklärung wird KI im Alltag schnell zum Risiko.“
(Dr. Constanze Kurz, Informatikerin und Bürgerrechtlerin)
Exkurs: Analog bleiben dürfen – Das Recht auf Verzicht im KI-Zeitalter
Sicherheit und Transparenz sind die eine Seite der Medaille – die andere ist die Freiheit, KI nicht nutzen zu müssen.
Viele Menschen sind digital überfordert oder wollen Technologien wie KI aus Überzeugung meiden. Hier stellt sich eine grundlegende Frage: Muss Teilhabe am gesellschaftlichen Leben künftig zwingend über digitale und KI-gestützte Systeme erfolgen?
Aktuelle Lage
- Ein ausdrückliches „Recht auf Verzicht“ gibt es noch nicht.
- Indirekt greifen aber Schutzmechanismen: DSGVO (Recht auf menschliches Eingreifen), AI Act (Transparenzpflichten), Barrierefreiheitsgesetz (Zugang für alle), Grundrechte (Würde, Gleichbehandlung).
- Trotzdem: In der Praxis werden viele Dienstleistungen digital-only – und damit für Nicht-Nutzer unerreichbar.
Fallbeispiel: Praktische Ausgrenzung
Ein Beispiel liefert der öffentliche Verkehr in Deutschland: Für bestimmte günstige Tickets (z. B. „Super-Sparpreise“ oder Sonderaktionen der Deutschen Bahn) ist die Buchung ausschließlich online oder per App möglich. Wer kein Smartphone oder Internetzugang hat, kann diese Angebote faktisch nicht nutzen.
Ähnlich wird es in einigen Kommunen gehandhabt, wo Terminbuchungen im Bürgeramt nur digital erfolgen. Wer keinen Zugang hat, muss Umwege gehen – oder wird schlicht ausgeschlossen.
Verantwortung
Ein modernes Gemeinwesen muss Technologiefreiheit garantieren:
- Wer KI nutzen will, soll es können.
- Wer darauf verzichtet, darf nicht ausgeschlossen werden – sei es beim Bürgeramt, beim Banking oder beim Kauf eines Tickets.
„Gerade deshalb erwarten Verbraucher:innen, im digitalen Raum geschützt zu sein. Es braucht klare, verbraucherfreundliche Regeln, die konsequent durchgesetzt werden.“
(Lina Ehrig, Leiterin Team Digitales & Medien, Verbraucherzentrale Bundesverband)
Dies ist keine „Anti-Digitalisierung“, sondern ein Gebot von Würde, Inklusion und Gerechtigkeit.
Fazit: Verantwortung vor Geschwindigkeit
- Unternehmen und Verwaltung: sollten nicht aus Angst, den „KI-Zug zu verpassen“, blind Technologien einführen, sondern geschulte Spezialisten einsetzen und klare Sicherheits- und Compliance-Strukturen schaffen.
- Privatpersonen: brauchen Aufklärung und Werkzeuge, um KI sicher nutzen zu können – und die Freiheit, darauf zu verzichten.
- Gesetzgeber: hat mit DSGVO und AI Act Grundlagen geschaffen, muss aber auch sicherstellen, dass analoge Alternativen bestehen bleiben.
Der vorsichtige, sicherheitsbewusste Umgang mit KI ist kein Bremsklotz – er ist ein Zeichen von Professionalität, Verantwortung und Resilienz.
Quellen
Bundesverfassungsgericht, Urteil zu Hessendata (16.02.2023)
EuGH, Urteil zu SCHUFA-Scoring (07.12.2023)
Heise, „Sicherheitsvorfall bei localmind.ai“ (Oktober 2025)
Borncity-Blogreihe zu localmind.ai (Oktober 2025)
Climb Channel Solutions, Studie zu KI-Einsatz in Unternehmen (2025)
Deutschlandfunk, „KI und Wahlen: Gefahr durch Deepfakes“ (2024)
EU-Kommission, Text zum AI Act (2024)
Verbraucherzentrale Bundesverband, Statement von Lina Ehrig (2024)
Schreibe einen Kommentar
Du musst angemeldet sein, um einen Kommentar abzugeben.