| 13. 5. 2026 | 11 Min. Lesezeit

Deepfakes erkennen: Wie Versicherer KI-Betrug in Schadenfällen und Voice-ID-Prozessen reduzieren

Eine Schadensmeldung kommt rein: Sturmschäden am Dach, Fotos beigefügt. Der Sachbearbeiter prüft – Perspektive stimmt, Belichtung passt, Metadaten wirken plausibel. Er gibt die  Auszahlung frei. Drei Wochen später stellt sich heraus: Die Fotos waren KI-generiert. Das Dach war nie beschädigt – und der bestehende Prüfprozess war nicht darauf ausgelegt, das zu erkennen.

Mitarbeiterin analysiert Inhalte auf mehreren Monitoren zur Deepfake-Erkennung 

In diesem Artikel erfährst du:

    Das Szenario ist fiktiv. Das Risiko nicht. KI-generierte Bilder, Stimmen und Videos verändern die Betrugsprävention in der Versicherungswirtschaft grundlegend. Der Gesamtverband der Deutschen Versicherungswirtschaft (GDV) schätzt den jährlichen Schaden durch Versicherungsbetrug in Deutschland auf mehr als sechs Milliarden Euro. Deepfakes sind darin nicht als eigene Schadenskategorie ausgewiesen – sie verschärfen jedoch ein bestehendes Problem: Bilder, Stimmen und Identitäten lassen sich heute schneller und glaubwürdiger manipulieren als je zuvor.

    Deepfakes erkennen wird damit zur operativen Notwendigkeit, nicht zum IT-Randthema. Wer manipulierte Inhalte zuverlässig identifizieren will, braucht mehr als ein geschultes Auge: forensische Tools, klare Verifizierungsprozesse und Mitarbeitende, die wissen, wann ein Vorgang gestoppt werden muss.
    Die entscheidende Frage ist nicht, ob ein Unternehmen schon einmal einem Deepfake begegnet ist, sondern ob der Prüfprozess ihn erkannt hätte.

    Deepfake-Risiken in der Versicherung: Schadenfotos, Voice-ID und CEO-Fraud

    Moderne Bildgeneratoren erzeugen Schadenfotos, die selbst geschulte Sachbearbeiter nicht mehr zuverlässig von echten unterscheiden können. Klassische Plausibilitätsprüfungen – Perspektive, Belichtung, Metadaten – greifen zu kurz, weil KI-Modelle diese Merkmale heute konsistent reproduzieren.

    Die Versicherungswirtschaft ist für Deepfake-Angriffe besonders attraktiv: hohe  Transaktionsvolumina, sensible Kundendaten, regulatorischer Druck – und Prozesse, die auf die Echtheit von Dokumenten, Bildern, Stimmen und Identitäten angewiesen sind. Genau dort, wo Vertrauen operationalisiert wird, entstehen neue Angriffsflächen.

    Manipulierte Schadensfotos

    Mit Bildgeneratoren wie Midjourney, Stable Diffusion oder GPT-4o lassen sich in kurzer Zeit realistisch wirkende Schadensbilder erzeugen. Je nach Motiv, Auflösung und Prüfprozess können solche Bilder für Sachbearbeiter schwer von echten Aufnahmen zu unterscheiden sein: Ein kleiner Blechschaden wirkt plötzlich wie ein Totalschaden, ein intaktes Dach zeigt scheinbare Sturmschäden.

    Genau hier setzen spezialisierte Bildforensiklösungen an. Die Plattform fraudify der FIDA (ehemals Finanz-DATA GmbH, seit 2025 Teil der msg Gruppe) prüft Schadenbilder unter anderem auf Manipulationen, KI-generierte Inhalte, Dubletten, Metadaten und visuelle Auffälligkeiten. Die Lösung wurde beim Innovationspreis der Assekuranz 2025/26 mit Silber ausgezeichnet.

    Voice Cloning bei der Telefonverifizierung

    Versicherungen nutzen in einigen Prozessen Stimme, Telefonverifikation oder biometrische Verfahren zur Kundenidentifikation. Genau das macht sie angreifbar: Wenn eine Stimme glaubwürdig imitiert werden kann, reicht die akustische Wiedererkennung allein nicht mehr als Sicherheitsanker.

    Laut dem Pindrop Voice Intelligence Report 2025 stiegen Voice-Clone-Angriffe auf Versicherungs-Callcenter im Jahr 2024 deutlich an. Die Einstiegshürde sinkt ebenfalls: Während früher längere Audiosequenzen für überzeugende Stimmklone nötig waren, zeigen aktuelle Tests, dass bereits wenige Sekunden Audiomaterial ausreichen können, um eine Stimme täuschend ähnlich nachzubilden.

    Für Versicherer bedeutet das: Telefonische Freigaben, Adressänderungen, Auszahlungsanfragen oder Identitätsprüfungen sollten nicht allein auf Stimme und Gesprächskontext beruhen. Besonders riskant wird es, wenn Voice Cloning mit Phishing, Social Engineering oder bereits kompromittierten Kundendaten kombiniert wird.

    CEO-Fraud per Deepfake-Video und KI-Stimme

    Deepfakes verändern auch klassische Social-Engineering-Angriffe. Früher reichte eine gefälschte E-Mail oder ein manipulierter Absender. Heute können Angreifer Stimmen, Gesichter und Videokonferenzen imitieren – und damit den sozialen Druck in Freigabeprozessen massiv erhöhen. Laut Allianz Trade stiegen die Schäden durch Fake-President-Betrugsmaschen – auch bekannt als CEO-Fraud – 2025 um weitere 81 Prozent, obwohl die Fallzahlen zurückgingen. KI-gestützte Stimmen, Bilder und Nachrichten machen solche Angriffe glaubwürdiger, weil nicht nur Inhalte, sondern auch Identitätssignale imitiert werden können.

    Besonders bekannt wurde der Fall der Ingenieursfirma Arup in Hongkong: Ein Finanzmitarbeiter nahm 2024 an einem Videocall teil, bei dem mehrere vermeintliche Teilnehmer KI-generiert waren –  CNN Business berichtete ausführlich darüber. Am Ende wurden rund 25 Millionen US-Dollar überwiesen. Auch Fälle mit geklonten Stimmen zeigen, wie glaubwürdig solche Angriffe wirken können, wenn sie mit Zeitdruck, vertrauten Namen und plausiblen Geschäftskontexten kombiniert werden.

    Mitte Januar 2026 kontaktierten Kriminelle den Inhaber eines Unternehmens im Kanton Schwyz – mit einer KI-geklonten Stimme eines bekannten Geschäftspartners. Über zwei Wochen überwies er mehrere Millionen Schweizer Franken auf ein asiatisches Konto. Der Betrug wurde erst entdeckt, als das Geld verschwunden war – wie SRF.ch berichtete.

    Für Versicherungen ist das doppelt relevant: Sie können selbst Ziel solcher Angriffe werden – etwa in Finanz-, Rechts- oder Managementprozessen. Gleichzeitig müssen sie als Versicherer mögliche Cyber- und Betrugsschäden bewerten, bei denen Deepfakes Teil des Angriffsszenarios waren.

    Deepfakes erkennen: Warum menschliche Prüfung allein nicht reicht

    Zwischen subjektiver Sicherheit und tatsächlicher Erkennungsleistung liegt oft eine deutliche Lücke. Genau das macht Deepfakes für regulierte Prozesse so gefährlich: Sie greifen nicht nur technische Systeme an, sondern auch menschliche Routinen – Vertrauen, Wiedererkennung, Plausibilität und Zeitdruck.

    Ein Report von IRONSCALES zeigt dieses Spannungsfeld deutlich: 99 Prozent der befragten IT- und Sicherheitsverantwortlichen gaben an, Vertrauen in die Deepfake-Abwehr ihres Unternehmens zu haben. In simulierten Deepfake-Tests lag die durchschnittliche Erfolgsquote beim ersten Versuch jedoch nur bei 44 Prozent. Nur 8,4 Prozent der Organisationen erreichten eine Bestehensquote von 80 Prozent oder mehr. Solche Zahlen ersetzen keine eigene Risikoanalyse, zeigen aber ein klares Muster: Awareness allein reicht nicht.

    Auch wissenschaftliche Studien weisen in dieselbe Richtung. Sophie J. Nightingale und Hany Farid zeigten 2022 in einer PNAS-Studie, dass KI-generierte Gesichter für Versuchspersonen kaum von echten Gesichtern zu unterscheiden waren – und sogar als etwas vertrauenswürdiger bewertet wurden. Genau darin liegt das Problem: Menschen reagieren auf visuelle Plausibilität, Symmetrie und vertraute Signale. Moderne Generatoren produzieren genau diese Signale.

    Eine iProov-Studie aus dem Jahr 2025 kommt zu einem ähnlichen Ergebnis: Nur 0,1 Prozent der getesteten Teilnehmer erkannten alle gezeigten realen und KI-generierten Inhalte korrekt. Besonders schwierig waren Videos – sie wurden deutlich seltener richtig erkannt als Bilder.

    Für Versicherer bedeutet das: Schadensfotos, Videoidentifikationen oder Sprachautorisierungen dürfen nicht allein nach menschlichem Eindruck bewertet werden. Deepfake-Erkennung braucht technische Forensik, klare Eskalationsregeln und Prüfprozesse, die auch dann funktionieren, wenn ein Bild, eine Stimme oder ein Video zunächst plausibel wirkt.

    Deepfakes erkennen: visuelle, akustische und kontextuelle Hinweise

    Deepfakes können sichtbare und hörbare Auffälligkeiten zeigen. Diese Hinweise sind jedoch keine Beweise. Moderne Generatoren werden besser, klassische Artefakte verschwinden und stark komprimierte Bilder oder Videos können zusätzliche Fehler erzeugen. Entscheidend ist deshalb nicht ein einzelnes Merkmal, sondern die Kombination aus Kontextprüfung, technischer Analyse und klaren Eskalationsregeln.

    Die Zahlen sind ernüchternd – aber nicht hoffnungslos. Deepfakes hinterlassen Spuren. Nur werden diese Spuren mit jeder Modellgeneration subtiler.

    Bild und Video

    Achte bei Bildern und Videos auf Unstimmigkeiten, die nicht zum restlichen Material passen: unnatürliche Übergänge zwischen Gesicht, Haaren und Hals, unterschiedliche Schärfeebenen, unlogische Schatten, fehlende Reflexionen oder auffällig glatte Hautstrukturen. Auch Hände, Zähne, Ohren, Brillenränder oder Schmuck können Hinweise liefern, wenn sie verformt wirken oder sich zwischen Frames verändern.

    Bei Schadenfotos ist zusätzlich der Kontext entscheidend: Passt der Schaden zur gemeldeten Ursache? Stimmen Perspektive, Licht, Wetter, Geodaten, Exif-Daten und andere Unterlagen zusammen? Gibt es ähnliche Bilder im Netz oder Dubletten in früheren Schadenfällen?

    Audio

    Bei Audio-Deepfakes können monotone Intonation, unnatürliche Betonungen, metallische Klanganteile, fehlende Atemgeräusche oder ungewöhnlich gleichmäßige Pausen auffallen. Auch Hintergrundgeräusche sind wichtig: Wirken sie künstlich, fehlen sie komplett oder passen sie nicht zur behaupteten Situation?

    Für Versicherer besonders kritisch sind telefonische Freigaben, Adressänderungen, Auszahlungsanfragen oder Identitätsprüfungen. Eine vertraut klingende Stimme darf hier nicht der einzige Sicherheitsanker sein.

    Kontext

    Die Kontextprüfung sollte immer vor der Detailprüfung kommen. Wer hat das Material eingereicht? Über welchen Kanal kam es? Passt der Inhalt zum bisherigen Verhalten der Person oder des Kunden? Gibt es Zeitdruck, ungewöhnliche Zahlungswege oder eine Aufforderung, etablierte Prozesse zu umgehen?

    Bei öffentlich kursierenden Videos helfen zusätzlich seriöse Medienquellen, Rückwärtssuche und Faktenchecker wie CORRECTIV, dpa-Faktencheck oder Mimikama. In internen Versicherungsprozessen sind dagegen bekannte Kontaktwege, Callback-Regeln, Vier-Augen-Prinzip und technische Forensik entscheidend.

    Wie gut erkennst du Deepfakes selbst?

    Fraunhofer AISEC bietet mit Deepfake Total ein kostenloses Trainingsspiel für Audio- und Video-Deepfakes. Es eignet sich gut, um die eigene Wahrnehmung zu testen – und zu verstehen, warum Deepfake-Erkennung nicht allein auf Bauchgefühl beruhen sollte (Fraunhofer-Magazin, 2025).

    Schutzmaßnahmen: Technik, Organisation, Mensch

    Deepfakes lassen sich nicht mit einem einzelnen Tool zuverlässig beherrschen. Wirksamer Schutz entsteht erst, wenn technische Forensik, klare Prozesse und geschulte Mitarbeitende zusammenspielen. Für Versicherer ist besonders wichtig, dass diese Schutzmaßnahmen nicht neben dem Tagesgeschäft stehen, sondern in Schadenregulierung, Kundenidentifikation und Freigabeprozesse integriert werden.

    Kein einzelnes Tool löst das Problem. Wirksamer Schutz kombiniert drei Ebenen.

    Technische Schutzmaßnahmen

    KI-gestützte Forensik kann Bilder, Videos, Audiodateien und Dokumente auf Auffälligkeiten prüfen, die für Menschen kaum sichtbar oder hörbar sind. Dazu gehören etwa Metadaten, Kompressionsspuren, Texturmuster, Dubletten, Rückwärtssuchen oder Inkonsistenzen zwischen Bildinhalt und Datei-Historie.

    Für Versicherer ist entscheidend, solche Tools nicht isoliert einzusetzen, sondern in bestehende Workflows zu integrieren: Schadenportale, Dokumentenprüfung, Callcenter-Prozesse, Betrugsprävention und Compliance-Systeme. Ein Detektor allein entscheidet nicht über die Echtheit eines Inhalts. Er liefert ein Risikosignal, das in einem definierten Prüfprozess bewertet werden muss.

    Langfristig gewinnen Herkunftsnachweise wie C2PA an Bedeutung. Sie können helfen, die Entstehung und Bearbeitung digitaler Inhalte nachvollziehbarer zu machen. Für die Praxis gilt jedoch: Provenance-Signale sind hilfreich, ersetzen aber keine eigene Risikoanalyse und keine Prozesskontrolle. Wie solche Maßnahmen in eine breitere Sicherheitsarchitektur eingeordnet werden, erklärt unser Cybersecurity-Leitfaden.

    Organisatorische Schutzmaßnahmen

    Die wichtigste organisatorische Regel lautet: Ungewöhnliche Anfragen dürfen nicht über denselben Kanal bestätigt werden, über den sie eingegangen sind. Bei Zahlungsanweisungen, Adressänderungen, Auszahlungsfreigaben oder sensiblen Vertragsänderungen sollte die Verifizierung immer über einen bekannten, separat gespeicherten Kontaktweg erfolgen.

    Sinnvoll sind außerdem klare Schwellenwerte und Eskalationsregeln: Ab welchem Betrag gilt das Vier-Augen-Prinzip? Wann muss eine Schadenmeldung zusätzlich geprüft werden? Welche Merkmale führen zu einer manuellen Eskalation? Wer darf Ausnahmen genehmigen?

    Menschliche Schutzmaßnahmen

    Awareness-Training bleibt wichtig, reicht aber allein nicht aus. Mitarbeitende in Schadenregulierung, Kundenservice, Zahlungsfreigabe, IT-Security und Management sollten typische Deepfake-Szenarien kennen – und verstehen, wie sie mit anderen Cyberangriffen zusammenhängen. Deepfakes treten selten isoliert auf; häufig werden sie mit Phishing, Social Engineering oder kompromittierten Zugangsdaten kombiniert.

    Besser sind regelmäßige Simulationen, ähnlich wie bei Phishing-Tests. Dabei lernen Teams nicht nur, verdächtige Signale zu erkennen, sondern vor allem, wann sie einen Vorgang stoppen und über einen zweiten Kanal verifizieren müssen.

    Die einfachste Regel bleibt oft die wirksamste: Bei ungewöhnlichen Anfragen nicht sofort reagieren. Vorgang stoppen, intern eskalieren und über einen unabhängigen Kanal prüfen. Wie künstliche Intelligenz auch Passwörter und Zugangsdaten angreifbarer macht, zeigt unser Artikel zu KI und Passwortsicherheit.

    Die einfachste Regel bleibt oft die wirksamste: Bei ungewöhnlichen Anfragen nicht sofort reagieren. Vorgang stoppen, intern eskalieren und über einen unabhängigen Kanal prüfen.

    Jozef Wagner, Senior Java-Programmierer bei msg life Slovakia

    „Was mich nach zehn Jahren Java-Entwicklung überrascht hat: Wie schnell sich die Frage ›Ist das ein Bug?‹ zu ›Ist das ein Angriff?‹ verschoben hat. Bei Life Factory verwalten wir Lebensversicherungsverträge – und plötzlich müssen wir davon ausgehen, dass die Stimme am Telefon, die eine Auszahlung autorisiert, gar nicht dem Kunden gehört.“

    Klare Verifizierungsrichtlinien schützen nicht nur das Unternehmen, sondern auch die Mitarbeitenden: Sie schaffen Sicherheit darüber, wann ein Vorgang gestoppt, eskaliert oder über einen zweiten Kanal bestätigt werden muss.

    Tools zur Deepfake-Erkennung: Beispiele und Auswahlkriterien

    Spezialisierte Tools können helfen, manipulierte oder KI-generierte Inhalte schneller zu erkennen. Für Versicherer ist jedoch weniger die einzelne Benchmark-Zahl entscheidend als die Frage, ob eine Lösung in reale Schaden-, Identitäts- und Freigabeprozesse passt.

    Wichtige Auswahlkriterien sind Erkennungsqualität, Erklärbarkeit, False-Positive-Raten, Datenschutz, Datenresidenz, API-Integration, Audit-Trails, On-Premise-Optionen und Tests mit eigenen Schadenfällen. Benchmark-Werte sollten immer als Orientierung verstanden werden – nicht als Garantie für die Erkennungsleistung im produktiven Einsatz.

    Die folgende Übersicht nennt Beispiele für Lösungen und Forschungsangebote. Sie ersetzt keine Anbieterauswahl. Entscheidend sind Datenschutz, Integrationsfähigkeit, Erklärbarkeit, False-Positive-Raten und Tests mit eigenen Schadenfällen.

    Beispiele für Deepfake-Prüfung im Versicherungskontext
    Anbieter / Lösung Ansatz Stärke Einsatz
    fraudify (FIDA / msg Gruppe) Bildforensik Schadenbild-Fokus Claims-Prüfung
    Detesia (CISPA Helmholtz) Multimodal Erklärbare Hinweise Medienprüfung
    Fraunhofer AISEC Audio-Deepfakes Forschung & Training Awareness, Voice-ID
    Vaarhaft GmbH Bildprüfung SafeCam-Prozess Schadensmeldungen Schadenfotos

    Benchmark-Werte sollten Versicherer immer im eigenen Prozesskontext prüfen. Ein Tool liefert ein Risikosignal – die Entscheidung braucht definierte Workflows, Audit-Trails und klare Eskalationsregeln.

    Für Awareness und erste Plausibilitätsprüfungen können frei zugängliche Angebote hilfreich sein, etwa Deepfake Total von Fraunhofer AISEC oder Rückwärtssuchen über Google Images und TinEye. Für regulierte Schaden-, Identitäts- oder Freigabeprozesse ersetzen solche Werkzeuge jedoch keine validierte Enterprise-Lösung, keine Datenschutzprüfung und keine klaren internen Verifizierungsregeln.

    Reichen ChatGPT oder andere KI-Assistenten zur Deepfake-Erkennung?

    Eine häufige Annahme in Versicherungsunternehmen ist, dass moderne KI-Assistenten wie ChatGPT Deepfakes erkennen können. ChatGPT kann zwar hochgeladene Bilder analysieren und auf sichtbare Auffälligkeiten hinweisen, liefert aber keinen forensischen Echtheitsnachweis. Für Schadenregulierung, Identitätsprüfung und Compliance-Prozesse benötigen Versicherer spezialisierte Deepfake-Erkennungs-Tools mit dokumentierten Workflows, Audit-Trails und klaren Eskalationsregeln.

    Häufige Fragen zu Deepfakes

    Ein Deepfake ist ein mit künstlicher Intelligenz erzeugtes oder manipuliertes Bild, Video oder Audio, das eine reale Person oder Situation täuschend echt nachahmt. Der Begriff Deepfake setzt sich zusammen aus „Deep Learning“ und „Fake“. Deepfakes entstehen unter anderem durch Diffusionsmodelle und generative neuronale Netze und werden zunehmend für Betrug, Identitätsmissbrauch und CEO-Fraud eingesetzt.

    Deepfakes lassen sich in vier Hauptkategorien einteilen: Video-Deepfakes (Face Swap und Face Reenactment), Audio-Deepfakes (synthetisierte Stimmen für Voice-Phishing), Bild-Deepfakes (manipulierte Fotos für Schadenbetrug) und Text-Deepfakes (KI-generierte Inhalte für Phishing und Social Engineering). Für Versicherer sind besonders Audio-Deepfakes bei CEO-Fraud und Bild-Deepfakes in der Schadenregulierung kritisch.

    Deepfake-Inhalte erkennt man an unnatürlichen Übergängen, inkonsistenten Schatten, auffällig glatter Haut, verformten Details an Ohren oder Zähnen, monotoner Stimme und fehlenden Atemgeräuschen. Diese Merkmale sind jedoch keine Beweise – moderne Deepfakes vermeiden viele klassische Fehler. Für eine belastbare Prüfung kombinieren Versicherer visuelle Analyse mit forensischen Tools und definierten Verifizierungsprozessen.

    Deepfakes sind nicht grundsätzlich strafbar, können aber strafrechtlich relevant werden, wenn sie für Betrug, Erpressung, Identitätsmissbrauch, Verleumdung oder Verletzung von Persönlichkeitsrechten verwendet werden. Ein eigenständiges Deepfake-Gesetz existiert in der DACH-Region bislang nicht – relevante Straftatbestände finden sich in den jeweiligen Strafgesetzbüchern. Zusätzlich greifen ab dem 2. August 2026 Transparenzpflichten nach Artikel 50 des EU AI Act, die für Versicherer und IT-Dienstleister in Deutschland, Österreich und der gesamten EU verbindlich werden.

    Nach Artikel 50 des EU AI Act müssen Anbieter und Betreiber von KI-Systemen ab dem 2. August 2026 KI-generierte oder manipulierte Bilder, Videos und Audioinhalte transparent kennzeichnen. Betreiber müssen offenlegen, wenn Inhalte künstlich erzeugt wurden – insbesondere bei Deepfakes. Für Versicherer bedeutet das: Sie müssen prüfen, ob ihre eingesetzten KI-Systeme die Transparenzpflichten erfüllen, und interne Prozesse für die Kennzeichnung anpassen.

    Deepfakes erkennen: Aus Bedrohung wird Prozessfrage

    Der Inhaber im Kanton Schwyz hatte keine Chance. Er kannte die Technologie nicht, die ihn betrog. Drei Sekunden Audio, zehn Minuten öffentlicher Rede, ein Videocall voller KI-Avatare – die Werkzeuge werden billiger und die Fälschungen besser. Menschen liegen bei der Erkennung auf Zufallsniveau. Organisationen, die Schulen, verlieren trotzdem Geld.

    Für die Versicherungswirtschaft ist das kein Randthema. Es ist ein systemisches Risiko in der Betrugsprävention – und eine offene Flanke bei der Kundenverifizierung. Die Lösung ist kein einzelnes Tool, sondern ein Zusammenspiel aus technischer Forensik, organisatorischen Prozessen und Mitarbeitern, die wissen, wann sie misstrauisch sein müssen.

    Deutsche Anbieter wie fraudify, Detesia, Vaarhaft und Fraunhofer AISEC zeigen, dass branchenspezifische Lösungen verfügbar sind. Dein Vorteil gegenüber dem Inhaber in Schwyz: Du kennst die Bedrohung jetzt. Die Frage ist, ob du morgen danach handelst.

    Du möchtest an Software arbeiten, die Versicherungsprozesse sicherer, stabiler und nachvollziehbarer macht? msg life Slovakia sucht IT-Profis, die komplexe Systeme verstehen und weiterentwickeln – von Java-Entwicklung über Testing bis hin zu anspruchsvollen Projekten in der Versicherungs-IT.

    Jakub Novák

    System Engineer bei msg life Slovakia mit Schwerpunkt Infrastruktur, Endpoint Security und Automatisierung. Zuvor administrierte er als System Administrator über zwei Jahre die Hardware- und Endpoint-Infrastruktur des Unternehmens – inklusive Active Directory, BitLocker und Remote-Troubleshooting.

    Schließen

    Senden Sie Anhänge, die größer als 4 MB sind, an
    jobs.sk@msg-life.com

    Schließe dich unserem Team an!

      *

      *

      Der für die Verarbeitung Ihrer personenbezogenen Daten Verantwortliche ist msg life Slovakia s. r. o., Hraničná 18, 821 05 Bratislava, ID-Nr.: . Personenbezogene Daten im Rahmen des Lebenslaufs, der Bewerbung um eine Stelle, des Motivationsschreibens oder anderer Dokumente mit Ihren personenbezogenen Daten, die durch eventuelle Notizen aus dem Auswahlverfahren ergänzt werden, werden für die Zwecke des Auswahlverfahrens und der Erstellung einer Datenbank von Bewerbern für künftige Auswahlverfahren im oben genannten Rahmen für einen Zeitraum von 3 Jahren verarbeitet. Sie können Ihre Zustimmung zur Verarbeitung Ihrer personenbezogenen Daten jederzeit widerrufen, indem Sie sich an die folgende E-Mail-Adresse wenden: jobs.sk.life@msg.group oder durch schriftliche Mitteilung an die Adresse der Verantworlitchen. Der Widerruf der Einwilligung hat keine Auswirkungen auf die Verarbeitung personenbezogener Daten, die auf der Einwilligung vor deren Widerruf beruhen. Personenbezogene Daten können auch von einem vertraglich beauftragten Auftragsverarbeiter (Systemanbieter), der Firma recruitis.io s. r. o., Chmelova 357/2, 500 03 Hradec Králové, Tschechische Republik, ID-Nr.:27508391, verarbeitet werden. Weitere Informationen über die Verarbeitung von personenbezogenen Daten finden Sie hier>.