{"id":27989,"date":"2026-05-13T15:59:37","date_gmt":"2026-05-13T13:59:37","guid":{"rendered":"https:\/\/msg-life.sk\/?p=27989"},"modified":"2026-05-13T15:59:37","modified_gmt":"2026-05-13T13:59:37","slug":"deepfakes-erkennen-wie-versicherer-ki-betrug-in-schadenfaellen-und-voice-id-prozessen-reduzieren","status":"publish","type":"post","link":"https:\/\/msg-life.sk\/de\/blog\/digitalisierung\/deepfakes-erkennen\/","title":{"rendered":"Deepfakes erkennen: Wie Versicherer KI-Betrug in Schadenf\u00e4llen und Voice-ID-Prozessen reduzieren"},"content":{"rendered":"<p>Eine Schadensmeldung kommt rein: Sturmsch\u00e4den am Dach, Fotos beigef\u00fcgt. Der Sachbearbeiter pr\u00fcft \u2013 Perspektive stimmt, Belichtung passt, Metadaten wirken plausibel. Er gibt die\u00a0 Auszahlung frei. Drei Wochen sp\u00e4ter stellt sich heraus: Die Fotos waren KI-generiert. Das Dach war nie besch\u00e4digt \u2013 und der bestehende Pr\u00fcfprozess war nicht darauf ausgelegt, das zu erkennen.<br \/>\nDas Szenario ist fiktiv. Das Risiko nicht. KI-generierte Bilder, Stimmen und Videos ver\u00e4ndern die Betrugspr\u00e4vention in der Versicherungswirtschaft grundlegend.<a href=\"https:\/\/www.gdv.de\/gdv\/medien\/medieninformationen\/versicherungsbetrug-verursacht-schaeden-von-ueber-sechs-milliarden-euro-im-jahr-176852\" target=\"_blank\" rel=\"noopener\"> Der Gesamtverband der Deutschen Versicherungswirtschaft<\/a> (GDV) sch\u00e4tzt den j\u00e4hrlichen Schaden durch Versicherungsbetrug in Deutschland auf mehr als sechs Milliarden Euro. Deepfakes sind darin nicht als eigene Schadenskategorie ausgewiesen \u2013 sie versch\u00e4rfen jedoch ein bestehendes Problem: Bilder, Stimmen und Identit\u00e4ten lassen sich heute schneller und glaubw\u00fcrdiger manipulieren als je zuvor.<br \/>\nDeepfakes erkennen wird damit zur operativen Notwendigkeit, nicht zum IT-Randthema. Wer manipulierte Inhalte zuverl\u00e4ssig identifizieren will, braucht mehr als ein geschultes Auge: forensische Tools, klare Verifizierungsprozesse und Mitarbeitende, die wissen, wann ein Vorgang gestoppt werden muss.<br \/>\nDie entscheidende Frage ist nicht, ob ein Unternehmen schon einmal einem Deepfake begegnet ist, sondern ob der Pr\u00fcfprozess ihn erkannt h\u00e4tte.<\/p>\n<h2>Deepfake-Risiken in der Versicherung: Schadenfotos, Voice-ID und CEO-Fraud<\/h2>\n<p>Moderne Bildgeneratoren erzeugen Schadenfotos, die selbst geschulte Sachbearbeiter nicht mehr zuverl\u00e4ssig von echten unterscheiden k\u00f6nnen. Klassische Plausibilit\u00e4tspr\u00fcfungen \u2013 Perspektive, Belichtung, Metadaten \u2013 greifen zu kurz, weil KI-Modelle diese Merkmale heute konsistent reproduzieren.<br \/>\nDie Versicherungswirtschaft ist f\u00fcr Deepfake-Angriffe besonders attraktiv: hohe\u00a0 Transaktionsvolumina, sensible Kundendaten, regulatorischer Druck \u2013 und Prozesse, die auf die Echtheit von Dokumenten, Bildern, Stimmen und Identit\u00e4ten angewiesen sind. Genau dort, wo Vertrauen operationalisiert wird, entstehen neue Angriffsfl\u00e4chen.<\/p>\n<h3>Manipulierte Schadensfotos<\/h3>\n<p>Mit Bildgeneratoren wie Midjourney, Stable Diffusion oder GPT-4o lassen sich in kurzer Zeit realistisch wirkende Schadensbilder erzeugen. Je nach Motiv, Aufl\u00f6sung und Pr\u00fcfprozess k\u00f6nnen solche Bilder f\u00fcr Sachbearbeiter schwer von echten Aufnahmen zu unterscheiden sein: Ein kleiner Blechschaden wirkt pl\u00f6tzlich wie ein Totalschaden, ein intaktes Dach zeigt scheinbare Sturmsch\u00e4den.<\/p>\n<p>Genau hier setzen spezialisierte Bildforensikl\u00f6sungen an. Die Plattform fraudify der <a href=\"https:\/\/www.fida.de\/\" target=\"_blank\" rel=\"noopener\">FIDA<\/a> (ehemals Finanz-DATA GmbH, seit 2025 Teil der msg Gruppe) pr\u00fcft Schadenbilder unter anderem auf Manipulationen, KI-generierte Inhalte, Dubletten, Metadaten und visuelle Auff\u00e4lligkeiten. Die L\u00f6sung wurde beim Innovationspreis <a href=\"https:\/\/www.versicherungsbote.de\/id\/4941105\/Deepfake-Erkennung-So-schuetzen-sich-Versicherer-vor-KI-Betrug\/\" target=\"_blank\" rel=\"noopener\">der Assekuranz 2025\/26<\/a>\u00a0mit Silber ausgezeichnet.<\/p>\n<h3>Voice Cloning bei der Telefonverifizierung<\/h3>\n<p>Versicherungen nutzen in einigen Prozessen Stimme, Telefonverifikation oder biometrische Verfahren zur Kundenidentifikation. Genau das macht sie angreifbar: Wenn eine Stimme glaubw\u00fcrdig imitiert werden kann, reicht die akustische Wiedererkennung allein nicht mehr als Sicherheitsanker.<\/p>\n<p>Laut dem <a href=\"https:\/\/www.pindrop.com\/research\/report\/voice-intelligence-security-report\/\" target=\"_blank\" rel=\"noopener\">Pindrop Voice Intelligence Report 2025<\/a> stiegen Voice-Clone-Angriffe auf Versicherungs-Callcenter im Jahr 2024 deutlich an. Die Einstiegsh\u00fcrde sinkt ebenfalls: W\u00e4hrend fr\u00fcher l\u00e4ngere Audiosequenzen f\u00fcr \u00fcberzeugende Stimmklone n\u00f6tig waren, zeigen aktuelle Tests, dass bereits wenige Sekunden Audiomaterial ausreichen k\u00f6nnen, um eine Stimme t\u00e4uschend \u00e4hnlich nachzubilden.<\/p>\n<p>F\u00fcr Versicherer bedeutet das: Telefonische Freigaben, Adress\u00e4nderungen, Auszahlungsanfragen oder Identit\u00e4tspr\u00fcfungen sollten nicht allein auf Stimme und Gespr\u00e4chskontext beruhen. Besonders riskant wird es, wenn Voice Cloning mit Phishing, Social Engineering oder bereits kompromittierten Kundendaten kombiniert wird.<\/p>\n<h3>CEO-Fraud per Deepfake-Video und KI-Stimme<\/h3>\n<p>Deepfakes ver\u00e4ndern auch klassische Social-Engineering-Angriffe. Fr\u00fcher reichte eine gef\u00e4lschte E-Mail oder ein manipulierter Absender. Heute k\u00f6nnen Angreifer Stimmen, Gesichter und Videokonferenzen imitieren \u2013 und damit den sozialen Druck in Freigabeprozessen massiv erh\u00f6hen. Laut <a href=\"https:\/\/www.allianz-trade.de\/presse\/pressemitteilungen\/alarmstufe-ki-schaeden-durch-fake-president-betrug-vervielfachen-sich.html\" target=\"_blank\" rel=\"noopener\">Allianz Trade<\/a> stiegen die Sch\u00e4den durch Fake-President-Betrugsmaschen \u2013 auch bekannt als CEO-Fraud \u2013 2025 um weitere 81 Prozent, obwohl die Fallzahlen zur\u00fcckgingen. KI-gest\u00fctzte Stimmen, Bilder und Nachrichten machen solche Angriffe glaubw\u00fcrdiger, weil nicht nur Inhalte, sondern auch Identit\u00e4tssignale imitiert werden k\u00f6nnen.<\/p>\n<p>Besonders bekannt wurde der Fall der Ingenieursfirma Arup in Hongkong: Ein Finanzmitarbeiter nahm 2024 an einem Videocall teil, bei dem mehrere vermeintliche Teilnehmer KI-generiert waren \u2013 \u00a0<a href=\"https:\/\/www.cnn.com\/2024\/02\/04\/asia\/deepfake-cfo-scam-hong-kong-intl-hnk\">CNN Business<\/a> berichtete ausf\u00fchrlich dar\u00fcber. Am Ende wurden rund 25 Millionen US-Dollar \u00fcberwiesen. Auch F\u00e4lle mit geklonten Stimmen zeigen, wie glaubw\u00fcrdig solche Angriffe wirken k\u00f6nnen, wenn sie mit Zeitdruck, vertrauten Namen und plausiblen Gesch\u00e4ftskontexten kombiniert werden.<\/p>\n<p>Mitte Januar 2026 kontaktierten Kriminelle den Inhaber eines Unternehmens im Kanton Schwyz \u2013 mit einer KI-geklonten Stimme eines bekannten Gesch\u00e4ftspartners. \u00dcber zwei Wochen \u00fcberwies er mehrere Millionen Schweizer Franken auf ein asiatisches Konto. Der Betrug wurde erst entdeckt, als das Geld verschwunden war \u2013 wie <a href=\"https:\/\/www.srf.ch\/news\/schweiz\/mittels-ki-zu-millionenbetrug-ki-stimme-betrug-schwyzer-unternehmer-verliert-millionen\" target=\"_blank\" rel=\"noopener\">SRF.ch<\/a> berichtete.<\/p>\n<p>F\u00fcr Versicherungen ist das doppelt relevant: Sie k\u00f6nnen selbst Ziel solcher Angriffe werden \u2013 etwa in Finanz-, Rechts- oder Managementprozessen. Gleichzeitig m\u00fcssen sie als Versicherer m\u00f6gliche Cyber- und Betrugssch\u00e4den bewerten, bei denen Deepfakes Teil des Angriffsszenarios waren.<\/p>\n<h2>Deepfakes erkennen: Warum menschliche Pr\u00fcfung allein nicht reicht<\/h2>\n<p>Zwischen subjektiver Sicherheit und tats\u00e4chlicher Erkennungsleistung liegt oft eine deutliche L\u00fccke. Genau das macht Deepfakes f\u00fcr regulierte Prozesse so gef\u00e4hrlich: Sie greifen nicht nur technische Systeme an, sondern auch menschliche Routinen \u2013 Vertrauen, Wiedererkennung, Plausibilit\u00e4t und Zeitdruck.<\/p>\n<p>Ein <a href=\"https:\/\/ironscales.com\/fall-2025-threat-report\" target=\"_blank\" rel=\"noopener\">Report von IRONSCALES<\/a> zeigt dieses Spannungsfeld deutlich: 99 Prozent der befragten IT- und Sicherheitsverantwortlichen gaben an, Vertrauen in die Deepfake-Abwehr ihres Unternehmens zu haben. In simulierten Deepfake-Tests lag die durchschnittliche Erfolgsquote beim ersten Versuch jedoch nur bei 44 Prozent. Nur 8,4 Prozent der Organisationen erreichten eine Bestehensquote von 80 Prozent oder mehr. Solche Zahlen ersetzen keine eigene Risikoanalyse, zeigen aber ein klares Muster: Awareness allein reicht nicht.<\/p>\n<p>Auch wissenschaftliche Studien weisen in dieselbe Richtung. Sophie J. Nightingale und Hany Farid zeigten 2022 in einer <a href=\"https:\/\/www.pnas.org\/doi\/10.1073\/pnas.2120481119\" target=\"_blank\" rel=\"noopener\">PNAS-Studie<\/a>, dass KI-generierte Gesichter f\u00fcr Versuchspersonen kaum von echten Gesichtern zu unterscheiden waren \u2013 und sogar als etwas vertrauensw\u00fcrdiger bewertet wurden. Genau darin liegt das Problem: Menschen reagieren auf visuelle Plausibilit\u00e4t, Symmetrie und vertraute Signale. Moderne Generatoren produzieren genau diese Signale.<\/p>\n<p>Eine <a href=\"https:\/\/www.iproov.com\/press\/study-reveals-deepfake-blindspot-detect-ai-generated-content\" target=\"_blank\" rel=\"noopener\">iProov-Studie<\/a> aus dem Jahr 2025 kommt zu einem \u00e4hnlichen Ergebnis: Nur 0,1 Prozent der getesteten Teilnehmer erkannten alle gezeigten realen und KI-generierten Inhalte korrekt. Besonders schwierig waren Videos \u2013 sie wurden deutlich seltener richtig erkannt als Bilder.<\/p>\n<p>F\u00fcr Versicherer bedeutet das: Schadensfotos, Videoidentifikationen oder Sprachautorisierungen d\u00fcrfen nicht allein nach menschlichem Eindruck bewertet werden. Deepfake-Erkennung braucht technische Forensik, klare Eskalationsregeln und Pr\u00fcfprozesse, die auch dann funktionieren, wenn ein Bild, eine Stimme oder ein Video zun\u00e4chst plausibel wirkt.<\/p>\n<h2>Deepfakes erkennen: visuelle, akustische und kontextuelle Hinweise<\/h2>\n<p>Deepfakes k\u00f6nnen sichtbare und h\u00f6rbare Auff\u00e4lligkeiten zeigen. Diese Hinweise sind jedoch keine Beweise. Moderne Generatoren werden besser, klassische Artefakte verschwinden und stark komprimierte Bilder oder Videos k\u00f6nnen zus\u00e4tzliche Fehler erzeugen. Entscheidend ist deshalb nicht ein einzelnes Merkmal, sondern die Kombination aus Kontextpr\u00fcfung, technischer Analyse und klaren Eskalationsregeln.<\/p>\n<p>Die Zahlen sind ern\u00fcchternd \u2013 aber nicht hoffnungslos. Deepfakes hinterlassen Spuren. Nur werden diese Spuren mit jeder Modellgeneration subtiler.<\/p>\n<h3>Bild und Video<\/h3>\n<p>Achte bei Bildern und Videos auf Unstimmigkeiten, die nicht zum restlichen Material passen: unnat\u00fcrliche \u00dcberg\u00e4nge zwischen Gesicht, Haaren und Hals, unterschiedliche Sch\u00e4rfeebenen, unlogische Schatten, fehlende Reflexionen oder auff\u00e4llig glatte Hautstrukturen. Auch H\u00e4nde, Z\u00e4hne, Ohren, Brillenr\u00e4nder oder Schmuck k\u00f6nnen Hinweise liefern, wenn sie verformt wirken oder sich zwischen Frames ver\u00e4ndern.<\/p>\n<p>Bei Schadenfotos ist zus\u00e4tzlich der Kontext entscheidend: Passt der Schaden zur gemeldeten Ursache? Stimmen Perspektive, Licht, Wetter, Geodaten, Exif-Daten und andere Unterlagen zusammen? Gibt es \u00e4hnliche Bilder im Netz oder Dubletten in fr\u00fcheren Schadenf\u00e4llen?<\/p>\n<h3>Audio<\/h3>\n<p>Bei Audio-Deepfakes k\u00f6nnen monotone Intonation, unnat\u00fcrliche Betonungen, metallische Klanganteile, fehlende Atemger\u00e4usche oder ungew\u00f6hnlich gleichm\u00e4\u00dfige Pausen auffallen. Auch Hintergrundger\u00e4usche sind wichtig: Wirken sie k\u00fcnstlich, fehlen sie komplett oder passen sie nicht zur behaupteten Situation?<\/p>\n<p>F\u00fcr Versicherer besonders kritisch sind telefonische Freigaben, Adress\u00e4nderungen, Auszahlungsanfragen oder Identit\u00e4tspr\u00fcfungen. Eine vertraut klingende Stimme darf hier nicht der einzige Sicherheitsanker sein.<\/p>\n<h3>Kontext<\/h3>\n<p>Die Kontextpr\u00fcfung sollte immer vor der Detailpr\u00fcfung kommen. Wer hat das Material eingereicht? \u00dcber welchen Kanal kam es? Passt der Inhalt zum bisherigen Verhalten der Person oder des Kunden? Gibt es Zeitdruck, ungew\u00f6hnliche Zahlungswege oder eine Aufforderung, etablierte Prozesse zu umgehen?<\/p>\n<p>Bei \u00f6ffentlich kursierenden Videos helfen zus\u00e4tzlich seri\u00f6se Medienquellen, R\u00fcckw\u00e4rtssuche und Faktenchecker wie CORRECTIV, dpa-Faktencheck oder Mimikama. In internen Versicherungsprozessen sind dagegen bekannte Kontaktwege, Callback-Regeln, Vier-Augen-Prinzip und technische Forensik entscheidend.<\/p>\n<div class=\"blog-quote\">\n    <div class=\"blog-quote--wrapper\">\n                <div class=\"blog-quote--content\">\n            <div class=\"top\">\n                <svg version=\"1.2\" class=\"topquote\" baseProfile=\"tiny\" id=\"Layer_1\"\n                     xmlns=\"http:\/\/www.w3.org\/2000\/svg\" xmlns:xlink=\"http:\/\/www.w3.org\/1999\/xlink\"\n                     x=\"0px\" y=\"0px\" width=\"200px\" height=\"141.111px\"\n                     viewBox=\"0 0 200 141.111\" xml:space=\"preserve\">\n                    <g>\n                        <g>\n                            <path d=\"M37.335,92.175c-4.4,11.067-11.333,22.001-20.601,32.535c-2.934,3.334-3.333,8.134-0.934,11.867\n                                c1.867,2.934,4.934,4.534,8.267,4.534c0.934,0,1.868-0.067,2.801-0.4c19.601-5.733,65.403-26.067,66.67-91.271\n                                C94.004,24.305,75.604,2.704,51.669,0.237c-13.268-1.334-26.468,3-36.269,11.8C5.6,20.905,0,33.572,0,46.773\n                                C0,68.773,15.601,88.042,37.335,92.175L37.335,92.175z\"\/>\n                            <path d=\"M158.075,0.237c-13.201-1.334-26.401,3-36.201,11.8c-9.803,8.868-15.401,21.535-15.401,34.736\n                                c0,22,15.602,41.269,37.335,45.402c-4.399,11.067-11.334,22.001-20.601,32.535c-2.934,3.334-3.335,8.134-0.935,11.867\n                                c1.867,2.934,4.936,4.534,8.268,4.534c0.933,0,1.867-0.067,2.8-0.4c19.602-5.733,65.404-26.067,66.67-91.271v-0.934\n                                C200.01,23.771,181.81,2.704,158.075,0.237L158.075,0.237z\"\/>\n                        <\/g>\n                    <\/g>\n                <\/svg>\n            <\/div>\n            <p class=\"quote-perex\"><\/p>\n<p><strong>Wie gut erkennst du Deepfakes selbst?<\/strong><\/p>\n<p>Fraunhofer AISEC bietet mit Deepfake Total ein kostenloses Trainingsspiel f\u00fcr Audio- und Video-Deepfakes. Es eignet sich gut, um die eigene Wahrnehmung zu testen \u2013 und zu verstehen, warum Deepfake-Erkennung nicht allein auf Bauchgef\u00fchl beruhen sollte (<a href=\"https:\/\/www.fraunhofer.de\/de\/mediathek\/publikationen\/fraunhofer-magazin.html\" target=\"_blank\" rel=\"noopener\">Fraunhofer-Magazin, 2025<\/a>).<\/p>\n<p><\/p>                    <\/div>\n    <\/div>\n<\/div>\n\n<h2>Schutzma\u00dfnahmen: Technik, Organisation, Mensch<\/h2>\n<p>Deepfakes lassen sich nicht mit einem einzelnen Tool zuverl\u00e4ssig beherrschen. Wirksamer Schutz entsteht erst, wenn technische Forensik, klare Prozesse und geschulte Mitarbeitende zusammenspielen. F\u00fcr Versicherer ist besonders wichtig, dass diese Schutzma\u00dfnahmen nicht neben dem Tagesgesch\u00e4ft stehen, sondern in Schadenregulierung, Kundenidentifikation und Freigabeprozesse integriert werden.<\/p>\n<p>Kein einzelnes Tool l\u00f6st das Problem. Wirksamer Schutz kombiniert drei Ebenen.<\/p>\n<h3><strong>Technische Schutzma\u00dfnahmen<\/strong><\/h3>\n<p>KI-gest\u00fctzte Forensik kann Bilder, Videos, Audiodateien und Dokumente auf Auff\u00e4lligkeiten pr\u00fcfen, die f\u00fcr Menschen kaum sichtbar oder h\u00f6rbar sind. Dazu geh\u00f6ren etwa Metadaten, Kompressionsspuren, Texturmuster, Dubletten, R\u00fcckw\u00e4rtssuchen oder Inkonsistenzen zwischen Bildinhalt und Datei-Historie.<\/p>\n<p>F\u00fcr Versicherer ist entscheidend, solche Tools nicht isoliert einzusetzen, sondern in bestehende Workflows zu integrieren: Schadenportale, Dokumentenpr\u00fcfung, Callcenter-Prozesse, Betrugspr\u00e4vention und Compliance-Systeme. Ein Detektor allein entscheidet nicht \u00fcber die Echtheit eines Inhalts. Er liefert ein Risikosignal, das in einem definierten Pr\u00fcfprozess bewertet werden muss.<\/p>\n<p>Langfristig gewinnen Herkunftsnachweise wie C2PA an Bedeutung. Sie k\u00f6nnen helfen, die Entstehung und Bearbeitung digitaler Inhalte nachvollziehbarer zu machen. F\u00fcr die Praxis gilt jedoch: Provenance-Signale sind hilfreich, ersetzen aber keine eigene Risikoanalyse und keine Prozesskontrolle. Wie solche Ma\u00dfnahmen in eine breitere Sicherheitsarchitektur eingeordnet werden, erkl\u00e4rt unser <a href=\"https:\/\/msg-life.sk\/de\/blog\/digitalisierung\/cybersecurity\/\" target=\"_blank\" rel=\"noopener\">Cybersecurity-Leitfaden<\/a>.<\/p>\n<h3><strong>Organisatorische <\/strong><strong>Schutzma\u00dfnahmen<\/strong><\/h3>\n<p>Die wichtigste organisatorische Regel lautet: Ungew\u00f6hnliche Anfragen d\u00fcrfen nicht \u00fcber denselben Kanal best\u00e4tigt werden, \u00fcber den sie eingegangen sind. Bei Zahlungsanweisungen, Adress\u00e4nderungen, Auszahlungsfreigaben oder sensiblen Vertrags\u00e4nderungen sollte die Verifizierung immer \u00fcber einen bekannten, separat gespeicherten Kontaktweg erfolgen.<\/p>\n<p>Sinnvoll sind au\u00dferdem klare Schwellenwerte und Eskalationsregeln: Ab welchem Betrag gilt das Vier-Augen-Prinzip? Wann muss eine Schadenmeldung zus\u00e4tzlich gepr\u00fcft werden? Welche Merkmale f\u00fchren zu einer manuellen Eskalation? Wer darf Ausnahmen genehmigen?<\/p>\n<h3><strong>Menschliche <\/strong><strong>Schutzma\u00dfnahmen<\/strong><\/h3>\n<p>Awareness-Training bleibt wichtig, reicht aber allein nicht aus. Mitarbeitende in Schadenregulierung, Kundenservice, Zahlungsfreigabe, IT-Security und Management sollten typische Deepfake-Szenarien kennen \u2013 und verstehen, wie sie mit anderen <a href=\"https:\/\/msg-life.sk\/de\/blog\/digitalisierung\/cyberangriffe\/\" target=\"_blank\" rel=\"noopener\">Cyberangriffen<\/a>\u00a0zusammenh\u00e4ngen. Deepfakes treten selten isoliert auf; h\u00e4ufig werden sie mit Phishing, Social Engineering oder kompromittierten Zugangsdaten kombiniert.<\/p>\n<p>Besser sind regelm\u00e4\u00dfige Simulationen, \u00e4hnlich wie bei Phishing-Tests. Dabei lernen Teams nicht nur, verd\u00e4chtige Signale zu erkennen, sondern vor allem, wann sie einen Vorgang stoppen und \u00fcber einen zweiten Kanal verifizieren m\u00fcssen.<\/p>\n<p>Die einfachste Regel bleibt oft die wirksamste: Bei ungew\u00f6hnlichen Anfragen nicht sofort reagieren. Vorgang stoppen, intern eskalieren und \u00fcber einen unabh\u00e4ngigen Kanal pr\u00fcfen. Wie k\u00fcnstliche Intelligenz auch Passw\u00f6rter und Zugangsdaten angreifbarer macht, zeigt unser Artikel zu <a href=\"https:\/\/msg-life.sk\/de\/blog\/digitalisierung\/kuenstliche-intelligenz-passwortsicherheit\/\" target=\"_blank\" rel=\"noopener\">KI und Passwortsicherheit<\/a>.<\/p>\n<p>Die einfachste Regel bleibt oft die wirksamste: Bei ungew\u00f6hnlichen Anfragen nicht sofort reagieren. Vorgang stoppen, intern eskalieren und \u00fcber einen unabh\u00e4ngigen Kanal pr\u00fcfen.<\/p>\n<div class=\"blog-quote\">\n    <div class=\"blog-quote--wrapper\">\n                <div class=\"blog-quote--content\">\n            <div class=\"top\">\n                <svg version=\"1.2\" class=\"topquote\" baseProfile=\"tiny\" id=\"Layer_1\"\n                     xmlns=\"http:\/\/www.w3.org\/2000\/svg\" xmlns:xlink=\"http:\/\/www.w3.org\/1999\/xlink\"\n                     x=\"0px\" y=\"0px\" width=\"200px\" height=\"141.111px\"\n                     viewBox=\"0 0 200 141.111\" xml:space=\"preserve\">\n                    <g>\n                        <g>\n                            <path d=\"M37.335,92.175c-4.4,11.067-11.333,22.001-20.601,32.535c-2.934,3.334-3.333,8.134-0.934,11.867\n                                c1.867,2.934,4.934,4.534,8.267,4.534c0.934,0,1.868-0.067,2.801-0.4c19.601-5.733,65.403-26.067,66.67-91.271\n                                C94.004,24.305,75.604,2.704,51.669,0.237c-13.268-1.334-26.468,3-36.269,11.8C5.6,20.905,0,33.572,0,46.773\n                                C0,68.773,15.601,88.042,37.335,92.175L37.335,92.175z\"\/>\n                            <path d=\"M158.075,0.237c-13.201-1.334-26.401,3-36.201,11.8c-9.803,8.868-15.401,21.535-15.401,34.736\n                                c0,22,15.602,41.269,37.335,45.402c-4.399,11.067-11.334,22.001-20.601,32.535c-2.934,3.334-3.335,8.134-0.935,11.867\n                                c1.867,2.934,4.936,4.534,8.268,4.534c0.933,0,1.867-0.067,2.8-0.4c19.602-5.733,65.404-26.067,66.67-91.271v-0.934\n                                C200.01,23.771,181.81,2.704,158.075,0.237L158.075,0.237z\"\/>\n                        <\/g>\n                    <\/g>\n                <\/svg>\n            <\/div>\n            <p class=\"quote-perex\"><\/p>\n<p><strong>Jozef Wagner, Senior Java-Programmierer bei msg life Slovakia<\/strong><\/p>\n<p>\u201eWas mich nach zehn Jahren Java-Entwicklung \u00fcberrascht hat: Wie schnell sich die Frage \u203aIst das ein Bug?\u2039 zu \u203aIst das ein Angriff?\u2039 verschoben hat. Bei Life Factory verwalten wir Lebensversicherungsvertr\u00e4ge \u2013 und pl\u00f6tzlich m\u00fcssen wir davon ausgehen, dass die Stimme am Telefon, die eine Auszahlung autorisiert, gar nicht dem Kunden geh\u00f6rt.\u201c<\/p>\n<p><\/p>                    <\/div>\n    <\/div>\n<\/div>\n\n<p>Klare Verifizierungsrichtlinien sch\u00fctzen nicht nur das Unternehmen, sondern auch die Mitarbeitenden: Sie schaffen Sicherheit dar\u00fcber, wann ein Vorgang gestoppt, eskaliert oder \u00fcber einen zweiten Kanal best\u00e4tigt werden muss.<\/p>\n<h2>Tools zur Deepfake-Erkennung: Beispiele und Auswahlkriterien<\/h2>\n<p>Spezialisierte Tools k\u00f6nnen helfen, manipulierte oder KI-generierte Inhalte schneller zu erkennen. F\u00fcr Versicherer ist jedoch weniger die einzelne Benchmark-Zahl entscheidend als die Frage, ob eine L\u00f6sung in reale Schaden-, Identit\u00e4ts- und Freigabeprozesse passt.<\/p>\n<p>Wichtige Auswahlkriterien sind Erkennungsqualit\u00e4t, Erkl\u00e4rbarkeit, False-Positive-Raten, Datenschutz, Datenresidenz, API-Integration, Audit-Trails, On-Premise-Optionen und Tests mit eigenen Schadenf\u00e4llen. Benchmark-Werte sollten immer als Orientierung verstanden werden \u2013 nicht als Garantie f\u00fcr die Erkennungsleistung im produktiven Einsatz.<\/p>\n<p>Die folgende \u00dcbersicht nennt Beispiele f\u00fcr L\u00f6sungen und Forschungsangebote. Sie ersetzt keine Anbieterauswahl. Entscheidend sind Datenschutz, Integrationsf\u00e4higkeit, Erkl\u00e4rbarkeit, False-Positive-Raten und Tests mit eigenen Schadenf\u00e4llen.<\/p>\n<div style=\"overflow-x: auto; -webkit-overflow-scrolling: touch;\">\n<table width=\"602\">\n<caption style=\"font-size: 14px;\">Beispiele f\u00fcr Deepfake-Pr\u00fcfung im Versicherungskontext<\/caption>\n<thead>\n<tr>\n<th style=\"width: 115.594px;\"><strong>Anbieter \/ L\u00f6sung<\/strong><\/th>\n<th style=\"width: 150.781px;\"><strong>Ansatz<\/strong><\/th>\n<th style=\"width: 150.781px;\"><strong>St\u00e4rke<\/strong><\/th>\n<th style=\"width: 156.844px;\"><strong>Einsatz<\/strong><\/th>\n<\/tr>\n<\/thead>\n<tbody>\n<tr>\n<td style=\"width: 115.594px;\">fraudify (FIDA \/ msg Gruppe)<\/td>\n<td style=\"width: 150.781px;\">Bildforensik<\/td>\n<td style=\"width: 150.781px;\">Schadenbild-Fokus<\/td>\n<td style=\"width: 156.844px;\">Claims-Pr\u00fcfung<\/td>\n<\/tr>\n<tr>\n<td style=\"width: 115.594px;\">Detesia (CISPA Helmholtz)<\/td>\n<td style=\"width: 150.781px;\">Multimodal<\/td>\n<td style=\"width: 150.781px;\">Erkl\u00e4rbare Hinweise<\/td>\n<td style=\"width: 156.844px;\">Medienpr\u00fcfung<\/td>\n<\/tr>\n<tr>\n<td style=\"width: 115.594px;\">Fraunhofer AISEC<\/td>\n<td style=\"width: 150.781px;\">Audio-Deepfakes<\/td>\n<td style=\"width: 150.781px;\">Forschung &amp; Training<\/td>\n<td style=\"width: 156.844px;\">Awareness, Voice-ID<\/td>\n<\/tr>\n<tr>\n<td style=\"width: 115.594px;\">Vaarhaft GmbH<\/td>\n<td style=\"width: 150.781px;\">Bildpr\u00fcfung<\/td>\n<td style=\"width: 150.781px;\">SafeCam-Prozess Schadensmeldungen<\/td>\n<td style=\"width: 156.844px;\">Schadenfotos<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<\/div>\n<p>Benchmark-Werte sollten Versicherer immer im eigenen Prozesskontext pr\u00fcfen. Ein Tool liefert ein Risikosignal \u2013 die Entscheidung braucht definierte Workflows, Audit-Trails und klare Eskalationsregeln.<\/p>\n<p>F\u00fcr Awareness und erste Plausibilit\u00e4tspr\u00fcfungen k\u00f6nnen frei zug\u00e4ngliche Angebote hilfreich sein, etwa Deepfake Total von Fraunhofer AISEC oder R\u00fcckw\u00e4rtssuchen \u00fcber Google Images und TinEye. F\u00fcr regulierte Schaden-, Identit\u00e4ts- oder Freigabeprozesse ersetzen solche Werkzeuge jedoch keine validierte Enterprise-L\u00f6sung, keine Datenschutzpr\u00fcfung und keine klaren internen Verifizierungsregeln.<\/p>\n<h3>Reichen ChatGPT oder andere KI-Assistenten zur Deepfake-Erkennung?<\/h3>\n<p>Eine h\u00e4ufige Annahme in Versicherungsunternehmen ist, dass moderne KI-Assistenten wie ChatGPT Deepfakes erkennen k\u00f6nnen. ChatGPT kann zwar hochgeladene Bilder analysieren und auf sichtbare Auff\u00e4lligkeiten hinweisen, liefert aber keinen forensischen Echtheitsnachweis. F\u00fcr Schadenregulierung, Identit\u00e4tspr\u00fcfung und Compliance-Prozesse ben\u00f6tigen Versicherer spezialisierte Deepfake-Erkennungs-Tools mit dokumentierten Workflows, Audit-Trails und klaren Eskalationsregeln.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Ein Foto reicht \u2013 und die Versicherung zahlt f\u00fcr Sch\u00e4den, die nie existierten. Deepfakes sind im Unternehmensalltag angekommen.<\/p>\n","protected":false},"author":44,"featured_media":27992,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[133],"tags":[284],"class_list":["post-27989","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digitalisierung","tag-cybersicherheit-de"],"acf":[],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/msg-life.sk\/de\/wp-json\/wp\/v2\/posts\/27989","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/msg-life.sk\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/msg-life.sk\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/msg-life.sk\/de\/wp-json\/wp\/v2\/users\/44"}],"replies":[{"embeddable":true,"href":"https:\/\/msg-life.sk\/de\/wp-json\/wp\/v2\/comments?post=27989"}],"version-history":[{"count":10,"href":"https:\/\/msg-life.sk\/de\/wp-json\/wp\/v2\/posts\/27989\/revisions"}],"predecessor-version":[{"id":28257,"href":"https:\/\/msg-life.sk\/de\/wp-json\/wp\/v2\/posts\/27989\/revisions\/28257"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/msg-life.sk\/de\/wp-json\/wp\/v2\/media\/27992"}],"wp:attachment":[{"href":"https:\/\/msg-life.sk\/de\/wp-json\/wp\/v2\/media?parent=27989"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/msg-life.sk\/de\/wp-json\/wp\/v2\/categories?post=27989"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/msg-life.sk\/de\/wp-json\/wp\/v2\/tags?post=27989"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}