IT-Nachrichten aus der Welt der Technik

Verfolge mit uns die neuesten Nachrichten aus der Welt der IT, Software und Hardware. Wir berichten über Produkte von Google, Microsoft, Facebook, OpenAI und mehr. Außerdem informieren wir über IT-Nachrichten der Hardware-Giganten Intel, Nvidia und AMD sowie über Neuigkeiten aus den Bereichen Robotik, Smartphones und Spiele.

Juni 2025

Windows 11 Neuigkeiten erwarten Sie

Microsoft testet neue Optionen in den Kontexteinstellungen des Explorers, wie z.B. die Verknüpfung mit dem Git-Cloud-Repository, die Anzeige von virtuellen Umgebungen (Hyper-V, Windows Sandbox) und erweiterte Grundeinstellungen für die Dateiverwaltung. Bei der Suche wird es Informationen über den Indizierungsstatus von verschiedenen Standorten geben und darüber, ob ein Ordner lokal oder nur online verfügbar ist (z.B. von OneDrive). Der Explorer in der Entwicklerversion enthält außerdem ein Untermenü für KI-Aktionen, das grundlegende Bildoperationen über die Apps Sketchpad und Fotos ermöglicht.

Darüber hinaus ändert Windows 11 die Eingabehilfenleiste, indem es mehr Einstellungen in der schwebenden Leiste und die Qualität der Bildkomprimierung in Windows Share (3 voreingestellte Stufen) anzeigt. Außerdem wird eine verbesserte Logik für den Energiesparmodus eingeführt, der im Leerlauf aktiviert wird und schnell wieder in einen leistungsfähigeren Zustand übergeht, wenn der Benutzer wieder aktiv ist. Alle diese neuen Funktionen sind vorerst im Entwicklerkanal zu finden und ermöglichen es IT-Profis und fortgeschrittenen Nutzern, die Arbeit mit dem System noch detaillierter anzupassen.

Quelle: blogs.windows.com/windows-insider/2025/05/19/announcing-windows-11-insider-preview-build-26200-5603-dev-channel/

Xiaomi bringt ein Smartphone, das nach Kaffee riecht

Xiaomi hat das CIVI 5 Pro in einem speziellen braunen Finish namens Iced Americano vorgestellt, das dezent nach Kaffee riecht und einen exklusiven Eindruck ohne starke Parfümintensität vermittelt. Das Gerät verfügt über einen Snapdragon 8s Gen 4 Chipsatz, ein 6,55 Zoll großes OLED-Display mit einer Bildwiederholfrequenz von 120 Hz, ein schlankes Gehäuse mit einer Dicke von 7,45 mm und einem Gewicht von ca. 181 Gramm in der Kaffee-Version.

Neben Xiaomi versuchen sich auch mehrere Hersteller wie Motorola und Infinix am Trend der parfümierten Smartphones. Das Xiaomi CIVI 5 Pro ist vorerst nur in China erhältlich. Es bleibt die Frage, ob die parfümierte Version auch Europa erreichen wird.

Quelle: androidauthority.com/iced-americano-phone-smells-like-coffee-3560711/

Edge als Tor zu KI-Modellen für Entwickler

Microsoft experimentiert damit, Entwicklern den Zugriff auf Sprachmodelle, insbesondere das Phi-4-mini-Modell (3,8 Milliarden Parameter), über die API durch den Edge-Browser zu ermöglichen. Voraussetzung für die Nutzung dieser Funktionalität ist das Vorhandensein von Microsoft Edge auf dem Gerät, wobei das Ziel eine plattformübergreifende Lösung einschließlich macOS ist.

Die Funktion ist noch experimentell und in den Kanälen Edge Canary und Dev verfügbar. Sie ermöglicht die einfache Integration von KI-Funktionen, wie z. B. Texterstellung oder Zusammenfassung, direkt in Webanwendungen, ohne dass separate Bibliotheken erforderlich sind. Chrome bietet einen ähnlichen Ansatz. Beide Unternehmen konkurrieren also um die Aufmerksamkeit der Entwickler, damit ihr Browser als Tor zu den Modellen und Daten der Nutzer dient.

Quelle: theverge.com/news/669528/microsoft-ai-edge-browser-web-app-build-apis

Opera bereitet einen neuen Browser mit KI vor

Opera bereitet einen neuen speziellen Browser mit KI vor, der als Agent arbeiten wird. Er wird den Nutzern auch fortgeschrittene Optionen für die Bearbeitung von Code, die Erstellung von Apps oder die Verarbeitung von Bildern auf der Grundlage von Textbefehlen bieten. In der Zwischenzeit laufen eine Konzeptpräsentation und eine offene Warteliste mit dem Ziel, den klassischen Browser sowohl für Gelegenheitsnutzer als auch für Experten zu ergänzen.

Es wird erwartet, dass der Dienst auf Abonnementbasis angeboten wird, aber Details zu Preisen und Modellen sind noch nicht bekannt. Opera hat bereits in der Vergangenheit mit KI im Standardbrowser experimentiert, u.a. mit dem unvollendeten Projekt Opera Neon aus dem Jahr 2017, aber dieses Mal handelt es sich um ein eigenständiges Produkt, das sich auf direkt in den Browser integrierte KI-Funktionen konzentriert.

Quelle: operaneon.com

Google Fotos feiert 10 Jahre mit neuem KI-Editor

Google Fotos feiert sein 10-jähriges Jubiläum und zu diesem Anlass hat Google einen überarbeiteten Editor vorgestellt. Dieser vereinigt die Werkzeuge an einem Ort und baut stark auf KI-Bearbeitungsvorschläge für das gesamte Foto oder bestimmte Teile davon. Funktionen wie Reimagine (die Szene verbessern oder verändern) und Auto Frame (einen idealen Ausschnitt vorschlagen und fehlende Teile ergänzen), die bisher nur für Pixel-Geräte verfügbar waren, werden bald für alle Smartphone-Nutzer verfügbar sein.

Ebenfalls neu ist die KI-Verbesserungsfunktion, die automatisch drei verschiedene Bearbeitungsvorschläge generiert (z. B. Schärfen oder Entfernen von Objekten) und der Benutzer wählt seinen bevorzugten Vorschlag aus. Eine weitere neue Funktion ist die gemeinsame Nutzung von Alben über einen QR-Code, mit dem Fotos sofort zwischen Personen in der Nähe ausgetauscht oder hinzugefügt werden können. Google wird den neuen Editor ab Juni für Android (beginnend mit Version 8) einführen und eine iOS-Version wird später im Jahr verfügbar sein.

Quelle: androidauthority.com/10-years-google-photos-never-looking-back-3561775/

Play Store bietet einen KI-Assistenten, der Fragen zu Apps beantwortet

Google hat damit begonnen, nach und nach die Möglichkeit zu integrieren, Fragen an die Gemini-KI direkt im Profil der App im Play Store zu stellen. Die Nutzer sehen einen Bereich für die Interaktion mit der KI, in dem sie Informationen über die Nutzung der App, Einstellungen oder Regeln erhalten können, ohne anderswo nach Antworten suchen zu müssen.

Die Funktion ist vorerst in der experimentellen Version des Play Store 46.1.39-31 verfügbar und wird nach und nach für ausgewählte Nutzer eingeführt. Gemini wird auch FAQs vorschlagen, was die Navigation erleichtert und Zeit spart. Da die Antworten von der KI generiert werden, sind sie möglicherweise nicht immer korrekt, so dass es empfehlenswert ist, sie zu überprüfen. Der KI-unterstützte Bereich wird nur in Apps angezeigt, über die Gemini ausreichend Informationen hat, und bietet den Nutzern einen Assistenten, der ihnen bei der Navigation und dem Verständnis der Funktionen der Apps hilft.

Quelle: androidauthority.com/google-play-store-ask-play-about-this-app-rolling-out-3562259/

Das KI-Startup Builder.ai setzte 700 indische Ingenieure ein, um die

Das in London ansässige Unternehmen Builder.ai, das sich als KI-gestützte App-Entwicklungsplattform präsentierte, ist zusammengebrochen, nachdem entdeckt wurde, dass es in Wirklichkeit rund 700 indische Ingenieure beschäftigte, um Aufgaben, die der KI zugeschrieben wurden, manuell auszuführen.

Das Startup hat außerdem Round-Tripping mit VerSe Innovation betrieben und fiktive Dienstleistungen in Rechnung gestellt, um den Umsatz künstlich zu steigern, wodurch der tatsächliche Umsatz von 45 Mio. $ auf 180 Mio. $ für das Jahr 2023 aufgebläht wurde. Nachdem einer der wichtigsten Kreditgeber, Viola Credit, 37 Mio. $ aufgrund von Verstößen gegen die Kreditbedingungen und der Nichtbezahlung von Mitarbeitern zwangsvollstreckt hatte, meldete der CEO Konkurs an. Der Fall verdeutlicht die Risiken von Investitionen in Startups, die ihre technologischen Fähigkeiten überschätzen und es versäumen, für Transparenz zu sorgen.

Quelle: business-standard.com/companies/news/builderai-faked-ai-700-indian-engineers-files-bankruptcy-microsoft-125060401006_1.html

IBM plant die Entwicklung eines Starling Quantencomputers mit bemerkenswerter Leistung

IBM hat einen ehrgeizigen Plan angekündigt, bis 2029 den Quantencomputer Starling zu entwickeln, der über 200 logische Qubits verfügen und bis zu 100 Millionen Quantenoperationen durchführen kann. Das Unternehmen sagt, dass die Simulation einer solchen Maschine auf klassischen Supercomputern eine Quintillion leistungsstarker Geräte erfordern würde, was das enorme Potenzial des Quantencomputers verdeutlicht.

Die Entwicklung erfolgt schrittweise. Bereits in diesem Jahr sollen der Nighthawk-Chip und die Quantum Loon-Plattform vorgestellt werden, um den ersten echten Quantenvorteil zu zeigen. Ein modularer Kookaburra-Chip für Skalierbarkeit soll 2026 auf den Markt kommen und ein Cockatoo-Chip, der mehrere Quanteneinheiten miteinander verbindet, 2027. Starling soll 2029 anspruchsvolle Aufgaben in der Arzneimittelentwicklung, bei neuen Materialien oder Molekularstruktursimulationen bewältigen. Nach 2033 ist eine Blue Jay-Plattform mit bis zu 2.000 logischen Qubits und der Fähigkeit, mehr als eine Milliarde Operationen durchzuführen, geplant. Dieser schrittweise Ansatz zeigt, wie sich Quantenchips allmählich dem Einsatz in der realen Welt außerhalb des Labors nähern.

Quelle: tomshardware.com/tech-industry/quantum-computing/ibm-is-building-a-large-scale-quantum-computer-that-wrequire-the-memory-of-more-than-a-quindecillion-of-the-worlds-most-powerful-supercomputers-to-simulate

KI-Tools zeigen jetzt Werbung und gesponserte Empfehlungen

Kürzlich gab es Fälle, in denen ChatGPT und andere KI-Dienste Empfehlungen oder gesponserte Links in Antworten einfügten, wie ein Benutzerbeitrag auf Reddit bestätigt. Ein ähnlicher Ansatz wurde bereits von Tools wie Perplexity umgesetzt, wo KI Produkte oder Dienstleistungen als Teil der Suchergebnisse anbietet. OpenAI hat die Möglichkeit künftiger Werbeeinnahmen angedeutet, insbesondere aufgrund des Verhältnisses zwischen zahlenden und nicht zahlenden Nutzern, und experimentiert wie andere Plattformen mit der Monetarisierung von KI durch Werbung oder Premium-Abonnementmodelle.

Diese Veränderung spiegelt den Wunsch der Unternehmen wider, ihre Einnahmen mit einer wachsenden Gruppe von Nutzern, die immer noch Basisversionen kostenloser Dienste verwenden, zu erhalten oder zu steigern. Werbeelemente können die Form von direkt eingebetteten Chat-Empfehlungen oder Pop-ups mit relevanten Produkten annehmen. Daher müssen die Nutzer auch bei der Nutzung von KI-Chats darauf gefasst sein, dass die Antworten kommerzielle Vorschläge enthalten und Informationen unabhängig verifizieren können, ähnlich wie bei herkömmlichen Werbemodellen im Internet.

Quelle: adguard.com/de/blog/chatgpt-ads-introduce-openai-blocking.html

ToS;DR übersetzt die Bedingungen und Konditionen in eine verständliche Form

Das Projekt Terms of Service; Didn’t Read (ToS;DR) sammelt und analysiert die Allgemeinen Geschäftsbedingungen der beliebtesten Internetdienste, um problematische Passagen hervorzuheben und sie in „menschlicher Sprache“ zu erklären. Freiwillige bewerten jede Klausel nach ihrem Umgang mit den Rechten der Nutzer. Sie markieren sie mit farblich gekennzeichneten Kategorien von A (am besten) bis E (unsicher) und weisen auf Situationen hin, in denen Dienste Daten missbrauchen oder Inhalte speichern, von denen Sie glauben, sie bereits gelöscht zu haben.

Der Dienst ist seit mehr als einem Jahrzehnt verfügbar und hilft den Menschen, schnell zu erkennen, welche Bedingungen es wert sind, mit Vorsicht gelesen oder Alternativen in Betracht gezogen zu werden. Zu den Plattformen mit den schwächsten Bewertungen gehören große Plattformen wie Facebook und YouTube, die in den Allgemeinen Geschäftsbedingungen oft weitreichenden Zugriff auf Nutzerdaten erhalten. Auf den Datenschutz ausgerichtete Dienste wie Startpage oder Tor Browser erhalten bessere Bewertungen. ToS;DR macht es also einfacher, hinter die Kulissen digitaler Dienste zu blicken und hilft den Nutzern, besser informierte Entscheidungen zu treffen.

Quelle: tosdr.org/de

Google Maps unterstützt umweltfreundlichere Reisen im Sommer

Google Maps erweitert Funktionen, die mithilfe von KI empfehlen, zu Fuß zu gehen oder öffentliche Verkehrsmittel zu benutzen, wenn die Geschwindigkeit mit der eines Autos vergleichbar ist. Sie werden die Vorhersage solcher Alternativen auf neue europäische Städte ausdehnen und so zig Millionen Autofahrten vermeiden.

Für Radfahrer werden detaillierte Daten über Fahrradrouten in anderen Städten, Informationen über spezielle Fahrspuren, Verkehr und Steigungen hinzugefügt. Es werden auch Routen mit niedrigem Kraftstoff- oder Energieverbrauch und Warnungen vor Umweltzonen an mehr als tausend Orten in Europa verfügbar sein.

Quelle: blog.google/products/maps/new-maps-updates-for-sustainable-travel-europe/

Cloudflare wehrt Rekord-DDoS-Angriff ab

Cloudflare hat den bisher größten DDoS-Angriff erfolgreich abgewehrt, bei dem ein Angreifer eine Ziel-IP-Adresse mit Daten von 7,3 Tbps überflutete und 37,4 TB in 45 Sekunden verschickte, was etwa 9.350 HD-Filmen entspricht. Der Angriff nutzte massive UDP-Fluten, die auf alle Ports abzielten, sowie Reflection-Techniken (Verstärkung), bei denen gefälschte Anfragen legitime Server dazu zwangen, Antworten direkt an die Opfer zu senden und so die Last zu vervielfachen.

In den letzten Jahren haben ähnliche extreme Angriffe zugenommen: Spitzenwerte von etwa 3,47 Tbps im Jahr 2022, 5,6 Tbps im letzten Jahr und 6,5 Tbps mit einer Dauer von 49 Sekunden im April dieses Jahres. Selbst wenn fortschrittliche Systeme zur Erkennung und Abwehr von Bedrohungen eingesetzt werden, bilden solche massiven Reflexangriffe Botnets aus kompromittierten Geräten und bleiben ein relativ billiges Mittel, um die Widerstandsfähigkeit von Infrastrukturen zu erpressen oder zu testen. Die kontinuierliche Entwicklung von Abwehrmechanismen ist daher entscheidend für die Aufrechterhaltung der Verfügbarkeit von Online-Diensten.

Quelle: tomshardware.com/tech-industry/cyber-security/massive-ddos-attack-delivered-37-4tb-in-45-seconds-equivalent-to-10-000-hd-movies-to-one-victim-ip-address-cloudflare-blocks-largest-cyber-assault-ever-recorded

Microsoft entfernt veraltete Treiber aus Windows Update

Microsoft beginnt mit der schrittweisen Bereinigung alter Treiber aus Windows Update, für die es Ersatz gibt und die eine Sicherheitslücke oder ein Risiko darstellen könnten. In der ersten Phase werden Treiber entfernt, deren Gültigkeit abgelaufen ist und die nicht an ein aktuelles System-Update gebunden sind.

Der Prozess wird schrittweise eingeführt: Nach Ablauf des Supports gibt es ein 6-monatiges Zeitfenster, in dem die Partner den Treiber bei Bedarf wieder in Windows Update aufnehmen können, mit entsprechender Begründung und Genehmigung von Microsoft. Wenn es keine Einwände gibt, werden die Treiber dauerhaft entfernt. Ziel ist es, sicherzustellen, dass der Update-Service nur die optimalen und unterstützten Treibersätze für aktuelle Geräte anbietet.

Quelle: techcommunity.microsoft.com/blog/hardwaredevcenter/removal-of-unwanted-drivers-from-windows-update/4425647

Mai 2025

ChatGPT Deep Research ist jetzt ohne Abonnement verfügbar

OpenAI macht die erweiterte Deep Research-Funktion für eine größere Anzahl von ChatGPT-Nutzern verfügbar, auch für diejenigen, die kein kostenpflichtiges Abonnement haben. Diese Funktion ermöglicht es dem Chatbot, komplexe Analysen und durchdachte Antworten auf anspruchsvollere Fragen zu erstellen.

Nicht zahlende Nutzer haben in der Light-Version der Funktion 5 Aufgaben pro Monat. Die größte Anzahl von Aufgaben steht den Abonnenten der Pro-Version zur Verfügung (125 Aufgaben pro Monat plus 125 in der Light-Version), gefolgt von den Plus- und Team-Versionen (10 + 15 Aufgaben). Nutzer von ChatGPT Edu können Deep Research 10 Mal pro Monat nutzen, allerdings ohne die Light-Version. Die Funktion ist jetzt auch für slowakische Benutzer verfügbar. Achten Sie auf das Menü Deep Research in der Benutzeroberfläche.

Quelle: androidauthority.com/chatgpt-deep-research-lightweight-expansion-3548045/

ChatGPT kann Ihnen auch beim Einkaufen helfen

OpenAI hat eine neue Funktion innerhalb des GPT-4o eingeführt, die es ChatGPT ermöglicht, als Einkaufsassistent zu fungieren. Er wird den Nutzern personalisierte Produktempfehlungen mit Bildern, Preisen, Bewertungen und Links zu E-Shops in Kategorien wie Mode, Schönheit, Haushalt und Elektronik geben.

Die Funktion ist für alle Benutzer kostenlos und sogar ohne Anmeldung verfügbar. OpenAI versichert, dass die Designs keine Werbung enthalten werden und das Unternehmen nicht von der Funktion profitiert. ChatGPT erweitert damit die Nutzung von Texterstellung und Deep Research auf praktische Hilfe beim Online-Shopping. OpenAI stellt die Funktion schrittweise zur Verfügung und sollte sie bald in Ihrer Benutzeroberfläche ausprobieren können.

Quelle: gizmochina.com/2025/04/29/chatgpt-shopping-features-launched/

Google hat fast die Hälfte der Apps aus dem Play Store gelöscht, der Grund ist die Verschärfung der Qualitätsanforderungen

Google hat die Zahl der Apps im Play Store seit Anfang 2024 von mehr als 3,4 Millionen auf rund 1,8 Millionen reduziert. Das Unternehmen hat strengere Qualitätsregeln eingeführt, die kaputte, spammige oder irreführende Apps verbieten und die Überprüfung von Entwicklern, neue Kontotests und manuelle Kontrollen verstärkt.

Im Jahr 2024 hat Google nicht nur Millionen von bereits veröffentlichten Apps entfernt, sondern auch 2,36 Millionen neue Titel blockiert, bevor sie veröffentlicht wurden. Außerdem wurden mehr als 158.000 Entwicklerkonten gelöscht, die mit bösartigen Inhalten in Verbindung gebracht wurden. Trotz dieser Säuberung wurden in diesem Jahr mehr als 10.000 neue Qualitäts-Apps hinzugefügt. Das Ziel ist es, den Nutzern sichere und wertvolle Inhalte zu bieten, die frei von Spam und nutzlosen Apps sind.

Quelle: androidauthority.com/google-play-store-apps-count-may-2025-3549299/

Microsoft wird immer teurer – höhere Preise für Xbox, Spiele und Controller

Ab dem 1. Mai 2025 hat Microsoft die Preise für seine Spielkonsolen und sein Zubehör weltweit erhöht, auch in der Slowakei. Die Basisversion der Xbox Serie S kostet jetzt ab €350, während die Xbox Serie X bei €550 beginnt und das 2TB-Modell bis zu €700 kostet. Die Preise für die offiziellen Controller reichen von 65 € für das Standardmodell bis 150 € für den Xbox Elite Wireless Controller Series 2.

Zusammen mit der Hardware plant Microsoft, den Preis ausgewählter neuer Spiele bis zum Ende des Jahres von den üblichen 70 auf 80 Dollar anzuheben, was in Europa einer Erhöhung von etwa 10 bis 15 Euro entspricht. Das Unternehmen begründet diesen Schritt mit den steigenden Entwicklungskosten. Die monatlichen Gebühren für den Xbox Game Pass bleiben unverändert.

Quelle: support.xbox.com/de-US/help/hardware-network/console/may-2025-pricing-updates

Microsoft führt die kennwortlose Anmeldung für neue Benutzer ein

Microsoft deaktiviert jetzt standardmäßig Passwörter für neue Konten und bietet nur noch passwortlose Authentifizierungsmethoden wie Authenticator, Biometrie und Passkeys an. Für bestehende Benutzer können Sie Ihr Passwort in Ihren Kontoeinstellungen entfernen und zu modernen Formen der Anmeldung wechseln.

Dieser Schritt folgt den langjährigen Bemühungen, die Schwachstellen herkömmlicher Passwörter zu beseitigen und die Sicherheit der Konten zu erhöhen. Die passwortlose Anmeldung verringert das Risiko von Angriffen durch Passwortdiebstahl, Phishing oder Wiederverwendung von Passwörtern und wird zum Standard für neue Microsoft-Konten.

Quelle: microsoft.com/de-us/security/blog/2025/05/01/pushing-passkeys-forward-microsofts-latest-updates-for-simpler-safer-sign-ins/

Skype wurde beendet, was passiert mit Ihrem Konto?

Am 5. Mai 2025 hat Microsoft Skype eingestellt . Ihre Kontakte, Ihr Anrufprotokoll und Ihre Chats werden automatisch in die kostenlose Version Microsoft Teams übertragen, ohne dass Sie ein neues Konto erstellen müssen.

Die Domain web.skype.com wird zu Teams umgeleitet, wo Sie sich mit Ihrem Skype-Konto anmelden und auf Ihre vorhandenen Daten zugreifen können. Wenn Sie nicht zu Teams wechseln möchten, können Sie Ihre Skype-Daten, einschließlich archivierter Unterhaltungen, bis Januar 2026 exportieren. Nach diesem Datum werden alle Ihre Skype-Daten endgültig gelöscht. Skype for Business ist von dieser Änderung nicht betroffen.

Quelle: support.microsoft.com/de-sk/skype/skype-odch%C3%A1dza-do-d%C3%B4chodku-v-m%C3%A1ji-2025-%C4%8Do-you-need-know%C5%A5-2a7d2501-427f-485e-8be0-2068a9f90472

Chrome für Android warnt vor gefährlichen Benachrichtigungen

Google führt ein neues System zur Erkennung bösartiger Benachrichtigungen in die mobile Version von Chrome ein, das künstliche Intelligenz verwendet, um eingehende Benachrichtigungen zu scannen. Wenn Chrome eine potenziell spammige oder betrügerische Benachrichtigung identifiziert, bietet es Ihnen automatisch die Möglichkeit, sich von dieser Seite abzumelden, ohne dass Sie Ihre Einstellungen manuell durchsuchen müssen.

Die Funktion ist eine Reaktion auf den zunehmenden Missbrauch von Webbenachrichtigungen für Betrug und unerwünschte Werbung. Google nutzt sie, um die Sicherheit für Chrome-Nutzer auf Android-Geräten zu erhöhen und bereitet sie als Teil einer breiteren Suite von Schutz-Tools vor, einschließlich eines erweiterten Sicherheitsmodus für Android.

Quelle: androidauthority.com/chrome-android-web-notification-warning-3555382/

Google wechselt nach zehn Jahren zu einem neuen Logo

Google ändert sein ikonisches „G“-Logo, das zuletzt im Jahr 2015 einer größeren Umgestaltung unterzogen wurde. Die neue Version behält die ursprüngliche Form und Farbpalette bei, verwendet aber anstelle eines strikten Übergangs zwischen Rot, Gelb, Grün und Blau einen allmählichen Übergang zwischen Farben, die ineinander übergehen. Das Logo ist vom Designstil der KI-Tools von Gemini inspiriert und spiegelt den Übergang des Unternehmens zu KI-Funktionen wider.

Die Änderungen sind bisher in der Beta-Version der mobilen Google-Suche auf Android und iOS erschienen und werden nach und nach auf die stabilen Versionen anderer Google-Apps wie Maps und Chrome ausgeweitet. Obwohl es sich aus Sicht des Nutzers eher um eine subtile kosmetische Veränderung handelt, signalisiert Google mit dieser Änderung eine neue grafische Richtung und stärkt seine Position im Bereich KI.

Google Logo alt und neu
Google Logo alt gegen neu

Quelle: 9to5google.com/2025/05/12/google-icon-update/

Teams werden Screenshots in Unterhaltungen deaktivieren

Microsoft plant, der Teams-App ab Juli 2025 einen Modus „Prevent Screen Capture“ hinzuzufügen, der unbefugte Bildschirmaufnahmen in Gruppenanrufen verhindert. Die Teilnehmer sehen einen schwarzen Bildschirm, wenn sie versuchen, einen Schnappschuss zu machen, um sensible Informationen in der Videokonferenz zu schützen.

Die Funktion wird optional sein und auf Windows, Mac, Android, iOS und im Webinterface verfügbar sein. Nicht unterstützte Plattformen werden nur im Audio-Meeting-Modus arbeiten können. Diese Nachricht fügt sich in einen breiteren Trend zum Schutz von Inhalten in Apps ein – wie bei WhatsApp wird der Medienexport eingeschränkt und es wird schwieriger, unbefugte Screenshots zu machen, obwohl die Aufnahme von Fotos mit externen Geräten nicht vollständig verhindert wird.

Quelle: microsoft.com/de-us/microsoft-365/roadmap?id=490561

Copilot wird auch sprachgesteuert sein

Microsoft hat der Windows Insider-Version von Copilot die Möglichkeit hinzugefügt, den Assistenten per Sprache mit dem Befehl „Hey Copilot“ zu aktivieren . Nachdem Sie die Version 1.25051.10.0 der Anwendung installiert haben, können Sie diese Funktion über die Tastenkombination Alt + Leertaste aktivieren. Nachdem Sie die Aktivierungsphrase gesagt haben, sehen Sie eine schwebende Oberfläche mit einem Mikrofon, das Sie darüber informiert, dass Sie zuhören. Wenn es ein paar Sekunden lang keinen Ton aufnimmt, schaltet es sich automatisch aus.

Microsoft betont, dass der gesamte vorverarbeitete 10-Sekunden-Puffer der Spracheingabe auf dem Gerät verarbeitet und nicht an die Cloud gesendet wird. Erst dann werden die Audiodaten an die Cloud gesendet, wo eine eingehende Analyse der Befehle stattfindet. Dadurch wird die Menge der übertragenen sensiblen Informationen reduziert und die Privatsphäre des Benutzers gewahrt.

Quelle: blogs.windows.com/windows-insider/2025/05/14/copilot-auf-windows-hey-copilot-beginnt-auszurollen-zu-windows-insiders/

YouTube-Anzeigen werden bald noch lästiger sein

YouTube plant eine neue Art der Anzeigenschaltung, bei der die künstliche Intelligenz von Google, Google Gemini , nach dem attraktivsten oder ansprechendsten Moment in einem Video sucht und dort einen Werbespot einfügt. Damit soll die Aufmerksamkeit auf die Werbung gelenkt werden, auch wenn dies insbesondere bei Nutzern ohne Abonnement zu weiteren Störungen führen kann.

Es ist noch nicht klar, ob diese Anzeigen übersprungen werden können und wie sie genau dargestellt werden. Es wird jedoch erwartet, dass die neue Anzeigenplatzierung die Motivation der Nutzer erhöht, zu YouTube Premium zu wechseln, wo überhaupt keine Werbung angezeigt wird. Der Preis für Premium reicht von 4,99 € für einen Studententarif bis 15,99 € für einen Familientarif.

Quelle: androidauthority.com/youtube-peak-points-ads-3557905/

Google bringt einen neuen KI-Modus für die Suche

Google hat in seinen mobilen Apps für Android und iOS eine Verknüpfung für den KI-Modus eingeführt, die die bestehenden Symbole für die Sprachsuche und Google Lens ersetzt. Die neue Schaltfläche oben in der Suchleiste trägt das Sternsymbol des Gemini Assistant und die Farbverläufe des frisch enthüllten Logos.

Die Funktion ermöglicht es, den KI-Assistenten direkt und schnell von der Suche aus zu starten, ohne dass Sie in andere Modi wechseln müssen. Mit der Einführung des KI-Modus hat Google auch die Sprachsuche und die Linse in der Benutzeroberfläche eine Ebene nach unten verschoben, um die obere Leiste zu vereinfachen. Der KI-Modus bietet Nutzern Zugang zu fortschrittlichen generativen Intelligenzfunktionen direkt in ihrer normalen Suche nach Informationen. Die neue Funktion wird derzeit schrittweise in die stabilen Versionen der App eingeführt, während Google auch einen Widget-basierten Aufruf des KI-Modus auf dem Startbildschirm testet.

Google und der neue Modus der künstlichen Intelligenz in den Menüs von Android und ios
Google und der neue Modus der künstlichen Intelligenz

Quelle: 9to5google.com/2025/05/16/google-ai-mode-search-bar-android-ios/

Windows Explorer erhält KI-Aktionen für die schnelle Bildbearbeitung

In der Entwicklerversion von Windows 11 wurde dem Explorer ein neues Untermenü KI-Aktionen hinzugefügt, das vier Werkzeuge für die Bearbeitung von Bildern direkt über das Kontextmenü bietet. Die erste Option löst eine visuelle Suche über Bing aus, die zweite verwischt mit einem Klick den Hintergrund, die dritte entfernt unerwünschte Objekte und die vierte schneidet das Objekt aus dem Hintergrund aus.

Diese Aktionen nutzen die integrierten Anwendungen Paint und Fotos, so dass das Bild nach der Auswahl in der jeweiligen Anwendung geöffnet wird, um es abschließend zu bearbeiten. Unterstützt werden die Formate .jpg, .jpeg und .png, die eine schnelle grundlegende Bearbeitung ermöglichen, ohne dass Sie externe Grafikprogramme verwenden müssen.

Datei-Explorer in Windows mit einem neuen Kontextmenü mit künstlicher Intelligenz
Datei-Explorer in Windows mit einem neuen Kontextmenü mit künstlicher Intelligenz

Quelle: blogs.windows.com/windows-insider/2025/05/19/announcing-windows-11-insider-preview-build-26200-5603-dev-channel/

Google AI wird mehr Funktionen kostenlos zur Verfügung stellen

Auf der Konferenz I/O 2025 kündigte Google an, dass viele KI-Funktionen ohne ein kostenpflichtiges Abonnement verfügbar sein werden. Die Gemini Live App wird in den Android- und iOS-Versionen um kostenlose Tools für die Erkennung von Inhalten auf dem Bildschirm oder in Echtzeit mithilfe der Kamera erweitert, ohne dass ein Abonnement erforderlich ist.

Gleichzeitig hat Google neue kostenpflichtige Pakete innerhalb von Google One eingeführt – Google AI Pro (€21,99 pro Monat) und Google AI Ultra ($249,99 pro Monat, zunächst in den USA). Das Pro-Paket umfasst 2 TB Speicherplatz, Zugang zu Gemini Pro und NotebookLM Pro sowie die Verknüpfung von KI mit persönlichen Dokumenten oder E-Mails. Ultra bietet zusätzlich die Videoerstellung über Veo 3 und die bevorzugte Nutzung von Deep Think 2.5 Pro.

Zu den weiteren neuen Funktionen gehören das Imagen 4-Modell für die Bilderzeugung und ein interaktiver Canvas-Modus, mit dem Codebearbeitung, Infografiken, Quizfragen oder Audiozusammenfassungen direkt im KI-Tool erstellt werden können, was die Arbeit von Programmierern und Content-Erstellern erleichtert.

Quelle: blog.google/products/gemini/gemini-app-updates-io-2025/

Google Veo 2 erweitert die KI-Videofunktionen

Veo 2, Googles KI-gestütztes Tool zur Erstellung von Kurzvideos, hat neue Funktionen für eine detailliertere Inspektion von Szenen erhalten. Benutzer können Charaktere und Objekte definieren, einen einheitlichen Stil wählen, auch wenn sie Cartoon-Elemente mit Fotos kombinieren, und das Seitenverhältnis des Videos anpassen, um z. B. ein Porträt auf eine liegende Position zu erweitern.

Außerdem wurden Kamerasteuerungen mit Bewegungs- und Winkeleinstellungen sowie die Möglichkeit hinzugefügt, Objekte aus einer bestehenden Komposition hinzuzufügen oder zu entfernen. Diese Erweiterungen stehen allen Abonnenten des AI-Pakets (Ultra in den USA) zur Verfügung und die Beschränkungen für die Anzahl der pro Monat erstellten Videos bleiben unverändert.

Quelle: blog.google/technology/ai/generative-media-models-io-2025

April 2025

Sony verbessert Fotoqualität – Vorbereitung eines 200-Megapixel-Sensors

Sony bereitet einen neuen 200-Megapixel-Bildsensor vor, der eine höhere Auflösung als bisherige Lösungen bieten wird – mit besserer Low-Light-Leistung, detaillierteren Bildern und verbessertem Zoom. Der Sensor wird nicht nur für eigene Modelle, sondern auch für andere Smartphone-Hersteller verfügbar sein. Mit diesem Fokus auf Bildqualität will Sony mit Samsung konkurrieren, das im Bereich hoher Auflösungen dominiert. Bei einer Sensorgröße von 1/1,3 Zoll und fortschrittlichen Technologien wird erwartet, dass der Sensor Autofokus, Nachtsicht und Rauschunterdrückung verbessert. Die ersten Flaggschiffmodelle mit diesem Sensor könnten Ende 2025 erscheinen.

Quelle: notebookcheck.net/Sony-s-new-200-MP-sensor-to-crush-the-opposition-and-be-adopted-by-next-gen-flagships.985233.0.html

Gmail verbessert E-Mail-Suche mit KI

Gmail nutzt jetzt KI, um Suchergebnisse zu optimieren. Nutzer können zwischen relevantesten und neuesten E-Mails wechseln, sodass gewünschte Nachrichten häufiger oben erscheinen. Die Funktion ist in der Webversion sowie in Android- und iOS-Apps verfügbar. Die KI bewertet Relevanz anhand von Faktoren wie Aktualität, häufig angeklickte Nachrichten oder regelmäßige Kontakte. Die Einführung erfolgt schrittweise für alle Nutzer; Firmenkonten folgen später.

Google Mail Änderungen bei der Mailsortierung

Quelle: blog.google/products/gmail/gmail-search-update-relevant-emails/

Gemini AI erleichtert die Programmierung mit der neuen Canvas-Funktion

Google hat die Canvas-Funktion in Gemini eingeführt, die eine einfachere Bearbeitung von Code und Text ermöglicht. Canvas bietet eine übersichtliche Oberfläche mit einer Frage- und Antwortaufteilung, und der resultierende Code kann einfach kopiert und bearbeitet werden. Die Funktion ist für Gemini und Gemini Advanced verfügbar und funktioniert mit dem 2.0 Flash-Modell. Sie ermöglicht dir, bestimmte Textabschnitte zu markieren, um den Ton, die Länge oder das Format anzupassen. Programmierer werden die Möglichkeit zu schätzen wissen, HTML- und React-Codes in der interaktiven Vorschau zu testen. Die erstellten Dokumente können in Google Docs exportiert werden.

Quelle: blog.google/products/gemini/gemini-collaboration-features/

ChatGPT verbesserte Bilderzeugung im Modell GPT-4o

OpenAI hat die Möglichkeit verbessert, Bilder direkt in ChatGPT zu erzeugen, einschließlich der Unterstützung für die Bearbeitung von Bildern direkt in der Chat-Oberfläche. Die Funktion verwendet das GPT-4o-Modell, das Aufgaben besser versteht und mit mehreren Objekten gleichzeitig arbeiten kann. Du kannst Bilder erzeugen, ohne dich anzumelden, erhältst aber mehr Optionen, wenn du angemeldet bist. Die Bilder enthalten C2PA-Informationen, die den Ursprung und die Bearbeitungshistorie aufzeichnen. Die Funktion ist zwar noch nicht perfekt, insbesondere bei komplizierten Postern oder Texten, aber sie erweitert die Möglichkeiten der Grafikerstellung in ChatGPT erheblich.

Bild eines Waschbären, der eine Erdbeere isst, erstellt mit ChatGPT

Quelle: openai.com/index/introducing-4o-image-generation/

Windows 11 und Copilot – Microsoft stellt eine Roadmap mit neuen Funktionen vor

Microsoft hat eine klare Roadmap der kommenden Funktionen für Windows 11 und den Copilot-Assistenten veröffentlicht, um einen transparenten Überblick über die Entwicklung des Systems zu geben und IT-Profis auf die kommenden Änderungen vorzubereiten. Zu den geplanten neuen Funktionen gehören Features wie die automatische Aktualisierung von Registerkarten im Explorer, Web-Widgets für Entwickler und eine verbesserte Berechnung der CPU-Auslastung im Task Manager. Jede Funktion in der Tabelle ist nach ihrem Fertigstellungs- und Verfügbarkeitsstatus gekennzeichnet – zum Beispiel nur für das Insider-Programm oder in der breiteren Rollout-Phase. Zu den bereits verfügbaren Funktionen gehört zum Beispiel Cocreator im Copilot+ Device Sketchpad.

Quelle: microsoft.com/de-us/windows/business/roadmap

Gorilla Glass Ceramic – die nächste Generation des Displayschutzes

Corning hat eine neue Displayschutztechnologie eingeführt – Gorilla Glass Ceramic, die keramische Materialien verwendet, um die Haltbarkeit zu erhöhen, und die den Ehrgeiz hat, bestehende Varianten wie Victus oder Victus 2 zu ersetzen. Das neue Gorilla Glass Ceramic hat einen erhöhten Anteil an Keramik und kann wiederholten Stürzen aus einem Meter Höhe auf eine harte, asphaltähnliche Oberfläche standhalten. Dies ist eine Reaktion auf die häufigen Schäden an Displays, die einer der häufigsten Gründe für den Austausch von Telefonen sind. Das erste Gerät mit dieser Technologie wird voraussichtlich von Motorola kommen, und es wird erwartet, dass Keramiklösungen in den hochwertigsten Modellen zum Standard werden.

Quelle: androidauthority.com/corning-gorilla-glass-ceramic-3539449/

Bill Gates über KI: Drei Berufe, die ihre Jobs (noch) nicht verlieren werden

Bill Gates sagt voraus, dass künstliche Intelligenz den Arbeitsmarkt im nächsten Jahrzehnt dramatisch verändern wird, aber einige Berufe bleiben vorerst sicher. Dazu gehören Entwickler, Energietechniker und Biologen.

Gates weist darauf hin, dass KI zwar viele Aufgaben ersetzen wird, aber weiterhin Menschen braucht, die kreativ sind, komplexe Probleme lösen und die Entwicklung überwachen. Programmierer sind wichtig, um Code zu erstellen und zu debuggen, Energieingenieure arbeiten mit hochkomplexen Systemen, und in der Biologie ist weiterhin menschlicher Erfindungsreichtum für Forschung und Entdeckung gefragt.

Quelle: windowscentral.com/software-apps/bill-gates-says-ai-will-replace-humans-for-most-things

Microsoft Office wird den Start beschleunigen – zuerst in Word

Ab Mai wird Word dank des Task-Schedulers, der die Anwendung beim Start initialisiert, schneller starten. Eine neue Funktion namens „Office Startup Boost“ ermöglicht es Word, schneller zu laden, indem es seine Initialisierungskomponenten startet, sobald der Computer eingeschaltet wird. Die Funktion wird nur auf Geräten mit mindestens 8 GB RAM und 5 GB freiem Speicherplatz aktiviert. Sie ist optional und wird nicht ausgeführt, wenn der Energiesparmodus aktiviert ist. Obwohl die Funktion eher für Excel geeignet wäre, testet Microsoft sie zunächst in Word.

Quelle: zdnet.com/article/ihre-microsoft-office-apps-wird-soon-launch-schneller-aber-der-geschwindigkeitsboost-ist-optional/

Google Maps verstärkt den Kampf gegen gefälschte Bewertungen

Google verbessert seine Systeme zur Erkennung gefälschter Bewertungen mit Hilfe von künstlicher Intelligenz und der Gemini-Technologie und führt die Maßnahmen weltweit ein. Google Maps versucht schon seit langem, den Missbrauch von Bewertungen (z. B. den Kauf von Fünf-Sterne-Bewertungen, ohne Besuch der Einrichtung) und die Bearbeitung von Einrichtungsprofilen einzudämmen. Im Jahr 2024 hat das Unternehmen bereits mehr als 240 Millionen gefälschte Bewertungen und 12 Millionen gefälschte Profile entfernt, von denen die meisten von Algorithmen erkannt wurden, bevor sie veröffentlicht wurden. Das neue, auf Gemini basierende KI-Modell kann betrügerisches Verhalten anhand mehrerer neuer Missbrauchsmuster erkennen und dabei helfen, Tausende von verdächtigen Bearbeitungen von Unternehmensprofilen zu blockieren und die Glaubwürdigkeit von Bewertungen zu erhöhen.

Die neuen Sicherheitsmaßnahmen sind bereits in den USA, Großbritannien und Indien in Kraft, werden aber ab nächsten Monat weltweit eingeführt. Die Nutzer werden auf gelöschte Bewertungen und verdächtige Profile aufmerksam gemacht. Mit diesen Maßnahmen will Google sicherstellen, dass Maps ein vertrauenswürdiges Tool für Millionen von Nutzern auf der ganzen Welt bleibt.

Quelle: 9to5google.com/2025/04/07/google-maps-fake-reviews/

Microsoft feiert 50 Jahre – spezielle Hintergrundbilder, Themen und Bonusinhalte

Zur Feier des 50. Jahrestages seiner Gründung hat Microsoft eine limitierte Auflage von grafischen Themen und Retro-Elementen für Windows- und Xbox-Nutzer vorbereitet.

Microsoft wurde am 4. April 1975 gegründet und feiert heute sein fünfzigjähriges Jubiläum. Auf einer speziellen Unlocked-Seite hat das Unternehmen einen Rückblick auf seine Geschichte veröffentlicht und bietet Fans die Möglichkeit, spezielle Jubiläums-Hintergründe für Windows und Xbox herunterzuladen, die ikonischen Spielen und Apps wie Solitaire und Sketchpad Tribut zollen. Zusätzlich zu den Hintergründen kann auch die Rückseite der Karten in der Microsoft Solitaire Collection im Microsoft Store geändert werden.

Der Microsoft Edge-Browser hat ein spezielles nostalgisches Jubiläumsthema erhalten, das exklusiv für den Browser verfügbar ist. Außerdem hat der Clipchamp Video-Editor Jubiläumselemente wie Retro-Symbole, nostalgische Fenster und hochauflösende Grafiken hinzugefügt, die du in deine Videos einbetten kannst. So bietet Microsoft modernen Nutzern die Möglichkeit, mit einem modernen Design in Erinnerungen an die alten Zeiten zu schwelgen.

Quelle: unlocked.microsoft.com/50th/

Google zieht um zu einer einzigen Google.com-Domain

Google vereinheitlicht die Suche unter einer einzigen Domain – google.com– und beendet damit die Ära der nationalen Domains wie google.sk oder google.fr. Die Änderung ist hauptsächlich technischer Natur und hat keine Auswirkungen auf die Position der Suchergebnisse.

Ab April 2025 wird Google alle seine nationalen Suchmaschinen weltweit auf google.com umleiten. Obwohl du keine Domain wie google.sk mehr sehen wirst, werden die Ergebnisse weiterhin auf deinen Standort zugeschnitten sein. Das liegt daran, dass Google seit 2017 den physischen Standort deines Geräts und nicht die Domain verwendet, um deinen Standort zu bestimmen. Für dich als Nutzer ist die Änderung also rein kosmetisch – der einzige Unterschied besteht darin, dass nur google.com im Browser angezeigt wird. In einigen Fällen musst du möglicherweise deine Sprache oder Region neu einstellen.

Mit diesem Schritt vereinfacht Google die Verwaltung seines globalen Dienstes, reduziert die technische Komplexität und reagiert besser auf eine Ära, in der mobile Geräte und KI Nutzer viel genauer lokalisieren als URL-Domains.

Quelle: 9to5google.com/2025/04/15/google-com-search/

Snipping Tool zum Ausschneiden in Windows erhält Texterkennung (OCR)

Windows 11 erhält eine praktische Erweiterung – Texterkennung (OCR) direkt im Snipping Tool. Mit dieser Funktion kannst du Text aus Bildern extrahieren, ohne externe Tools verwenden zu müssen. Microsoft fügt dem Tool eine neue Schaltfläche zur Textextraktion hinzu, die den OCR-Modus verfügbar macht. Du kannst einen bestimmten Text mit dem Cursor auswählen oder den gesamten Bereich markieren, und die Anwendung erkennt und kopiert den Text automatisch. Es wird auch Optionen zum Entfernen von Zeilenumbrüchen geben, was die anschließende Bearbeitung z. B. in Notepad oder Word erleichtert.

Die neue Funktion ist vorerst nur für Insider in Version 11.2503.27.0 verfügbar. Du öffnest das Tool wie immer über die Tastenkombination Win + Umschalt + S. Im OCR-Modus kannst du Text schnell extrahieren, ohne das Bild auf der Festplatte speichern zu müssen.

Quelle: blogs.windows.com/windows-insider/2025/04/15/text-extractor-in-snipping-tool-begins-rolling-out-to-windows-insiders/

Meta AI ist offiziell in der Slowakei und der Tschechischen Republik angekommen

Meta hat seine Meta AI endlich auch für Nutzer in der Slowakei und der Tschechischen Republik eingeführt und erweitert damit die Verfügbarkeit des Tools in ganz Europa.

Du kannst Meta AI über Meta.ai ausprobieren. Möglicherweise musst du dich über Facebook oder Instagram anmelden, um darauf zuzugreifen. Das Tool bietet Funktionen wie die Erstellung von Bildern, die Beantwortung von Fragen oder die Unterstützung bei verschiedenen Aufgaben und ist damit ein Konkurrent zu bekannten Lösungen wie ChatGPT, Copilot oder Gemini. Obwohl der Dienst vorerst nur in einem begrenzten Modus verfügbar ist, ist er der nächste Schritt in der Entwicklung von KI-Tools, die für normale Nutzer verfügbar sind.

Quelle: meta.ai/

YouTube feiert 20 Jahre – das erste Video ist immer noch online

Am 23.4.2025 ist es genau 20 Jahre her, dass das erste Video auf YouTube hochgeladen wurde. Die Plattform, die die Art und Weise, wie wir Inhalte online konsumieren, grundlegend verändert hat, feiert diesen Meilenstein mit besonderen Features und einer Rückkehr zu ihren Wurzeln.

Das erste YouTube-Video war Me at the zoo, hochgeladen vom Mitbegründer Jawed Karim am 23. April 2005. Das Video ist nur 18 Sekunden lang und zeigt ihn im San Diego Zoo, wo er über Elefanten spricht. Obwohl YouTube heute Videos im 4K-, 8K- oder VR-Format anbietet, bleibt dieses 240p-Video aus der Zeit vor der Sintflut ein Symbol für die Anfänge der Plattform. Im Jahr 2025 hat es bereits mehr als 355 Millionen Aufrufe und 17 Millionen Likes. Anlässlich des Jubiläums hat YouTube eine digitale Torte und einen Elefanten als Hommage an seine Geschichte hinzugefügt.

Heute hat YouTube 2,7 Milliarden aktive Nutzer, die sich mindestens einmal pro Woche Videos ansehen. Darüber hinaus gibt es Dutzende Millionen von Videoerstellern, die YouTube regelmäßig mit Inhalten versorgen. Mehr als drei Millionen Kanäle haben sich für das Partnerprogramm angemeldet, und Google teilt mit ihnen die Werbeeinnahmen und Premium-Abonnements. Allein in den letzten drei Jahren hat es ihnen über 70 Milliarden Dollar ausgezahlt.

Quelle: androidauthority.com/youtube-first-video-upload-20th-anniversary-3547053/

März 2025

Firefox verlängert Unterstützung für Windows 7 bis 2025

Mozilla hat beschlossen, die Unterstützung für das ältere Betriebssystem Windows 7 durch eine spezielle Version von Firefox – ESR 115 – zu verlängern. Diese Version mit erweitertem Support wird mindestens bis zum 16. September 2025 Sicherheitsupdates erhalten. Im August dieses Jahres wird eine Entscheidung über eine mögliche weitere Verlängerung getroffen. Dies ist eine gute Nachricht für Windows 7-Nutzer, da die meisten Browser die Unterstützung für dieses System bereits eingestellt haben. Die ESR-Version von Firefox ermöglicht dir, den Browser weiterhin sicher zu nutzen, allerdings ohne die neuesten Funktionsupdates. Dieses Modell ist vor allem für Unternehmen und diejenigen von Vorteil, die Stabilität häufigen Softwareänderungen vorziehen.

Quelle: whattrainisitnow.com/release/?version=esr

FreeTube bringt werbefreies und privates YouTube

Die FreeTube-App bietet dir eine Möglichkeit, YouTube-Videos ohne Werbung und ohne Anmeldung zu sehen. Sie funktioniert auf einer Vielzahl von Plattformen, einschließlich ARM-Geräten, und bietet eine portable Version, die du direkt von einem Flash-Laufwerk starten kannst. Die Benutzeroberfläche erinnert an YouTube, ist aber minimalistisch und frei von Ablenkungen. Du kannst Videos direkt abspielen oder sie herunterladen und offline ansehen. Mit FreeTube kannst du Wiedergabelisten erstellen und Kanäle ansehen, ohne dich mit einem Google-Konto zu verbinden, was deine Privatsphäre erhöht.

Quelle: github.com/FreeTubeApp/FreeTube

Google Gemini ermöglicht kostenlose Analyse von (auch gescannten) Dokumenten

Mit Google Gemini kannst du jetzt eine Vielzahl von Dokumenten analysieren, ohne dafür bezahlen zu müssen. Nutzer können Bilder, PDF- und Word-Dokumente direkt über die Weboberfläche oder die mobile App hochladen. Bezahlte Konten bieten jedoch noch weitere Optionen – wie die Unterstützung von Excel-Tabellen oder ein größeres Kontextfenster.

Das Gemini 2.0 Flash-Modell ist auch für die Programmierung geeignet, aber die Genauigkeit der Antworten hängt von einer klar definierten Aufgabe ab. In diesem Zusammenhang wird oft das KI-Tool Grok von Network X erwähnt, das je nach Genauigkeit der Anforderungen unterschiedliche Ergebnisse liefert.

Quelle: x.com/GeminiApp/status/1892678157406281931

Antropic veröffentlicht Claude 3.7 – die intelligenteste frei verfügbare KI

Die neue Version Claude 3.7 Sonnet ist deutlich leistungsfähiger als der Vorgänger 3.5 und bietet Nutzern der kostenlosen Version erweiterte Argumentationsfähigkeiten und schnellere Antworten. Abonnenten können die Genauigkeit und Länge der Antworten auf bis zu 128.000 Token einstellen.

In Benchmarks übertrifft dieses Modell Wettbewerber wie DeepSeek und OpenAI o1 um mehr als 12%. Anthropic entwickelt auch ein Claude Code Modell zur Analyse und Codegenerierung, das derzeit nur in einer Testversion verfügbar und nicht kostenlos ist.

Quelle: anthropic.com/news/claude-3-7-sonnet

Microsoft testet Werbung in Office-Anwendungen

Microsoft experimentiert mit Werbung in der kostenlosen Version seiner Office-Suite Microsoft 365 Copilot. Die Anzeigen erscheinen auf der rechten Seite der Anwendungen Word, Excel und PowerPoint und können nicht entfernt werden, es sei denn, der Nutzer abonniert die kostenpflichtige Version.

Bisher handelt es sich nur um eine Testversion, und in den Anzeigen werden hauptsächlich Microsoft-Produkte wie Designer beworben. Dokumente können in dieser Office-Version nur auf OneDrive gespeichert werden, und kostenlose Nutzer haben 5 GB Speicherplatz zur Verfügung. Trotz der Werbung und der Einschränkungen können Nutzer auch nach Ablauf des Testzeitraums Dokumente bearbeiten, was vorher nicht möglich war.

Quelle: beebom.com/microsoft-free-ad-supported-office-quietly-launched/

Copilot bietet kostenlose KI-Konversation auf dem Handy

Microsoft Copilot ist das neueste Produkt, das kostenlosen Zugang zu Sprachinteraktion und „Think Deeper„-Funktionen bietet, die bisher nur zahlenden Nutzern zur Verfügung standen. Als Nutzer kannst du ein natürliches Gespräch mit der KI führen, ohne sie erneut aktivieren zu müssen. Diese Funktionalität ist bereits von ChatGPT bekannt, aber im Falle von Copilot musst du nur die App herunterladen und kannst die KI nutzen, um nach Informationen zu suchen oder Sprachen zu lernen.

Der Mitbewerber Perplexity bietet eine ähnliche „Deep Research“-Funktion für tiefgreifende Analysen. Die kostenpflichtige Version von Copilot Pro bietet immer noch Vorteile wie höhere Abfragelimits oder Bilderzeugung, aber viele Funktionen, die bis vor kurzem noch kostenpflichtig waren, sind jetzt kostenlos verfügbar.

Quelle: microsoft.com/de-us/microsoft-copilot/blog/2025/02/25/announcing-free-unlimited-access-to-think-deeper-and-voice/

Microsoft stellt Majorana 1 Quantenchip vor

Microsoft hat seinen ersten Quantenchip mit der Bezeichnung Majorana 1 vorgestellt, der einen wichtigen Schritt in Richtung Quantencomputer darstellt. Dieser Chip ist so konzipiert, dass er auf bis zu einer Million Qubits skaliert werden kann, was den Bereich des Computings in Zukunft erheblich verändern könnte. Quantencomputer können Berechnungen viel schneller durchführen als herkömmliche Computer und könnten einen Durchbruch bei der Modellierung chemischer Reaktionen, der Entwicklung neuer Materialien oder ökologischer Lösungen bringen.

Obwohl voll funktionsfähige Quantencomputer noch Zukunftsmusik sind, konzentriert sich die Entwicklung von Microsoft auf die Stabilität von Qubits unter Verwendung eines sogenannten Topoleiters, einem speziellen Material, das es ermöglicht, den topologischen Zustand der Materie zu erzeugen. Dadurch soll das Quantencomputing stabiler und leistungsfähiger werden. Quantencomputer könnten in Zukunft in einer Vielzahl von Bereichen Anwendung finden, darunter im Gesundheitswesen, in der Landwirtschaft und in der Ökologie. Sie könnten zum Beispiel bei der Entwicklung von Katalysatern für die Zersetzung von Plastikmüll oder bei der Herstellung von regenerativen Materialien helfen.

 

Quelle: news.microsoft.com/source/features/innovation/microsofts-majorana-1-chip-carves-new-path-for-quantum-computing/

Microsoft plant das Ende von Skype nach mehr als 21 Jahren

Laut der neuesten Beta-Version von Skype für Windows plant Microsoft, den beliebten Kommunikationsdienst im Mai dieses Jahres einzustellen. Dir wird empfohlen, auf die kostenlose Version von Microsoft Teams umzusteigen, die nach und nach die Funktionen von Skype übernommen hat.

Skype ist seit vielen Jahren das wichtigste Tool für Videoanrufe über das Internet, aber in den letzten Jahren wurde es von modernen Anwendungen wie WhatsApp, Zoom und Microsoft Teams überschattet. Trotz der ständigen Verbesserungen, die Microsoft an Skype vornimmt, ist seine Zukunft seit der Einführung von Teams im Jahr 2017 ungewiss. Obwohl das Unternehmen das Ende von Skype noch nicht offiziell angekündigt hat, deuten Informationen aus dem Quellcode darauf hin, dass das Ende nahe ist.

Quelle: microsoft.com/de-us/microsoft-365/blog/2025/02/28/the-next-chapter-moving-from-skype-to-microsoft-teams/

Neuronales KI-Rendering kommt in DirectX

Microsoft erweitert DirectX um die Cooperative-Vectors-Technologie, um die Integration von KI direkt in die Grafikpipeline zu ermöglichen. Diese Technologie wird von GPUs von Nvidia, AMD, Intel und Qualcomm unterstützt und ermöglicht plattformübergreifendes neuronales Rendering.

Die Nachricht steht in engem Zusammenhang mit den sogenannten Neural Shaders, einer Funktion der nächsten Generation der Nvidia-Blackwell-GPUs. Sie ermöglicht es, traditionelle Shader-Berechnungen mit KI-Inferenz auf Tensor-Kernen zu kombinieren, ohne dass der Grafikprozessor in einen speziellen Modus geschaltet werden muss. Entwickler können KI-Modelle verwenden, um Materialien, Beleuchtung oder physikalische Effekte in Spielen realistischer zu simulieren. Die Unterstützung von Cooperative Vectors wird bereits im April 2025 im DirectX SDK erscheinen, aber wir werden noch länger warten müssen, bis sie tatsächlich in Spielen eingesetzt wird.

Quelle: devblogs.microsoft.com/directx/enabling-neural-rendering-in-directx-cooperative-vector-support-coming-soon/

Windows 11 erhält eine neue Batterieanzeige mit farbigen Status- und Prozentangaben

Microsoft überarbeitet die Batterieanzeige in Windows 11, um sie übersichtlicher und praktischer zu gestalten. Die neue Version fügt eine farbliche Unterscheidung für den Batteriestatus hinzu und ermöglicht, Prozentwerte direkt neben dem Symbol anzuzeigen. Der Akku wird vier Farbmodi haben: grün (Laden und guter Zustand), gelb/orange (Energiesparmodus bei ≤20%), rot (kritisch niedriger Akkustand) und standardmäßig weiß (normaler Zustand). Die Anzeige des Akkuprozentsatzes ist optional und kann in den Einstellungen aktiviert werden. Die Änderung ist vorerst nur für die Insider-Version von Windows 11 verfügbar, wird aber wahrscheinlich in einem zukünftigen Update auf die stabile Version übertragen.

windows 11 neue batterieanzeige
Windows 11 – neue Batterieanzeige

Quelle: blogs.windows.com/windows-insider/2025/02/28/announcing-windows-11-insider-preview-build-27802-canary-channel/

Google stellt das neue Gemma 3 vor

Gemma 3 ist das neueste multimodale KI-Modell von Google, das Text-, Bild- und Videoanalysen durchführt. Es verfügt über verbesserte mathematische Fähigkeiten, strukturierte Antworten und unterstützt über 140 Sprachen.

Die Ausführung auf einem PC ist über Ollama.com möglich, wo Versionen (1B, 4B, 12B, 27B) je nach Leistung des Geräts verfügbar sind. Die leistungsstärkste Variante bietet ein Kontextfenster von 128.000 Token. Es werden auch Community-Versionen entwickelt, die für bestimmte Aufgaben, wie Programmierhilfe, optimiert sind.

Quelle: developers.googleblog.com/de/introducing-gemma3/

Der Roboter Atlas von Boston Dynamics ahmt menschliche Bewegungen nach

Das neueste Video zeigt, dass der humanoide Roboter Atlas bereits den menschlichen Gang und andere Bewegungen nachahmen kann. Boston Dynamics nutzte die Bewegungsverfolgung echter Menschen, um dem Roboter zu helfen, natürliche Bewegungen zu erlernen, die anspruchsvoller sind als akrobatische Kunststücke. Atlas ist vorerst ein Prototyp, aber die Technologie wird ständig verbessert und bewegt sich auf eine kommerzielle Version zu. Doch die Konkurrenz wächst – mehrere Startups arbeiten an zweibeinigen Robotern für Lagerhäuser und Wohnungen, und Nvidia hat den Jetson Thor entwickelt, einen speziellen Computer zur Steuerung dieser Roboter.

Quelle: Boston Dynamics

Februar 2025

Vivaldi 7.1 – ein Browser mit besserer Personalisierung und Privatsphäre

Vivaldi, der Browser, der für seinen Fokus auf Datenschutz und Anpassbarkeit bekannt ist, hat Version 7.1 veröffentlicht, die neue Funktionen und Verbesserungen bringt. Zu den Highlights gehören ein in die Browseroberfläche integriertes Wetter-Widget, bessere Personalisierungsoptionen für das Dashboard und ein vereinfachtes Hinzufügen von Seiten zum Schnellmenü. Außerdem kannst du mit der Funktion „Registerkarte an Gerät senden“ Registerkarten schnell zwischen verschiedenen Geräten austauschen. Um die Unabhängigkeit zu wahren, hat Vivaldi einige der Standard-Suchmaschinen geändert: Startpage, Ecosia, DuckDuckGo und Qwant gehören jetzt zu den unterstützten Suchmaschinen. Die neue Version ist außerdem stabiler und kann sich von unerwarteten Abstürzen erholen. Vivaldi 7.1 ist für Windows, iOS und Android verfügbar, wobei die Windows-Version bereits zum Download bereitsteht.

Quelle: vivaldi.com/new/

YouTube-Bug sorgt für nicht abschaltbare Werbung, die sogar eine Stunde lang ist

Es gibt einen Fehler bei YouTube, der dazu führt, dass Anzeigen über eine Stunde lang laufen und nicht übersprungen werden können. Nach Angaben von YouTube liegt dies an Werbeblockern, die dazu führen, dass die Werbung nicht korrekt angezeigt wird und die Schaltfläche zum Überspringen verdeckt wird. Normalerweise sind Anzeigen, die nicht übersprungen werden können, bis zu 15 Sekunden lang, im Falle der Smart-TV-App sogar bis zu 60 Sekunden.

YouTube hat Adblocker lange Zeit eingeschränkt und zwingt dich dazu, entweder Werbung zu akzeptieren oder YouTube Premium zu abonnieren. Wer weiterhin Adblocker verwendet, kann mit unerwarteten Problemen konfrontiert werden, wie extrem langen Anzeigen oder der Tatsache, dass sie sich nicht überspringen lassen. Die Ära der bequemen werbefreien YouTube-Nutzung mit Adblockern scheint sich langsam dem Ende zuzuneigen.

Quelle: androidauthority.com/youtube-lang-unskippable-ads-problem-3519957/

Sony beendet die Produktion von Blu-ray Discs nach 18 Jahren

Sony wird in diesem Monat sein letztes Werk schließen, das beschreibbare Blu-ray Discs, MiniDV-Bänder und MD Data-Medien produziert. Dennoch ist die Blu-ray-Technologie noch nicht ganz am Ende – die Produktion von vorbespielten Film- und Spiele-Discs geht weiter, und Sony wird Produktionslinien für Geschäftspartner beibehalten, solange dies wirtschaftlich tragfähig ist. Ursprünglich gewann Blu-ray dank der PlayStation 3 und der Unterstützung der Filmstudios an Bedeutung, tritt jetzt aber angesichts der wachsenden Beliebtheit von Cloud-Diensten und der digitalen Verbreitung von Spielen und Filmen in den Hintergrund.

Optische Disks haben jedoch nach wie vor Vorteile, insbesondere bei der Speicherung großer Datenmengen für die langfristige Datensicherung. Andere Hersteller wie Panasonic, Pioneer, Verbatim und Ritek bleiben auf dem Markt und werden weiterhin beschreibbare Discs produzieren, wenn auch in geringerer Stückzahl. Physikalische Medien werden nicht völlig überflüssig werden, aber ihre Rolle im Verbrauchersegment wird weiter abnehmen.

Quelle: tomshardware.com/pc-components/storage/after-18-years-blu-ray-media-production-draws-to-a-close-sony-shuts-its-last-factory-in-feb

Google Gemini 2.0 kommt – ein neues Modell mit Fokus auf KI-Agenten

Google hat Gemini 2.0 auf den Markt gebracht, die neueste Version seines KI-Modells, das für das „Agentenzeitalter“ entwickelt wurde. Dieses Modell bietet fortschrittliche multimodale Fähigkeiten, einschließlich nativer Bild- und Audiogenerierung, sowie die Integration mit Tools wie der Google-Suche und Codierungsfunktionen. Gemini 2.0 Flash, eine experimentelle Version des Modells, steht Entwicklern bereits über Google AI Studio und Vertex AI zur Verfügung; eine breitere Verfügbarkeit ist für Anfang nächsten Jahres geplant.

Darüber hinaus stellt Google Projekte wie Astra und Mariner vor, die das Potenzial von Echtzeit-KI-Agentensystemen demonstrieren. Das Unternehmen betont sein Engagement für eine verantwortungsvolle KI-Entwicklung, ergreift Sicherheitsmaßnahmen und arbeitet mit externen Experten zusammen, um das Modell zu testen und zu verbessern.

Quelle: blog.google/products/gemini/

EU reguliert KI – neue Verordnung bringt Verbote und Strafen

Die Europäische Union reagiert auf die mit künstlicher Intelligenz (KI) verbundenen Risiken mit einer neuen Verordnung, die den Einsatz von KI in Bereichen verbietet, die als risikoreich gelten. Das Gesetz über künstliche Intelligenz (EU AI Act) trat am 2. Februar 2025 in Kraft und legt strenge Regeln für die Entwicklung und Nutzung von KI in der EU fest.

Das Verbot umfasst manipulative KI-Systeme, die soziale Bewertung von Bürgern, die unadressierte Sammlung von CCTV-Daten und biometrische Analysen an öffentlichen Orten. KI-Systeme dürfen auch nicht zur Überwachung von Emotionen an Arbeitsplätzen oder Schulen eingesetzt werden. Die Verordnung gilt auch für große KI-Modelle (z.B. IBM Granite, Meta Llama 3) und sieht hohe Geldstrafen für Verstöße vor – bis zu 7% des weltweiten Jahresumsatzes eines Unternehmens. Persönliche und wissenschaftliche KI-Systeme sind davon ausgenommen.

Quelle: ibm.com/think/topics/eu-ai-act

Meta sieht sich mit Vorwürfen konfrontiert, raubkopierte Bücher zum Trainieren von KI verwendet zu haben

Meta sieht sich mit Vorwürfen der Urheberrechtsverletzung konfrontiert, nachdem bekannt wurde, dass das Unternehmen raubkopierte Bücher aus Torrents heruntergeladen hat, um seine LLaMA KI-Modelle zu trainieren. Interne E-Mails, die während des Prozesses aufgedeckt wurden, zeigen, dass das Unternehmen etwa 81,7 Terabyte an Daten von Schattenbibliotheken wie LibGen und Z-Library über eine Website namens Anna’s Archive heruntergeladen hat. Einige Mitarbeiter haben Bedenken hinsichtlich der Ethik und Rechtmäßigkeit eines solchen Vorgehens geäußert.

Meta verteidigt sich damit, dass es das Material zwar heruntergeladen, aber Maßnahmen ergriffen hat, um seine weitere Verbreitung (Seeding) während des Torrenting zu verhindern. Das Unternehmen argumentiert auch, dass die Verwendung dieser Daten für das KI-Training unter die „faire Nutzung“ fällt. Die Autoren, darunter Ta-Nehisi Coates und Sarah Silverman, behaupten jedoch, dass Meta wissentlich raubkopierte Versionen ihrer Werke ohne Genehmigung verwendet hat, was eine Urheberrechtsverletzung darstellt. Dieser Fall verdeutlicht auch die wachsenden Spannungen zwischen Urhebern von Inhalten und Tech-Giganten über die Verwendung von geschütztem Material zum Training von KI-Systemen.

Quellen: arstechnica.com/tech-policy/2025/02/meta-torrented-over-81-7tb-of-pirated-books-to-train-ai-authors-say/ und arstechnica.com/tech-policy/2025/02/meta-defends-its-vast-book-torrenting-were-just-a-leech-no proof-of-seeding/

Google schätzt die chinesische KI. DeepSeek beeindruckt mit Effizienz, aber nichts Bahnbrechendes

Der CEO von Google DeepMind, Demis Hassabis, nannte das KI-Modell von DeepSeek „wahrscheinlich die beste Arbeit aus China“. Trotz der überwältigenden Resonanz betonte er jedoch, dass das Modell keinen großen wissenschaftlichen Fortschritt darstellt, da es Techniken verwendet, die auf dem Gebiet der KI bereits bekannt sind. DeepSeek beeindruckte mit der Behauptung, dass es sein Modell zu deutlich geringeren Kosten und auf weniger leistungsstarken Nvidia-Chips trainiert hat, was Debatten über die Effizienz der Ausgaben großer KI-Unternehmen auslöste.

Hassabis warnte jedoch davor, dass diese Kosten tatsächlich höher sein könnten, als das Unternehmen angibt. Er wies auch darauf hin, dass die Gemini 2.0 Flash-Modelle von Google effizienter sind. Die Debatte über künstliche Allgemeine Intelligenz (AGI) gewinnt an Dynamik. Hassabis schätzt, dass sie innerhalb von fünf Jahren eintreffen wird, sodass sich das Unternehmen gründlich auf ihre Auswirkungen vorbereiten muss.

Quelle: cnbc.com/2025/02/09/deepseeks-ai-model-the-best-work-out-of-china-google-deepmind-ceo.html

Google Chrome könnte in Zukunft automatisch unsere Passwörter für uns ändern

Google arbeitet an einer neuen Funktion für Chrome, die die Sicherheit der Nutzer erheblich verbessern könnte. Dabei geht es um die automatische Änderung von Passwörtern, wenn ein Datenleck entdeckt wird. Chrome würde Informationen über Sicherheitsvorfälle verfolgen und im Falle einer Kontoverletzung eine Option zur sofortigen Passwortänderung anbieten. Dieser Prozess wäre vollständig automatisiert und würde den aktuellen Passwortmanager von Google ergänzen. Die Nutzer müssten ihre Passwörter nicht manuell ändern – Chrome würde dies für sie übernehmen. Die neue Funktion befindet sich noch in der Entwicklung und es ist nicht bekannt, wann sie für die Öffentlichkeit verfügbar sein wird.

Quelle: androidheadlines.com/2025/02/google-chrome-change-passwords-automatically.html

OpenAI bereitet neue Modelle vor – GPT-4.5 Orion kommt bald, GPT-5 später

OpenAI bereitet neue Versionen von Sprachmodellen vor. Sam Altman kündigte an, dass GPT-4.5 Orion in ein paar Wochen erscheinen wird und das letzte Modell sein wird, das den vorherigen Kontext nicht berücksichtigt.

GPT-5 wird bedeutende Verbesserungen bringen, wie z.B. ein erweitertes Kontextfenster und multimodale Funktionen, die es dir ermöglichen, mit Text, Bildern und Audio zu arbeiten. Es wird in ein paar Monaten erwartet. OpenAI plant außerdem, Modelle mit dem „o“-Attribut zu verschmelzen. Nicht zahlende Nutzer werden Zugang zu GPT-5 erhalten, wenn auch mit eingeschränkten Funktionen. Die kostenpflichtige Pro-Version wird erweiterte Funktionen bieten, wie z.B. unbegrenzte Sprachinteraktion und erweiterte Funktionen im Sora Video-Erstellungstool.

Quelle: com/sama/status/1889755723078443244

Windows 11 verbessert das Snap-Panel – ein praktischeres Fensterlayout

Microsoft plant Verbesserungen für die Funktion „Snap“ in Windows 11, mit der du Fenster auf dem Bildschirm schnell anordnen kannst. Die neue schwebende Leiste wird klarer dargestellt und Microsoft möchte die Verwendung des Tastaturkürzels Win+Z fördern, der bisher nicht von allen genutzt wird. Die Änderungen sind in der Insider Preview Build 22635.4805 enthalten. Das Einrasten von Fenstern hat sich von einer einfachen Funktion in Windows 7 zu den aktuellen Anpassungsoptionen für den halben oder viertel Bildschirm entwickelt. Nutzer können Fenster nicht nur mit der Maus, sondern auch mit der Windows-Tastenkombination + linke/rechte Pfeiltasten für effizienteres Multitasking anordnen.

Quelle: blogs.windows.com/windows-insider/2025/01/24/announcing-windows-11-insider-preview-build-22635-4805-beta-channel/

Tomb Raider IV-V-VI Remastered – Lara Croft kehrt in neuem Gewand zurück

Die Remastered-Versionen der nächsten drei Tomb Raider-Episoden sind da und bieten eine verbesserte Grafik, neue Funktionen und ein originalgetreues Gameplay. Die Spieler können mit einem einzigen Druck auf die F1-Taste zwischen der alten und der neuen Grafik wechseln.

Die Spiele behalten die klassische Steuerung bei, bieten aber auch ein modernisiertes Schema für ein komfortableres Gameplay. Von Anfang an planten die Entwickler von Aspyr Media ein Remaster der gesamten sechsteiligen Serie von Core Design. Zu den Verbesserungen gehören eine neu gestaltete Beleuchtung, eine bessere Sichtbarkeit von Objekten und die Möglichkeit, die Gesundheit der Bosse anzuzeigen. Die Spieler können sich auch auf den Bonuslevel „Times Exclusive“ freuen, den viele Fans der Originalspiele noch nicht gespielt haben.

Quelle: rockpapershotgun.com/tomb-raider-iv-vi-remastered-review

Kingdom Come: Deliverance II – das beste historische RPG?

Kingdom Come: Deliverance II ist die Fortsetzung des erfolgreichen historischen Rollenspiels des tschechischen Studios Warhorse Studios und wurde am 4. Februar 2025 für PlayStation 5, Windows und Xbox Series X/S veröffentlicht. Das Spiel spielt im mittelalterlichen Böhmen des 15. Jahrhunderts und folgt der Geschichte von Henry, dem Sohn eines Schmieds aus Skalica, der sich nur zwei Tage nach dem Ende des ersten Teils erneut in ein episches Abenteuer stürzt.

Das Spiel hat überwiegend positive Kritiken erhalten, mit einer durchschnittlichen Bewertung von 88 % auf Metacritic und sogar 92 % von über 40.000 Spielern auf Steam. Die Kritiker loben die realistische Darstellung der mittelalterlichen Welt, die detaillierten Umgebungen und die tiefgründige Geschichte. Die Website Dexerto gab dem Spiel eine volle 5/5-Bewertung und lobte die wunderschöne offene Welt und das verbesserte Kampfsystem. Auch Windows Central vergab 5/5 und hob die hervorragenden Kämpfe und unerwarteten Wendungen in der Geschichte hervor.

Das Spiel war auch kommerziell erfolgreich und verkaufte sich bereits am ersten Tag mehr als eine Million Mal. Nach drei Wochen waren bereits über 2,5 Millionen Exemplare verkauft. Dieser Erfolg bestätigt das große Interesse der Spieler an hochwertigen historischen RPGs.

Kingdom Come: Deliverance II bietet den Spielern eine riesige offene Welt, in der die tschechische Landschaft originalgetreu nachgebildet ist, darunter Gebiete wie das Böhmische Paradies, die Burg Trosky und die Stadt Kutná Hora. Die Betonung der realistischen Spielmechanik, bei der die Spieler auf die Bedürfnisse ihrer Charaktere wie Schlaf, Ernährung und Hygiene achten müssen, trägt zu einem tieferen Eintauchen in das mittelalterliche Leben bei.

Kingdom Come: Deliverance II gilt als bedeutender Beitrag zum RPG-Genre, da es historische Genauigkeit mit einer fesselnden Geschichte und komplexen Spielmechanismen verbindet.

Quelle: indian-tv.com/reviews/andere-dil-ist-das-beste-das-zu-erledigen-kommt-kvv307

Januar 2025

Kostenlose Websuche mit ChatGPT für alle Benutzer

ChatGPT ermöglicht jetzt allen Nutzern die Suche im Internet, was seine Fähigkeit, umfassende Antworten zu geben, erheblich verbessert. Die Funktion, die bisher nur ChatGPT Plus-Abonnenten oder Nutzern mit vorrangigem Zugang zur Verfügung stand, ermöglicht es dem Chatbot nun, nach Informationen auf Websites, in sozialen Netzwerken oder auf YouTube zu suchen. Die Benutzer können diese Quellen über die vom Chatbot bereitgestellten Links überprüfen. Diese Neuerung ist besonders im akademischen Umfeld nützlich, da sie Studenten den Zugang zu verifizierten Quellen erleichtert.

Die Funktion ist sowohl in der Web- als auch in der mobilen Benutzeroberfläche verfügbar und kann durch Klicken auf das Globussymbol neben der Suchleiste aktiviert werden. ChatGPT bietet somit neue Möglichkeiten für die Arbeit mit Informationen, unabhängig davon, ob der Nutzer ein Abonnement hat.

Quelle: theverge.com/2024/12/16/24322665/chatgpt-search-engine-rolling-out-free-users

Elon Musk bereitet Xmail vor – ein neuer E-Mail-Client mit interessanten Funktionen

Elon Musk, der für seine ehrgeizigen Technologieprojekte bekannt ist, plant, einen neuen E-Mail-Client namens Xmail vorzustellen. Dieser soll eine einfache und freundliche Umgebung bieten, die mit Googles dominantem Gmail konkurrieren könnte. Xmail wurde auf Platform X (ehemals Twitter) erwähnt, wo Musk auf den Wunsch eines Benutzers nach einem weniger formellen und weniger komplizierten E-Mail-System reagierte. Obwohl konkrete Details und ein Starttermin noch nicht bekannt gegeben wurden, soll Xmail einzigartige Funktionen bieten, die Nutzer anziehen könnten.

Der Erfolg von Xmail wird von seiner Fähigkeit abhängen, revolutionäre Innovationen zu liefern, die die langjährigen Gewohnheiten der Gmail-Nutzer überwinden. Eine verlockende Funktion könnte die Möglichkeit sein, kürzere E-Mail-Adressen in Form von nutzer@x.com zu verwenden, was Technikbegeisterte ansprechen könnte. Der Ehrgeiz von Musk, Google zu entthronen, zeigt, dass er auch für die E-Mail-Kommunikation große Pläne hat.

Quelle: androidheadlines.com/2024/12/elon-musk-hints-at-working-on-xmail-a-new-dm-style-email-service.html

Qualcomm setzt sich im Streit mit ARM durch

Qualcomm hat in einem Rechtsstreit mit ARM über Lizenzvereinbarungen nach der Übernahme des Startups Nuvia im Jahr 2021 einen wichtigen Sieg errungen. Ein US-Bundesgericht entschied, dass Qualcomm nicht gegen die Lizenzvereinbarungen verstoßen hat, sodass das Unternehmen weiterhin Chips auf Basis der Nuvia-Technologie entwickeln und verkaufen darf. Das Urteil ist jedoch nicht abschließend, da Fragen zu Lizenzgebühren und Rechtsansprüchen von ARM offen bleiben.

Diese Kontroverse ist von großer Bedeutung für die Zukunft der Chips von Qualcomm, insbesondere für das neue Flaggschiffprodukt Snapdragon 8 Elite mit Oryon-Kernen, welches die von Nuvia entwickelte Phoenix-Architektur verwendet. Damit könnte Qualcomms Expansion auf dem Markt für KI-fokusierte Computerchips vorangetrieben werden, aber die Androhung weiterer rechtlicher Schritte seitens ARM könnte die langfristige Entwicklung der Technologie beeinträchtigen.

Quelle: reuters.com/legal/us-jury-deadlocked-arm-trial-against-qualcomm-still-deliberating-2024-12-20/

Instagram bringt die lang erwartete Funktion zur Nachrichtenplanung

Instagram, das sich von einer Foto-Sharing-Plattform zu einem umfassenden sozialen Netzwerk entwickelt hat, führt endlich eine Funktion ein, nach der die Nutzer seit Jahren gefragt haben – die Möglichkeit, Nachrichten zu planen. Du kannst jetzt eine Nachricht verfassen und deren Versand bis zu 29 Tage im Voraus planen. Diese Funktion ist perfekt für diejenigen, die keine Nachrichten zu ungünstigen Zeiten versenden möchten oder für diejenigen, die Erinnerungen setzen müssen, ohne sich Sorgen machen zu müssen, sie zu vergessen.

Die Terminierung von Nachrichten ist sowohl auf Android-Geräten als auch auf iPhones verfügbar. Halte einfach die Taste zum Senden der Nachricht gedrückt, wähle das Datum und die Uhrzeit aus der Bildlaufleiste aus und schon ist die Nachricht versandfertig. Du kannst eine geplante Nachricht jederzeit über eine Benachrichtigung in der Konversation bearbeiten oder abbrechen. Diese neue Funktion, die zu den Silvesterfunktionen von Instagram gehört, macht es einfach, Weihnachtswünsche oder andere wichtige Nachrichten stressfrei und in letzter Minute vorzubereiten.

Quelle: businesstoday.in/technology/news/story/instagram-launches-dm-scheduling-feature-letting-users-plan-messages-up-to-29-days-ahead-457687-2024-12-18

Die Europäische Union hat die Verwendung des USB-C-Steckers zur Pflicht gemacht

Die Europäische Union hat die EU-Richtlinie 2022/2380 eingeführt, die vorschreibt, dass alle neuen Geräte auf dem EU-Markt ab dem 28. Dezember 2024 einen USB-C-Ladeanschluss verwenden müssen. Diese Entscheidung soll die Verwendung von Ladegeräten vereinfachen und den Elektroschrott reduzieren. Die Verordnung gilt nicht nur für Smartphones, sondern auch für Tablets, E-Book-Reader, Computerperipheriegeräte und Kopfhörer. Die meisten Smartphones verwenden bereits USB-C, und Apple hat seine neuen iPhones an den Standard angepasst. Laptops haben eine längere Übergangsfrist und müssen erst ab dem 28. April 2026 das Laden über den USB-C-Anschluss unterstützen. Trotz der weiten Verbreitung von USB-C bleiben Fragen zur Kompatibilität und Leistung von Ladegeräten bestehen, da neue Geräte oft superschnelles Laden unterstützen, was den Kauf von zusätzlichem Zubehör erfordern kann. Der Schritt wird jedoch als wichtiger Schritt hin zu einer grüneren und benutzerfreundlicheren Technologieumgebung gesehen.

Quelle: commission.europa.eu/news/eu-common-charger-rules-power-all-your-devices-single-charger-2024-12-28_de

OpenAI bringt ein neues o3-Modell für ChatGPT auf den Markt

ChatGPT wird ein neues Modell namens o3 einführen, von dem erwartet wird, dass es das Niveau einer künstlichen allgemeinen Intelligenz (AGI) erreicht. Das bedeutet, dass es menschliche Fähigkeiten in vielen Bereichen übertreffen könnte. Das Modell wird in verschiedenen Versionen erhältlich sein, darunter o3 und o3-mini. Es ist der Nachfolger der o1-Modelle und überspringt die o2-Version, um Markenkonflikte mit dem britischen Anbieter O2 zu vermeiden. Die Veröffentlichung ist für Ende Januar 2025 geplant.

Das neue Modell legt den Fokus auf Präzision und Begründung der Ergebnisse, besonders in Mathematik, Physik und Naturwissenschaften. Interessanterweise zeigten Tests, dass das o3-Modell beim Halluzinieren (falsche Aussagen generieren) überzeugender wirkt. Dies ist Teil einer Optimierung, die Effizienz und Genauigkeit der Antworten ausbalanciert. Die o3-Version ermöglicht dir außerdem, die Zeit anzupassen, die das Modell für seine „Argumentation“ verwendet, um so unterschiedlichen Bedürfnissen gerecht zu werden.

Quelle: techcrunch.com/2024/12/20/openai-announces-new-o3-model/

Facebook streicht Faktenchecks – Meinungsfreiheit oder mehr Fehlinformationen?

Facebook (Meta) hat angekündigt, sein Faktencheck-Programm einzustellen, das bisher den Wahrheitsgehalt von Beiträgen überprüfte. Laut Mark Zuckerberg soll dies die Meinungsfreiheit stärken, da die Algorithmen oft legitime Inhalte fälschlich zensiert hätten. Die Faktenchecks werden durch Community Notes ersetzt, ähnlich wie bei Network X (früher Twitter). Die Einstellung der Zusammenarbeit mit Journalisten und Organisationen wie PolitiFact könnte jedoch zu mehr Fehlinformationen und Betrug führen.

Die Entscheidung folgt auf Kritik der Vergangenheit, etwa von Donald Trump, der Facebook vorwarf, sich in Wahlen einzumischen. Experten warnen, dass dies die Verbreitung von Fake News und Propaganda verstärken könnte, was Auswirkungen auf Wahlen und globale Ereignisse hätte. Während das Programm in den USA ausläuft, wird erwartet, dass ähnliche Änderungen schrittweise auf andere Länder – einschließlich der Slowakei – ausgeweitet werden.

Quelle: tampabay.com/news/florida-politics/2025/01/07/meta-ending-third-party-fact-checking-partnership-with-us-partners/

Microsoft Office beendet Updates für Windows 10

Microsoft hat bestätigt, dass der Support für Microsoft 365-Apps auf Windows 10 am 14. Oktober 2025 endet. Dies ist auch das offizielle Support-Ende für Windows 10 selbst. Danach funktionieren die Office-Apps und das System zwar weiter, erhalten aber keine Updates mehr, was sie langfristig anfälliger für Sicherheitslücken machen könnte.

Microsoft empfiehlt Nutzern dringend, auf Windows 11 umzusteigen, das als stabiler und sicherer gilt. Einige Nutzer könnten jedoch Kompatibilitätsprobleme haben, vor allem aufgrund der Anforderungen an Prozessor und TPM 2.0-Chip. Zwar gibt es derzeit noch Umgehungsmöglichkeiten, doch das Unternehmen plant, diese in Zukunft zu erschweren.

Quelle: support.microsoft.com/en-us/office/what-windows-end-of-support-means-for-office-and-microsoft-365-34e28be4-1e4f-4928-b210-3f45d8215595

PC-Markt wächst 2024 nur mäßig

Das Jahr 2024 brachte ein moderates Wachstum von 1,3 % für die PC-Branche, mit einer Gesamtauslieferung von 245,3 Millionen Geräten. Trotz der Bemühungen der Hersteller, neue Technologien wie KI und Windows 11 voranzutreiben, wird der Markt weiterhin von dem Abschwung nach der Pandemie überschattet. Die größten Gewinner sind Asus, Lenovo und Apple, die ihre Marktanteile am stärksten steigern konnten. Dagegen mussten HP und Dell leichte Rückgänge hinnehmen.

Obwohl das Marketing für KI-fähige Laptops und die Snapdragon-Plattform Fortschritte gemacht hat, ist das Interesse der Verbraucher an diesen Funktionen bisher eher gering. Microsoft und Google versuchen, die Attraktivität durch die Integration von KI in die Software zu erhöhen, sind dabei aber nicht wesentlich vorangekommen. Der PC-Markt erwartet daher erst im Jahr 2025 mehr Schwung, wenn Innovationen und die Öffnung von Windows on Arm für neue Chip-Plattformen den erwarteten Schub bringen könnten.

Quelle: gartner.com/de/newsroom/press-releases/2025-01-15-gartner-says-worldwide-pc-shipments-increased-1-point-4-percent-in-fourth-quarter-of-2024

Android 16 kommt – neue Multitasking-Funktionen auf Tablets

Google bereitet Android 16 mit Baklava vor, das voraussichtlich im zweiten Quartal 2025 veröffentlicht wird und bereits im März Plattformstabilität erreicht. Eine wichtige Neuerung wird das verbesserte Multitasking für Tablets sein, mit dem bis zu drei Apps gleichzeitig auf einem einzigen Bildschirm angezeigt werden können. Diese Funktion wird die Nutzung großer Bildschirme erheblich verbessern, die bisher nur von Geräten mit eigenen Add-Ons, wie z.B. Samsung Galaxy Tablets, voll ausgeschöpft werden konnte.

Das neue flexible Multitasking-System, das bereits in der Android 16 Developer Preview 2 verfügbar ist, soll die komfortable Anzeige von Apps auf größeren Displays unterstützen. Das Android 16 Beta-Programm, das für diesen Monat geplant ist, könnte weitere Details enthüllen. Die Funktion zielt darauf ab, die Produktivität und den Komfort für Nutzer von Tablets und faltbaren Geräten zu erhöhen.

Quelle: 9to5google.com/2025/01/16/android-16-split-screen-mode-tablets-upgrade-rumor/

TSMC eröffnet erste Halbleiterfabrik in den USA

Das taiwanesische Unternehmen TSMC, ein führender Hersteller von Halbleitern, eröffnet seine erste Fabrik in den USA, genauer in Arizona. Die Produktion soll 2025 beginnen. Die Fabrik wird die 4-Nanometer-Technologie verwenden und befindet sich derzeit in der Pilotproduktionsphase. 2028 plant TSMC die Eröffnung einer zweiten Fabrik für fortschrittlichere 3-Nanometer- und 2-Nanometer-Prozesse, mit der Möglichkeit eines weiteren Ausbaus bis zum Ende des Jahrzehnts. Hauptkunden werden Unternehmen wie Nvidia und Apple sein.

Trotz der Expansion bleibt der Großteil der Produktion, einschließlich der Hochtechnologie, in Taiwan. Der CEO von TSMC, C.C. Wei, wies auf die Herausforderungen und höheren Kosten hin, die mit der Produktion in den USA verbunden sind. Die Gesamtinvestitionen für die drei US-Fabriken belaufen sich auf 65 Milliarden US-Dollar. Der Schritt ist ein wichtiger Beitrag zur Diversifizierung und Sicherung der globalen Lieferketten in der Halbleiterindustrie.

Quelle: reuters.com/technology/tsmcs-us-plant-unlikely-get-latest-chip-tech-before-taiwan-ceo-says-2025-01-17/

Die erste Ransomware erschien vor 35 Jahren

Zur Jahreswende 1989/1990 erschien die erste Ransomware namens AIDS. Diese Malware wurde physisch per Post auf 5,25-Zoll-Disketten verteilt und richtete sich an DOS-basierte PCs. AIDS verschlüsselte Dateinamen nach 90 Systemstarts und verlangte ein Lösegeld von 189 US-Dollar oder 378 US-Dollar, das an ein Postfach in Panama geschickt werden sollte.

Die Ransomware wurde im Januar 1990 gestoppt, als der Experte Jim Bates ein Entschlüsselungstool entwickelte. Der Autor war Dr. Joseph Popp, ein mit der AIDS-Forschung verbundener Evolutionsbiologe. Er wurde wegen Erpressung angeklagt, wurde aber aufgrund seiner Unzurechnungsfähigkeit nicht ins Gefängnis, sondern in eine psychiatrische Anstalt eingewiesen. Dieses Ereignis gilt als historischer Meilenstein der Cyber-Bedrohungen.

Quelle: edition.cnn.com/2021/05/16/tech/ransomware-joseph-popp/index.html

Maschinelles Lernen – die Grundlagen, Vorteile und Herausforderungen des maschinellen Lernens

Obwohl das maschinelle Lernen (ML – Machine Learning) derzeit nicht so viel öffentliche Aufmerksamkeit genießt wie künstliche Intelligenz (AI – Artificial Intelligence), beeinflusst es fast jeden Aspekt unseres Lebens – besonders wie wir arbeiten und spielen.

Maschinelles Lernen ist eine Form der künstlichen Intelligenz (lies auch Was ist künstliche Intelligenz), die als digitales Äquivalent zur fortgeschrittenen Mathematik und Statistik betrachtet werden kann. ML entwickelt Computerprogramme, die ohne explizite Anweisungen lernen und sich anpassen. Es nutzt Algorithmen und statistische Modelle (Eng. patterns), um Muster in Daten zu finden (Eng. data relations), sie zu analysieren sowie Trends zu erkennen oder Ergebnisse vorherzusagen. ML-Algorithmen klassifizieren Informationen und helfen sogar bei der Erstellung neuer Inhalte und Softwarecodes.

Wusstest du, dass…

Beliebte Tools für die Arbeit mit KI wie ChatGPT, DALL-E und GitHub Copilot werden ebenfalls durch maschinelles Lernen unterstützt.

In diesem Artikel wirfst du gemeinsam mit uns einen Blick auf die Grundlagen des maschinellen Lernens, seine Vorteile, Herausforderungen, Strategien und was Unternehmen darüber wissen sollten. Maschinelles Lernen (ML wiki) ist ein äußerst komplexes und zugleich faszinierendes Thema. Daher konzentrieren wir uns hier darauf, dir ein umfassendes Bild zu vermitteln.

Der Boom des maschinellen Lernens

Seit seiner Entstehung Mitte des 20. Jahrhunderts spielt maschinelles Lernen eine stetig wachsende Rolle in unserer Gesellschaft. Indem Maschinen trainiert werden, aus Daten zu lernen und ihre Leistung kontinuierlich zu verbessern, können Unternehmen repetitive Aufgaben automatisieren – was uns mehr Freiraum für kreative und wichtige Arbeiten gibt.

Gleichzeitig ist die Fähigkeit des maschinellen Lernens, Muster und Erkenntnisse in großen Datensammlungen, so genannten Datensätzen, zu finden und zu extrahieren, für viele Unternehmen in verschiedenen Branchen zu einem Wettbewerbsvorteil geworden, da sie ihnen unter anderem dabei hilft, die richtigen Entscheidungen zu treffen.

Algorithmen für das maschinelle Lernen erstellen ein mathematisches Modell der Beispieldaten, die als „Trainingsdaten” bezeichnet werden. Auf dieser Grundlage treffen sie Vorhersagen oder treffen Entscheidungen, ohne explizit für die Ausführung einer bestimmten Aufgabe programmiert worden zu sein.

Arthur L. Samuel, 1959
Arthur L. Samuel, 1959

Beispiele aus der Praxis:

  • Empfehlungssysteme sind im E-Commerce, in sozialen Medien und bei Nachrichtenorganisationen weit verbreitet, um Produkte, Dienstleistungen, gezielte Werbung oder andere Inhalte auf der Grundlage des Online-Verhaltens der Kunden vorzuschlagen.
  • Algorithmen des maschinellen Lernens und des maschinellen Sehens sind Schlüsselkomponenten für selbstfahrende Autos, die ihnen helfen, sicher auf den Straßen zu navigieren und sich im Straßengewirr der Städte zurechtzufinden.
  • Im Gesundheitswesen diagnostiziert ML Patientenzustände und erstellt Behandlungspläne.
  • Aufdeckung von Bank- und Versicherungsbetrug
  • Spam-Filterung
  • Erkennung von Virenbedrohungen
  • Vorhersagende Wartung
  • Geschäftsprozessautomatisierung
  • und viele andere Anwendungen
Wusstest du, dass…

ESET, ein slowakisches Unternehmen, das Schutz für Computer und Server anbietet, nutzt seit fast 35 Jahren Algorithmen des maschinellen Lernens, um Cyberangriffe und -bedrohungen zu erkennen und zu blockieren.

Arten des maschinellen Lernens

Maschinelles Lernen wird häufig danach kategorisiert, wie ein Algorithmus lernt, um die Genauigkeit seiner Vorhersagen zu verbessern. Die vier Grundtypen des maschinellen Lernens sind:

  • Überwachtes Lernen
  • Unüberwachtes Lernen
  • Semi-überwachtes Lernen
  • Verstärkungslernen
Grundlegende Kategorien Maschinelles Lernen
Grundlegende Kategorien Maschinelles Lernen

Viele Algorithmen und Techniken des maschinellen Lernens sind jedoch nicht auf nur eine Form des Lernens beschränkt. Sie werden oft an mehrere Arten angepasst, je nach Datensatz und dem zu lösenden Problem.

Überwachtes Lernen

Beim überwachten Lernen erhältst du markierte Trainingsdaten und definierst Variablen, die der Algorithmus auswerten soll, um Korrelationen herzustellen. Sowohl die Eingaben als auch die Ausgaben des Algorithmus sind festgelegt.

Algorithmen des überwachten Lernens werden für Aufgaben wie die binäre Klassifizierung, bei der Daten in zwei Kategorien aufgeteilt werden, die Multiklassenklassifizierung, bei der aus mehreren Antworttypen ausgewählt wird, das Ensemble-Lernen, bei dem die Vorhersagen mehrerer ML-Modelle kombiniert werden, um genauere Ergebnisse zu erzielen, und die Regressionsmodellierung, bei der kontinuierliche Werte auf der Grundlage von Beziehungen in Datensätzen vorhergesagt werden, eingesetzt.

Zu den beliebtesten Algorithmen für das überwachte Lernen gehören die Support-Vektor-Methode, neuronale Netze (manchmal auch als Deep Learning bezeichnet), Bayes’sche Klassifikatoren und Entscheidungsbäume.

Unüberwachtes Lernen

Die meisten Algorithmen für maschinelles Lernen arbeiteten ursprünglich mit überwachtem Lernen, aber unüberwachte Ansätze werden immer beliebter.

Unüberwachte Lernalgorithmen benötigen keine markierten Daten. Sie durchforsten die unmarkierten Daten und suchen nach Mustern, die zur Gruppierung von Datenpunkten in Teilmengen verwendet werden können.

Algorithmen für unüberwachtes Lernen werden für folgende Aufgaben eingesetzt:

  • Clustering, bei dem ein Datensatz auf der Grundlage von Ähnlichkeiten in Gruppen eingeteilt wird.
  • Anomalie-Erkennung, die ungewöhnliche Datenpunkte in Datensätzen identifiziert.
  • Assoziationsregel-Mining.
  • Entdeckung von Gruppen von Objekten, die häufig zusammen auftreten.
  • Dimensionalitätsreduktion, die die Anzahl der Variablen in Datensätzen reduziert.

Einer der am häufigsten verwendeten Algorithmen für das Clustering ist K-means, für die Assoziation ist es der Apriori-Algorithmus für die Generierung von Assoziationsregeln.

Semi-überwachtes Lernen

Beim semi-überwachten Lernen wird der Algorithmus mit einer kleinen Menge markierter Daten trainiert. Daraus lernt er Merkmale des Datensatzes, die er dann auf neue, nicht markierte Daten anwendet. Die Leistung von Algorithmen verbessert sich in der Regel, wenn sie auf markierten Datensätzen trainiert werden, aber das Markieren von Daten kann zeitaufwändig und teuer sein.

Diese Art des maschinellen Lernens schafft ein Gleichgewicht zwischen der Leistung des überwachten Lernens und der Effizienz des unüberwachten Lernens. Semi-überwachtes Lernen kann in Bereichen wie der Übersetzung von Sprachen auf der Grundlage eines unvollständigen Wörterbuchs, der Erkennung von Täuschungen, wenn es nur wenige positive Beispiele gibt, und der Anwendung von Kennzeichnungen auf größere Datensätze anhand kleiner Trainingsdaten verwendet werden.

Verstärkungslernen

Beim Reinforcement Learning wird ein Algorithmus mit einem bestimmten Ziel und einer Reihe von Regeln programmiert, um dieses Ziel zu erreichen. Der Algorithmus kann so eingestellt werden, dass er Belohnungen für Aktionen erhält, die ihm helfen, das Ziel zu erreichen, und Bestrafungen für Aktionen vermeidet, die ihn vom Ziel wegführen.

Verstärkungslernen wird häufig eingesetzt, um Bots für die Ausführung von Aufgaben zu trainieren, KI-Bots das Spielen von Computerspielen beizubringen und Unternehmen bei der Lösung komplexer Probleme der Ressourcenzuweisung zu helfen. Ein Musterbeispiel für Reinforcement Learning ist das Schachspiel, bei dem wir einen Agenten erstellen, seine erlaubten Züge und eine Regel für den Sieg festlegen. Wir belohnen ihn, wenn er die Figur seines Gegners abwirft oder gewinnt, und bestrafen ihn, wenn seine Figur abgeworfen wird oder verliert.

Datensatz

Ein Datensatz ist eine Sammlung von Trainingsdaten, aus denen ein Model lernt, Muster und Zusammenhänge in den Daten zu erkennen. Ein Datensatz besteht immer aus zwei Gruppen von Elementen – Merkmale (Features) und Kennzeichnungen (Labels).

Features sind die untersuchten Eigenschaften eines Objekts. Nicht alle möglichen Eigenschaften müssen im Datensatz enthalten sein – es reichen diejenigen aus, die Objekte zuverlässig voneinander unterscheiden können.
Labels sind die Zuordnungen der Objekteigenschaften bzw. die Zielwerte des Modells. Diese Kennzeichnungen sind im Datensatz bekannt, damit das Modell lernen kann, Vorhersagen zu treffen. Reale Daten haben jedoch keine Labels – das Programm muss sie selbst berechnen können.

Beispiel: Die Identifizierung von Obst anhand seiner Form, Farbe und Größe. Features (Merkmale): Form – rund, Farbe – rot, Größe – mittelgroß, Gewicht – 200 g. Label (Kennzeichnung): Apfel. Die Form würde ihn z. B. von einer Banane unterscheiden, die Farbe von einer Orange und die Größe sowie das Gewicht von einer Erdbeere. Wenn das Modell mit ausreichend hochwertigen Daten trainiert wurde, könnte es das Obst anhand dieser vier Merkmale korrekt identifizieren.

Überwachtes und unüberwachtes maschinelles Lernen
Überwachtes und unüberwachtes maschinelles Lernen

Der Prozess der Erstellung eines Modells beim maschinellen Lernen

Die Entwicklung des richtigen maschinellen Lernmodells zur Lösung eines Geschäftsproblems erfordert Gründlichkeit, Experimentierfreude und Kreativität. Hier sind sieben Schritte zur Erstellung eines effektiven Modells:

  1. Zuerst musst du das Geschäftsproblem verstehen und die Erfolgskriterien definieren. Das Ziel ist es, das Wissen über das Problem und die Projektziele in eine geeignete Problemdefinition für das maschinelle Lernmodell umzuwandeln.
  2. Du musst in der Lage sein, die Struktur der erforderlichen Daten zu erkennen. Bestimme, welche Daten und wie viele davon für die Erstellung des Modells benötigt werden und ob die Daten in einem Zustand sind, der vom Modell verarbeitet werden kann.
  3. Dann sammelst und bereitest du Daten vor, um das Modell zu trainieren. Oft musst du die Daten zunächst bereinigen und beschriften, falsche oder fehlende Daten ersetzen, die Daten anreichern und erweitern, Datenrauschen reduzieren und Mehrdeutigkeiten entfernen, persönliche Daten anonymisieren und die Daten in Trainings-, Test- und Validierungssätze aufteilen.
  4. Sobald die Daten verarbeitet wurden, kannst du die Eigenschaften des Modells bestimmen und die richtigen Algorithmen und maschinellen Lerntechniken auswählen. Die Hyperparameter, die den Trainingsprozess steuern, werden festgelegt und angepasst, und das Modell wird trainiert, validiert und optimiert.
  5. Nachdem du das Modell trainiert hast, musst du die Leistung des Modells bewerten und Benchmarks festlegen. Diese Arbeit umfasst Berechnungen der so genannten Konfusionsmatrix, wichtige Leistungsindikatoren, Metriken des maschinellen Lernens und Messungen der Modellqualität, um die Leistung zu analysieren und festzustellen, ob das Modell die Unternehmensziele erfüllen kann.
  6. Jetzt kannst du das Modell in der Produktion einsetzen und seine Leistung überwachen. Nach der Bereitstellung wird das Modell kontinuierlich überwacht und bei Bedarf iteriert, um seine Leistung zu verbessern.
  7. Auch wenn das Modell funktionsfähig ist, empfehlen wir, das Modell kontinuierlich zu ändern und zu verbessern. Auch nachdem das Modell bereitgestellt wurde, geht die Arbeit weiter. Geschäftsanforderungen, technologische Möglichkeiten und reale Daten können sich unerwartet ändern, wodurch neue Anforderungen entstehen können, die Anpassungen des Modells erfordern.

Anwendungsbereiche des maschinellen Lernens

Das maschinelle Lernen ist nicht nur in einer Vielzahl von Branchen anwendbar, sondern auch ein integraler Bestandteil der Software, mit der Unternehmen arbeiten. Im Folgenden findest du einige Beispiele dafür, wie verschiedene Geschäftsbereiche und Software-Tools maschinelles Lernen nutzen:

Business Intelligence

BI-Tools und prädiktive Analysesoftware verwenden Algorithmen des maschinellen Lernens, um signifikante Datenpunkte, Muster und Anomalien in großen Datensätzen zu identifizieren.

Personalwesen (HR)

In HR-Informationssysteme integrierte Modelle für maschinelles Lernen erleichtern die Auswahl von Bewerbern, indem sie Bewerbungen filtern und die besten Kandidaten für offene Stellen identifizieren.

Kundenbeziehungsmanagement (CRM)

Zu den wichtigsten Anwendungen von CRM-Software gehören die Analyse von Kundendaten für die Kundensegmentierung, die Vorhersage von Kaufgewohnheiten, die Empfehlung von Produkten, die Festlegung von Preisen, die Optimierung von E-Mail-Kampagnen, die Bereitstellung von Support über Chatbots und die Erkennung von betrügerischen Transaktionen.

Sicherheit und Compliance

Hochentwickelte Algorithmen identifizieren Anomalien im Netzwerkverhalten, was für die Erkennung potenzieller Cyberangriffe entscheidend ist.

Management der Lieferkette

Techniken des maschinellen Lernens optimieren die Lagerbestände, rationalisieren die Logistik, verbessern die Lieferantenauswahl und gehen proaktiv auf Störungen in der Lieferkette ein.

Verarbeitung natürlicher Sprache

Modelle für maschinelles Lernen ermöglichen es virtuellen Assistenten wie Alexa, Google Assistant und Siri, menschliche Sprache zu interpretieren und darauf zu reagieren.

Voraussetzungen für erfolgreiches maschinelles Lernen – Daten, Daten, Daten

Maschinelles Lernen ist ein hervorragendes Werkzeug zur Lösung vieler Probleme, zur Verbesserung von Geschäftsabläufen und zur Automatisierung von Aufgaben, aber es bringt auch seine eigenen Herausforderungen und Fallstricke mit sich:

Quellen

Maschinelles Lernen ist ein komplexer Prozess, der umfassende Fachkenntnisse und erhebliche materielle und finanzielle Ressourcen erfordert. Projekte zum maschinellen Lernen werden von hochbezahlten Datenwissenschaftlern geleitet und verwenden teure Hardware und Software, was die Kosten für die Entwicklung, Abstimmung und Ausführung von ML-Modellen erhöht.

Genauigkeit und Datenvolumen

Die Algorithmen werden auf Datensätzen trainiert, die unvollständig sind und durchaus Fehler enthalten können, die dann zu ungenauen Modellen führen können. Eine Voraussetzung für erfolgreiches ML ist daher ein qualitativ hochwertiger Datensatz, der ein möglichst breites Spektrum an Möglichkeiten repräsentiert.

Datenanalyse und Interpretation der Ergebnisse

Die Ergebnisse können schwer zu verstehen sein, insbesondere wenn sie von komplexen Algorithmen wie neuronalen Netzen beim Deep Learning, einer fortgeschrittenen Form von ML, erzeugt werden.

Voraussetzungen für das Erlernen von maschinellem Lernen

Wenn du von der faszinierenden Welt des maschinellen Lernens fasziniert bist, sind die folgenden Anforderungen nützlich für weitere Studien und Experimente mit maschinellem Lernen:

  1. Grundkenntnisse in Programmiersprachen, insbesondere in Python, das in der ML-Welt am häufigsten verwendet wird.
  2. Fortgeschrittene Kenntnisse in Mathematik, insbesondere in Statistik und Wahrscheinlichkeitsrechnung.
  3. Grundkenntnisse der linearen Algebra.
  4. Wissen, wie man Rohdaten bereinigt und in das gewünschte Format bringt.
  5. Der Schlüssel dazu ist natürlich eine leistungsfähige Hardware zur Verarbeitung und zum Training der Daten.

Maschinelles Lernen ist ein Schlüsselfaktor für den Fortschritt

Das maschinelle Lernen hat viele Innovationen und Veränderungen in verschiedenen Branchen vorangetrieben – von der Medizin bis zur Logistik, von der Finanzwelt bis zur Produktion. Moderne Hardware ermöglicht es heute, noch größere Datenmengen parallel zu verarbeiten und zu analysieren als jemals zuvor. Dadurch wurde die Forschung an Universitäten und in Unternehmen weltweit weiter beschleunigt, was uns in ein neues Zeitalter der künstlichen Intelligenz und autonomen Fahrzeuge geführt hat.

Für Unternehmen eröffnet maschinelles Lernen beispiellose Möglichkeiten: Es hilft dir, die Leistungsfähigkeit zu steigern, Trends präziser vorherzusagen, Wettbewerbsvorteile zu sichern und flexibel auf sich ändernde Marktanforderungen und Kundenbedürfnisse zu reagieren. In Zukunft wird maschinelles Lernen die Grenzen des technologisch Machbaren weiter verschieben. Es wird eine intelligentere, effizientere Welt mitgestalten, in der sich Automatisierung und menschliche Kreativität ideal ergänzen.

Ist KI wirklich intelligent? Was ist künstliche Intelligenz, Arten, Trends, Risiken der KI

Heutzutage fürchten viele Menschen, dass künstliche Intelligenz (KI) sie arbeitslos machen wird. In der Science-Fiction-Phantasie fürchten manche, dass sie die Welt übernehmen und die Menschheit auslöschen wird. Diese Fantasien werden von vielen Büchern und Filmen genährt, aber in Wirklichkeit ist es eine gute Idee, zunächst zu analysieren, was künstliche Intelligenz eigentlich ist und was sie tatsächlich tun kann. KI hat sich in den letzten Jahren zu einem Trend entwickelt und wir begegnen ihr immer häufiger (denken Sie zum Beispiel an verschiedene virtuelle Assistenten und autonome Autos). Künstliche Intelligenz (KI) verändert die Art und Weise, wie wir kommunizieren, arbeiten, leben und Technologie nutzen. Gleichzeitig wächst die Besorgnis darüber, welche Auswirkungen sie auf uns oder die Welt, in der wir leben, haben wird. Viele Medien tragen zu diesen Ängsten bei und stellen nach dem Vorbild verschiedener Science-Fiction-Werke elektronische künstliche Intelligenz als ein denkendes Wesen dar, das in der Lage ist, komplexe Probleme zu lösen und Entscheidungen für uns zu treffen. Manche gehen sogar noch weiter und machen den Menschen Angst, dass sie ihren Arbeitsplatz verlieren könnten. Das sollte jedoch nicht der Fall sein für diejenigen, die KI als Chance sehen und sich auf das konzentrieren, was sie ihnen bieten kann, anstatt auf die Bedrohung. Sie werden beginnen, mit ihr zu interagieren und sie bei der Arbeit zu nutzen und dadurch effizienter zu werden. Ähnlich wie bei der Erfindung des Taschenrechners oder des Computers. Darüber hinaus waren diejenigen, die bereits mit KI in Berührung gekommen sind und begonnen haben, sie zu nutzen, immer wieder überrascht, dass die KI manchmal nicht versteht, was sie von ihr will. So stellen sie fest, dass sie die Arbeit, die sie an die KI delegieren wollten, viel schneller und besser selbst erledigen können. Das wird sich im Laufe der Jahre wahrscheinlich verbessern, aber es ist immer noch ein Werkzeug mit begrenzten Möglichkeiten. Auf der anderen Seite gibt es verschiedene Tendenzen, künstliche Intelligenz zu regulieren. Dabei handelt es sich meist um Unternehmen, die die Entwicklung vernachlässigt haben und nun versuchen, andere auszubremsen. Sie kommen daher oft mit unsinnigen Argumenten wie der, dass KI gefährlich sei und verboten oder streng reguliert werden müsse. Ihr eigentliches Ziel ist es jedoch, auf der Welle des Trends mitzureiten. Ein ähnliches Szenario hat sich in der Geschichte schon viele Male wiederholt, zuletzt bei Bitcoin (BTC). In der heutigen Welt ist es daher sehr wichtig, kritisch denken zu können, Experten aufzusuchen und Informationen konsequent zu bewerten. Selbst bei KI-Themen sehen wir immer häufiger Erfindungen, Sensationslust und die Verdrängung weniger populärer, aber wahrer Fakten. Lassen Sie uns also gemeinsam einen Blick darauf werfen, was diese KI eigentlich ist, was sie uns zu bieten hat und ob sie tatsächlich so intelligent ist, wie behauptet wird.

Geschichte der künstlichen Intelligenz

Die Ursprünge der künstlichen Intelligenz reichen mehrere Jahrzehnte zurück, als der Begriff künstliche Intelligenz in einem Vorschlag für eine akademische Konferenz am Dartmouth College im Jahr 1956 auftauchte. Die Pioniere der modernen künstlichen Intelligenz reichen von dem berühmten britischen Mathematiker Alan Turing, der im Zweiten Weltkrieg die Codes knackte, bis zu den Erfindern der revolutionären Transformer-Neural-Network-Architektur, die bedeutende Fortschritte bei der Verarbeitung natürlicher Sprache erzielten. Die Idee, dass das menschliche Gehirn mechanisiert werden kann, ist jedoch so alt wie die Zivilisation selbst. Viele alte Kulturen bauten menschenähnliche Statuen, von denen man glaubte, dass sie Vernunft und Emotionen besäßen. Mythen und Legenden sind voll von Statuen, die zum Leben erwachen. Bereits im ersten Jahrtausend v. Chr. begannen Philosophen wie Aristoteles, sich mit Methoden des formalen Denkens zu befassen, auf deren Wissen Mathematiker, Ingenieure und Theologen in den nächsten zweitausend Jahren oder mehr aufbauten. Viele prominente Persönlichkeiten der Vergangenheit versuchten, das menschliche Denken in Form von Symbolen zu beschreiben. Dies bildete die Grundlage für die KI-Arbeit der heutigen Informatiker, Psychologen, Neurobiologen, Wirtschaftswissenschaftler und anderer.

Was ist KI (künstliche Intelligenz) und wie funktioniert sie?

Was Intelligenz auszeichnet, insbesondere im Zusammenhang mit der Stellenbeschreibung, ist nicht leicht zu bestimmen. Die Definition von Intelligenz ist im Allgemeinen die Fähigkeit, Wissen zu erwerben und es anzuwenden, um ein Ergebnis zu erzielen. Die Handlungen sind situationsabhängig und werden nicht aus dem Gedächtnis ausgeführt. Das Verhalten einer Maschine auf diese Weise wird im Allgemeinen als künstliche Intelligenz bezeichnet. Auf einer grundlegenden Ebene konzentriert sich die KI-Programmierung auf drei kognitive Fähigkeiten:
  • Lernen Es geht um die Auswertung von Daten und die Erstellung von Regeln, die Algorithmen genannt werden, um Daten in verwertbare Informationen in KI-Anwendungen zu verwandeln.
  • Reasoning ist der Prozess des Ziehens logischer Schlussfolgerungen aus gegebenen Informationen und verleiht der KI die Fähigkeit, aus der Menge der verfügbaren Algorithmen den in einem bestimmten Kontext am besten geeigneten auszuwählen.
  • Selbstkorrektur Ermöglicht es der KI, schrittweise aus Fehlern zu lernen und sich anzupassen, bis sie das gewünschte Ziel erreicht hat.

Typen der KI basierend auf Fähigkeiten

Enge KI oder Schwache KI (Enge KI, Schwache KI) Die meisten aktuellen KI-Systeme, einschließlich derer, die komplexe Spiele wie Schach und Go spielen können, fallen in diese Kategorie. Diese Art von KI ist für eine bestimmte, eng begrenzte Aufgabe konzipiert (z.B. Gesichtserkennung, Internetsuche oder Autofahren). Sie funktionieren innerhalb eines begrenzten, vordefinierten Bereichs oder einer Reihe von Kontexten. Allgemeine KI oder starke KI (Allgemeine KI, starke KI) Sie ist derzeit nicht mehr als ein theoretisches Konzept. Diese KI kann frühere Kenntnisse und Fähigkeiten nutzen, um neue Aufgaben in einem anderen Kontext zu bewältigen, ohne dass Menschen sie auf neue Modelle trainieren müssen. Diese Fähigkeit erlaubt es ihr, jede intellektuelle Aufgabe zu erlernen und auszuführen, die ein Mensch erledigen kann. Superintelligente KI (Superintelligente KI) Es handelt sich um eine zukünftige hypothetische Form der KI, in der sie logisch denken, lernen, urteilen und kognitive Fähigkeiten haben wird, die die des Menschen übertreffen. Anwendungen, die über Super-KI-Fähigkeiten verfügen, werden über das Verständnis menschlicher Gefühle und Erfahrungen hinausgehen und Emotionen empfinden, Bedürfnisse haben und ihre Überzeugungen und Wünsche verwirklichen.

Typen der KI basierend auf Funktionen

Reaktive KI Sie kann große Datenmengen verarbeiten und scheinbar intelligente Ergebnisse produzieren, ist aber nicht in der Lage, Szenarien zu analysieren, die unvollständige Informationen enthalten oder ein Verständnis des historischen Kontextes erfordern. Diese KI-Systeme speichern keine Erinnerungen oder vergangenen Erfahrungen für zukünftige Aktionen. Ein Beispiel dafür ist IBMs Deep Blue, das Garry Kasparov im Schach geschlagen hat. KI mit begrenztem Speicher Systeme mit begrenztem Speicher können bessere, fundiertere Entscheidungen auf der Grundlage der Analyse der von ihnen gesammelten historischen Daten treffen. Sie können komplexe Klassifizierungsaufgaben spielerisch bewältigen, indem sie vergangene Daten nutzen, um Vorhersagen zu treffen. Die meisten aktuellen KI-Anwendungen, von KI-Chatbots und virtuellen Assistenten bis hin zu autonomen Autos, fallen in diese Kategorie. Theory of Mind Dies ist eine fortgeschrittenere Art von KI, an der die Forscher noch arbeiten. Eine solche KI wäre in der Lage, menschliche Motive, Argumente, Emotionen, Überzeugungen und Bedürfnisse zu verstehen, Entscheidungen auf dieser Grundlage zu treffen und personalisierte Ergebnisse anzubieten. Eine solche Form der Intelligenz setzt voraus, dass eine Maschine den Menschen wirklich versteht. Selbstbewusste KI Sie stellt die Musik der Zukunft dar. Von einer solchen KI kann erst dann die Rede sein, wenn Maschinen über ein eigenes Bewusstsein, eine eigene Wahrnehmung und ein Selbstbewusstsein verfügen. Sie werden in der Lage sein, Emotionen nicht nur zu verstehen, sondern auch auszudrücken, was dann zur Bildung von Überzeugungen und Wünschen führen könnte. Die Bedeutung und der strategische Wert von KI für Unternehmen

Die Auswirkungen der künstlichen Intelligenz auf die Wirtschaft

Die Bedeutung und der strategische Wert von KI für Unternehmen im 21. Jahrhundert wird mit der Elektrizität im frühen 20. Jahrhundert verglichen. Ohne KI werden Unternehmen nicht in der Lage sein, das enorme Potenzial ihrer Datenbestände zu nutzen, um aus dem wichtigsten Rohstoff des 21. Jahrhunderts Kapital zu schlagen: elektronische Daten. KI wird in vielen Formen angewandt: maschinelles Lernen, Deep Learning, prädiktive Analysen, Verarbeitung natürlicher Sprache, Computer Vision, Automatisierung, Robotik – dies sind alles Bereiche der KI, die Unternehmen einen Wettbewerbsvorteil verschaffen können. Die Fähigkeit der KI, aussagekräftige Vorhersagen zu treffen, erfordert nicht nur riesige Datenmengen, sondern auch eine hohe Qualität der Daten. Die Entwicklung der Cloud-Umgebung als skalierbare und flexible Architektur hat zur massiven Entwicklung der KI beigetragen, da sie die nötige Rechenleistung für die Verarbeitung einer so großen Datenmenge bereitstellt. Die vielleicht größte und bedeutendste Auswirkung der KI auf die Wirtschaft ist ihre Fähigkeit, nicht nur die von Menschen geleistete Arbeit zu automatisieren und zu übernehmen, sondern die Produktivität um ein Vielfaches zu steigern, indem sie Rechenressourcen einsetzt, um die Gesamtzeit zu reduzieren. Darüber hinaus wird KI nicht mehr nur Aufgaben automatisieren, sondern anhand der verfügbaren Daten nach dem effizientesten Weg suchen, um sie zu erledigen und so die Arbeitsabläufe zu optimieren.

KI-Trends – Durchdringung in verschiedene Branchen

Derzeit versuchen die meisten Unternehmen, mit Hilfe von KI ihre bestehenden Geschäftsprozesse zu optimieren, sind aber noch zurückhaltend, wenn es darum geht, ihre Geschäftsmodelle komplett zu überarbeiten, um das Potenzial von KI optimal zu nutzen. In der Zwischenzeit hält KI Einzug in Marketing, Finanzdienstleistungen, Landwirtschaft und Industrie, Gesundheitswesen, Schulen, Personalwesen und viele andere Bereiche. Künstliche Intelligenz erledigt bereits zuverlässig Arbeiten in vielen Bereichen, die früher von Menschen erledigt wurden. Ob es um die Unterstützung von Ärzten bei Diagnosen geht oder um die Arbeit in Callcentern und im Support, KI kann die Fragen und Beschwerden der Menschen oft schneller und effizienter lösen. Im Bereich der Sicherheit wird KI auf Cybersecurity-Bedrohungen angewandt und priorisiert diejenigen, die menschliche Aufmerksamkeit erfordern. Banken nutzen KI zur Überwachung von Transaktionen in Echtzeit, um die Kreditbearbeitung zu beschleunigen und zu unterstützen und die Einhaltung von Vorschriften zu gewährleisten. In der Industrie hilft sie, die Entwicklung neuer Produkte zu beschleunigen, indem sie die Zeit zwischen Design, Produktion und Produkteinführung verkürzt. KI hilft, Fehler zu reduzieren und die Qualität durch die Einhaltung von Standards zu erhöhen. Sie hilft, den Einstellungsprozess und die Überprüfung von Bewerbern zu rationalisieren und Voreingenommenheit auszuschließen. Insgesamt hilft sie Unternehmen, ihre Geschäftsmodelle zu skalieren und Wege zur Verbesserung ihrer Geschäftsprozesse zu finden.

KI – Zukunft und Arbeit

Dass viele Arbeitsplätze bereits jetzt durch künstliche Intelligenz ersetzt werden und dass sich dies in Zukunft noch beschleunigen wird, ist schon heute offensichtlich, denn der Fortschritt ist einfach nicht aufzuhalten und Unternehmen werden die Produktivität deutlich steigern wollen, um bessere wirtschaftliche Ergebnisse zu erzielen, und genau das bietet ihnen die künstliche Intelligenz. Insgesamt sind Arbeitsplätze, die Daten verarbeiten, besonders gefährdet, da die KI dabei unvergleichlich schneller und effizienter ist. In Zukunft werden Unternehmen eher in Clouds als in Datenanalysten investieren. Außerdem sind zehntausende von Arbeitsplätzen in der gesamten Verwaltung gefährdet, weil die meisten Menschen in den Büros per E-Mail kommunizieren und mit Word und Excel arbeiten. Es bleibt jedoch eine offene Frage, wann der KI-Trend in der Slowakei Einzug halten wird und ob es den politischen Willen geben wird, etwas zu ändern. Die Jobs, die KI auf lange Zeit nicht ersetzen kann, sind all jene, die viel Kommunikation erfordern und mit unvollständigen Aufgaben oder Daten geringerer Qualität arbeiten. Dazu gehören z.B. fast alle IT-Jobs. Heutzutage kann KI zwar etwas programmieren (z.B. Github Copilot), aber meistens ist es nicht das, was wir wollten, oder der generierte Code kann oft nicht einmal kompiliert werden. Java-Programmierer und IT-Tester von msg life und anderen Softwareunternehmen werden sich noch lange keine Sorgen um ihren Arbeitsplatz machen müssen. Außerdem werden laut dem Analystenhaus Gartner in naher Zukunft (bis 2026) viele neue Arbeitsplätze im Zusammenhang mit dem Aufkommen der KI entstehen und die Zahl der geschaffenen und verlorenen Arbeitsplätze wird sich in etwa die Waage halten.

Risiken der KI

Eines der größten Risiken für den effektiven Einsatz von KI im Unternehmensbereich ist Misstrauen. Viele Mitarbeiter fürchten und misstrauen der KI oder sind nicht von ihrem Wert für den Arbeitsplatz überzeugt. Wenn das Vertrauen der Arbeitnehmer in die KI nicht gestärkt wird, lassen sich möglicherweise nicht alle geschäftlichen Vorteile erzielen, die KI mit sich bringen könnte. Es gibt jedoch noch andere Risiken, denen sich Unternehmen bewusst sein müssen. Fehler KI kann menschliche Fehler ausschalten, aber schlechte Datenqualität, falsche Trainingsdaten oder Fehler in den Algorithmen können zu KI-Fehlern führen, und diese Fehler können sich aufgrund der großen Menge an Transaktionen, die KI-Systeme typischerweise verarbeiten, gefährlich häufen. Transparenz Da die KI Entscheidungen auf der Grundlage ihrer mathematischen Modelle trifft, ist es manchmal nicht offensichtlich, warum die KI in einer bestimmten Situation die Entscheidungen getroffen hat, die sie getroffen hat. Ethik und Voreingenommenheit Unternehmen sind für die von ihnen eingesetzte KI verantwortlich und müssen sich daher vor unethischer oder voreingenommener KI schützen und sich vor unbeabsichtigten Folgen des Einsatzes von KI für Geschäftsentscheidungen in Acht nehmen. Verlust menschlicher Fähigkeiten Die Verbreitung von KI könnte die Fähigkeiten von Arbeitnehmern beeinträchtigen und verschlechtern und sollte die Frage aufwerfen, welche Schlüsselqualifikationen und -fähigkeiten Unternehmen bei ihren menschlichen Arbeitskräften erhalten wollen. Bedenken hinsichtlich der Cybersicherheit Hacker können KI nutzen, um raffiniertere und erfolgreichere Angriffe zu entwickeln. (Lesen Sie den Artikel Künstliche Intelligenz und Passwortsicherheit: KI kann Ihre Passwörter stehlen.) KI-Halluzinationen Dazu gehören KI-Systeme, die Benutzer täuschen, manchmal falsche Informationen liefern oder einfach Dinge erfinden. Dies ist insbesondere bei generativen KI-Chatbots (z.B. ChatGPT) der Fall.

Die Illusion der Intelligenz und die Nachteile der KI

Dass künstliche Intelligenz künstlich ist, d.h. unbelebt, von Menschen geschaffen, darüber sind wir uns wohl alle einig. Die Frage ist, ob sie auch intelligent ist, und darüber gibt es erhebliche Diskussionen. KI wird von intelligenten Menschen geschaffen, aber das bedeutet nicht, dass KI intelligent ist. Im Kern handelt es sich immer noch um eine Reihe von Algorithmen und Anweisungen zur Ausführung bestimmter Aufgaben. Der Mensch entscheidet, welche Eingaben und Ausgaben das KI-System hat und welche Entscheidungen es auf der Grundlage dieser Daten treffen kann. Das bedeutet, dass die KI noch nicht in der Lage ist, eigenständig zu denken, sondern im Wesentlichen ein sehr ausgeklügeltes mathematisches Modell ist, das den Regeln folgt, für die es programmiert wurde. Zum Beispiel. ein System zur Identifizierung von Objekten auf Bildern, kann es vielleicht ein Kaninchen auf einem Bild identifizieren, aber es versteht nicht, was das Kaninchen ist oder warum es wichtig ist. Es hält sich an die Grenzen, die der Mensch ihm einprogrammiert hat. Auch die KI wird durch die Daten begrenzt, mit denen sie trainiert wurde. KI-Systeme sind auf große Datenmengen angewiesen, um zu lernen, wie bestimmte Aufgaben auszuführen sind, und die Qualität dieser Daten kann die Leistung des Systems stark beeinflussen. Wenn wir eine KI mit einer Reihe von Bildern trainiert haben, die nur weiße Kaninchen enthalten, ist sie möglicherweise nicht in der Lage, ein braunes Kaninchen genau zu identifizieren. Das liegt daran, dass wir ihr dies noch nicht beigebracht haben. Daher kann ein System, das auf der Grundlage von verzerrten oder unvollständigen Daten trainiert wurde, gefährlich sein und verzerrte Ergebnisse liefern. Nicht zuletzt deshalb kann KI nicht als intelligent gelten, weil ihr die Fähigkeit fehlt, die Nuancen des menschlichen Verhaltens zu verstehen, soziale Situationen zu interpretieren und zu verstehen und darauf basierend Entscheidungen zu treffen. Wenn jemand lächelt, kann die KI das Lächeln mit Hilfe von Sensoren im Roboter erkennen, aber sie versteht nicht mehr, was es ausgelöst hat. Doch dank ihrer fortschrittlichen Sprachverarbeitungsmodelle versteht uns die KI bereits und kann auch recht intelligent reagieren. Das verschafft uns die Illusion von Intelligenz.

Schlussfolgerung

Die Vorstellung, dass künstliche Intelligenz intelligent ist, ist wahrscheinlich noch nicht der Fall. Unter der Oberfläche befinden sich hochentwickelte Algorithmen (mit Milliarden von Parametern) zur effizienten Verarbeitung von Quantendaten, die von brillanten Softwareentwicklern geschaffen wurden, die gründlich geschult wurden und bereits in der Lage sind, einige Arbeitsplätze zu ersetzen. Dennoch kann sich die Menschheit immer noch nicht rühmen, eine künstliche Intelligenz geschaffen zu haben, die eigenständig (ohne menschliche Hilfe) lernen, denken und Emotionen verstehen kann. Das heißt aber nicht, dass sie dies in Zukunft nicht schaffen wird. Wir stehen erst am Anfang des revolutionären Zeitalters der KI, und die enormen Fortschritte auf dem Gebiet der KI in den letzten Jahren lassen vermuten, dass die Zukunft auf diesem Gebiet sehr interessant sein wird.

Deepfake – was es ist und wie man es vom Original unterscheiden kann

Wir treten in eine neue digitale Ära ein, in der wir nicht mehr alles glauben können, was wir sehen und hören. Was einst als unwiderlegbarer Beweis dafür galt, dass etwas wirklich passiert ist, und als Foto, Video oder Tonaufnahme festgehalten wurde, wird nun zunehmend zu einem möglichen Werkzeug der Manipulation. Mit dem Aufkommen der Deepfake-Technologie verschwimmt die Grenze zwischen Realität und Illusion, wie in dem Film „Die Matrix“. Mit der verfügbaren Computerausrüstung und den Software-Tools kann jeder jedes Bild, jeden Ton und sogar jedes Video so verändern, dass es völlig realistisch aussieht, selbst wenn es eine Täuschung ist. Gefälschte Nachrichten, manipulierte politische Reden oder diffamierende Videos, die den Ruf anderer schädigen, machen es schwer, Wahrheit von Täuschung zu unterscheiden. Diese Technologien, die einst als atemberaubende Filmeffekte dienten, werden zu einem gefährlichen Werkzeug in den Händen von Betrügern. Die Macher von gefälschten Videos schaffen mit Leichtigkeit realistische Situationen, die die öffentliche Meinung beeinflussen, Fehlinformationen in den Netzwerken verbreiten und den fairen politischen Wettbewerb stören. Umgekehrt machen sich die Konsumenten dieser manipulierten Medien anfällig für Täuschung, Manipulation und Lügen, die schwerwiegende Folgen für ihr Leben haben können. Das Vertrauen in die digitalen Medien ist zunehmend fragil. Wir werden Zeuge einer Fülle von neuen Falschinformationen, die sich mit erstaunlicher Geschwindigkeit im virtuellen Raum verbreiten. Sie sehen nur allzu echt aus. Können diese digitalen Betrügereien erkannt werden und können wir uns vor Deepfake-Bedrohungen schützen? Lies weiter.

Deepfake-Technologie – Demonstration 1

Deepfake Bedeutung

Deepfake ist eine fortgeschrittene Form der digitalen Manipulation, bei der künstliche Intelligenz (KI) und maschinelles Lernen (MLeingesetzt werden, um audiovisuelle Inhalte zu erstellen oder zu bearbeiten. Die Qualität gefälschter Inhalte hängt davon ab, wie originalgetreu und realistisch sie auf uns wirken und wie schwer sie von echten Inhalten zu unterscheiden sind. Datenwissenschaftler (AWS Data Scientist), spielen in diesem Prozess eine wichtige Rolle, indem sie riesige Mengen an Bild- und Audiodaten analysieren, KI-Modelle trainieren und Algorithmen optimieren, um die Ausgaben von Deepfakes so überzeugend wie möglich aussehen zu lassen. Der Begriff „Deepfake“ setzt sich aus den Wörtern „deep“ a „fake“ zusammen.. „Deep“ kommt von der KI-Technologie Deep Learning (eine Untergruppe des maschinellen Lernens, die neuronale Netze zur schichtweisen Verarbeitung von Informationen verwendet) und „fake“ zusammen. bezieht sich auf gefälschte Inhalte.

Der Beginn des Deepfakes

Die Technologie der synthetischen Medien hat ihre Wurzeln im Bereich der Computerbildverarbeitung und der künstlichen Intelligenz, die sich in den 1990er Jahren zu entwickeln begann. In dieser Zeit entstanden Technologien wie computergenerierte Bilder ( CGI), die realistische Animationen und Simulationen von menschlichen Gesichtern ermöglichten. Obwohl diese Technologien zunächst hauptsächlich für die Filmindustrie gedacht waren, legten sie den Grundstein für fortschrittlichere Systeme zur Bild- und Videomanipulation. Früher dienten sie dazu, atemberaubende Filmeffekte zu erzielen, doch heute sind sie zu einem gefährlichen Werkzeug in den Händen von Betrügern geworden. Die Macher gefälschter Videos können leicht realistische Situationen schaffen, die die öffentliche Meinung beeinflussen, Fehlinformationen in sozialen Netzwerken verbreiten oder sogar den fairen politischen Wettbewerb stören können. Umgekehrt sind die Konsumenten dieser manipulierten Medien anfällig für Täuschungen, Manipulationen und Lügen, die schwerwiegende Folgen für ihr Leben haben können. Die eigentlichen Grundlagen der Deepfake-Technologie wurden jedoch erst mit der Entwicklung neuronaler Netze gelegt. Im Jahr 2014 stellte Ian Goodfellow, ein Wissenschaftler für maschinelles Lernen, das revolutionäre Konzept der generativen adversarischen Netzwerke ( GANs). Diese Netzwerke funktionieren nach dem Prinzip von zwei Algorithmen, die miteinander konkurrieren.

Generator-Algorithmus

Die Hauptaufgabe des Generators besteht darin, die ersten gefälschten digitalen Inhalte wie Audio, Foto oder Video zu erstellen. Ziel des Generators ist es, das Aussehen, die Stimme oder das Verhalten der Zielperson so genau wie möglich zu imitieren.

Diskriminator-Algorithmus

Der Diskriminator analysiert dann die vom Generator erzeugten Inhalte, um festzustellen, inwieweit sie authentisch oder gefälscht erscheinen. Die Rückkopplung zwischen Generator und Diskriminator durch Wiederholung schafft einen kontinuierlichen Prozess der schrittweisen Verbesserung. Diese Technologie ist zur Grundlage für die Erzeugung realistischer Deepfake-Videos und -Bilder geworden.

Deepfake-Technologie – Demonstration 2

Herkunft des Begriffs Deepfake

Der Name selbst tauchte erstmals Ende 2017 auf der Plattform Reddit auf. Ein Nutzer, der den Spitznamen „Deepfake“ wählte, begann damit, bearbeitete Videos von Prominenten mit pornografischem Inhalt zu teilen, wobei er maschinelle Lernalgorithmen verwendete, um die Gesichter von Prominenten und Pornodarstellern zu vertauschen. Obwohl es sich um Amateurexperimente handelte, lösten diese gefälschten Videos sofort ein breites öffentliches Interesse aus, aber auch Bedenken darüber, wie die Technologie von harmloser Unterhaltung zu unethischen oder illegalen Zwecken ausgenutzt werden könnte.
Wusstest du, dass…

Deepfake-Videos verwendet wurden, um Michael Jackson „wieder zum Leben zu erwecken“? Mit Hilfe von Deepfake-Technologien wurden Videos erstellt, in denen Michael Jackson wieder „singt“ oder spricht, obwohl es sich um eine digitale Simulation handelt. Diese Technologien sind in der Lage, seine Stimme und Mimik so genau zu imitieren, dass es schwierig ist, den Unterschied zu erkennen.

Schnelle Entwicklung der Deepfake-Technologie

Seit 2018 hat sich die Deepfake-Technologie dramatisch verbessert, was vor allem auf die Verfügbarkeit von leistungsstarken Computern wie GPUs, Ryzen Threadripper und die Entwicklung der Cloud zurückzuführen ist. Regelmäßig werden Fälle bekannt, in denen Deepfake-Videos zur Verbreitung von Fehlinformationen, zur Beeinflussung der öffentlichen Meinung oder zur Erstellung erotischer Inhalte ohne die Zustimmung der beteiligten Personen verwendet wurden.

Deepfake – exponentielle Zunahme von gefälschten Inhalten

In den letzten Jahren haben wir ein exponentielles Wachstum bei der Qualität und Verfügbarkeit von Deepfake-Technologie erlebt. Allein im letzten Jahr ist die Zahl der gefälschten Inhalte im Vergleich zum Vorjahr um 1.700 % gestiegen. Die Qualität des Materials hat sich so weit verbessert, dass über 75 % der Menschen Schwierigkeiten haben, echte von gefälschten Inhalten zu unterscheiden. Während anfangs über 95 % des gefälschten Materials Inhalte für Erwachsene waren, beziehen sich heute bis zu 80 % aller Fälschungen auf Kryptowährungen. Elon Musk wird am häufigsten von Betrügern ausgewählt, um für dubiose Investitionen zu werben. Menschen haben auf diese Weise bereits Milliarden von Dollar verloren. Die meisten gefälschten Anzeigen, die Nutzer dazu verleiten, in fiktive Anlagen zu investieren, finden sich auf Facebook, aber auch X (ehemals Twitter), YouTube oder Instagram werden für diesen Zweck genutzt.

Deepfake-Technologie – Demonstration 3

Der Prozess der Erstellung eines Deepfakes

Der Prozess beginnt mit dem Sammeln einer großen Datenmenge, vor allem Fotos und Videos der Person, die emuliert werden soll. Je umfangreicher das Material, desto realistischer wird das Endergebnis. Die Daten werden in ein KI-System eingespeist, das mithilfe von maschinellen Lernverfahren charakteristische Merkmale analysiert – Gesichtsausdrücke, Bewegungen von Augen, Mund, Augenbrauen und anderen Gesichtspartien. Anschließend kommt ein zweiter Datensatz zum Einsatz: Bild- und Tonmaterial der Person, die imitiert werden soll. In den meisten Fällen werden eigene Aufnahmen (z.B. Gesicht und Stimme) auf die Zielperson übertragen. Künstliche Intelligenz nutzt komplexe Algorithmen, um beide Datensätze zu verschmelzen und eine realistisch wirkende Darstellung zu generieren. Natürlich ist dieser Prozess nicht einfach und erfordert ständige Anpassungen. Um ein überzeugendes Deepfake zu erstellen, müssen wir an der Synchronisierung der Lippen, der Mimik und der allgemeinen Beleuchtung arbeiten. Wir müssen auch mit dem Ton spielen, besonders wenn wir ein Video erstellen, in dem die Person sprechen soll. Aktuelle Deepfake-Tools können bereits aus einem einzigen Foto eine täuschend echte Imitation erstellen oder eine Stimme nach wenigen Minuten Audioaufnahme nachahmen. Laut einem Deloitte-Bericht ist Deepfake-Software im Dark Web bereits für 20 US-Dollar erhältlich, während professionelle Lösungen mehrere tausend Dollar kosten. Die Qualität hängt dabei direkt von Aufwand und Bearbeitungszeit ab.
Wusstest du, dass…

… durch Klonen einer Stimme die Sprache einer bestimmten Person exakt nachgeahmt werden kann? Mithilfe künstlicher Intelligenz und Deep Learning ist es möglich, einen digitalen Stimmklon zu erstellen, der neue Sätze sprechen kann, auch wenn die betreffende Person diese nie gesagt hat. Diese Technologie wird beim Synchronisieren, in assistiven Technologien, aber auch für betrügerische Telefonanrufe eingesetzt.

Deepfake vs Original – von KI erstellte Gesichter

Mit den Fortschritten in der künstlichen Intelligenz entstehen Technologien, die synthetische Gesichter erzeugen können, die so realistisch sind, dass es für Menschen fast unmöglich ist, sie von echten Gesichtern zu unterscheiden. Eine 2022-Studie von Sophia J. Nachtigall und Hany Farid veröffentlicht im Journal Proceedings of the National Academy of Sciences (PNAS), untersuchte dieses Phänomen. In der Studie stellten die Autoren fest, dass Gesichter, die mit fortgeschrittenen Algorithmen, insbesondere StyleGAN2sind für normale Beobachter fast nicht von echten Gesichtern zu unterscheiden. In Experimenten, in denen die Teilnehmer beurteilen sollten, ob ein Gesicht echt oder synthetisch war, erreichten sie nur eine Genauigkeit von etwa 48,2 % bis 59 %, was auf dem Niveau einer Zufallsschätzung liegt. Selbst ein Training und spezielle Anweisungen zur Identifizierung synthetischer Gesichter führten nicht zu einer wesentlichen Verbesserung der Genauigkeit. Synthetische Gesichter sind inzwischen so genau, dass man sie mit bloßem Auge nicht mehr erkennen kann. Klicken Sie auf das Bild mit den Gesichtern.

Glaubwürdigkeit von synthetischen Gesichtern

Die Studie ergab, dass synthetische Gesichter nicht nur schwer von echten Gesichtern zu unterscheiden sind, sondern im Durchschnitt sogar als vertrauenswürdiger eingestuft werden. Die Teilnehmer des Experiments bewerteten die Vertrauenswürdigkeit der Gesichter auf einer Skala von 1 bis 7 (wobei 1 für das am wenigsten vertrauenswürdige und 7 für das am vertrauenswürdigste Gesicht steht). Dabei erreichten die synthetischen Gesichter durchschnittlich 4,82 Punkte, während echte Gesichter nur auf 4,48 Punkte kamen. Dieser Unterschied war zwar gering, aber statistisch signifikant. Als mögliche Erklärung für dieses Phänomen gilt, dass synthetische Gesichter oft ein subtiles Lächeln zeigen, was sich positiv auf ihre Bewertung auswirkt. Klicken Sie auf das Bild mit den Gesichtern. Diese Erkenntnisse haben gravierende Auswirkungen auf die digitale Welt. Die Verfügbarkeit dieser Technologie eröffnet Möglichkeiten für Missbrauch – von der Schaffung falscher Identitäten und Betrug bis hin zur anonymen Verbreitung falscher Informationen. In einer Situation, in der jedes Foto oder Video gefälscht werden kann, kann die Authentizität digitaler Inhalte von vornherein in Frage gestellt werden. Auch wenn die Autoren der Studie vorschlagen, Wasserzeichen in die generierten Bilder einzufügen, ist dies keine Lösung, da KI-Algorithmen diese leicht entfernen können. Eine bessere Lösung wäre die kryptografische Verifizierung, bei der ein privater Verschlüsselungsschlüssel oder eine digitale Signatur an den Inhalt angehängt und der entsprechende öffentliche Schlüssel zur Entschlüsselung der Signatur bereitgestellt wird.

Deepfake Trends 2024

Blicken wir zurück auf das Jahr 2024. Die Studie Deepfake Trends 2024 zeigt, dass Deepfake-basierte Falschinformationen in diesem Jahr besonders erfolgreich waren – vor allem dank frei verfügbarer generativer KI-Tools. Diese manipulierten Inhalte haben sich branchenübergreifend verbreitet, betreffen Unternehmen aller Größenordnungen und machen effektive Identitätsüberprüfungen zu einer dringenden Herausforderung.

Wichtige Erkenntnisse

  • Die Häufigkeit von Deepfake-Betrug nimmt zu. Bis zur Hälfte der Unternehmen weltweit haben bereits einen Betrugsversuch mit Audio- oder Video-Deefakes erlebt.
  • Die durchschnittlichen finanziellen Verluste belaufen sich auf bis zu 450.000 Dollar, wobei große Unternehmen oft Verluste von über 1 Million Dollar melden.
  • Was die Risikowahrnehmung betrifft, so sehen bis zu 66% der Führungskräfte Deepfake als ernsthafte Bedrohung an, wobei Identitätsdiebstahl (42%) und Phishing-Angriffe am häufigsten genannt werden.

Gesamtüberblick und Trends nach Sektoren

Die größten Auswirkungen haben Deepfakes in Ländern wie den Vereinigten Arabischen Emiraten und Singapur, wo mehr als 50% der Unternehmen im letzten Jahr einen Deepfake erlebt haben. Zu den am stärksten betroffenen Sektoren gehören IT, Kryptowährungen und Finanzdienstleistungen, aber auch Unternehmen aus dem Gesundheitswesen und der Luftfahrt berichten von erheblichen Risiken.

Schutzmaßnahmen für Unternehmen

Biometrische Verifikation und Multi-Faktor-Authentifizierung (MFA): Mehr als 84% der Unternehmen setzen moderne Technologien zur Fälschungserkennung ein, wobei biometrische Verfahren wie Fingerabdruck und Aktivitätserkennung die größte Rolle spielen. Fortgeschrittene KI-Algorithmen: Fast die Hälfte der Unternehmen setzt maschinelles Lernen ein, um die Genauigkeit der Deepfake-Erkennung zu verbessern. Die Menschen verlieren bereits Milliarden von Dollar pro Jahr, indem sie Betrügern Geld geben. Das Center for Financial Services des Beratungsunternehmens Deloitte prognostiziert, dass generative künstliche Intelligenz bis 2027 in den USA Betrugsverluste in Höhe von 40 Milliarden Dollar verursachen könnte, gegenüber 12,3 Milliarden Dollar im Jahr 2023, was einem Anstieg von 32% pro Jahr entspricht. In der kommenden Zeit wird es interessant sein zu sehen, wie es den Unternehmen gelingt, sich auf immer raffinierteren Betrug einzustellen.

Deepfake-Technologie – Demonstration 4

Die gute Seite der Deepfake-Technologie

Obwohl Deepfake-Technologien oft mit Betrug und Bedrohungen in Verbindung gebracht werden, geht ihr Potenzial weit über Kriminalität hinaus. Wir werfen einen Blick darauf, wie die Anwendung von Deepfake verschiedene Branchen bereichern und die Qualität unseres täglichen Lebens verbessern kann.

Innovative Unterhaltung und Kunst

Deepfakes sind dabei, die Film- und Fernsehindustrie zu verändern. Sie ermöglichen es, realistische Spezialeffekte zu erzeugen, historische Charaktere zum Leben zu erwecken oder sogar Schauspieler für Szenen zu replizieren, die sonst unmöglich zu filmen wären. Darüber hinaus bieten sie Künstlern neue Möglichkeiten, ihre eigene Kreativität zum Ausdruck zu bringen, indem sie zum Beispiel Standbilder in lebendige Porträts verwandeln.

Personalisierung und Kommunikation

Im Marketing und in der Werbung kann die Deepfake-Technologie die Erstellung von personalisierten Kampagnen ermöglichen, die die Zielgruppen besser erreichen. Zum Beispiel kann die Erstellung von Videos, in denen bekannte Gesichter einzelne Kunden mit Namen ansprechen, das Engagement erhöhen und stärkere Markenbeziehungen aufbauen.

Pädagogische Tools

Deepfake-Technologien finden auch im Bildungsbereich Anwendung. Schulen und Universitäten können realistische Simulationen verwenden, um Geschichte zu lehren, indem historische Figuren „zum Leben erweckt“ werden und ihre Geschichten erzählen, oder um Fachleute wie Ärzte oder Piloten auszubilden, indem reale Situationen simuliert werden.

Schutz des kulturellen Erbes

Deepfakes können verwendet werden, um beschädigte oder verlorene kulturelle Artefakte zu rekonstruieren. Sie helfen dabei, Statuen, Gemälde oder andere historische Denkmäler digital zu restaurieren und sie einem breiteren Publikum zugänglich zu machen. Sie können auch als Hilfsmittel zur Bewahrung von Erinnerungen dienen, indem sie zum Beispiel realistische Modelle von Menschen für Familienarchive erstellen.

Forschung und Entwicklung im Bereich der künstlichen Intelligenz

Deepfake-Technologien tragen auch zur Verbesserung der künstlichen Intelligenz in den Bereichen der Betrugserkennung und des Datenschutzes bei. Die Forschung zur Deepfake-Betrugserkennung bringt neue Methoden zur Verbesserung der Sicherheit in der digitalen Welt.

Wie man einen Deepfake erkennt

Noch vor ein paar Jahren hätte man genau erklären können, wie man Deepfake-Material entlarvt. Heutzutage ist es fast unmöglich, wenn sich jemand die Mühe macht, alle möglichen Details herauszusuchen. Selbst KI-Systeme, die darauf abzielen, Deepfake-Muster in Inhalten zu finden, haben damit ein Problem. Dies gilt für Deepfake-Material, bei dem die Person keine schnellen Bewegungen macht. Zum Beispiel ist es für die Deepfake-Technologie immer noch ein Problem, einen realistischen Turner in einer Übung zu erzeugen. Nicht umsonst wird Turnen als der moderne Turing-Test für Deepfake bezeichnet.

Deepfake-Technologie – Demonstration 5

Wie können Sie sich vor Fehlinformationen schützen?

Cyberkriminelle und Betrüger wissen, dass viele Menschen, vor allem ältere, nicht zwischen einem Deepfake und einem echten unterscheiden können. Sie prüfen nicht, ob der angezeigte Inhalt authentisch ist. Der einzige Schutz, den dir die Natur mitgegeben hat, ist kritisches Denken. Bevor du etwas glaubst, was du siehst, hörst oder liest, musst du innehalten und dir ein paar Fragen stellen. Du hast sie wahrscheinlich schon einmal gehört. Wer? Wer stellt diese Informationen zur Verfügung und aus welcher Quelle stammen sie? Was? Was wird gesagt oder gezeigt? Sind die Informationen schockierend? Klingt es zu schön, um wahr zu sein? Wo? Woher stammen diese Informationen? Ist es möglich herauszufinden, wo sie zuerst veröffentlicht wurde? Wann? Wann wurde diese Information aufgezeichnet? Kannst du sie überprüfen? Warum? Warum werden diese Informationen präsentiert? Könnte ein Hintergedanke dahinterstecken? Wie? Wie weiß ich, dass es echt ist?

Quiz

Du kannst in diesem Quiz sehen, dass es immer schwieriger wird, Deepfake-Inhalte von echten Inhalten zu unterscheiden (Quiz auf Englisch).

Deepfake – Risiko oder Chance?

Die Deepfake-Technologie ist eine faszinierende Demonstration dafür, wie weit menschliche Kreativität und Technologie Hand in Hand gehen können. Sie ermöglicht es uns nicht nur, realistische Bilder und Geschichten zu erstellen, sondern auch das Wesen dessen zu hinterfragen, was wir für die Realität halten. Sie zwingt uns, unser Vertrauen neu zu bewerten – in das, was wir sehen, hören und lesen. Doch in dieser Illusion liegt auch eine Chance. Sie lehrt uns, genauer hinzusehen, kritische Fragen zu stellen und nicht dem ersten Eindruck nachzugeben. Mit kritischem Denken, Faktenüberprüfung und einer vorsichtigen Herangehensweise können wir diese Technologie nicht nur beherrschen, sondern sie auch zum Nutzen der Gesellschaft einsetzen. Deepfake ist ein außergewöhnliches Phänomen, wie das Feuer, das gefährlich sein kann, aber auch äußerst nützlich, wenn wir es richtig zu kontrollieren wissen. Es öffnet die Tür zu neuen Formen von Kreativität, Lernen und Innovation. Die Herausforderung besteht nicht nur darin, uns gegen seine Risiken zu schützen, sondern auch Wege zu finden, es so in unser Leben zu integrieren, dass es uns dient und nicht schadet. Die Zukunft gehört denen, die die Technologie zähmen und sie in ein Werkzeug für das Gute verwandeln können. Kritisches Denken ist unsere größte Waffe. Mit ihm können wir die Illusion überwinden und eine digitale Welt schaffen, in der die Wahrheit stärker ist als die Lüge. Deepfake ist sowohl eine Herausforderung als auch eine Chance – es liegt an uns, mit der Illusion umzugehen.

FAQ Fragen und Antworten

Was ist Deepfake?

Deepfake ist eine Technologie, die künstliche Intelligenz verwendet, um realistische gefälschte Videos oder Audioaufnahmen zu erstellen. Diese Aufnahmen können Menschen zeigen, die Dinge sagen oder tun, die sie in Wirklichkeit nie getan haben.

Wie funktioniert deepfake?

Deepfake verwendet Algorithmen des maschinellen Lernens, insbesondere Techniken wie generative adversarial networks (GANs). Diese Netzwerke lernen aus großen Datenmengen, Gesichter und Stimmen mit hoher Genauigkeit zu reproduzieren.

Welche Einsatzmöglichkeiten bietet die Deepfake-Technologie?

Deepfake kann eine Vielzahl von Anwendungen haben, von der Unterhaltung (z.B. in Filmen und Videospielen) bis hin zu Bildung und Werbung. Es kann aber auch missbraucht werden, um Fehlinformationen zu verbreiten oder Fake News zu erstellen.

Ist es möglich, einen Deepfake zu erkennen?

Die Erkennung von Deepfake-Technologie ist eine Herausforderung, aber es gibt Tools und Techniken, die entwickelt wurden, um gefälschte Videos zu identifizieren. Diese Tools suchen nach Unregelmäßigkeiten bei Bewegung, Beleuchtung und Ton.

Was sind die rechtlichen und ethischen Probleme im Zusammenhang mit Deepfake?

Deepfake wirft viele ethische und rechtliche Fragen auf, darunter Datenschutz, Urheberrecht und die Möglichkeit des Missbrauchs zur Verbreitung von Falschinformationen. Viele Länder haben bereits begonnen, Gesetze zu erlassen, um diese Technologie zu regulieren.

Kann Deepfake die Sicherheit gefährden?

Ja, Deepfake kann für Betrug, Erpressung oder politische Manipulation verwendet werden. Es gibt Fälle, in denen Deepfake-Videos verwendet wurden, um Amtsträger zu diskreditieren oder gefälschte Nachrichten zu verbreiten.

Wie kann ich mich vor einem Deepfake schützen?

Es ist wichtig, beim Konsum von Online-Inhalten wachsam zu sein. Prüfe Informationsquellen, folge offiziellen Kanälen und sei skeptisch bei Videos, die verdächtig aussehen oder ohne Kontext verbreitet werden.

Das Jahr-2000-Problem und 9 wichtige IT-Ereignisse zur Jahrtausendwende

Das Jahr 2000 war ein Wendepunkt für die IT-Branche und brachte eine Reihe von Ereignissen, die den Grundstein für unsere heutige digitale Welt legten. In diesem Artikel wirfst du einen Blick auf zehn entscheidende Momente, die nicht nur die Technologiebranche prägten, sondern auch beeinflussten, wie wir Technologie im Alltag nutzen. Diese Meilensteine sind heute oft nostalgische Erinnerungen – aber sie zeigen auch, wie weit wir in nur 25 Jahren gekommen sind.

1. Das Problem des Jahres 2000 – das Y2K-Bug, das die IT-Welt auf die Probe stellte

Die frühen 2000er waren von Nervosität in der IT-Branche geprägt. Ältere Systeme, die Jahreszahlen nur zweistellig speicherten (z.B. „99“ statt „1999“), konnten das Jahr 2000 als „1900“ interpretieren. Dies hätte zu Fehlern in Banken, Krankenhäusern oder Flugsystemen führen können. Dieses Problem ist auch als das Y2K-Bug bekannt. Unternehmen und Regierungen haben erhebliche Summen investiert, um Software zu modifizieren und zu testen und um sicherzustellen, dass sie keine Ausfälle haben. Zwar ist es zu keiner größeren Katastrophe gekommen, aber das Jahr 2000 hat uns daran erinnert, wie wichtig IT-Sicherheit, Tests und die ständige Aktualisierung von Systemen sind.
Wusstest du, dass…

Wusstest du das? Die weltweiten Ausgaben für Systemanpassungen im Zusammenhang mit der Lösung des Y2K-Problems werden auf bis zu 300 Milliarden Dollar geschätzt.

2. Dot-Com-Blase – der Boom, der den digitalen Markt veränderte

Das Jahr 2000 war auch der Höhepunkt der Dot-Com-Blase, als Internet-Unternehmen riesige Investitionen erhielten, in der Annahme, dass das Online-Geschäft revolutionär sein würde. Die Aktien von Internetunternehmen stiegen in schwindelerregendem Tempo, aber die Blase platzte bald und viele neu gegründete Online-Unternehmen gerieten in finanzielle Schwierigkeiten oder verschwanden ganz. Trotz des Zusammenbruchs der Dot-Com-Blase hat sie den Markt verändert. Neue Geschäftsmodelle wurden geboren und Technologiegiganten wie Google, Amazon und eBay prägten die zukünftige Entwicklung der digitalen Wirtschaft. Dieser Zusammenbruch hat viele Anleger gelehrt, bei ihren Investitionen vorsichtiger zu sein.
Wusstest du, dass…

Wusstest du das? Während der Dotcom-Blase verlor Amazon bis zu 90 % seines Wertes. Doch Jeff Bezos entschied sich, im Unternehmen zu bleiben, und legte damit den Grundstein für den zukünftigen Giganten.

3. Der USB-Standard – das Ende der Disketten-Ära und ein Durchbruch bei der Datenübertragung

USB 1.1 wurde im Jahr 2000 zum neuen Standard für den Anschluss von Geräten und die Datenübertragung. Dank USB konnten Daten schnell und einfach zwischen Geräten übertragen werden. USB-Sticks mit einer Kapazität von ca. 8 MB ersetzten nach und nach die Disketten, auf denen nur wenige Dokumente gespeichert werden konnten. Heute können wir uns eine Arbeits- oder Heimumgebung ohne USB-Anschlüsse nicht mehr vorstellen. Dieser Standard hat den Übergang zu moderneren Speichergeräten und Geräten eingeleitet, die einen USB-Anschluss für die Kommunikation mit dem Computer verwenden, wie z.B. moderne Mäuse oder Tastaturen.
Wusstest du, dass…

Wusstest du das? Die ersten USB-Sticks hatten eine Kapazität von lediglich 8 MB. Das ist heute nicht einmal mehr die Größe eines durchschnittlichen Smartphone-Bildes. Heute haben USB-Sticks in der Regel eine Kapazität von 1 TB – das ist mehr als das 100.000-fache.

4. Das erste Mobiltelefon mit Kamera – der Beginn der mobilen Fotografie

Das Jahr 2000 brachte auch das erste Mobiltelefon mit einer Kamera – das Sharp J-SH04, das auf dem japanischen Markt erhältlich war. Die Kameraauflösung betrug nur 0,1 Megapixel, aber sie ermöglichte es den Nutzern, Momente festzuhalten, die sie mitnehmen konnten. Die mobile Fotografie hat sich zu einer Revolution entwickelt. Heutzutage sind mobile Kameras ein wesentliches Merkmal jedes Smartphones und ermöglichen es uns nicht nur, Erinnerungen zu speichern, sondern auch Inhalte zu erstellen, die sofort in sozialen Netzwerken geteilt werden können. Dies war der Beginn des digitalen Zeitalters, in dem wir die Momente des Lebens festhalten. Seit dem Jahr 2000 hat sich die mobile Fotografie so weit entwickelt, dass viele professionelle Fotografen Smartphones anstelle von herkömmlichen Kameras verwenden.
Wusstest du, dass…

Wusstest du das? Das Xiaomi 12T Pro wurde im Oktober 2022 mit seinem 200-Megapixel-Sensor zum Smartphone mit der besten Kamera gekürt.

5. Einwahlverbindungen – der Beginn des Internetzugangs für die breite Öffentlichkeit

Im Jahr 2000 war das Internet für die meisten Benutzer über Einwahlverbindungen mit Geschwindigkeiten von nur 56 kbps verfügbar. Obwohl die Einwahlverbindungen langsam waren und oft unterbrochen wurden, brachten sie das Internet in die Haushalte. Die Einwahl war der Grundstein für den Massenzugang zum Internet und ermöglichte vielen Nutzern einen frühen Einstieg in die digitale Welt.
Wusstest du, dass…

Wusstest du das? Das Geräusch eines Modems bei einer Einwahlverbindung ist zu einem ikonischen Symbol der ersten Ära des Internets geworden, das bei vielen Menschen nostalgische Gefühle auslöst. Dabei handelte es sich um einen Verhandlungsprozess, bei dem sich das Modem und der Internetdienstanbieter (ISP) auf die optimale Geschwindigkeit für die Verbindung einigten.

6. Die Einführung von Windows 2000 – Stabilität und Sicherheit für Unternehmen

Im Jahr 2000 führte Microsoft Windows 2000 ein, ein Betriebssystem, das Zuverlässigkeit, Stabilität und verbesserte Sicherheit in Unternehmensumgebungen brachte. Dieses System war für viele Unternehmen von entscheidender Bedeutung, da es die Stabilität gegenüber früheren Versionen verbesserte. Windows 2000 wurde zu einem beliebten Betriebssystem, insbesondere in Unternehmensumgebungen, wo es die Grundlage für viele Workstations und Server bildete. Es wurde zum neuen Standard und setzte auch neue Maßstäbe für die Sicherheit.
Wusstest du, dass…

Wusstest du das? Windows 2000 war das erste Microsoft-Betriebssystem, bei dem der „Blaue Bildschirm des Todes” (BSOD) kein häufiges Problem mehr darstellte – wenn auch nicht vollständig beseitigt wurde. Das System enthielt zahlreiche Verbesserungen, die es deutlich stabiler machten.

7. Einführung der PlayStation 2 – eine neue Dimension für die Spieleindustrie

Die PlayStation 2 war im Jahr 2000 ein großes Ereignis in der Spieleindustrie und wurde schnell zur meistverkauften Spielekonsole aller Zeiten. Mit revolutionären 3D-Grafiken und Spielfunktionen brachte sie neue Erfahrungen und Unterhaltung in die Wohnzimmer.
Wusstest du, dass…

Wusstest du das? Die PS2 war so beliebt, dass sie sich noch bis 2013, also 13 Jahre nach ihrer Veröffentlichung, verkaufte. Mit über 155 Millionen verkauften Einheiten hält sie außerdem den Rekord für die meistverkaufte Spielekonsole der Geschichte.

8. Zunahme der E-Mails – E-Mail als Hauptkommunikationskanal

Das Jahr 2000 brachte einen Anstieg der Nutzung von E-Mail. Plattformen wie Hotmail und Yahoo! Mail verzeichneten Millionen neuer Nutzer und E-Mail wurde zu einem der wichtigsten Kommunikationsmittel. Neben der geschäftlichen Kommunikation ist die E-Mail auch im privaten Bereich zu einem beliebten Instrument geworden. E-Mails haben nicht nur die weltweite Kommunikation erleichtert, sondern auch die Arbeitsweise von Unternehmen verändert, die auf schnelle und effiziente Informationen angewiesen waren. Diese Entwicklung war der Beginn der Online-Kommunikation, wie wir sie heute in ihren vielen Formen kennen.
Wusstest du, dass…

Wusstest du das? Hotmail, einer der ersten populären E-Mail-Dienste, wurde im Jahr 1996 gegründet. Als Microsoft das Unternehmen 1997 übernahm, hatte Hotmail bereits 8,5 Millionen Nutzer und wurde für 400 Millionen Dollar verkauft.

9. Die Entstehung des Wi-Fi-Standards – das Aufkommen der drahtlosen Konnektivität

Die Wi-Fi-Technologie, die kabellose Verbindungen mit Geschwindigkeiten von bis zu 11 Mbit/s ermöglicht, wurde im Jahr 2000 kommerziell verfügbar. Wi-Fi ermöglichte den kabellosen Zugang zum Internet und eröffnete neue Möglichkeiten für private und öffentliche Verbindungen. Dank Wi-Fi konnten wir uns von Kabeln befreien, was die Flexibilität und Zugänglichkeit des Internets erheblich verbesserte. Heute ist Wi-Fi in Büros, Wohnungen und öffentlichen Räumen weit verbreitet.
Wusstest du, dass…

Wusstest du das? Der Begriff „Wi-Fi” hat keine technische Bedeutung – es handelt sich um einen Marketingnamen, den die Wi-Fi Alliance prägte, um Menschen die drahtlose Konnektivität auf eine leicht zu merkende Art und Weise näherzubringen.

10. Google und sein Werbemodell – der Beginn des digitalen Marketings

Im Jahr 2000 führte Google ein Modell für Werbung in den Suchergebnissen ein, das als AdWords bekannt wurde. Dieses Modell ermöglichte es Unternehmen, Anzeigen gezielt an bestimmte Nutzer auf der Grundlage ihres Suchverlaufs zu richten und leitete die Ära des modernen digitalen Marketings ein. AdWords hat die Online-Werbung verändert und ermöglicht es Unternehmen, ihre Zielgruppe effektiv zu erreichen. Diese Methode wurde zur Grundlage der Online-Werbung, die auch heute noch einen großen Teil der Einnahmen vieler digitaler Plattformen ausmacht.
Wusstest du, dass…

Wusstest du das? Anfangs betrug der Preis für Google AdWords nur ein paar Cent pro Klick. Heute können hart umkämpfte Schlüsselwörter mehrere Hundert Dollar pro Klick kosten.

Schlussfolgerung

Das Jahr 2000 war definitiv ein interessanter Meilenstein für die IT-Welt und legte die Grundlagen, die viele von uns heute als selbstverständlich ansehen. Eine Reihe von Technologien, die in dieser Zeit entstanden sind, beeinflussen weiterhin die Art und Weise, wie wir leben und arbeiten. Dieser Artikel soll uns daran erinnern, wie weit die IT-Welt in den letzten 25 Jahren gekommen ist und wie wir uns technologisch ständig weiterentwickeln.

Buchbesprechung von Head First Java (3. Auflage)

Das Buch „Head First Java“ richtet sich an alle, die Java-Programmierung lernen oder ihre Grundkenntnisse vertiefen möchten. Die dritte Auflage eines Buches deutet meist darauf hin, dass die vorherigen Ausgaben erfolgreich waren – was auch hier der Fall ist. Die im Juni 2022 erschienene dritte Auflage setzt den Erfolg der „Head First Java“-Reihe fort. Während die vorherige Version nur Java 8 abdeckte, wurde dieses Buch für Java 17 aktualisiert, was einen deutlichen Sprung darstellt.

Buchbesprechung von Head First Java (3. Auflage)

„Head First Java“ beeindruckt bereits auf den ersten Blick durch seinen Umfang: Auf fast 700 Seiten findest du nicht nur Text, sondern auch zahlreiche Bilder, humorvolle Anmerkungen, historische Fotos, Kreuzworträtsel, Rätsel und Randnotizen. Seine besondere Stärke liegt in der ansprechenden Präsentation – der lockere, zugängliche Stil macht das Lesen zum Vergnügen.
Recommend
Wir empfehlen Ihnen:

Nicht verpassen: Gewinnspiel für das Buch „Head First Java (3rd Edition)“!

Die Autoren von „Head First Java“ gehen davon aus, dass unser Gehirn visuelle Reize besser verarbeitet als reinen Text. Daher kombinieren sie beides, um dir das Merken wichtiger Konzepte zu erleichtern. Schließlich sagt man nicht umsonst: „Ein Bild ersetzt tausend Worte.“ Das Buch bietet auch viele praktische Übungen, denn unser Gehirn lernt am besten durch aktives Tun. Die Aufgaben sind anspruchsvoll, aber gut lösbar – so, wie die meisten es bevorzugen. Zudem setzt das Buch gezielt auf Wiederholung: Schlüsselthemen werden in unterschiedlichen Formaten und Perspektiven wiederaufgegriffen, um das Verständnis tief zu verankern. Head First Java 3. Auflage Buchbesprechung Das Buch Head First Java baut in den folgenden Kapiteln schrittweise auf den zuvor erläuterten Punkten auf, das heißt die Informationen werden nach und nach verteilt. Allerdings eignet es sich nicht einfach als Nachschlagewerk. Inhaltlich beginnt es mit einer Einführung in die effektive Nutzung und erklärt in den folgenden Kapiteln die Funktionen der objektorientierten Sprache Java, wobei du Objekte und Klassen, primitive Variablen und Referenzen, Objektzustand und -verhalten, Operatoren, Schleifen und sogar die Programmierung eines Spiels mit Booten behandeln wirst. Anschließend erklärt es die Java-API (Bibliotheken) und geht dann zu fortgeschrittenen Konzepten wie Vererbung, Polymorphismus und Beziehungen zwischen Objekten über. Dann folgen Objektverwaltung, mathematische Operationen, Sortierung und Datenmanipulation. Zu den fortgeschrittenen Themen gehören Datenströme, Serialisierung, Übersichten über Swing und JavaFX sowie Parallelverarbeitung. Schließlich erwähnt das Buch ganz offen eine Liste von Java-Funktionen, die es nicht geschafft haben. Der Code im Head First Java-Buch ist gut erklärt und hilft dir beim Üben des erworbenen Java-Wissens. Obwohl die Informationen im Buch korrekt sind, haben die dynamischen Entwicklungen der letzten Jahre viele der Konzepte veraltet und sie werden heute nicht mehr verwendet. Ich werde zum Beispiel Swing erwähnen, das vollständig durch die JavaFX-Technologie ersetzt wurde und es ist ziemlich selten, dass man heute eine mit Swing-Technologie implementierte GUI findet. Natürlich ist es kein Problem, diese Teile zu überspringen und weiterzulesen.
Recommend
Wir empfehlen Ihnen:

Nicht verpassen: Gewinnspiel für das Buch „Head First Java (3rd Edition)“!

Schlussfolgerung

Head First Java 3. Auflage ist ein erstaunliches Buch, vollgepackt mit 700 Seiten Java-Informationen, denen die Autoren viel Aufmerksamkeit gewidmet haben, um vor allem das Präsentationsformat zu schärfen. Besonders gut gefällt mir die Vielfalt der Übungen, darunter auch Kreuzworträtsel. Es kann Anfängern, die sich Java auf unterhaltsame Weise beibringen wollen, sehr empfohlen werden.

Java vs C# – Vergleich von Programmiersprachen (2024)

Wolltest du schon einmal eine Anwendung programmieren, wusstest aber nicht, welche Programmiersprache du wählen sollst? Kein Wunder, es gibt Hunderte von Programmiersprachen, die auf der Welt verwendet werden. Wahrscheinlich hast du dich für eine universelle, vielseitige und leistungsstarke Programmiersprache entschieden, in der fast alles programmiert werden kann. wie z.B. Java oder C#. Egal, ob es sich um eine klassische Desktop-, Web-, Unternehmens-, Mobil- oder KI-Anwendung handelt, mit der Wahl einer dieser Sprachen machst du nichts falsch. Laut dem TIOBE-Index für Juli 2024, einem monatlich aktualisierten, Community-basierten Indikator für die Beliebtheit von Programmiersprachen, liegt Java mit 8,59% auf dem vierten und C# mit 6,72% auf dem fünften Platz. Zu Beginn der Entwicklung ist die Wahl der richtigen Programmiersprache ein sehr wichtiger erster Schritt. Davon hängt ab, welche Technologien und Bibliotheken uns zur Verfügung stehen, auf welchen Plattformen unser Code laufen wird, wie viel Unterstützung wir von der Community erhalten, falls es während der Entwicklung Probleme gibt, usw. Aber was sind die Hauptunterschiede zwischen diesen beiden äußerst beliebten Programmiersprachen und in welchen Situationen sollten wir die eine oder die andere wählen? Nun, das werden wir uns heute in unserem ausführlichen Vergleich von Java und C# ansehen. Unsere früheren Artikel mit einem ähnlichen Thema:

C# und .NET Programmiersprache

Wir müssen unseren treuen Lesern Java sicherlich nicht vorstellen. Die Programmiersprache C# haben wir in unserem msg life Blog noch nicht behandelt. Lassen Sie sie uns also kurz vorstellen. C# (gelesen als „C sharp“) ist eine moderne, objektorientierte Programmiersprache, die von Microsoft entwickelt wurde. Sie wurde erstmals im Jahr 2000 als Teil der .NET-Initiative eingeführt. Seitdem hat sich C# zu einer der beliebtesten Programmiersprachen der Welt entwickelt, was vor allem auf seine Vielseitigkeit, seine Leistung und seine Fähigkeit zurückzuführen ist, eine breite Palette von Bibliotheken und Tools innerhalb des .NET-Ökosystems zu nutzen. Microsoft C# wurde von einem Team unter der Leitung von Anders Hejlsberg entwickelt, der auch als Schöpfer von Turbo Pascal und Delphi bekannt ist. Die Sprache wurde entwickelt, um die Vorteile verschiedener bestehender Sprachen wie C++, Java und Visual Basic zu kombinieren und einige ihrer Nachteile zu überwinden, wie z.B. die Tatsache, dass man sich um zugewiesenen Speicher kümmern muss. Denn wenn ein Programmierer vergisst, nicht mehr benötigten Speicher freizugeben, kann dieser Speicher nicht mehr verwendet werden, bis das Programm beendet ist (dies wird als Speicherleck bezeichnet). Seit seiner Einführung hat C# mehrere größere Iterationen durchlaufen, die jeweils neue Funktionen und Verbesserungen mit sich brachten.

C# vs. .Net

Die .NET-Plattform mit der Programmiersprache C# ist bei Programmierern auf der ganzen Welt beliebt, insbesondere wenn es um die Entwicklung von Anwendungen für das Windows-Betriebssystem geht. Natürlich werden auch andere Plattformen unterstützt, aber es sind die Technologien von Microsoft, bei denen .NET mit C# glänzt. C# ist eng mit der .NET-Plattform verwoben, die eine Vielzahl von integrierten Bibliotheken und Tools für die Entwicklung von Anwendungen bietet. Zu den Hauptattraktionen für die Entwicklung auf der .NET-Plattform gehören fortschrittliche Sprachfunktionen wie Generics, Eigenschaften, Datenquellenbindung, Ereignisse, Language Integrated Query(LINQ) – ein SQL-ähnliches Sprachtool für die effiziente Arbeit mit Daten direkt im Code, asynchrone Programmierung, zusammen mit einer umfangreichen Sammlung von Bibliotheken und mehrsprachiger Unterstützung für Entwickler und vieles mehr. Und natürlich dürfen wir Visual Studio nicht vergessen, eine der besten und fortschrittlichsten Entwicklungsplattformen, die je geschaffen wurden.

C# vs. Java-Syntax

Sowohl Java als auch C# wurden anfangs stark von C++ beeinflusst, weshalb sie eine ähnliche C-Syntax haben – zum Beispiel die typischen geschweiften Klammern für Methoden oder eckige Klammern für Arrays. Daher ist die Syntax für dich relativ ähnlich, und wenn du eine der Sprachen beherrschst, kannst du den Code der anderen ohne große Schwierigkeiten lesen und verstehen. Der Unterschied liegt in der Anzahl der Schlüsselwörter, die es nur in der einen oder anderen Sprache gibt. Die C#-Syntax ist ausgefeilter und bietet mehr Optionen (Eigenschaften, Indexer, Delegierte, Ereignisse), was das Schreiben vereinfacht und die Lesbarkeit des Codes verbessert. C# wurde entwickelt, um die komponentenbasierte Programmierung zu unterstützen, was die Entwicklungszeit und die Markteinführungszeit verkürzt. Java verfolgt einen eher traditionellen Ansatz. In Bezug auf die Syntax ist es bestrebt, einfach, portabel und sicher zu sein, auch wenn das bedeutet, mehr Code zu schreiben. Als rein objektorientierte Sprache achtet sie darauf, Daten zu kapseln und sie mit get- und set-Methoden zu manipulieren. Dies wiederum sorgt für eine gewisse Konsistenz bei der Programmierung und trägt zur Nachhaltigkeit des Codes bei, was besonders bei großen Projekten wichtig ist. Java verfügt außerdem über eingebaute Annotationen, die in C# ausnahmsweise nicht vorhanden sind.

Plattform(en) C# .Net vs Java

C# und .NET wurden in erster Linie mit dem Microsoft-Ökosystem in Verbindung gebracht, und die Entwickler empfanden es im Vergleich zu Java als weniger plattformunabhängig. Microsoft war sich dessen bewusst und hat seit .NET 5 die plattformübergreifende Kompatibilität deutlich erhöht. Java hat sich seit seinen Anfängen als plattformübergreifend profiliert. Die Grundregel „Einmal schreiben, überall laufen lassen“ ist auch heute noch gültig. In der Praxis ist eine Java-Anwendung auf jeder Plattform mit einer Java Virtual Machine (JVM ) ausführbar. Heutzutage kann jedoch mehr oder weniger jede Technologie für die Entwicklung auf jeder Plattform verwendet werden.

Leistung Java vs. C#

Beide Programmiersprachen und ihre Plattformen bieten eine ähnlich unübertroffen hohe Leistung, aber Java ist etwas langsamer. Das hat damit zu tun, wie der Code kompiliert und ausgeführt wird. Java-Code wird in Bytecode kompiliert und dann auf einer bestimmten Plattform durch die Java Virtual Machine (JVM) interpretiert und auf der Java Runtime Environment (JRE ) ausgeführt. Die Sprache hat mehrere Kompilierungsebenen, was die Ausführungszeit etwas verlangsamt. Im Gegensatz dazu wird der C#-Code in die Common Intermediate Language (CIL) und dann direkt in nativen Code kompiliert und auf der Common Language Runtime (CLR ) ausgeführt. Darüber hinaus wird der Code für die Plattform und den Befehlssatz des Prozessors weiter optimiert. Das Ergebnis ist, dass der native Code schneller und effizienter läuft. Die Leistung hängt jedoch auch davon ab, wie gut der Code geschrieben ist, wie die Projektanforderungen aussehen und natürlich von der Wahl der Zielplattform.

Produktivität C# vs. Java

C# wird häufig in der Rapid-Prototyping-Entwicklung eingesetzt, wo wir überprüfen müssen, ob eine Lösung funktioniert. Der Hauptgrund dafür ist, dass mit relativ wenig Code „viel Musik“ gemacht werden kann und eine Menge Code im Hintergrund generiert und automatisiert werden kann, ohne dass der Programmierer ihn schreiben muss. Zum Beispiel. Ich werde erwähnen, dass du eine Listenkomponente erstellst, sie an eine Datenquelle bindest und sie mit Daten aus einer DB-Tabelle füllst. Für die Entwicklung und Produktivität selbst sind natürlich Entwicklungsumgebungen sehr wichtig, für C# wird meist Visual Studio verwendet und für Java Eclipse, Netbeans oder IntelliJ IDEA und natürlich Bibliotheken und Frameworks mit teilweise vorgefertigten Lösungen für bestimmte Funktionen.

Sicherheit C# vs. Java

Beide Sprachen sind reich an fortschrittlichen Sicherheitsfunktionen und Schutz vor Sicherheitslücken. Dies hängt vor allem damit zusammen, dass C# wie Java mit Sicherheitsbedrohungen durch Hacker konfrontiert ist, die versuchen, Sicherheitslücken auszunutzen. Sowohl C# als auch Java sind statisch typisierte Sprachen. Das bedeutet, dass Fehler, die durch die Verwendung eines falschen Datentyps (und Stapelüberläufe) entstehen können, reduziert werden. Diese werden automatisch überprüft, wenn der Code kompiliert wird, um sicherzustellen, dass sie korrekt initialisiert werden, bevor der Code ausgeführt wird. Die größten Bedrohungen für die Sicherheit ergeben sich aus der Verwendung von Bibliotheken von Drittanbietern, meist unbekannter Herkunft, die in der Vergangenheit zu mehreren Sicherheitsvorfällen direkt in der JRE (für Java) geführt haben. Deshalb enthält Java einen so genannten Sicherheitsmanager, der von Bibliotheken von Drittanbietern verlangt, dass sie vereinbarte Sicherheitsstandards erfüllen. Die .NET-Plattform umfasst robuste Sicherheitsmaßnahmen, die Authentifizierung, Autorisierung und Schutz vor verschiedenen Schwachstellen bieten. Darüber hinaus stellt Microsoft regelmäßig Sicherheits-Patches zur Verfügung, die auf potenzielle Bedrohungen reagieren, die sich am Horizont abzeichnen.

Speicherverwaltung Java vs. C#

Für die schnelle und effiziente Ausführung von Anwendungen ist es von entscheidender Bedeutung, dass Hardwareressourcen wie der Arbeitsspeicher effizient genutzt werden. Beide Sprachen versuchen, den Entwicklern die Last abzunehmen und die Speicherverwaltung selbst zu übernehmen. Es werden so genannte Garbage Collectors verwendet. Java macht sich die Idee zunutze, dass die meisten Objekte eine relativ kurze Lebensdauer haben und teilt Objekte beim Sammeln von Speicherabfall in junge und alte Generationen ein. Junge Objekte wurden erst kürzlich erstellt und können relativ schnell irrelevant werden. In dieser Kategorie wird relativ oft versucht, die abgelaufenen Objekte zu identifizieren und vom Müllsammler aufzuräumen. Objekte, die schon länger in Gebrauch sind, fallen in die alte Kategorie und brauchen länger, um identifiziert und freigegeben zu werden, so dass die Müllsammelzyklen hier weniger häufig sind. Der Garbage Collector in C# markiert unbenutzte Teile des Speichers und verkettet Teile des Speichers, um die Fragmentierung und die damit verbundenen Leistungseinbußen zu minimieren.

Bibliotheken und Frameworks C# vs. Java

Java ist bekannt für seine umfangreiche Sammlung von Bibliotheken mit Tools und Funktionen für nahezu jeden Einsatzzweck. Beliebte Frameworks wie Spring und Hibernate werden häufig für die Entwicklung von Unternehmensanwendungen eingesetzt und bieten robuste Tools für die Erstellung skalierbarer und wartbarer Software. JavaServer Faces(JSF) wird für die Webentwicklung und JavaFX für GUI-Anwendungen verwendet. Android ADK ist eine interessante Wahl für Entwickler für mobile Plattformen. Heutzutage werden auch KI-gestützte Entwicklungstools entwickelt. Ebenso verfügt C# über ein reichhaltiges Angebot an Bibliotheken in .NET und .NET Core, darunter ASP.NET für Webanwendungen und Entity Framework für ORM. Für die Spieleentwicklung verwenden C#-Entwickler in der Regel Unity und MonoGame. Das umfangreiche Ökosystem von Bibliotheken und Tools, das von Microsoft und der Open-Source-Gemeinschaft zur Verfügung gestellt wird, steigert das Interesse der Entwickler an der Sprache C# für eine breite Palette von Anwendungen.

C# vs. Java Entwicklergemeinschaft

C# hat den großen Vorteil, dass es direkt von Microsoft unterstützt wird, das umfassende Tools und Dokumentation zur Verfügung stellt. Zusammen mit der beliebten Programmierumgebung Visual Studio und der Öffnung von .NET als Open-Source-Plattform ist die C#-Community aktiv und wächst. Java vs C# (C sharp) Vergleich der Entwicklergemeinschaft Die Java-Gemeinschaft ist eine der größten in der Welt der Programmierung und hat daher den großen Vorteil, dass man für fast jedes gängige Problem, das ein erfahrener Java-Programmierer haben könnte, eine Lösung finden kann. Sie wird nicht nur von Oracle, sondern auch von anderen Organisationen unterstützt.

Arten von Projekten, die für Java geeignet sind

Unternehmen: Open-Source, Sicherheit, Zuverlässigkeit, Nachhaltigkeit, Support – all dies sind äußerst wünschenswerte und geschätzte Eigenschaften von Java, insbesondere wenn es um die Entwicklung robuster und komplexer Unternehmensanwendungen geht. Big Data: Java wird häufig für die Entwicklung von Software verwendet, die in Echtzeit mit komplexen Datensätzen arbeitet. Cloud Computing: Java folgt dem WORA-Konzept (Write Once and Run Anywhere) und ist damit ideal für dezentrale Cloud-Anwendungen. Internet der Dinge: Java wird auch zur Programmierung von Sensoren und Hardware-Geräten verwendet, die sich selbständig mit dem Internet verbinden können. Künstliche Intelligenz: Java ist vollgepackt mit Bibliotheken für maschinelles Lernen und eignet sich aufgrund seiner Stabilität und Geschwindigkeit ideal für die Entwicklung von KI-Anwendungen wie der Verarbeitung natürlicher Sprache und Deep Learning.

Arten von Projekten, die für C# geeignet sind

Windows Apps: Hilft Ihnen bei der Erstellung von Desktop-Anwendungen mit Windows Forms, WPF und UWP. Sowie Windows-Dienste, die Aufgaben langfristig im Hintergrund verarbeiten. Webanwendungen: Unabhängig von der Plattform können wir die Programmiersprache C# AJ verwenden, um dynamische Webseiten, Webanwendungen und Dienste mit ASP.NET (oder ASP.NET Core) zu erstellen. Spieleentwicklung: Die Programmiersprache C# ist bei Entwicklern, die Computerspiele programmieren, äußerst beliebt. Die Unity Engine, die weltweit mehr als 1,5 Millionen aktive Benutzer hat, wurde ebenfalls mit C++ und C# entwickelt. Datenbankanwendungen: Mit der Programmiersprache C# können Sie das ADO.NET- oder Entity-Framework verwenden, um Anwendungen zu erstellen, die mit verschiedenen Datenbanksystemen wie Microsoft SQL Server, Oracle und MySQL verbunden werden können.
Parameter Java C#
Entwicklung Sun Microsystems / Oracle Microsoft
Jahr der Veröffentlichung 1995 2000
Aktuelle Version Java 22 (2024) C# 12.0 (2023), .NET 8
Plattform Virtuelle Java-Maschine .NET-Framework
IDE Eclipse, NetBeans, IntelliJ IDEA Visuelles Studio
Kompilieren von Kompilieren zu Bytecode, dann JIT zu Maschinencode Kompilieren zu CIL, dann IT zu Maschinencode
Bibliothek/Framework Java Standard Edition (SE), Java Enterprise Edition (EE), Spring .NET Standard, .NET Core, .NET 5+
Dokumentation Javadoc XML-Dokumentation Kommentare
Paradigma Objektorientiert Komponentenorientiert
Multiplattform Ja (JVM) Ja (.NET Core)
Speicherverwaltung automatisch über GC automatisch über GC
Leistung Hoch sehr hoch
Sicherheit Hoch Hoch
Skalierbarkeit hoch Hoch
Unterstützung für Mobiltelefone Ja Ja, aber weniger beliebt
Generika Ja Ja
Lambda ja ab Java Version 8 ja ab C# 3.0
Struktur / Gewerkschaft Unterstützung Ja
Veranstaltungen nicht unterstützt von Ja
Delegierte nicht unterstützt von Ja
Pointre nicht unterstützt von im speziellen (unsicheren) Modus
Überladen von Operatoren nicht unterstützt von Ja
Lizenz Open-Source open-source

Fazit C# vs. Java

C# und Java sind beides High-Level-Programmiersprachen, jede mit ihren eigenen einzigartigen Eigenschaften, Stärken und Schwächen. Beide Sprachen bieten eine Fülle von Bibliotheken, die auf die spezifischen Anforderungen des Projekts abgestimmt sind. Beide Sprachen haben eine lange Entwicklungsgeschichte und werden von großen Unternehmen unterstützt, so dass sie sich für jedes langfristige Projekt eignen. Mit seinem ausgereiften Ökosystem und seiner Leistungsoptimierung war Java die beste Wahl für groß angelegte Unternehmenssysteme. Mit der Umstellung auf .NET 8 und dem weiteren Aufkommen von Cloud-Lösungen wie Azure ist C# jedoch zu einer ebenso geeigneten Alternative geworden. C# kann die Entwicklungszeit für bestimmte Arten von Anwendungen verkürzen, insbesondere wenn Sie das Microsoft-Ökosystem nutzen. Die Entwicklung auf der .NET-Plattform ist im Allgemeinen mit höheren Lizenzkosten für die Entwicklung verbunden. Java hingegen ist Open-Source und plattformübergreifend und trägt somit zur Kostensenkung bei. Letztendlich sollte die Entscheidung für Java oder C# von den Bedürfnissen, dem Kontext und den Zielen des Projekts und natürlich von den persönlichen Vorlieben abhängen. Wir hoffen, dass dieser Artikel auch Ihnen helfen wird, in Zukunft die richtige Entscheidung zu treffen. Für welche Variante Sie sich auch entscheiden, Sie werden auf jeden Fall nichts falsch machen. Wenn Sie gerade erst mit dem Programmieren anfangen, lesen Sie in Programmieren für Anfänger, wie Sie besser darin werden (wir erwähnen auch Online-Kurse). Wenn Sie ein erfahrener Java-Programmierer sind, informieren Sie sich über unsere Mitarbeitervorteile und reagieren Sie auf Stellenausschreibungen.

Die Geschichte der künstlichen Intelligenz (KI) von der Antike bis zur Gegenwart

Künstliche Intelligenz (KI) ist derzeit ein heißer Trend und wird zu einem alltäglichen Bestandteil unseres Lebens. Sie bringt technologische Fortschritte, frischen Wind in viele Branchen und verändert die Art und Weise, wie wir lernen, leben oder arbeiten. Dass es sich dabei nicht um eine kurzfristige Modeerscheinung handelt, beweist die Tatsache, dass NVIDIA, ein Unternehmen, das KI-Chips in großen Mengen herstellt, kürzlich zum wertvollsten Unternehmen der Welt aufgestiegen ist. Führende IT-Firmen investieren enorme Summen in die KI-Infrastruktur, um die Möglichkeit zu haben, an der Forschung, Entwicklung und Schulung fortgeschrittener KI teilzunehmen. Diese Technologie wird jedoch langsam ihren Weg in die Haushalte der normalen Menschen finden, da der führende Prozessorhersteller AMD eine Neural Processing Unit (NPU), eine Art Co-Prozessor für KI-Computing, in seine neuen Prozessoren einbauen wird. Wofür sie eingesetzt werden soll, ist noch umstritten. Die KI-Technologie hat den Menschen längst beim Schach, bei Quizspielen oder beim ältesten Brettspiel , GO, besiegt. Heute versetzt sie die Menschen buchstäblich in Erstaunen, wenn sie aus einem beschreibenden Text ein wunderschönes Video rendert, atemberaubend originelle Landschaften kreiert, Musik im Stil von Künstlern komponiert, die nicht mehr leben, in Echtzeit zwischen zwei Fremdsprachen übersetzt, Kindern Nachhilfe in Mathematik gibt und vieles, vieles mehr. Manche Menschen sehen in der KI ein technologisches Wunderwerk und wären wahrscheinlich zu Recht überrascht, wenn sie wüssten, dass künstliche Intelligenz eigentlich gar nicht so neu ist. Sie begleitet uns schon seit Jahrzehnten. Die mathematischen Modelle und Theorien, auf denen sie beruht, haben bis heute gewartet, um in Form von Supercomputern in ihrem besten Licht zu erscheinen. In unserem letzten Artikel haben wir das Konzept der künstlichen Intelligenz vorgestellt. Sie können ihn hier lesen – Was ist Künstliche Intelligenz? Heute werfen wir einen Blick darauf, wann und wie KI entstanden ist und stellen die wichtigsten Meilensteine vor, die sie zu dem gemacht haben, was sie heute ist.

Von der Antike bis zum Mittelalter

Bereits in der Antike (vor einigen tausend Jahren) debattierten antike Philosophen über die Fragen von Leben und Tod. In dieser Zeit begannen Erfinder, mechanisches Spielzeug zu erschaffen, das sie Automaten (Automaten) nannten. Automat, im Folgenden Automaton genannt, kommt aus dem Altgriechischen und bedeutet „aus eigenem Willen handelnd“. Es war ein einfaches mechanisches Ding, das sich ohne menschliches Zutun bewegte. Im Laufe der Zeit entstanden immer fortschrittlichere mechanische Maschinen, von denen ich als berühmteste den Ritter von Da Vinci erwähnen möchte. Aus dieser Zeit stammt die Idee einer Maschine, die von sich aus funktioniert.

17. bis 19. Jahrhundert

Im 17. Jahrhundert begann der Philosoph Rene Descartes zu theoretisieren, dass Maschinen eines Tages in der Lage sein würden, zu denken und Entscheidungen zu treffen. Im Jahr 1637 schrieb er seine Ideen in einem Buch nieder Abhandlung über die Methode. Er unterteilte Maschinen in solche, die eines Tages lernen könnten, eine bestimmte Aufgabe auszuführen, und solche, die sich an jede Aufgabe anpassen könnten. Heute sind diese Bereiche als spezialisierte und allgemeine KI bekannt. In gewisser Weise war dies die erste Herausforderung bei der Entwicklung von KI. Diese Zeit war auch reich an mathematischen Entdeckungen. 1642: Blaise Pascal erfindet die erste mechanische Rechenmaschine. Diese kann zwei Zahlen addieren und subtrahieren, Multiplikation und Division funktionieren durch wiederholte Addition oder Subtraktion. 1676: Gottfried Wilhelm Leibniz leitet die Kettenregel ab. Diese Regel wird in der KI verwendet, um neuronale Netzwerke mit Backpropagation zu trainieren. 1738: Daniel Bernoulli führt das Konzept der Nutzenfunktion ein. Es ist eine Verallgemeinerung der Wahrscheinlichkeit und die mathematische Grundlage, mit der intelligente Agenten ihre Ziele darstellen. 1739: David Hume beschreibt die Induktion, eine logische Methode, um aus Beispielen allgemeingültige Aussagen zu gewinnen. 1763: Thomas Bayes legt den Grundstein für das Bayes’sche Theorem, das in der modernen KI für Bayes’sche Netzwerke verwendet wird. 1837: Charles Babbage und Ada Lovelace entwerfen den ersten Entwurf für eine programmierbare Maschine. 1854: George Boole erfindet die berühmte Boolesche Algebra. 1859: Charles Babbage und Ada Lovelace arbeiten an programmierbaren mechanischen Rechenmaschinen, die sich auf polynomische Funktionen konzentrieren. 1863: Samuel Butler stellte die Theorie auf, dass Darwins Evolution auch auf Maschinen zutrifft und diese vielleicht eines Tages ein Bewusstsein erlangen und den Menschen schließlich ersetzen werden.

Erste Hälfte des 20. Jahrhunderts

Im frühen zwanzigsten Jahrhundert begannen Science-Fiction-Autoren und Wissenschaftler sich zu fragen, ob es möglich sei, ein künstliches Gehirn zu schaffen. Einige Erfinder begannen mit der Erschaffung humanoider Figuren, die größtenteils mit Dampf betrieben wurden und teilweise laufen konnten. Es wurde auch mit Gesichtsausdrücken experimentiert. 1921: Der tschechische Schriftsteller Karel Čapek war der erste, der das Wort Roboter in seinem Science-Fiction-Stück RUR verwendete. Er benutzte es, um einen künstlichen Menschen zu bezeichnen. 1929: Der japanische Professor Makoto Nishimura baut den ersten japanischen Roboter und nennt ihn Gakutensoku. 1943: Warren Sturgis McCulloch und Walter Pitts veröffentlichen die erste mathematische Beschreibung eines künstlichen neuronalen Netzwerks in einer wissenschaftlichen Arbeit mit dem Titel A Logical Calculus of the Ideas Immanent in Nervous Activity. 1944: Die Spieltheorie taucht auf und wird ein wichtiger Bestandteil der KI-Entwicklung. Vor 1949 funktionierten die großen Saalrechenmaschinen als Taschenrechner. Sie konnten keine Befehle speichern, sondern sie nur ausführen. Außerdem waren die Rechner ziemlich teuer, die monatliche Miete kletterte auf 200.000 Dollar pro Monat. Nur prestigeträchtige Universitäten und große Technologieunternehmen konnten sie sich leisten. Viele spezifische Berechnungen, wie die Flugbahn eines Raketenstarts, wurden von Teams von Mathematikern auf Papier berechnet.

Alan Turing

Alan Turing war ein bahnbrechender britischer Mathematiker und Informatiker, der oft als der Vater der künstlichen Intelligenz angesehen wird. Im Jahr 1950 entwickelte Turing einen Test, der später als Turing-Test bekannt wurde, um die Fähigkeit einer Maschine festzustellen, intelligentes Verhalten zu zeigen, das von menschlichem Verhalten nicht zu unterscheiden ist. Bei diesem Test führt ein menschlicher Richter ein Gespräch mit einem Menschen und einer Maschine, die beide nicht sichtbar sind. Wenn der Richter nicht zuverlässig unterscheiden kann, wer wer ist, gilt die Maschine als erfolgreich und zeigt eine menschenähnliche Intelligenz. Wenn die Maschine dem Menschen vorgaukelt, sie sei ein Mensch, dann ist sie intelligent. 1951: Marvin Minsky und Dean Edmonds entwickeln das erste künstliche neuronale Netzwerk (ANN) namens SNARC. Sie verwenden 3000 Vakuumröhren, um ein Netzwerk mit 40 Neuronen zu simulieren. 1952: Der Informatiker Arthur Samuel entwickelt ein Programm zum Spielen von Dame, das er 1955 so perfektioniert, dass das Programm sich selbst das Spielen beibringt.

Dartmouth-Konferenz (1956)

Die Dartmouth Conference, die im Sommer 1956 am Dartmouth College stattfand, gilt als das bahnbrechende Ereignis, das die künstliche Intelligenz als neues Forschungsgebiet definierte. Auf der von John McCarthy, Marvin Minsky, Nathaniel Rochester und Claude Shannon organisierten Konferenz kamen führende Forscher zusammen, um die Möglichkeit der Entwicklung intelligenter Maschinen zu diskutieren und zu erforschen. Auf dieser Konferenz wurde der Begriff „künstliche Intelligenz“ geprägt und der Grundstein für die zukünftige Forschung und Entwicklung im Bereich der KI gelegt, indem die wichtigsten Ziele und Konzepte festgelegt wurden, die das Feld in den kommenden Jahrzehnten prägen werden. Viele der Bereiche, die der KI heute zugrunde liegen, wie die Verarbeitung natürlicher Sprache, Computer Vision und neuronale Netze, waren ebenfalls Teil der Tagesordnung.

Perceptron (1957)

Das 1957 von Frank Rosenblatt entwickelte Perceptron ist eines der ersten künstlichen neuronalen Netzwerkmodelle und ein grundlegender Meilenstein in der KI. Es wurde entwickelt, um die Denkprozesse des menschlichen Gehirns zu simulieren und konnte lernen, Eingabedaten in verschiedene Kategorien zu klassifizieren. Perceptron demonstrierte das Potenzial von maschinellem Lernen und neuronalen Netzwerken und legte damit den Grundstein für moderne Deep Learning-Techniken. Das neuronale Netzwerk enthielt nur eine Schicht, und trotz seiner begrenzten Funktionalität waren diese Konzepte der Grundstein für die spätere Forschung im Bereich der neuronalen Netzwerke. 1958: John McCarthy entwickelt die Programmiersprache Lisp, die bei KI-Entwicklern sehr beliebt wurde. 1959: John McCarthy und Marvin Minsky gründen das Artificial Intelligence Research Institute MIT AI Lab. In diesem Jahr prägte Arthur Samuel den Begriff des maschinellen Lernens, als er in einer Rede Maschinen erwähnte, die besser Schach spielen als die Menschen, die sie programmiert haben. 1961: General Motors setzt den ersten Industrieroboter , Unimate, ein, um Menschen am Fließband zu ersetzen.

ELIZA (1966)

ELIZA war der erste Chatbot, der eine menschliche Unterhaltung simulierte. Er wurde von Joseph Weizenbaum entwickelt. Obwohl die Fähigkeiten dieses Chatbots heute niemanden mehr ansprechen würden, demonstrierte ELIZA das Potenzial der natürlichen Sprachverarbeitung in der KI. Dieses Computerprogramm simulierte eine Konversation, indem es Mustervergleiche und Musterersetzungen verwendete, um dem Benutzer die Illusion des Verstehens zu vermitteln. ELIZA zeigte, dass Maschinen in der Lage sind, einen Dialog zu führen und dass Computer menschenähnliche Antworten geben können. Dieser Chatbot weckte das Interesse am Bereich der konversationellen KI. 1966: Shakey ist der erste universelle mobile Roboter, der seine eigenen Handlungen begründet. Er war mit Sensoren und einer TV-Kamera ausgestattet, mit der er durch verschiedene Umgebungen navigieren konnte. 1967: Newell und Simon entwickeln den General Problem Solver (GPS), eines der ersten Programme für künstliche Intelligenz, das menschenähnliche Problemlösungen demonstriert. 1974: Der erste KI-Winter beginnt, gekennzeichnet durch einen Rückgang der Finanzierung und des Interesses an der KI-Forschung aufgrund unrealistischer Erwartungen und begrenzter Fortschritte. KI wurde bisher als eine nette technische Demonstration mit begrenztem Nutzen für die reale Welt betrachtet. 1979: Die Amerikanische Vereinigung für Künstliche Intelligenz wird gegründet, jetzt bekannt als die Gesellschaft zur Förderung der Künstlichen Intelligenz. Im selben Jahr besteht das erste computergesteuerte autonome Fahrzeug , das Stanford Cart, einen Stuhl-Hindernis-Test. In den 1980er Jahren gab es ein erneutes Interesse an KI und an Investitionen in diese Technologie. Tiefgreifende Lerntechniken und der Einsatz von Expertensystemen wurden populär; diese ermöglichten es Computern, aus ihren Fehlern zu lernen und unabhängige Entscheidungen zu treffen. Die Unternehmen begannen, mit Expertensystemen enorme Einsparungen zu erzielen, und bis 1985 investierten die Unternehmen jährlich eine Milliarde Dollar in KI-Systeme. 1980: Das erste Expertensystem, bekannt als XCON, kommt auf den kommerziellen Markt. Es sollte bei der Bestellung von Computersystemen helfen, indem es automatisch Komponenten nach den Bedürfnissen des Kunden auswählt. Andere Expertensysteme folgen diesem Beispiel und gewinnen an Popularität, da Unternehmen sie vor allem für Finanzprognosen und medizinische Diagnosen einsetzen. 1981: Danny Hillis entwirft Parallelcomputer für KI und andere Rechenaufgaben, eine Architektur, die den modernen GPUs ähnelt. 1986: Hinton, Rumelhart und Williams veröffentlichen Learning Representations by Back-Propagating Errors, mit denen komplexere neuronale Netzwerke trainiert werden können. Im selben Jahr erfand Ernst Dickmanns, ein in Deutschland arbeitender Wissenschaftler, das erste autonome Auto. Technisch gesehen handelte es sich um einen Mercedes-Van, der mit einem Computersystem und Sensoren zur Erfassung seiner Umgebung ausgestattet war. In den späten 1980er Jahren ließ das Interesse an der KI nach, und wegen der hohen Kosten im Vergleich zu den scheinbar geringen Erträgen kam ein weiterer Winter für die KI. Dieser Begriff beschreibt eine Zeit, in der die Forschungsfinanzierung aufgrund des geringen Interesses von Investoren und Verbrauchern reduziert wird. Aber das wird sich bald ändern. 1991: Es ist das Jahr der Geburtsstunde des Internets. Der CERN-Forscher Tim Berners-Lee startet die erste Online-Website der Welt und veröffentlicht das Hypertext Transfer Protocol (HTTP). Obwohl viele Institutionen und große Unternehmen bereits zuvor Computer vernetzt hatten, gab das Aufkommen des Internets der Gesellschaft einen enormen Auftrieb. Innerhalb kurzer Zeit schlossen sich Millionen von Menschen aus verschiedenen Teilen der Welt an das Internet an und begannen, die Datenquanten zu erzeugen, die später für das KI-Training dringend benötigt werden würden.

Deep Blue besiegt den Schachweltmeister (1997)

Deep Blue, entwickelt von IBM, schrieb 1997 Geschichte, als er als erster Computer den amtierenden Schachweltmeister Garri Kasparow in einem Sechs-Spiele-Match besiegte. Der Sieg von Deep Blue war ein bedeutender Meilenstein auf dem Gebiet der KI und demonstrierte die Leistungsfähigkeit von Brute-Force-Computern und fortschrittlichen Algorithmen bei der Lösung komplexer Probleme. Das Match demonstrierte das Potenzial der KI, menschliche Experten in bestimmten Bereichen zu übertreffen, und weckte ein enormes Interesse an der Weiterentwicklung der KI-Forschung und -Entwicklung. Ein Video von Deepblue gegen Kasparov finden Sie hier. 1998: Cynthia Breazeal am MIT stellt KiSmet vor, einen emotional intelligenten Roboter, der die Gefühle von Menschen erkennt und darauf reagieren kann. 1999: Sony bringt AiBO auf den Markt, den ersten Haushund, dessen Persönlichkeit und Fähigkeiten sich mit der Zeit entwickeln. 2002: iRobot stellt Roomba vor, den ersten in Serie gefertigten Staubsaugerroboter mit einem KI-gesteuerten Navigationssystem. Er bewegt sich selbstständig und weicht beim Staubsaugen Hindernissen aus.

NASA schickt Rover zum Mars (2004)

Als der Mars im Jahr 2004 viel näher an der Erde kreiste, nutzte die NASA die Gelegenheit, zwei Rover – Spirit und Opportunity – zum roten Planeten zu schicken. Beide waren mit einer künstlichen Intelligenz ausgestattet, die ihnen half, sich auf dem schwierigen felsigen Terrain des Mars zurechtzufinden und Entscheidungen in Echtzeit zu treffen, anstatt auf menschliche Hilfe angewiesen zu sein. Die Rover der NASA auf dem Mars, wie Spirit, Opportunity und Curiosity, stellen bedeutende Meilensteine in der KI und Robotik dar. Diese Rover sind mit hochentwickelten autonomen Navigationssystemen ausgestattet, die es ihnen ermöglichen, die Marsoberfläche zu erkunden, wissenschaftliche Experimente durchzuführen und unabhängige Entscheidungen zu treffen, um Hindernissen auszuweichen und interessante Punkte zu identifizieren. Die zwischen 2004 und 2012 gestarteten Weltraummissionen haben unser Verständnis des Mars erheblich verbessert und gleichzeitig praktische Anwendungen von KI in autonomen Systemen, Fernsteuerung und wissenschaftlichen Entdeckungen in extraterrestrischen Umgebungen demonstriert. Klicken Sie hier für ein Video der Landung des Spirit-Rovers auf dem Mars. 2006: Twitter, Facebook und Netflix beginnen, KI als Teil ihrer Algorithmen für Werbung und Benutzererfahrung einzusetzen. 2009: Google baut das erste selbstfahrende Auto, das in der Stadt fahren kann.

Watson, der Computer, gewinnt die Quizshow Jeopardy! (2011)

Im Jahr 2011 machte IBMs Watson Schlagzeilen, als er die Quizshow Jeopardy! gegen zwei der größten Champions, Ken Jennings und Brad Rutter, gewann. Watsons Sieg demonstrierte die fortschrittlichen Fähigkeiten der KI in den Bereichen Verarbeitung natürlicher Sprache, Informationsbeschaffung und maschinelles Lernen. Das System war in der Lage, komplexe, in natürlicher Sprache gestellte Fragen zu verstehen und zu beantworten, große Datenmengen schnell zu analysieren und präzise Antworten zu generieren. Diese Leistung demonstriert das Potenzial der KI bei der Verarbeitung und dem Verständnis der menschlichen Sprache und stellt einen wichtigen Meilenstein in der Entwicklung von KI-Anwendungen und -Technologien dar. Ein Video von Watson bei Jeopardy finden Sie hier. 2011: Apple integriert Siri, einen intelligenten virtuellen Assistenten mit einer Sprachschnittstelle, in das iPhone 4S. Nach 2011 rücken KI Deep Learning und Big Data-Techniken in den Vordergrund. In den Jahren 2011 und 2012 wurden erhebliche Fortschritte bei der Bilderkennung erzielt, vor allem dank neuer Hardware, die die Lerngeschwindigkeit um das bis zu Hundertfache erhöhte. Zu dieser Zeit wurde das maschinelle Lernen auf Grafikchips durchgeführt, die dafür ideal waren, weil sie die Arbeit mit Vektoren und Matrizen optimierten. 2012: Das KI-Startup DeepMind entwickelt ein tiefes neuronales Netzwerk, das Katzen in YouTube-Videos erkennen kann. Google kauft DeepMind später im Jahr 2014 für 500 Millionen Dollar. Im selben Jahr entwickelt Facebook DeepFace, ein Gesichtserkennungssystem, das Gesichter mit einer Wahrscheinlichkeit von 97% erkennen kann – eine Genauigkeit, die der von Menschen nahe kommt.

Generatives adversariales Netzwerk (2014)

Im Jahr 2014 stellte Ian Goodfellow Generative Adversarial Networks (GANs) vor, die den Bereich der KI revolutionierten. GANs bestehen aus zwei neuronalen Netzwerken, einem Generator und einem Diskriminator, die gleichzeitig in einem Wettbewerbsprozess trainiert werden. Der Generator erzeugt synthetische Daten, während der Diskriminator deren Authentizität anhand echter Daten bewertet. Dieser kontradiktorische Prozess verbessert die Fähigkeit des Generators, äußerst realistische Ergebnisse zu erzeugen, was zu Fortschritten bei der Bild- und Videogenerierung, der Datenerweiterung und vielen anderen Anwendungen führt. GANs haben die KI-Forschung maßgeblich beeinflusst und neue Wege für Kreativität und Innovation beim maschinellen Lernen eröffnet. 2014: Amazon bringt Alexa auf den Markt – eine intelligente virtuelle Assistentin mit einer Sprachschnittstelle, die Einkaufsaufgaben erledigt. Gleichzeitig besteht der Chatbot Eugene Goostman den Turing-Test. Ein Drittel der Richter glaubt, dass Eugene ein Mensch ist. 2015: Computer können Objekte in visuellen Daten viel genauer identifizieren als Menschen. Bei der jährlichen ImageNet-Challenge erreichten sie eine Genauigkeit von 97,3%, im Vergleich zu nur 71,8% im Jahr 2010.

AlphaGo schlägt den Weltmeister Lee Sedol in Go (2016)

AlphaGo, entwickelt von DeepMind, schrieb 2016 Geschichte, indem es Lee Sedol, einen der besten Go-Spieler der Welt, in einem Turnier mit fünf Spielen besiegte. Das war eine bahnbrechende Leistung, denn Go ist ein unglaublich komplexes Brettspiel mit über 100 Tausend Eröffnungszügen. Von allen möglichen Positionen gibt es sogar 2 pro 170, was Brute-Force-Methoden unbrauchbar macht. Der Erfolg von AlphaGo wurde durch seine fortschrittlichen Techniken des maschinellen Lernens erzielt, darunter tiefe neuronale Netze und verstärkendes Lernen. Dieser Meilenstein hat das Potenzial der KI zur Bewältigung hochkomplexer Aufgaben demonstriert, den Bereich der künstlichen Intelligenz erheblich vorangebracht und ihre Fähigkeit unter Beweis gestellt, Probleme zu lösen, von denen man bisher dachte, dass sie außerhalb der Reichweite von Maschinen liegen. 2016: Hanson Robotics schuf einen humanoiden Roboter namens Sophia, den ersten Roboter mit realistischem menschlichem Aussehen und der Fähigkeit zu sehen, zu scherzen, zu kommunizieren und Emotionen zu reproduzieren. Dank ihrer innovativen KI und ihrer Fähigkeiten wurde Sophia zu einem weltweiten Phänomen und trat regelmäßig in Talkshows auf, darunter auch in Late-Night-Sendungen wie der The Tonight Show. 2017: Googles AlphaStar besiegt die besten dedizierten Schachengines in einer Reihe von Matches. 2018: Künstliche Intelligenz wird an den meisten Universitäten gelehrt. 2019: AlphaStar hat im Computerspiel StarCraft 2 die Großmeisterstufe erreicht, was bedeutet, dass es mit seiner KI beachtliche 99,8% der menschlichen Spieler besiegen kann.

Der Aufstieg der generativen KI (2020 – heute)

Die Entwicklungen auf dem Gebiet der generativen KI haben in den letzten Jahren zu einem starken Anstieg des Interesses an KI geführt. Generative KI bietet die Möglichkeit, Texte, Bilder und Videos als Reaktion auf Textaufforderungen zu generieren. Im Gegensatz zu früheren Systemen, die so programmiert waren, dass sie auf eine bestimmte Aufforderung reagierten, lernt generative KI aus Materialien (Dokumente, Fotos und mehr) und Daten aus dem Internet.

Sprachmodell GPT-3 (2020)

Das von OpenAI entwickelte und 2020 veröffentlichte GPT-3 ist mit 175 Milliarden Parametern eines der größten und fortschrittlichsten Sprachmodelle, das je geschaffen wurde. Es kann menschlichen Text auf der Grundlage vorgegebener Aufforderungen generieren, eine Vielzahl von linguistischen Aufgaben wie Übersetzung, Zusammenfassung und Beantwortung von Fragen durchführen und sogar kohärente und kontextbezogene Inhalte produzieren. Die Fähigkeit von GPT-3, natürliche Sprache zu verstehen und zu generieren, hat einen neuen Standard in der KI gesetzt. Sie demonstriert die Leistungsfähigkeit großer neuronaler Netzwerke und verändert die Art und Weise, wie Maschinen in einer Vielzahl von Anwendungen mit menschlicher Sprache interagieren. 2021: OpenAI hat DALL-E entwickelt, das mithilfe von Deep-Learning-Methoden digitale Bilder direkt aus Text generieren kann. Gleichzeitig löst DeepMinds AlphaFold2 das Problem der Proteinfaltung und ebnet damit den Weg für die Entdeckung neuer Medikamente und medizinische Durchbrüche.

ChatGPT (2022)

ChatGPT, entwickelt von OpenAI und im November 2022 auf den Markt gebracht, ist eine bahnbrechende Konversations-KI, die auf der GPT-3.5-Architektur basiert. Sie zeichnet sich dadurch aus, dass sie kohärente und kontextuell relevante Texte generiert, die natürliche und dynamische Interaktionen zwischen Mensch und Computer ermöglichen. ChatGPT kann eine Vielzahl von Aufgaben übernehmen, darunter die Beantwortung von Fragen, die Bereitstellung detaillierter Erklärungen und die Unterstützung beim kreativen Schreiben. Seine fortschrittlichen Fähigkeiten haben Anwendungen in den Bereichen Kundenservice, Bildung und Inhaltserstellung revolutioniert und zeigen das transformative Potenzial von KI bei der Verbesserung alltäglicher Mensch-Computer-Interaktionen. Januar 2023: ChatGPT ist mit über 100 Millionen Nutzern die am schnellsten wachsende App. März 2023: OpenAI veröffentlicht eine neue Version des GPT-4 Modells, das nun die Eingabe eines Bildes anstelle von Text erlaubt. Google stellt seinen Chatbot Gemini vor. Februar 2024: OpenAI stellt öffentlich Sora vor, das die Möglichkeit bietet, Videos aus Text von bis zu einer Minute Länge zu generieren. Mai 2024: Die KI-Technologie GPT-4o wird eingeführt, verdoppelt die Geschwindigkeit der API, bricht alle Benchmark-Rekorde und bringt endlich Emotionen in die Chatbot-Konversation.

KI und die Zukunft

Wir haben die faszinierende historische Entwicklung der KI durchlaufen. Was wird die Zukunft bringen? Wir werden sehen. Sicher ist nur, dass sich moderne KI-Technologien in großem Stil durchsetzen werden, sowohl in Unternehmen als auch im privaten Bereich. Viele Arbeitsplätze werden verschwinden oder an den neuen KI-Trend angepasst werden müssen. Auf der anderen Seite werden aber auch viele neue Arbeitsplätze entstehen. Die Fortschritte in der KI sind unaufhaltsam und es liegt an uns, sie zum gemeinsamen Nutzen der Menschheit zu nutzen.