Podcast #6: Künstliche Intelligenz in der Praxis – Tipps, Tools und sichere Nutzung
In der nächsten Folge des Na Vlne Kodu-Podcasts lassen wir uns von unseren Hörern inspirieren. Mit dem Datenwissenschaftler Michal Bystrický und dem Systemadministrator Jakub Novák von msg life Slovakia tauchen wir tiefer in die Welt der KI ein. Hört zu und holt euch wertvolle Tipps, wie ihr KI in der Praxis effektiv einsetzt – und wie sie euer Helfer statt euer Konkurrent wird.

Das Zeitalter der KI ist längst da und schreitet unaufhaltsam voran. Klar ist: Wir werden ihr immer häufiger begegnen. Es liegt an uns, ob sie uns vorwärts bringt oder auf der Stelle treten lässt. Künstliche Intelligenz kann uns helfen, Zeit und Energie für die Dinge zu sparen, die uns wirklich wichtig sind. Heute geben wir euch praktische Tipps, wie ihr KI-Tools effektiv nutzt.
Auf unsere Einladung hin kamen der Datenwissenschaftler Michal Bystricky, der sich auf Sprachmodelle und Trendprognosen spezialisiert hat, und der Systemadministrator Jakub Novak, der KI täglich einsetzt, um Prozesse zu optimieren und Überlastungen zu vermeiden. Hört die Folge KI in der Praxis mit HR-Managerin Ivana Hricova oder lest das Transkript.
Michal, wie würdest du KI jemandem erklären, der kaum Vorwissen hat?
Michal: Ich sehe KI als vereinfachtes menschliches Gehirn – die Parallelen sind verblüffend. Die neuesten Modelle können wie wir irrelevante Informationen vergessen und sich auf Wesentliches konzentrieren. Google beschrieb Ende 2024 in „Auswendig lernen in der Prüfungszeit“ die nächste Generation von Titans, auch bekannt als Transformers 2, vor. Die Neuheit besteht darin, dass diese Modelle nicht nur während des Trainings, sondern auch während der Testzeit lernen (Inferenzzeit) – das heißt, in dem Moment, in dem wir mit ihnen interagieren.
Das heißt, wenn wir das KI-Modell zum Beispiel bitten, strenger zu sein, wird es sich daran erinnern und bei der nächsten Antwort strenger sein. Dieser Prozess ist nun direkt in das Modell integriert, so dass keine externen Speicherverwaltungsanwendungen mehr erforderlich sind. Dadurch ist das Modell flexibler und kann sich an neue Situationen anpassen.
Eine weitere faszinierende Sache ist die Art und Weise, wie die Modelle Informationen speichern. Neue Forschungsergebnisse zeigen, dass dieses KI-Modell besser lernt, wenn es von etwas überrascht wird, ähnlich wie Menschen. Wenn es auf unerwartete Informationen stößt, merkt es sich diese schneller. Die Forscher versuchen also, die Funktionsweise unseres Gehirns nachzubilden – je mehr Hinweise wir auf ein Ereignis haben, desto besser können wir uns daran erinnern.
Die KI lernt auch, nach und nach irrelevante Details zu vergessen, damit sie in der Masse der Informationen nicht verloren geht. In dem Papier wird auch beschrieben, dass das Gedächtnis Teil eines neuronalen Netzwerks ist und die neuen Modelle über drei Formen des Gedächtnisses verfügen – Kurzzeit-, Langzeit- und Dauergedächtnis. Dadurch können sie relevante Daten auswählen und besser auf neue Situationen reagieren.
Jakub, was ist deine Meinung?
Jakub: Ich würde es etwas einfacher erklären. Für mich ist die KI noch nicht auf dem Niveau des menschlichen Gehirns, obwohl sie sich darauf zubewegt. Die Entwickler nutzen Prinzipien, die wir bereits aus der Natur kennen – wenn etwas in der biologischen Welt funktioniert, versuchen sie, es auf Maschinen anzuwenden. Wir tun dies im Automobilbau, in der Luftfahrt, bei der Systemoptimierung und jetzt auch bei der künstlichen Intelligenz. Für mich ist es also immer noch ein Versuch, dem Gehirn näher zu kommen, aber für mich ist es immer noch eine Online-Simulation von etwas, das das Gehirn nachbilden soll.
Wenn ich KI jemandem beschreiben müsste, der noch nie davon gehört hat, würde ich sagen, dass es ein kleiner Helfer ist, der bei fast allem helfen kann, vom Schreiben bis zur Lösung technischer Probleme. Sie ist nicht perfekt, aber je besser man sie nutzt, desto mehr Zeit und Energie spart man.
Die KI ist also vom menschlichen Gehirn inspiriert – sie kann lernen, während sie benutzt wird, sich wichtige Informationen merken und unwichtige Details allmählich vergessen. Dennoch ist sie noch weit von der Komplexität unserer Gehirne entfernt. Aber die Entwickler wenden diese Prinzipien zunehmend an, um die KI effizienter arbeiten zu lassen. Ist das richtig?
Michal: Ich möchte an James anknüpfen, als er erwähnte, dass KI nur eine Online-Simulation ist. Was wäre, wenn auch das menschliche Gehirn eine Form von Simulationsintelligenz ist? Das gesamte Universum, uns eingeschlossen, funktioniert auf der Grundlage der Gesetze der Physik und chemischer Prozesse. Die menschliche Intelligenz ist das Ergebnis von neuronalen Verbindungen und chemischen Signalen, die wir bisher nur teilweise verstehen. Was, wenn auch sie nur eine biologische Simulation ist? Warum glauben wir, dass unsere die „echte“ ist? Vielleicht sind wir nur mit unserer eigenen Subjektivität und Erfahrung beschäftigt.
Jakub: Das wird mir jetzt zu philosophisch, es ist elf Uhr und ich habe einen langen Tag vor mir. Ich würde nur ungern „mein Gehirn kochen“. 😊
Lass uns also praktisch werden. Welches war das erste KI-Tool, das du verwendet hast? War es ChatGPT oder etwas weniger Bekanntes? Und was war deine erste Reaktion?
Michal: Der erste bahnbrechende Artikel, der mich beeinflusst hat, war „Attention Is All You Need“ von Google. Einführung der ersten Generation von Transformer Modellen und Mechanismen Selbstaufmerksamkeit,die es dem Modell ermöglicht, verschiedene Teile des Eingabetextes mit unterschiedlichem Grad an Aufmerksamkeit zu parsen. Dieses Konzept wurde zur Grundlage für andere Modelle, wie BERT und GPT, die sich auf verschiedene Aufgaben spezialisierten – GPT für Konversation, BERT für Klassifizierung.
Was meinen ersten wirklichen Kontakt mit KI betrifft, so war GPT-3 im Jahr 2020 der Wendepunkt. Dieses Modell brachte viel ausgefeiltere Manifestationen von Intelligenz, was für mich eine große Überraschung war. Zu dieser Zeit erschien auch ein weiterer wichtiger Artikel „Skalierungsgesetze für neuronale Sprachmodelle“ (Scaling Laws for Neural Language Models)die sich mit Skalierungsgesetzen beschäftigt. Darin zeigten die Autoren, dass die Erhöhung der Größe des Modells, der Menge der Trainingsdaten und der Rechenzeit einen direkt vorhersagbaren Effekt auf die Verbesserung seiner Leistung hat. Dieses Prinzip bildet heute die Grundlage für die Entwicklung fortschrittlicher Sprachmodelle.
Jakub: Ich begann, mit verschiedenen Online-Plattformen zu experimentieren, die den Text umformulieren, erweitern oder seinen Tonfall ändern konnten. Aber es war nichts Bahnbrechendes – es war immer ein Eingabetext erforderlich und die Tools erfanden die Informationen oft. In der Praxis habe ich sie also nur gelegentlich verwendet.
Das größte Problem war, dass ich, wenn die KI etwas hinzufügte, das Ergebnis sorgfältig überprüfen musste, da sie oft falsche oder völlig erfundene Informationen generierte. Entweder wusste ich nicht, wie ich die Eingabeaufforderung richtig stellen sollte, oder das Modell selbst war noch unvollkommen. Ich konnte keine konsistent hochwertige Ausgabe erzielen.
Der Wendepunkt kam im Jahr 2023, als OpenAI GPT-3 veröffentlichte. Das war der Moment, in dem künstliche Intelligenz wirklich abhob und die Form annahm, die wir heute kennen. Für normale Benutzer war dieser Sprung enorm. In diesem Jahr wurde GPT-3 hat eine enorme Popularität erlangt, denn allein in der ersten Woche haben sich eine Million Nutzer angemeldet. Das zeigt, wie groß die Nachfrage nach dieser Technologie war und wie schnell sie von der Öffentlichkeit angenommen wurde.
Wie funktioniert eigentlich künstliche Intelligenz? Wie versteht sie unsere Bedürfnisse, antizipiert sie und reagiert, um uns das Leben zu erleichtern?
Michal: Wenn wir von Sprachmodellen sprechen, basiert ihre Grundlage auf der Vorhersage des nächsten Wortes – auf der Grundlage des vorhergehenden Textes schätzen sie, was folgen wird. Das ist im Grunde wie eine Art statistische Regression. KI-Modelle sind eigentlich große statistische Modelle, die aus riesigen Datenmengen aus dem Internet lernen.
Interessanterweise sind fast alle verfügbaren Daten bereits verwendet worden, so dass der Schwerpunkt der Forschung heute auf der Generierung synthetischer Daten liegt, um die Modelle weiter zu verbessern. Die neue Generation von Modellen, wie die bereits erwähnten Transformers 2, bringt eine grundlegende Veränderung mit sich – wir werden in der Lage sein, diese Modelle während der Testzeit (Inferenzzeit) zu erweitern. Das bedeutet, dass die Modelle lernen, sich anpassen und ihre Antworten korrigieren können, während wir sie abfragen. Das macht sie noch genauer und effizienter.
Jakub, was ist deine Meinung?
Jakub: Ich betrachte die Sache eher von der Benutzerseite aus. Jeden Tag arbeite ich hauptsächlich mit OpenAI-Modellen – GPT, DALL-E –und seit kurzem auch Sora. Ich will nicht sagen, dass die anderen Modelle schlecht sind, aber diese gefallen mir am besten.
Für mich ist es nicht so wichtig, wie sie funktionieren, sondern was sie mir bringen können. Wenn ich ein Werkzeug auswähle, untersuche ich es nach drei Hauptkriterien:
- Wird es mir bei meiner persönlichen Entwicklung helfen? Werde ich daraus wertvolle Informationen gewinnen, wird es mir helfen, meinen Horizont zu erweitern?
- Werde ich damit Zeit sparen? Kann es meine Arbeit erleichtern oder Aufgaben optimieren, wird es mit der Zeit einen Mehrwert für meine Arbeit oder mein Privatleben bringen?
- Kann es mir Geld einbringen? Kann ich es für etwas verwenden, das mir hilft, das Geld, das ich für die Nutzung des Tools ausgegeben habe, zurückzugewinnen?
Bei GPT habe ich schon nach wenigen Tagen gemerkt, dass es ein Tool ist, das mir hilft, schnell zu wachsen und Zeit zu sparen.
Was hat dich am meisten an ChatGPT beeindruckt? Wann hast du dir gesagt: „Das ist es, was ich nutzen werde, das wird sich auszahlen“?
Jakub: „Ich habe es zum ersten Mal in der Schule benutzt. Damals wusste ich noch nicht, wie man richtig promptet, was ich schreiben sollte, um den gewünschten Output zu erhalten. Es gab einen großen Boom darum – eine Million Benutzer in weniger als einer Woche, also hatte ich Angst, dass es zurückgezogen wird. Das System stürzte oft ab, war überlastet. Ich versuchte, es zu lernen, bevor es unzugänglich wird. Das ist jedoch nicht passiert, es hat sich nach und nach weiterentwickelt und heute ist es in viel besserer Form.
Heute erspart mir die KI stundenlange Arbeit und eine Menge geistiger Energie. Sie übernimmt Aufgaben, die mich sonst erschöpfen würden – zum Beispiel die Entwicklung von Konzepten. Vor kurzem musste ich ein neues Modell entwerfen. GPT half mir, die Schritte zu analysieren, die nächste Vorgehensweise zu bestimmen und innerhalb von neun Stunden hatte ich ein funktionierendes Konzept. Ich musste nicht alle Details manuell analysieren oder langwierige Dokumentationen schreiben – GPT wusste genau, was es getan hatte, z. B. ein Stück Code entworfen und konnte es klar beschreiben.
Neben der kreativen Unterstützung hilft mir die KI auch bei der Entscheidungsfindung. Wenn ich mehrere Optionen habe, liste ich die wichtigsten Punkte auf und die KI hilft mir bei der Beurteilung, welche die logisch vorteilhafteste ist. Manchmal ist es nützlich, eine unabhängige Perspektive zu haben, und KI kann mir das bieten.

Da es um das Thema KI in der Praxis geht, könntet ihr beide noch ein paar Beispiele nennen, wie man sie effektiv einsetzt und wie oft ihr damit in Berührung kommt?
Michal: In erster Linie verwende ich KI bei der Arbeit – beim Programmieren und Trainieren von Modellen. Große Sprachmodelle helfen uns, Informationen zu finden und Prozesse zu optimieren.
Darüber hinaus verwende ich KI auch beim Investieren, Handeln und bei der Nachrichtenverfolgung. Ich arbeite mit Zeitreihenmodellen, die Trends vorhersagen können, und einige der Modelle entwickle ich selbst. Sie sind viel ausgefeilter als herkömmliche statistische Indikatoren wie gleitende Durchschnitte. Ich verwende auch visuelle Analysemodelle, die Bilder verarbeiten und Charts analysieren können, um Niveaus oder Trends zu erkennen und sie dann in verschiedenen Anwendungen einzusetzen.
KI hilft mir aber auch beim täglichen Lernen und beim besseren Verständnis der Welt. Heute ist es relativ einfach, komplexe Forschungstexte zu verstehen – gib sie einfach in ChatGPT ein und lass dir sie in einfacher Sprache erklären. Jeder kann es ausprobieren. Es ist eine wirklich große Hilfe, vor allem, wenn du die technischen Formeln oder die Terminologie nicht kennst. Ich empfehle jedem, es bei einem Thema auszuprobieren, das er/sie nicht versteht, da die KI es erklären kann.
Und nun etwas unbeschwerter – ich verwende KI auch für unkonventionelle Dinge. Am Wochenende mache ich zum Beispiel gerne ein kreatives Frühstück und kreiere aus Eiern und Gemüse verschiedene Bilder auf meinem Teller. Die letzte Stufe dieses Spaßes? Ich lasse die KI meine „künstlerische Kreation“ analysieren und mir sagen, was sie darauf sieht. Es ist faszinierend, wie sie verschiedene Muster erkennen kann – wo ich einen Vulkan mit einem Lava-Eigelb sehe, interpretiert die KI das Gemüse drum herum zum Beispiel als Blumen. Oft denke ich zurück und sehe etwas Neues in dem Bild. Es ist so ein unerwartetes kreatives Experiment.
Jakub, was würdest du noch aus der Praxis hinzufügen?
Seitdem ich das Internet durchsuchen und Ressourcen in GPT abrufen kann, habe ich viel weniger gegoogelt. Wenn ich etwas brauche, frage ich zuerst GPT und gehe dann zur Suchmaschine. Die KI macht sogar einen schnellen Dump der Informationen und gibt mir direkt die Quelle, was mir Zeit spart.
Wichtig für mich ist, woher die Information stammt, nicht nur, was mir die KI sagt. Mich interessiert nicht, was sie mir sagt, sondern woher sie es hat. Deshalb frage ich immer nach der Quelle. Ich muss also nicht einmal Prompts formulieren. Es reicht, das Problem kurz zu beschreiben, und GPT hilft mir, die Antwort schneller zu finden, als wenn ich versuchen würde, die Frage richtig bei Google zu formulieren.
Michal, welche praktischen Anwendungen von ChatGPT würdest du sowohl Anfängern, die nicht wissen, wie sie anfangen sollen, als auch fortgeschrittenen Benutzern empfehlen?
Michal: ChatGPT ist sicherlich ein spannendes Tool. Es ermöglicht dir, Texte zu verarbeiten, Bilder zu analysieren, zu denken und Entscheidungen zu treffen. Es macht meine Arbeit sehr viel einfacher, vor allem in drei Bereichen.
Für diejenigen, die wie ich Systeme entwickeln – Modelle helfen uns, das Rauschen der Benutzereingaben zu eliminieren. Früher musste der Benutzer genau artikulieren, was er wollte, aber heute muss es nicht mehr so genau sein. Ein Modell versteht die ungefähre Eingabe und kann das Wesentliche daraus extrahieren. Wenn ich zum Beispiel programmiere, muss ich keine ganzen Sätze schreiben, sondern brauche nur eine Beschreibung mit zwei oder drei Wörtern und ein paar Schlüsselwörter, und schon weiß das Modell, was ich brauche.
Der zweite Bereich ist Logik und die Fähigkeit zu „denken“. Manchmal lasse ich mehrere KI-Modelle gegeneinander antreten – eines nimmt meine Eingaben auf und erzeugt eine Ausgabe, d.h. das, was ich von ihm verlange. Das andere kritisiert, was das erste Modell erzeugt hat. Und das dritte fungiert als Konsensmoderator. Ich lasse sie eine halbe Stunde lang auf diese Weise arbeiten und erhalte so verschiedene Perspektiven auf das Problem. Oft führt das zu Lösungen, auf die ich allein nicht gekommen wäre.
Der dritte Bereich ist der Umgang mit komplexen Themen und Echtzeitkommunikation. ChatGPT hilft mir, auch völlig neue oder komplexe Themen zu verstehen, ohne dass ich ein Experte auf diesem Gebiet bin. Ich brauche ihn nur zu fragen und er erklärt es mir in einfachen Worten. Außerdem ist der erweiterte Sprachmodus eine weitere Funktion, die ich häufig verwende – er ermöglicht es der KI, natürlich zu antworten. Ich kann sie sogar unterbrechen und die Frage bearbeiten, wenn ich die Antwort in eine andere Richtung haben möchte. Für mich ist es buchstäblich ein digitaler Wingman, mit dem ich verschiedene Themen bespreche, zum Beispiel auf dem Heimweg von der Arbeit.
Jakub, was ist deine Meinung zu ChatGPT?
Jakub: Ich benutze es täglich – es ist ein wichtiges Werkzeug für mich. Aber mir fällt auf, wie es von Menschen in meinem Umfeld wahrgenommen wird, die nicht viel Erfahrung mit KI haben. Sie halten sie oft für einen Wahrsager, der ihnen sofort die Antwort auf genau das gibt, was sie brauchen. Aber so funktioniert es einfach nicht.
Was Michal erwähnte – dass du einfach zwei oder drei Wörter eingeben kannst und das Modell sie herausfindet – ist wahr, aber nur, wenn es bereits einen Kontext gibt. Ich verwende es auch, indem ich eine kurze Zusammenfassung eintippe und ChatGPT versteht, was ich brauche. Aber wenn ich ein völlig neues Gespräch beginne, können die Ergebnisse völlig daneben liegen, weil das Modell keine Vorinformationen hat.
Lass uns ein Beispiel nehmen. Stellen wir uns vor, ich möchte essen. Ich komme zu dir und sage: „Mach mir mein Lieblingsessen.“ Wie würdest du reagieren? Du hast keine Ahnung, was mein Lieblingsessen ist. Also würdest du wahrscheinlich versuchen zu improvisieren, denn du musst ja etwas tun. Du musst mit einer Antwort zurückkommen. Du würdest wahrscheinlich versuchen, etwas zu kochen, von dem du glaubst, dass ich es gerne hätte. Aber würde es wirklich das sein, was ich möchte? Wahrscheinlich nicht. Und ChatGPT funktioniert genauso – wenn du ihm keinen Kontext gibst, muss es Vermutungen anstellen.
Aber wenn ich mit der gleichen Frage zu meiner Mutter oder Großmutter käme und sie diesen Kontext hätten, wüssten sie sofort, was ich mag. Sie bräuchten nicht zu raten. Das Gleiche gilt für künstliche Intelligenz – wenn sie einen Kontext hat, arbeitet sie genauer. Du brauchst keine Angst zu haben, die KI ein wenig mehr zu steuern, mit ihr zu interagieren. Du kannst ihr anfangs mehr Details geben. Frag sie, welche Eingaben sie von dir benötigt, um dir das gewünschte Ergebnis zu liefern.
Die Menschen nehmen ChatGPT als Wahrsagerin wahr, die sofort alles beantwortet, was sie brauchen. KI arbeitet genauer, wenn sie einen Kontext hat.
Aber eines ist sicher – die KI wird dir kein so gutes Essen kochen wie deine Großmutter.
Jakub: Das tut es ganz sicher nicht. Aber vor zwei Wochen zum Beispiel wollte ich ein Abendessen kochen und hatte nur ein paar Zutaten. Ich habe sie in ChatGPT eingegeben und gefragt, was ich damit kochen könnte. Das Ergebnis war erstaunlich lecker. Selbst wenn sie nicht kocht, kann sie also interessante Rezepte finden.
Wie stellt man ChatGPT-Fragen richtig? Nun, ich habe Michal kürzlich eine einfache Frage gestellt: „Wann wurdest du geboren?“ Und er antwortete: „Im Mai.“ Ich war überrascht, weil ich das Jahr wissen wollte, aber ich hatte die Frage falsch formuliert. Funktioniert das mit ChatGPT ähnlich? Wenn wir die Frage falsch formulieren, erhalten wir dann eine ungenaue Antwort?
Michal: Ganz genau. Wenn die Frage vage oder zu weit gefasst ist, erhalten wir eine Antwort in ähnlicher Form. Hier gilt eine einfache Regel: Je spezifischer die Frage, desto präziser die Antwort.
Menschen machen eine Reihe von Fehlern, wenn sie mit KI arbeiten. Einer davon ist, dass sie zu viele Fragen in einer einzigen zusammenfassen. Das Modell kann dann „verloren“ gehen und nicht genau das beantworten, was wir wollen. Es ist daher eine gute Idee, Fragen klar und eindeutig zu stellen.
Ein weiterer weit verbreiteter Fehler ist, dass Menschen allem, was die KI generiert, blindlings vertrauen. Auch wenn ChatGPT sehr fortschrittlich ist, kann es immer noch ungenaue oder verzerrte Informationen liefern. Deshalb ist es wichtig, die Fakten zu überprüfen, zum Beispiel ganz klassisch über Google. Gib einfach Stichworte ein und überprüf deine Quellen.
Viele gehen auch davon aus, dass künstliche Intelligenz alles weiß, aber das ist nicht wahr. Ihr Wissen ist begrenzt und sie hat keinen aktuellen Zugang zu allen Informationen. Ein weiterer Fehler ist die Verwendung einer zu komplizierten Sprache – wenn eine Frage unnötig komplex ist, kann das Modell weniger genau antworten. Es ist am besten, Fragen einfach und direkt zu formulieren.
Jakub, wie fängt man also mit künstlicher Intelligenz an und welche Kosten entstehen dabei? Kennst du interessante Tools, die du den Hörern empfehlen würdest? Und wofür können sie eingesetzt werden? Genauer gesagt, wie wählst du das richtige KI-Tool aus und wie viel gibst du pro Monat für KI-Software-Abonnements aus?
Jakub: Ich bin derzeit ein regelmäßiger Nutzer, ich benutze KI nicht über die API (Webbrowser), obwohl ich dafür ein Konto habe. Im Moment bezahle ich nur für ChatGPT Plus, aber wenn ich mehr brauche, kann ich auch mehr bezahlen. Im Durchschnitt sind es ein paar Dutzend Euro pro Monat, also nicht viel. Wenn jemand ganz von vorne anfängt, würde ich auf jeden Fall empfehlen, mit GPT zu beginnen – die Basisversion ist kostenlos und reicht aus, um sich mit der Technologie vertraut zu machen.
Michal: Ich stimme zu. ChatGPT von OpenAI ist der beste Start – es ist kostenlos, obwohl es Einschränkungen hat. Wenn man an Grenzen stößt, kann man $20 pro Monat für erweiterte Funktionen zahlen.
Ich verwende jedoch auch KI über die API – ich schreibe ein Programm, das eine Verbindung zu ChatGPT herstellt. Wie ich bereits erwähnt habe, lasse ich mehrere Modelle gegeneinander antreten, um die Ergebnisse kritisch zu bewerten. Wenn ihr über die API auf die neuesten OpenAI-Modelle zugreifen wollt, müsst ihr zunächst 1.000 Dollar ausgeben, um den Status Tier 5 (Langzeitnutzer) zu erhalten – eine Stufe, die es euch ermöglicht, die neuesten Versionen der Modelle zu nutzen.
Interessanterweise hat das chinesische Unternehmen DeepSeek am 20. Januar ein neues offenes Modell veröffentlicht, das mit O1-Ergebnissen eines der derzeit besten Modelle ist. Offen bedeutet, dass du es direkt auf deinem Computer installieren könnt und keine Daten an externe Server senden müsst.
Wenn es um den Einsatz von KI über APIs geht und selbst schwächere Modelle ausreichen, sind die Preise tatsächlich sehr niedrig – man bezahlt für Token (die Wörter, die das Modell verarbeitet). Ich bezahle etwa $5 pro Monat, das ist weniger als ein ChatGPT Plus-Abonnement.
Jakub: Aber wenn es um die Bequemlichkeit geht, ist es immer noch einfacher, 20 Dollar im Monat zu zahlen und die App problemlos zu nutzen. Wenn der Preis auf 100 Dollar steigen würde, würde ich bereits über eine eigene Lösung nachdenken, aber bei dem aktuellen Preis ist mir das den Komfort wert.
Michal, du hast erweiterte Funktionen erwähnt. Lohnt es sich, sie zu nutzen? Und wofür genau verwendest du sie?
Michal: Eine davon ist zum Beispiel der Erweiterte Sprachmodus, den ich bereits erwähnt habe. Dies ist eine Funktion, die es mir ermöglicht, mit der KI in Echtzeit zu sprechen. Ursprünglich war sie nur in der kostenpflichtigen Version verfügbar, aber auch wenn sie inzwischen für ein breiteres Publikum zugänglich gemacht wurde, gibt es immer noch eine Einschränkung. Wenn du also ein Brainstorming oder ein natürliches Gespräch mit der KI führen möchtest, lohnt es sich auf jeden Fall, diese Funktion auszuprobieren.
Ein weiterer fortschrittlicher Vorteil der Plus-Version ist der Zugang zu den neuesten Modellen. Sobald OpenAI ein neues Modell veröffentlicht, erhalten Abonnenten es zuerst, während Nutzer der kostenlosen Version länger warten müssen. Wenn man also immer über die neueste und beste Leistung verfügen möchte, lohnt sich die Investition in die kostenpflichtige Version.
Was sollte man wissen, wenn man Tools wie ChatGPT nutzen möchte? Sind alle Versionen kostenpflichtig? Was sollte man vermeiden? Und inwiefern ist die kostenpflichtige Version besser?
Jakub: Die Benutzung von ChatGPT ist ebenfalls kostenlos. Eine Zeit lang war es sogar möglich, es ohne Registrierung auszuprobieren, aber ich weiß nicht, ob das noch gilt. Im Prinzip muss man nur die Seite öffnen, sich kurz registrieren oder sich mit seinem Google-Konto anmelden.
GPT-4o ist derzeit mit eingeschränktem Zugang verfügbar. OpenAI gibt nicht direkt an, wie viele Nachrichten oder Token die Benutzer der kostenlosen Version verwenden können. Wenn du jedoch das Limit überschreitest, schaltet das System auf GPT-3.5 um oder fordert dich auf, nach einiger Zeit wiederzukommen, um die Vollversion zu nutzen. Wenn du mehr schreiben möchtest, kannst du dafür bezahlen. Wenn nicht, bezahlst du nichts. Das ist die Philosophie, die mir an OpenAI gefällt – sie geben jedem Zugang, wenn sie etwas Neues entwickeln. Zuerst natürlich nur für zahlende Nutzer, aber in ein paar Monaten wird es eine eingeschränkte Version geben.
Die 20 Dollar pro Monat für die Plus-Version sind keine große Summe. Meiner Meinung nach ist es eine gute Investition, denn die Technologie entwickelt sich ständig weiter. Der Clou, den viele nicht wissen, ist, dass OpenAI massiv von Microsoft unterstützt wird, das in den letzten Jahren rund 13 Milliarden Dollar in das Unternehmen investiert hat. Viele Menschen wissen es nicht, aber dadurch verfügt OpenAI über erhebliche Ressourcen für die Entwicklung. Microsoft wiederum integriert diese Modelle in Bing, Copilot und Bing Chat für die Suche. Dort läuft es mit GPT-4 Turbo, das nicht direkt über die ChatGPT-Website verfügbar ist. Wenn du Bing Chat verwendest, erhältst du Zugang zu einer Version des Modells, die leistungsfähiger ist als die, die normalerweise in der kostenlosen Version von ChatGPT verfügbar ist.
Was die Versionen angeht – heute sind alle fortgeschrittenen KI-Modelle bereits kostenpflichtig. Ich erinnere mich, als OpenAI DALL-E (Bilderzeugung) herausbrachte. Zunächst war es kostenlos mit einer begrenzten Anzahl von Token pro Monat. Es war möglich, 10 bis 15 Bilder zu erzeugen, wobei jeder Token 4 Bilder bedeutete. Es war in der Lage, recht abstrakte Bilder auf der Grundlage von Text zu erzeugen. Etwas, das es im Grunde genommen gar nicht gab. Zum Beispiel eine Katze auf einem Skateboard oder eine Katze als Astronaut im Weltraum.
Jetzt entstehen o1- und o3-Modelle, die logisches Denken und Planung fördern. Ebenfalls interessant ist die multimodale KI Sora, die Text, Bild und Video kombiniert. Ich teste die Erstellung von Videos damit, aber ich bin noch nicht ganz zufrieden mit den Ergebnissen.
Jeder muss das Modell wählen, das er braucht. Wenn ich ganz neu mit AI anfangen würde, würde ich auf jeden Fall ChatGPT wählen. Einfach anmelden und ausprobieren. Wenn dir die kostenlose Version reicht, ist das toll. Wenn nicht, hast du immer noch die Möglichkeit, zu bezahlen und die erweiterten Funktionen zu nutzen.
Jakub, was ist eigentlich der Unterschied zwischen der niedrigeren und der neuesten Version, unterscheiden sie sich wirklich so sehr? Wir haben über die verschiedenen Modelle gesprochen – ChatGPT ist auch kostenlos erhältlich, DALL-E ist mehr auf Marketing und Grafikdesign ausgerichtet, o1 ist mehr für Wissenschaft und Mathematik, also für fortgeschrittene Analysen. Ist ChatGPT für den Durchschnittsnutzer völlig ausreichend?
Jakub: Ja, das stimmt, du kannst entweder die kostenlose Version nutzen oder für ein Abonnement bezahlen. Ich persönlich nutze DALL-E und Sora nicht so oft. Ich weiß, dass Sora einige Einschränkungen im Rahmen des Abonnements hat. Zum Beispiel kannst du, auch wenn du ein zahlender Nutzer bist, nicht die hochwertigsten Videos erstellen – ich hatte ein Limit von 4 Sekunden pro Video und auch ein Limit für die Anzahl der Zeichen in der Beschreibung oder die Gesamtzahl der Videos, die ich erstellen kann. Das macht Sinn, denn das Erstellen von Videos ist viel rechenintensiver als das Tippen mit ChatGPT.
Wenn du nach den Unterschieden fragst, geht es vor allem um die Geschwindigkeit der Antworten und die verfügbaren Funktionen. Wenn du das Limit des GPT-4o ausschöpfst, wirst du automatisch auf o4-mini umgestellt. Dieser ist etwas langsamer und hat möglicherweise eine schlechtere Antwortqualität und eingeschränkte Funktionen.
Wie sind diese Algorithmen eigentlich aufgebaut? Das letzte Mal habe ich mich gefragt, wann ich von der höheren Version auf die Miniversion umgeschaltet werde. Wie funktioniert das?
Jakub: Das ist genau das, was Michal erwähnt hat – es geht um Token. Das Modell zählt, wie viele davon du verbrauchst – wie viele Eingabe- und Ausgabewörter verarbeitet wurden. Wenn du das Limit erreichst, schaltet es einfach auf eine schwächere Version um. Das ist nicht zufällig, es ist kein Algorithmus, der dich einfach „ausschaltet“. Es sagt dir einfach, dass du die erlaubte Anzahl von Token verbraucht hast und in ein paar Stunden wiederkommen kannst.
Michal: Ich möchte dem o1-Modell hinzufügen, dass es nicht nur der Forschung und der mathematischen Analyse dient. Es hat eine Funktion „chain of thought“, as bedeutet, dass es vor der Antwort eine gewisse Zeit nachdenkt. Die Ausgaben sind dann logischer und qualitativ hochwertiger. Bei einfachen Fragen antwortet es schnell, aber wenn es eine komplexere Aufgabe erhält, kann es auch eine Minute darüber nachdenken. Daher denke ich, dass es auch für normale Benutzer nützlich ist, nicht nur für Wissenschaftler und Analysten.
Jakub: Das ist ein guter Punkt, das hatte ich ganz vergessen. Das Interessante am o1 ist, dass es, wenn du ihm einen Befehl gibst, nicht nur anzeigt, wie viele Sekunden es nachgedacht hat. Wenn du darauf klickst, siehst du die gesamte chain of thought – d.h. die Abfolge seiner Gedanken.
Du siehst Schritt für Schritt, wie das Modell vorgegangen ist – was es in Betracht gezogen hat, welche Optionen es bewertet hat, welche Variablen es berücksichtigt hat und warum es letztendlich zu einem bestimmten Ergebnis gekommen ist. Es handelt sich also nicht nur um eine zufällig generierte Antwort oder eine künstlich verzögerte Antwortzeit. Du kannst wirklich sehen, dass es einen logischen Prozess durchlaufen hat, bevor es dir eine endgültige Antwort gegeben hat.
Wie können IT-Experten KI-Tools in Unternehmen effektiv einsetzen, um Sicherheitsrichtlinien einzuhalten? Worauf sollten sie besonders achten?
Jakub: Für mich ist die Grundregel einfach – keine sensiblen Daten, weder geschäftlich noch privat. Ich betrachte die KI als eine Datenbank, in der ich einige Informationen speichere, aber ich sende nie etwas Vertrauliches. Egal, ob es sich um Unternehmens- oder private Daten handelt, ich denke immer darüber nach, was ich an die KI sende.
Wenn ich zum Beispiel ein technisches Problem eines Benutzers in meinem Unternehmen löse, gebe ich nie eine bestimmte Maschinennummer oder sensible Daten an. Stattdessen beschreibe ich das Problem ganz allgemein: „Ich habe dieses und jenes Problem, ich habe diese Lösung gefunden, aber ich brauche einen Rat.“ Auf diese Weise erhalte ich eine Antwort, ohne die Sicherheit zu gefährden.
Das Gleiche gilt auch für das Internet. Du stellst nicht einmal Bilder auf Facebook ein, von denen du nicht willst, dass sie jemand in 10 Jahren über dich zieht. Das Gleiche gilt für KI – du solltest dich zweimal überlegen, was du dort postest. Jeder sollte seine eigenen Grenzen setzen, aber es ist auf jeden Fall eine gute Idee, KI vernünftig zu nutzen und sie sicher zu halten.
Keine sensiblen Arbeits- oder Datenschutzdaten gehören in das KI-Tool.
Michal: Ich würde das noch ein bisschen weiter fassen – es geht nicht nur um persönliche oder Unternehmensdaten, sondern auch um Informationen, die die Funktionsweise eines Unternehmens, seine Systeme, Architektur oder strategischen Pläne offenlegen könnten. Wenn wir der KI Details darüber geben, wie wir etwas planen, könnte das nach hinten losgehen.
Es ist wichtig, so wenig spezifische Informationen wie möglich weiterzugeben. Wenn wir KI zu einem Problem befragen müssen, ist es besser, es allgemein zu formulieren, ohne direkten Bezug zu unserem Unternehmen oder Projekt.
Wenn jemand den Modellen überhaupt nicht traut und nicht möchte, dass die Daten seinen Computer verlassen, kann er sie lokal auf seinem Computer ausführen. Um KI-Modelle schnell auszuführen, benötigst du jedoch eine leistungsstarke Grafikkarte – idealerweise zwei, mit mindestens 45 bis 55 GB NVRAM.
Offene Modelle, die installiert werden können, sind Llama 3.3 oder einige Vision-Modelle, die Bilder auswerten können. Ein solches System mit der nötigen Leistung ist heute für etwa 1.000 Euro zu haben. Wenn du auf der Suche nach einem Schnäppchen bist, kannst du den NVIDIA 3090 für etwa 500 Euro aus zweiter Hand kaufen. Er hat immer noch das beste Preis-Leistungs-Verhältnis.
Das KI-Modell kann ohne Grafikkarte ausgeführt werden, aber dann wird alles im RAM und auf der CPU ausgeführt, was extrem langsam ist. Es gibt auch die Möglichkeit einer Kombination – ein Teil des Modells kann im RAM und ein Teil auf der Grafikkarte laufen, aber das ist immer noch nicht ideal.
Jakub: Der Unterschied liegt in der Anzahl der Prozessoren. Ein Grafikprozessor hat viel mehr Rechenkerne als eine normale CPU. Deshalb sind Grafikkarten in der KI so wichtig – sie können parallele Berechnungen viel schneller durchführen.
Michal: Klein Kleine Modelle mit bis zu 10 GB VRAM können verwendet werden, aber ihre Möglichkeiten sind ziemlich begrenzt. Sie sind für einfache Aufgaben geeignet, aber nicht für viel Musik.
Hast du KI schon einmal für etwas Ungewöhnliches genutzt? Inwiefern hat dich dieses Werkzeug positiv oder negativ überrascht?
Michal: Ich verwende auch chinesische Modelle und es ist faszinierend, wie sie bei der Bildanalyse funktionieren. Das Modell extrahiert zunächst Merkmale aus dem Bild und denkt dann über sie nach. Vor kurzem bin ich auf eine interessante Situation gestoßen – ich habe einen englischen Text analysiert. Da es sich um ein chinesisches Modell handelte, interpretierte es den Text fälschlicherweise als chinesische Schriftzeichen. Dies ist ein Beispiel dafür, wie Trainingsdaten die KI-Leistung beeinflussen. Bei der Entwicklung dieser Systeme stoße ich oft auf Überraschungen wie diese – sie sind nicht immer angenehm.
Michal und Jakub, vielen Dank, dass ihr uns heute in die Welt der künstlichen Intelligenz eingeführt habt. Wenn ihr den Zuhörern zum Schluss noch etwas empfehlen könntet, was wäre das?
Jakub: Hab keine Angst vor KI! Viele Menschen sind in Panik, dass KI ihnen die Arbeit wegnehmen wird. Aber werfen wir einen Blick in die Geschichte: Früher haben die Menschen mit Pferden und Pflügen gepflügt, dann kamen die Traktoren. Die Arbeit ist nicht verschwunden, nur die Werkzeuge haben sich geändert. Anstatt dich zu fürchten, solltest du lieber lernen, wie du KI zu deinem Vorteil nutzen und damit einen Mehrwert schaffen kannst. KI beißt nicht, man muss mit ihr basteln und sie klug einsetzen.
Die KI wird uns nicht die Arbeit wegnehmen. Nur die Werkzeuge, mit denen wir unsere Arbeit erledigen, ändern sich mit ihr.
Michal: Agenten-KI ist die Zukunft. Dieser Trend ermöglicht es KI-Agenten, miteinander zu kommunizieren und gemeinsam Aufgaben zu lösen. Wir können also die Dynamik ihrer Zusammenarbeit modellieren und ich denke, das ist die Zukunft – ganze Teams von Maschinen zu schaffen, die an unserer Stelle arbeiten.
Liebe Hörerinnen und Hörer, der heutige Podcast war für mich wirklich eine Entdeckungsreise. Ich hoffe, ihr fandet ihn nicht nur interessant, sondern wir haben ihn mit einer Prise Humor gewürzt und euch viele neue Erkenntnisse gebracht. KI kann uns faszinieren, überraschen und manchmal sogar amüsieren. Die Botschaft zum Schluss? Scheut euch nicht, neue Technologien auszuprobieren. Je mehr ihr über sie erfahrt, desto einfacher wird es, sie zu eurem Vorteil zu nutzen. Ich freue mich darauf, euch in der nächsten Folge des Na Vlne Kodu-Podcasts wiederzusehen!