Die KI-Branche entwickelt sich in einem atemberaubenden Tempo. Selbst führende Köpfe verlieren manchmal den Überblick. In der dritten Folge des Vorsprung Podcasts bei Everlast AI ordnen drei renommierte Experten die wichtigsten Trends ein. Du erfährst, warum Werbung in ChatGPT kommt, weshalb Anthropics Claude bei Firmen so beliebt ist und wie sich Computer-Arbeit grundlegend verändert. Dieser Artikel fasst die zentralen Erkenntnisse zusammen und gibt dir einen echten Wissens-Vorsprung.
Die Experten im Vorsprung Podcast
Der Vorsprung Podcast bringt drei hochkarätige Gäste zusammen. Jeder bringt eine einzigartige Perspektive mit.
Professor Dr. Pero Mitic ist ein international führender Experte für Zukunfts-Strategien. Er berät Unternehmen weltweit und lehrt als Professor für Foresight and Strategy. Seine Analysen verbinden wirtschaftliche Realität mit technischen Möglichkeiten.
Professor Dr. Andreas Moring unterrichtet digitale Wirtschaft und künstliche Intelligenz an der ISM Hamburg. Er kennt sowohl die akademische Forschung als auch praktische Unternehmens-Anwendungen. Seine Einordnungen helfen, Hype von echtem Potenzial zu trennen.
Kim Isenberg ist studierter Soziologe und erfolgreicher KI-Unternehmer. Sein Newsletter "Superintelligence" zählt zu den erfolgreichsten AI-Newslettern weltweit. Er beobachtet die Szene täglich und kennt die neuesten Entwicklungen aus erster Hand.
Leonard Schmedding ist Inhaber der führenden deutschen KI-Beratungs- und Implementierungsagentur Everlast AI und Betreiber des gleichnamigen YouTube-Kanals Everlast AI.
Diese Kombination aus akademischer Tiefe und praktischer Erfahrung macht den Podcast besonders wertvoll. Die Diskussionen gehen über oberflächliche Schlagzeilen hinaus.
Werbung in ChatGPT: Ein klares Zeichen für Finanzdruck
OpenAI rollt jetzt Werbung für kostenlose Nutzer aus. Zunächst nur in den USA. Die Anzeigen sollen am Ende der Antworten erscheinen. Sie sollen den Chat-Text selbst nicht beeinflussen. Werbetreibende erhalten keinen Zugang zu den Chat-Verläufen.
Demis Hassabis, Chef von Google DeepMind, stichelt elegant in einem Interview. Er fragt: Wenn AGI wirklich kurz bevorsteht, warum braucht OpenAI dann Werbung? Google plant derzeit keine Ads in Gemini. Sie können den Marathon deutlich länger durchhalten.
Professor Moring sieht hier eine neue Werbeform entstehen. Das klassische Banner-Modell wird nicht bleiben. Menschen entwickeln schnell "Banner Blindness". Sie übersehen Werbung automatisch. Google erfand einst AdWords speziell für Suchmaschinen. ChatGPT wird einen ähnlichen Weg gehen müssen.
Kim Isenberg erinnert an eine aufschlussreiche Aussage. Sam Altman nannte Werbung in ChatGPT im Oktober 2024 einen "Last Resort". Er sagte wörtlich, er hasse die Idee. Jetzt kommt sie trotzdem. Das zeigt den enormen Finanzdruck.
Die Zahlen sprechen für sich. Nur etwa 5 Prozent der ChatGPT-Nutzer zahlen aktuell ein Abo. Die restlichen 95 Prozent nutzen den kostenlosen Tier. Das verursacht massive laufende Kosten. Jede Anfrage kostet Rechenleistung und damit Geld.
Professor Mitic ergänzt einen wichtigen Punkt. Die Beziehung zu einem KI-Chatbot unterscheidet sich fundamental von einer Suchmaschine. Viele Nutzer taufen ihren Assistenten liebevoll "Chatti". Sie bauen ein Vertrauensverhältnis auf. Werbung könnte dieses Vertrauen beschädigen.
OpenAI: 20 Milliarden Umsatz und neue Wege zur Monetarisierung
Die offiziellen Zahlen von OpenAI beeindrucken. Das Unternehmen schließt mit etwa 20 Milliarden Dollar Umsatz ab. Ende 2025 verfügte OpenAI über 40 Milliarden Dollar an liquiden Mitteln.
Der Umsatz steigt proportional zur verfügbaren Rechenleistung. Je mehr Compute, desto mehr Einnahmen. Professor Moring ordnet diesen Trend ein: Wir verlassen gerade die Phase der reinen Disruption. Jetzt zählt messbare Leistung. Das Muster kennen wir von anderen Technologien.
Bei Autos ging es anfangs um die Neuheit. Später zählten PS und Kraftstoff-Verbrauch. Computer waren zunächst revolutionär. Dann entschied die Rechengeschwindigkeit. Smartphones begannen als Innovation. Heute vergleicht man Kamera-Qualität und Akkulaufzeit.
KI befindet sich in dieser Übergangsphase. Die Disruption weicht der Leistungs-Optimierung. Das zeigt ein reifendes Produkt.
Neue Einnahme-Quellen sind bereits geplant. OpenAI will Lizenz-Anteile an Kunden-Erfolgen verdienen. Ähnlich wie Googles Spin-off Isomorphic Labs mit dem Pharma-Riesen Eli Lilly kooperiert. Der Fokus verschiebt sich auf Drug Discovery und wissenschaftliche Durchbrüche.
Kim Isenberg erklärt das Modell. OpenAI entwickelt autonome KI-Forscher. Diese unterstützen bei der Medikamenten-Entwicklung. Die Einnahmen hängen dann direkt am Erfolg der Kunden. Das schafft eine Win-Win-Situation.
Professor Mitic sieht Herausforderungen. Eli Lilly hat selbst Zugang zu anderen Modellen. Sie verfügen über eigene Forschungs-Kapazitäten. OpenAI muss echten Mehrwert liefern. Nur den Chat-Service anzubieten reicht nicht.
Der Cerebras-Deal: 10 Milliarden Dollar für schnellere Inferenz
OpenAI schließt einen historischen Deal mit Cerebras ab. 10 Milliarden Dollar über drei Jahre. 750 Megawatt Rechen-Leistung. Es handelt sich um den größten High-Speed Inference Deal der Geschichte.
Die Einheit Megawatt überrascht viele. Warum misst man KI-Deals in Energie statt in Rechenleistung? Jensen Huang von Nvidia erklärt es mit seinem Fünf-Layer-Modell. Ganz unten steht Energie als Fundament. Darauf bauen Chips und Computer-Infrastruktur. Dann folgt die Cloud-Infrastruktur. Darüber die Modelle. Ganz oben die Nutzer.
Der größte Engpass bestimmt die relevante Maßeinheit. Aktuell ist Energie der limitierende Faktor. Nicht die Chip-Kapazität. Nicht die Cloud-Verfügbarkeit.
Cerebras-Chips sind bei der Inferenz deutlich effizienter als Nvidia GPUs. Sie verarbeiten Anfragen 10 bis 100 mal schneller. Gleichzeitig senken sie die Stromkosten pro Token erheblich. Das spielt OpenAI bei ihrer riesigen Nutzer-Basis direkt in die Karten.
Sam Altman kommentierte auf X: Schnellere Inferenz ist gut für alle. Er betont damit den strategischen Wert des Deals. Es geht nicht nur um Kosten. Es geht um Nutzererfahrung und neue Anwendungsfälle.
Der Deal diversifiziert OpenAI auch weg von Nvidia. Diese Abhängigkeit war ein bekanntes Risiko. Jetzt entsteht ein gesünderer Mix aus verschiedenen Chip-Anbietern.
Anthropics Claude: Das beliebteste Modell bei Unternehmen
Claude von Anthropic dominiert überraschend den Enterprise-Markt. Das ist bemerkenswert. OpenAI hat mehr Nutzer. Google hat mehr Ressourcen. Dennoch wählen viele Firmen Claude für kritische Anwendungen.
Laut den Experten gibt es mehrere Gründe. Claude versteht komplexe Aufgaben besser. Die Antworten wirken natürlicher und durchdachter. Das Modell folgt Anweisungen präziser.
Unternehmen schätzen auch die Sicherheits-Features von Anthropic. Das Modell verhält sich vorhersehbarer. Es produziert weniger unerwünschte Ausgaben. Für geschäftskritische Anwendungen ist das entscheidend.
Ein weiterer Faktor ist der lange Kontext. Claude kann sehr umfangreiche Dokumente verarbeiten. Das ermöglicht Anwendungen, die mit anderen Modellen schwierig sind. Vertragsanalysen, Code-Reviews oder umfassende Recherchen werden einfacher.
Wer als AI Automations Manager arbeitet, nutzt oft verschiedene Modelle parallel. Jedes hat Stärken für bestimmte Aufgaben. Claude eignet sich besonders für komplexe Workflows und lange Texte.
Satya Nadellas Vision: Die Zukunft der Computer-Arbeit
Microsoft-CEO Satya Nadella wirft eine grundlegende Frage auf. Wie verändert sich Computer-Arbeit in der KI-Ära? Die Experten diskutieren intensiv darüber.
Professor Mitic sieht einen fundamentalen Paradigmen-Wechsel. Bisher sagen wir dem Computer exakt, was er tun soll. Jeder Klick, jede Eingabe. Künftig beschreiben wir nur das gewünschte Ergebnis. Die KI findet den optimalen Weg selbst.
Das betrifft alle Arbeitsbereiche. Programmieren verändert sich grundlegend. Statt Code zu schreiben, beschreiben wir Funktionen. Die KI generiert den Code. Wir prüfen und verbessern.
Dokumente entstehen anders. Statt Word zu öffnen und zu tippen, beschreiben wir das Ziel. Ein Angebot für Kunde X mit diesen Eckdaten. Die KI erstellt den ersten Entwurf.
Daten-Analyse wandelt sich ebenfalls. Statt komplexer Excel-Formeln beschreiben wir die Frage. Wie hat sich der Umsatz entwickelt? Die KI analysiert und visualisiert.
Menschen werden zu Projekt-Managern ihrer KI-Assistenten. Sie definieren Ziele, prüfen Ergebnisse und geben Feedback. Die Ausführung übernehmen Maschinen.
Professor Moring betont: Das erfordert neue Fähigkeiten. Klare Kommunikation wird wichtiger. Wer Aufgaben gut beschreiben kann, erzielt bessere Ergebnisse.
Elon Musks SpaceX IPO: Rechenzentren im Orbit
Elon Musk plant den SpaceX-Börsengang im Juli 2026. Das eingesammelte Kapital soll Rechenzentren im Weltraum finanzieren. Klingt nach Science-Fiction, ist aber technisch logisch.
Energie ist der größte Engpass für KI-Infrastruktur. Im Orbit gibt es praktisch unbegrenzte Solar-Energie. Keine Nacht unterbricht die Stromversorgung. Keine Wolken reduzieren die Ausbeute.
Die Kühlung ist ebenfalls einfacher. Im Schatten herrschen eisige Temperaturen. Das eliminiert teure Klima-Anlagen. Rechenzentren auf der Erde verbrauchen enorme Energie nur fürs Kühlen.
Die Daten-Übertragung per Laser ist technisch bereits möglich. Starlink demonstriert das Prinzip. Die Bandbreiten steigen kontinuierlich.
Professor Mitic ordnet ein: Das ist kein fernes Zukunfts-Szenario mehr. Die einzelnen Technologien existieren. Nur die Kosten müssen noch sinken. Genau daran arbeitet SpaceX mit seinen wiederverwendbaren Raketen.
Kim Isenberg ergänzt: Der Wettlauf um Weltraum-Infrastruktur hat begonnen. Wer dort Kapazitäten hat, gewinnt strategische Vorteile. Europa fehlt in diesem Rennen fast vollständig.
NASA baut Kernreaktoren auf dem Mond
Die NASA plant bis 2030 Kernreaktoren auf dem Mond zu installieren. Das klingt zunächst weit entfernt von KI-Themen. Bei genauerer Betrachtung hängt beides zusammen.
Mond-Rechenzentren könnten extreme KI-Berechnungen übernehmen. Keine Störung durch die Erdatmosphäre. Konstante Energieversorgung durch Nuklear-Reaktoren. Die Kühlung erfolgt durch die natürliche Mond-Umgebung.
Die Latenzen wären für Echtzeit-Anwendungen zu hoch. Der Mond ist etwa 1,3 Lichtsekunden entfernt. Für Training von Modellen spielt das aber keine Rolle. Training läuft ohnehin über Tage oder Wochen.
Kim Isenberg betont einen geopolitischen Aspekt: China investiert massiv in Weltraum-Infrastruktur. Sie haben klare Pläne für Mond-Basen. Europa darf den Anschluss nicht verpassen. Derzeit fehlen vergleichbare Ambitionen.
Google DeepMind bereitet sich auf Post-AGI-Wirtschaft vor
Google DeepMind denkt bereits über AGI hinaus. Was kommt nach der allgemeinen künstlichen Intelligenz? Wie funktioniert eine Wirtschaft, in der Maschinen die meiste Arbeit erledigen?
Professor Moring sieht diese Diskussion kritisch. Sie lenkt vom Wesentlichen ab. Zuerst müssen wir die jetzigen Möglichkeiten voll ausschöpfen. Die meisten Unternehmen nutzen KI noch kaum. Sie diskutieren lieber über ferne Szenarien.
Pero Mitic widerspricht teilweise. Langfrist-Denken ist für große Konzerne wichtig. Wer zu spät plant, verliert. Google kann sich beides leisten. Kurzfristige Produkte und langfristige Forschung.
Die Frage nach der Post-Arbeit-Wirtschaft ist komplex. Sie berührt Grundfragen unserer Gesellschaft. Wie verteilen wir Wohlstand? Was gibt Menschen Sinn? Diese Fragen werden uns noch lange beschäftigen.
KI-Agenten: Die nächste große Welle
Das Gespräch kommt auf KI-Agenten. Diese handeln selbstständig im Auftrag des Nutzers. Sie führen komplette Workflows aus. Nicht nur einzelne Aufgaben.
Ein Beispiel verdeutlicht den Unterschied. Heute fragst du ChatGPT: Schreib mir eine E-Mail. Du kopierst sie manuell in dein Mail-Programm. Du sendest sie ab. Ein Agent erledigt alles selbst. Er schreibt, sendet und archiviert.
Unternehmen, die früh auf KI-Telefonassistenten setzen, sehen bereits massive Effizienz-Gewinne. Diese Voice-Agents nehmen Anrufe entgegen. Sie vereinbaren Termine. Sie beantworten Routine-Fragen. Menschen bearbeiten nur noch komplexe Fälle.
Das Prinzip weitet sich auf alle Geschäftsbereiche aus. Buchhaltungs-Agenten, Vertriebs-Agenten, Support-Agenten. Jeder Bereich wird automatisierbar.
Professor Moric prognostiziert: 2026 wird das Jahr der Agenten. Die Technologie ist reif genug. Die ersten Produkte funktionieren zuverlässig. Wer jetzt nicht testet, fällt unweigerlich zurück. Die Lernkurve ist steil.
Handwerk hat goldenen Boden: Auch im KI-Zeitalter
Eine Zuschauer-Frage greift das Panel auf. Hat klassisches Handwerk noch Zukunft? Die Antwort fällt eindeutig aus: Ja, mehr denn je.
Professor Moring erklärt ausführlich: Qualitäts-Handwerk braucht Kreativität und Einfühlungsvermögen. Roboter können präzise und schnell arbeiten. Aber echtes Handwerk geht darüber hinaus.
Ein guter Handwerker hat Einfälle und Geistesblitze. Er bringt Dinge zusammen, die statistisch nicht verbunden scheinen. Er denkt über den Tellerrand hinaus. Das kann keine KI ersetzen.
Professor Mitic projiziert eine konkrete Entwicklung: In 15 Jahren besteht ein Klempner-Team aus zwei Menschen und acht Robotern. Die Menschen leiten, entscheiden und lösen Probleme. Die Maschinen führen Routine-Arbeiten aus.
Das erhöht die Produktivität enorm. Ein Team schafft mehr Aufträge. Der Fachkräftemangel wird so gemildert. Die Preise könnten sogar sinken.
Grundeinkommen oder Kapital-Beteiligung?
Das bedingungslose Grundeinkommen wird intensiv diskutiert. Professor Mitic hat klare Gedanken dazu. Bedingungslos würde er es nicht gestalten. Leistung sollte weiterhin eine Rolle spielen.
Die bessere langfristige Lösung: Menschen am Produktiv-Kapital beteiligen. Sie sollen von ihrem Vermögen leben können. Ähnlich wie Norwegen mit seinem legendären Staatsfonds.
Die Zahlen aus Norwegen beeindrucken. Der Fonds verfügt über etwa 340.000 Euro pro Bürger. Das Geld arbeitet und generiert Rendite. Ein Modell für andere Länder.
Ludwig Erhard wollte Deutschland zu einem Volk der Aktionäre machen. Er scheiterte an der Umsetzung. Die Idee bleibt aber richtig.
Transfer-Leistungen wird es trotzdem geben müssen. Professor Mitic favorisiert eine negative Einkommens-Steuer. Wer wenig verdient, zahlt nicht nur keine Steuern. Er erhält zusätzlich Geld vom Staat. Das System ist einfacher als viele Einzelleistungen.
Die dümmste Idee im KI-Zeitalter
Zum Abschluss nennt Leonard Schmedding die "dümmste Idee im KI-Zeitalter". Sie stammt ursprünglich von David Shapiro: Klassisches Studieren wird rückblickend als dumm gelten.
Die Begründung ist einleuchtend. Das Lernen selbst war nie einfacher als heute. KI bietet personalisierte Tutoren rund um die Uhr. Notebook LM erstellt automatisch Podcasts aus Vorlesungs-Folien. Jeder kann sein eigenes Lernprogramm zusammenstellen.
Die Alpha School in den USA zeigt einen neuen Weg: 2 Stunden individuelles KI-Tutoring am Tag. Den Rest der Zeit raus in die echte Welt. Projekte machen, Erfahrungen sammeln.
Professor Moring differenziert diese These: Das formale Studium muss sich grundlegend ändern. Aber Lernen an sich ist wertvoller denn je. Die Werkzeuge dafür sind grandios. Wer sie nicht nutzt, verschenkt enormes Potenzial.
Was Leonard Schmedding wirklich kritisiert: Die deutsche Obsession mit regulatorischen Zertifizierungen. Viele Weiterbildungs-Angebote fokussieren auf Compliance und AI Act. Aber niemand zeigt, wie man KI praktisch im Projekt einsetzt.
Schnelle Adaption schlägt langsames Zertifizieren. Everlast AI stellt bewusst viele junge Talente ein. Sie lernen neue Tools blitzschnell. Erfahrene Profis bleiben oft in alten Workflows gefangen.
Fazit: Schnelle Adaption schlägt langjährige Erfahrung
Der Vorsprung Podcast liefert tiefe und praktische Einblicke. Die wichtigste Erkenntnis: Geschwindigkeit zählt mehr als Erfahrung. Junge Talente, die neue Tools schnell lernen, überholen langjährige Experten.
OpenAI kämpft sichtbar mit der Monetarisierung. Der Werbeschritt zeigt Finanzdruck. Google kann den längeren Atem spielen. Claude erobert überraschend den Enterprise-Markt. Energie wird zum größten Engpass der KI-Branche. Und KI-Agenten stehen unmittelbar vor dem Durchbruch.
Für deutsche Unternehmen gilt ein klarer Appell: Weniger regulieren, mehr experimentieren. Wer jetzt nicht praktisch handelt, verliert den Anschluss. Europa fällt bereits deutlich zurück. China und die USA investieren massiv.
Der Vorsprung Podcast erscheint regelmäßig auf dem YouTube-Kanal von Everlast AI. Fragen und Themenwünsche kannst du an vorsprung@everlastai.de senden. Die Community wächst stetig und die Diskussion geht weiter.



.png)






.webp)

.webp)





















.webp)



.webp)
