• STARTPLATZ AI Hub
  • Posts
  • 🇪🇺 Größte Seed-Runde Europas: DeepMind-Veteran wettet eine Milliarde auf Reinforcement Learning

🇪🇺 Größte Seed-Runde Europas: DeepMind-Veteran wettet eine Milliarde auf Reinforcement Learning

📲 Thursd-AI-Newsletter

👋 Willkommen zur nächsten Ausgabe des verdammt besten Newsletters der KI 🚀

Hier erfahrt ihr kompakt, was in der KI-Welt passiert – inklusive praktischer Use Cases für den gezielten Einsatz aktueller Trends.

... ihr habt diese Mail weitergeleitet bekommen? Dann sagt Danke – und fühlt euch herzlich eingeladen, sie ebenfalls weiterzuleiten. 💌

Heutige Themen:

  • 🇪🇺 Größte Seed-Runde Europas: DeepMind-Veteran wettet eine Milliarde auf Reinforcement Learning

  • 🎬🎨 Qwen-Image-2.0 vereint Bildgenerierung und Editing in einem Modell

  • 🔬 Googles Gemini 3.1 Pro verdoppelt die Reasoning-Leistung des Vorgängers

  • 📉 Dystopischer KI-Bericht löst Milliarden-Ausverkauf an der Wall Street aus

  • 📺 KI-Video im heute journal kostet Korrespondentin den Posten

TRENDING

🧐 Was ist passiert?

David Silver, langjähriger Forscher bei Google DeepMind und einer der Köpfe hinter AlphaGo und AlphaZero, hat Ende 2025 den Konzern verlassen, um in London Ineffable Intelligence zu gründen. Die Financial Times berichtet von einer angestrebten Finanzierungsrunde über rund eine Milliarde Dollar, angeführt von Sequoia Capital – dessen Partner eigens nach London reisten, um Silver zu treffen. Mit einer Pre-Money-Bewertung von rund vier Milliarden Dollar wäre es laut PitchBook die größte Seed-Runde, die jemals ein europäisches Start-up abgeschlossen hat.

🔐 Schlüsselpunkte

  • Sequoia Capital führt die Runde an – Nvidia, Google und Microsoft befinden sich laut FT ebenfalls in Gesprächen über eine Beteiligung

  • Silver forscht parallel als Professor am University College London weiter

  • Der Ansatz setzt auf Reinforcement Learning als Grundlage – eine explizite Abkehr vom dominanten Transformer-Paradigma

  • Ziel ist laut Unternehmensangaben der Aufbau „übermenschlicher Intelligenz" – ein Begriff, der in der Branche viel verwendet und selten präzisiert wird

  • Die Konditionen der Runde sind noch nicht finalisiert – die Zahlen könnten sich noch ändern

🤔 Warum ist das für dich relevant?

Silver gehört zu den wenigen Menschen, die ein KI-System gebaut haben, das Menschen in einem Bereich nachweislich übertroffen hat: Brettspiele wie Go und Schach. Dass er jetzt auf Reinforcement Learning setzt statt auf skalierte Sprachmodelle, ist eine inhaltliche Aussage: Die Wachstumsgrenzen des Transformer-Paradigmas werden im Feld zunehmend diskutiert. Gleichzeitig zeigt die Finanzierungshöhe, wie viel Kapital ins Feld strömt – und wie wenig der Markt derzeit zwischen Forschungsambitionen und konkreten Produktwegen unterscheidet.

AUS DEM STARTPLATZ AI HUB

📅 26. Februar 2026 | 🕐 16:00 – 19:00 Uhr | 💻 Zoom | 💰 90 €

In 3 Stunden installierst du dein eigenes KI-Modell und bindest deine Dokumente an – Hands-on, nicht nur Theorie.

Von der Installation bis zur Datenanbindung

Nach 3 Stunden hast du ein funktionierendes lokales KI-Modell auf deinem Rechner, das deine eigenen Dokumente kennt. Du kannst eigenständig weiter experimentieren und hast einen Plan für den Produktiveinsatz.

  • 💻 Funktionierendes lokales KI-Modell auf deinem Rechner

  • 📄 Eigene Dokumente sicher abfragbar (RAG mit Qdrant)

  • 🚀 Klarer Plan für den Unternehmenseinsatz

Perfekt für dich, wenn du:

  • ✅ Das Webinar besucht hast oder Grundverständnis lokaler KI mitbringst

  • ✅ Selbst installieren und ausprobieren willst

  • ✅ Technische Grundkenntnisse hast (Terminal, Kommandozeile)

  • ✅ Einen Laptop mit mindestens 16 GB RAM hast

PIXITS INSIGHTS

🧐 Was ist passiert?

Alibabas Qwen-Team hat mit Qwen-Image-2.0 ein neues Bildmodell veröffentlicht, das Generierung und Editing erstmals in einer einzigen Architektur zusammenführt. Statt wie bisher mit getrennten Modellen für Bilderstellung und Bearbeitung zu arbeiten, erledigt Qwen-Image-2.0 beides in einem Durchlauf. Das Modell liefert native 2K-Auflösung bis 2048×2048 Pixel und setzt einen neuen Standard bei der Darstellung von Typografie – sowohl auf Chinesisch als auch auf Englisch. Trotzdem ist es mit 7 Milliarden Parametern deutlich kleiner als sein Vorgänger.

🔐 Schlüsselpunkte

  • Vereint die bisherigen Modelle Qwen-Image und Qwen-Image-Edit in einer Architektur – generiert und bearbeitet Bilder gleichermaßen

  • Native 2K-Auflösung für Fotos, Poster, Slides, Comics und komplexe Multi-Panel-Layouts

  • Besonders stark bei Textrendering: komplexe Typografie, lange Textpassagen und layoutlastige Infografiken ohne Rechtschreib- oder Abstandsfehler

  • Verarbeitet Prompts mit bis zu 1.000 Token – ermöglicht präzise Steuerung von Platzierung und Komposition in Storyboards und Präsentationen

  • Mit 7 Milliarden Parametern rund zwei Drittel kleiner als der Vorgänger (~20 Milliarden) – bei schnellerer Inferenz und mindestens gleichwertiger Bildqualität

🤔 Warum ist das für dich relevant?

Die Trennung zwischen Bildgenerierung und Bildbearbeitung war bisher ein typischer Workflow-Bruch – ein Modell erzeugt, ein anderes korrigiert. Qwen-Image-2.0 beseitigt diesen Schritt. Dass das Modell dabei auch noch deutlich kleiner und schneller ist als sein Vorgänger, macht es für den produktiven Einsatz interessanter als reine Qualitäts-Upgrades. Die Stärke bei Typografie und Infografiken adressiert einen Bereich, an dem viele Bildmodelle bisher scheitern – ob das im Alltag so zuverlässig funktioniert wie in den eigenen Benchmarks, muss sich allerdings erst zeigen.

Partnerschaft mit Pixitai.io

KI IN DER PRAXIS

🧐 Was ist passiert?

Google hat mit Gemini 3.1 Pro ein umfassendes Upgrade seines Kernmodells veröffentlicht. Der Fokus liegt auf deutlich verbessertem Reasoning – also der Fähigkeit, komplexe logische Aufgaben schrittweise zu lösen. Auf dem Benchmark ARC-AGI-2, der testet, wie gut ein Modell völlig neue logische Muster erkennt, erreicht 3.1 Pro 77,1 Prozent – mehr als doppelt so viel wie der Vorgänger mit 31,1 Prozent. Das Modell rollt ab sofort in die Gemini-App, NotebookLM sowie sämtliche Entwickler- und Unternehmenstools aus.

🔐 Schlüsselpunkte

  • Auf dem Reasoning-Benchmark ARC-AGI-2 erreicht 3.1 Pro 77,1 Prozent – der Vorgänger kam auf rund die Hälfte

  • Bei der agentischen Suche (BrowseComp) steigt die Leistung von 59,2 auf 85,9 Prozent

  • Das Modell generiert codebasierte SVG-Animationen direkt aus Textprompts – skalierbar und mit minimaler Dateigröße

  • Verfügbar für Entwickler:innen über Gemini API, AI Studio, Gemini CLI, Antigravity und Android Studio – für Unternehmen über Vertex AI

  • Höhere Nutzungslimits gibt es zunächst für Google AI Pro- und Ultra-Abonnent:innen

🤔 Warum ist das für dich relevant?

Das Timing ist kein Zufall: Innerhalb weniger Wochen haben OpenAI mit GPT-5.3-Codex, Anthropic mit Claude Opus 4.6 und nun Google mit Gemini 3.1 Pro jeweils ihre stärksten Modelle aktualisiert – der Upgrade-Zyklus der großen Anbieter wird immer enger getaktet. Googles Verbesserungen klingen auf dem Papier beeindruckend, doch wie immer gilt: Benchmark-Ergebnisse und Alltagsnutzen sind zwei verschiedene Dinge – neue Modelle werden unter anderem gezielt auf diese Tests hin optimiert. Dass sich Gemini 3 trotzdem als eines der beliebtesten Modelle etabliert hat und OpenAI damit unter Druck setzte, zeigt allerdings, dass Google im Modellwettbewerb wieder ernstzunehmend mitspielen kann.

MEHR NEWS AUS DER KI WELT

Ein hypothetisches Szenario des Analysehauses Citrini Research hat die US-Börsen erschüttert. Der Bericht „The 2028 Global Intelligence Crisis" skizziert eine Zukunft, in der KI-Agenten massenhaft Jobs ersetzen und die Arbeitslosenquote auf über zehn Prozent steigt. Der Blogpost ging viral, wurde millionenfach aufgerufen – und ließ den US-Software-Index um über vier Prozent einbrechen. Seit Jahresbeginn hat der Index fast ein Viertel seines Werts verloren. Kritiker:innen werfen dem Bericht vor, die Anpassungsfähigkeit der Wirtschaft zu unterschätzen – doch die Reaktion zeigt, wie fragil das Vertrauen in traditionelle Geschäftsmodelle geworden ist.

Das ZDF hat in einem Beitrag des heute journals über die US-Behörde ICE ein KI-generiertes Video gezeigt – ohne es als solches zu kennzeichnen. Die mit OpenAIs Sora erstellte Aufnahme suggerierte eine Festnahme durch ICE-Agenten. Zusätzlich wurde eine reale Aufnahme aus 2022 in falschem Kontext verwendet. Der Sender entschuldigte sich öffentlich, die verantwortliche Korrespondentin wurde abberufen. Der Fall zeigt, wie leicht KI-generiertes Material in etablierte Redaktionsprozesse gelangen kann – und wie groß der Schaden für die Glaubwürdigkeit ist, wenn Prüfmechanismen versagen.

WAS DIESE WOCHE PASSIERT

Upcoming events:

TOOL-TIPP

  1. NotebookLM – Dokumente, PDFs und Videos in eine persönliche Wissensdatenbank verwandeln, inklusive der Erstellung von Podcasts, Präsentationen, Infografiken und vielem mehr.

Wir lesen täglich eure E-Mails, Kommentare und Umfrageantworten.

Klick auf "Antworten" und lass uns wissen, wovon du mehr willst!

Bis zum nächsten Mal, Das Startplatz AI Hub Team.

Wie hat dir diese Ausgabe gefallen?

Login oder Abonnieren um an umfragen teilzunehmen.