• STARTPLATZ AI Hub
  • Posts
  • 💬 Claude wird künftig mit User-Chats trainiert – außer du widersprichst

💬 Claude wird künftig mit User-Chats trainiert – außer du widersprichst

📲 Thursd-AI Newsletter

👋 Willkommen zur nächsten Ausgabe des verdammt besten Newsletters der KI 🚀

Hier erfahrt ihr kompakt, was in der KI-Welt passiert – inklusive praktischer Use Cases für den gezielten Einsatz aktueller Trends.

... ihr habt diese Mail weitergeleitet bekommen? Dann sagt Danke – und fühlt euch herzlich eingeladen, sie ebenfalls weiterzuleiten. 💌

Heutige Themen:

  • 💬 Claude wird künftig mit User-Chats trainiert – außer du widersprichst

  • 🍌 Nano Banana bringt Googles Bild-KI auf Profi-Niveau

  • 🗣️ gpt-realtime macht Sprach-KI produktionsreif

  • 👥 Erste Abgänge bei Metas Superintelligence Labs

  • 🇨🇭 Europas erstes offenes, mehrsprachiges KI-Modell kommt aus der Schweiz

TRENDING

🧐 Was ist passiert?

Anthropic führt ab September neue Nutzungsbedingungen und Datenschutzrichtlinien ein, die den Einsatz von User-Chats und Coding-Sessions für das Training der eigenen Modelle erlauben. Standardmäßig werden neue Transkripte und Sitzungen einbezogen, es sei denn, Nutzer:innen widersprechen aktiv. Betroffen sind die Pläne Claude Free, Pro und Max, nicht jedoch kommerzielle Angebote wie Claude for Work, Gov oder Education sowie die API-Nutzung über Amazon Bedrock oder Google Cloud Vertex AI.

🔐 Schlüsselpunkte

  • Ab September können neue Chats und Coding-Sessions für Modelltraining genutzt werden

  • Nutzer:innen müssen aktiv widersprechen, wenn sie dies nicht möchten

  • Claude Free, Pro und Max betroffen, kommerzielle und API-Dienste ausgenommen

  • Datenspeicherung wird bei Zustimmung von 30 Tagen auf fünf Jahre verlängert

  • Nutzer:innen haben bis 28. September 2025 Zeit, ihre Auswahl zu treffen

🤔 Warum ist das relevant?

Die Anpassung unterstreicht, wie wichtig User-Daten für die Weiterentwicklung moderner KI-Modelle sind. Gleichzeitig wirft sie Fragen zum Datenschutz und zur Transparenz im Umgang mit sensiblen Informationen auf. Für Anthropic ist es ein Balanceakt zwischen schneller Modellverbesserung und der Wahrung der Kontrolle durch die Nutzer:innen.

AUS DEM STARTPLATZ AI HUB

Du hast schon von ChatGPT oder Claude gehört, aber willst es endlich selbst praxisnah KI anwenden? Im KI-Start baust du dein eigenes Portfolio auf, lernst Prompt-Engineering und KI-Tools sicher einzusetzen und bekommst am Ende ein anerkanntes Zertifikat, das deine neuen Skills offiziell bestätigt.

In 5 Modulen zu deiner umfassenden KI-Kompetenz

  •  Modul 1: Einführung in KI: Du bekommst ein solides Verständnis für KI und ihre Entwicklung. Außerdem setzt du direkt deinen ersten persönlichen KI-Use-Case um.

  • 💡 Modul 2: Prompt Engineering: Hier lernst du, wie du gezielt Prompts erstellst, um die Ergebnisse von KI-Tools genau nach deinen Vorstellungen zu steuern.

  • 🛠️ Modul 3: KI-Tools in der Praxis: Du wirst kreativ und setzt verschiedene KI-Tools ein – sei es für Texte, Bilder, Videos oder sogar Automatisierungen.

  • ⚖️ Modul 4: Ethik & Recht: Keine Sorge, du lernst auch alles, was du rechtlich und ethisch bei der Nutzung von KI beachten solltest.

  • 🎓 Modul 5: Ausblick und Zertifikat: Zum Abschluss reflektierst du deine Lernreise, präsentierst dein KI-Portfolio und erhältst ein Zertifikat!

Jetzt deinen Platz sichern

Schnell sein lohnt sich: Die ersten 5 Tickets gibt es zum halben Preisjetzt weiter informieren!

PIXITS INSIGHTS

🧐 Was ist passiert?

Google hat mit Gemini 2.5 Flash Image – intern Nano Banana genannt – ein neues Bildmodell veröffentlicht, das über API, Google AI Studio und Vertex AI verfügbar ist. Das Modell bietet durchgängige Konsistenz bei Charakteren und Vorlagen, ein tiefes semantisches Weltverständnis sowie präzise lokale Bearbeitungen. Neben gezielten Transformationen können auch mehrere Bilder realistisch miteinander verschmolzen werden.

🔐 Schlüsselpunkte

  • Hält Charakter- und Produktkonsistenz über verschiedene Szenen und Umgebungen hinweg

  • Unterstützt feinsteuerbare Bearbeitungen wie Hintergrundunschärfe, Farbänderungen oder Objektentfernung

  • Ermöglicht Multi-Image-Fusion für fotorealistische Assets, Mockups und Produktplatzierungen

  • Nutzt Weltwissen für realistische Anwendungen in Bildung, Diagrammbearbeitung und Bildanreicherung

  • Alle Bilder werden unsichtbar mit SynthID-Wasserzeichen markiert, um Herkunft nachvollziehbar zu machen

🤔 Warum ist das relevant?

Mit Nano Banana rückt die KI-gestützte Bildbearbeitung einen Schritt näher an professionelle Workflows für Branding, Katalogproduktion und kreative Teams heran. Die Kombination aus präziser Steuerung, realistischem Verständnis und transparenter Kennzeichnung macht das Modell zu einem leistungsstarken Werkzeug für Unternehmen und Entwickler:innen, die Bilder zuverlässig und ethisch einsetzen wollen.

Partnerschaft mit Pixitai.io

KI IN DER PRAXIS

🧐 Was ist passiert?

OpenAI hat die Realtime API allgemein verfügbar gemacht und gleichzeitig das neue Sprachmodell gpt-realtime vorgestellt. Das Modell verarbeitet Sprache direkt von Speech-to-Speech, ohne Umwege über getrennte Erkennungs- und Synthesemodule. Dadurch entstehen flüssigere Dialoge mit natürlicher Intonation, Emotion und Sprachwechseln. Neben besserer Instruktionsbefolgung und höherer Intelligenz bietet die API neue Funktionen wie Bild-Inputs, SIP-Telefonie und Unterstützung für MCP-Server.

🔐 Schlüsselpunkte

  • gpt-realtime erzeugt natürlicher klingende Sprache mit höherer Ausdruckskraft

  • Verbesserte Leistung bei Instruction Following, Function Calling und Reasoning

  • Neue Stimmen Cedar und Marin sowie Updates für alle bisherigen Stimmen

  • API unterstützt Bild-Inputs, SIP-Anrufe und Remote-MCP-Server

  • Zahlreiche Unternehmen wie Zillow, T-Mobile oder Oscar Health setzen die Realtime API bereits ein

🤔 Warum ist das relevant?

Mit gpt-realtime wird die Entwicklung von Voice Agents für den produktiven Einsatz erheblich vereinfacht. Die Kombination aus geringer Latenz, hoher Sprachqualität und flexiblen Integrationsmöglichkeiten eröffnet neue Anwendungsfelder in Kundensupport, Bildung und Assistenzsystemen. Unternehmen erhalten damit ein Werkzeug, das sich nahtlos in bestehende Prozesse einfügt und neue Formen natürlicher Interaktion mit KI ermöglicht.

DAS NEUESTE AUS DER KI WELT

Nur zwei Monate nach der Gründung der Superintelligence Labs verliert Meta bereits die ersten Forscher:innen. Mindestens acht Mitarbeiter:innen sollen das Unternehmen verlassen haben, darunter auch Expert:innen, die zuvor von OpenAI abgeworben wurden und nun dorthin zurückgekehrt sind. Hinter den Abgängen stehen interne Umstrukturierungen und hoher Erfolgsdruck. Meta betont zwar, solche Wechsel seien in großen Organisationen normal, doch der frühe Aderlass wirft Fragen zur Stabilität der ambitionierten KI-Offensive auf.

Mehrere Schweizer Forschungseinrichtungen – darunter die Technische Hochschule in Zürich und die Universität in Lausanne – haben mit Apertus ein offenes, mehrsprachiges Sprachmodell vorgestellt. Es basiert auf rund 15 Billionen Tokens, von denen 40 Prozent nicht englisch sind, und unterstützt über 1000 Sprachen, darunter auch Schweizerdeutsch und Rätoromanisch. Apertus erfüllt als erstes großes Modell die Vorgaben des EU AI Act und macht Architektur, Modellgewichte sowie Trainingsmaterial frei zugänglich. Damit soll die digitale Eigenständigkeit gestärkt und ein Fundament für Forschung, Wirtschaft und Gesellschaft geschaffen werden.

WAS DIESE WOCHE PASSIERT

Upcoming events:

TOOLS & RESEARCH

  1. Creaitor.ai - Hochwertige Texte und Content für Marketing erstellen

  2. Writesonic - Vielfältige Inhalte für unterschiedliche Bedürfnisse erstellen

  3. HubSpot KI Text-Generator - Marketingtexte direkt in HubSpot erstellen

Wir lesen täglich eure E-Mails, Kommentare und Umfrageantworten.

Klick auf "Antworten" und lass uns wissen, wovon du mehr willst!

Bis zum nächsten Mal, Das Startplatz AI Hub Team.

Wie hat dir diese Ausgabe gefallen?

Login oder Abonnieren um an umfragen teilzunehmen.