- STARTPLATZ AI Hub
- Posts
- 💬 Claude wird künftig mit User-Chats trainiert – außer du widersprichst
💬 Claude wird künftig mit User-Chats trainiert – außer du widersprichst
📲 Thursd-AI Newsletter

👋 Willkommen zur nächsten Ausgabe des verdammt besten Newsletters der KI 🚀
Hier erfahrt ihr kompakt, was in der KI-Welt passiert – inklusive praktischer Use Cases für den gezielten Einsatz aktueller Trends.
... ihr habt diese Mail weitergeleitet bekommen? Dann sagt Danke – und fühlt euch herzlich eingeladen, sie ebenfalls weiterzuleiten. 💌
Heutige Themen:
💬 Claude wird künftig mit User-Chats trainiert – außer du widersprichst
🍌 Nano Banana bringt Googles Bild-KI auf Profi-Niveau
🗣️ gpt-realtime macht Sprach-KI produktionsreif
👥 Erste Abgänge bei Metas Superintelligence Labs
🇨🇭 Europas erstes offenes, mehrsprachiges KI-Modell kommt aus der Schweiz
TRENDING
🧐 Was ist passiert?
Anthropic führt ab September neue Nutzungsbedingungen und Datenschutzrichtlinien ein, die den Einsatz von User-Chats und Coding-Sessions für das Training der eigenen Modelle erlauben. Standardmäßig werden neue Transkripte und Sitzungen einbezogen, es sei denn, Nutzer:innen widersprechen aktiv. Betroffen sind die Pläne Claude Free, Pro und Max, nicht jedoch kommerzielle Angebote wie Claude for Work, Gov oder Education sowie die API-Nutzung über Amazon Bedrock oder Google Cloud Vertex AI.
🔐 Schlüsselpunkte
Ab September können neue Chats und Coding-Sessions für Modelltraining genutzt werden
Nutzer:innen müssen aktiv widersprechen, wenn sie dies nicht möchten
Claude Free, Pro und Max betroffen, kommerzielle und API-Dienste ausgenommen
Datenspeicherung wird bei Zustimmung von 30 Tagen auf fünf Jahre verlängert
Nutzer:innen haben bis 28. September 2025 Zeit, ihre Auswahl zu treffen
🤔 Warum ist das relevant?
Die Anpassung unterstreicht, wie wichtig User-Daten für die Weiterentwicklung moderner KI-Modelle sind. Gleichzeitig wirft sie Fragen zum Datenschutz und zur Transparenz im Umgang mit sensiblen Informationen auf. Für Anthropic ist es ein Balanceakt zwischen schneller Modellverbesserung und der Wahrung der Kontrolle durch die Nutzer:innen.
AUS DEM STARTPLATZ AI HUB
Du hast schon von ChatGPT oder Claude gehört, aber willst es endlich selbst praxisnah KI anwenden? Im KI-Start baust du dein eigenes Portfolio auf, lernst Prompt-Engineering und KI-Tools sicher einzusetzen und bekommst am Ende ein anerkanntes Zertifikat, das deine neuen Skills offiziell bestätigt.
In 5 Modulen zu deiner umfassenden KI-Kompetenz
✨ Modul 1: Einführung in KI: Du bekommst ein solides Verständnis für KI und ihre Entwicklung. Außerdem setzt du direkt deinen ersten persönlichen KI-Use-Case um.
💡 Modul 2: Prompt Engineering: Hier lernst du, wie du gezielt Prompts erstellst, um die Ergebnisse von KI-Tools genau nach deinen Vorstellungen zu steuern.
🛠️ Modul 3: KI-Tools in der Praxis: Du wirst kreativ und setzt verschiedene KI-Tools ein – sei es für Texte, Bilder, Videos oder sogar Automatisierungen.
⚖️ Modul 4: Ethik & Recht: Keine Sorge, du lernst auch alles, was du rechtlich und ethisch bei der Nutzung von KI beachten solltest.
🎓 Modul 5: Ausblick und Zertifikat: Zum Abschluss reflektierst du deine Lernreise, präsentierst dein KI-Portfolio und erhältst ein Zertifikat!
Jetzt deinen Platz sichern
Schnell sein lohnt sich: Die ersten 5 Tickets gibt es zum halben Preis – jetzt weiter informieren!
PIXITS INSIGHTS
🧐 Was ist passiert?
Google hat mit Gemini 2.5 Flash Image – intern Nano Banana genannt – ein neues Bildmodell veröffentlicht, das über API, Google AI Studio und Vertex AI verfügbar ist. Das Modell bietet durchgängige Konsistenz bei Charakteren und Vorlagen, ein tiefes semantisches Weltverständnis sowie präzise lokale Bearbeitungen. Neben gezielten Transformationen können auch mehrere Bilder realistisch miteinander verschmolzen werden.
🔐 Schlüsselpunkte
Hält Charakter- und Produktkonsistenz über verschiedene Szenen und Umgebungen hinweg
Unterstützt feinsteuerbare Bearbeitungen wie Hintergrundunschärfe, Farbänderungen oder Objektentfernung
Ermöglicht Multi-Image-Fusion für fotorealistische Assets, Mockups und Produktplatzierungen
Nutzt Weltwissen für realistische Anwendungen in Bildung, Diagrammbearbeitung und Bildanreicherung
Alle Bilder werden unsichtbar mit SynthID-Wasserzeichen markiert, um Herkunft nachvollziehbar zu machen
🤔 Warum ist das relevant?
Mit Nano Banana rückt die KI-gestützte Bildbearbeitung einen Schritt näher an professionelle Workflows für Branding, Katalogproduktion und kreative Teams heran. Die Kombination aus präziser Steuerung, realistischem Verständnis und transparenter Kennzeichnung macht das Modell zu einem leistungsstarken Werkzeug für Unternehmen und Entwickler:innen, die Bilder zuverlässig und ethisch einsetzen wollen.
Partnerschaft mit Pixitai.io
KI IN DER PRAXIS
🧐 Was ist passiert?
OpenAI hat die Realtime API allgemein verfügbar gemacht und gleichzeitig das neue Sprachmodell gpt-realtime vorgestellt. Das Modell verarbeitet Sprache direkt von Speech-to-Speech, ohne Umwege über getrennte Erkennungs- und Synthesemodule. Dadurch entstehen flüssigere Dialoge mit natürlicher Intonation, Emotion und Sprachwechseln. Neben besserer Instruktionsbefolgung und höherer Intelligenz bietet die API neue Funktionen wie Bild-Inputs, SIP-Telefonie und Unterstützung für MCP-Server.
🔐 Schlüsselpunkte
gpt-realtime erzeugt natürlicher klingende Sprache mit höherer Ausdruckskraft
Verbesserte Leistung bei Instruction Following, Function Calling und Reasoning
Neue Stimmen Cedar und Marin sowie Updates für alle bisherigen Stimmen
API unterstützt Bild-Inputs, SIP-Anrufe und Remote-MCP-Server
Zahlreiche Unternehmen wie Zillow, T-Mobile oder Oscar Health setzen die Realtime API bereits ein
🤔 Warum ist das relevant?
Mit gpt-realtime wird die Entwicklung von Voice Agents für den produktiven Einsatz erheblich vereinfacht. Die Kombination aus geringer Latenz, hoher Sprachqualität und flexiblen Integrationsmöglichkeiten eröffnet neue Anwendungsfelder in Kundensupport, Bildung und Assistenzsystemen. Unternehmen erhalten damit ein Werkzeug, das sich nahtlos in bestehende Prozesse einfügt und neue Formen natürlicher Interaktion mit KI ermöglicht.
DAS NEUESTE AUS DER KI WELT
Nur zwei Monate nach der Gründung der Superintelligence Labs verliert Meta bereits die ersten Forscher:innen. Mindestens acht Mitarbeiter:innen sollen das Unternehmen verlassen haben, darunter auch Expert:innen, die zuvor von OpenAI abgeworben wurden und nun dorthin zurückgekehrt sind. Hinter den Abgängen stehen interne Umstrukturierungen und hoher Erfolgsdruck. Meta betont zwar, solche Wechsel seien in großen Organisationen normal, doch der frühe Aderlass wirft Fragen zur Stabilität der ambitionierten KI-Offensive auf.
Mehrere Schweizer Forschungseinrichtungen – darunter die Technische Hochschule in Zürich und die Universität in Lausanne – haben mit Apertus ein offenes, mehrsprachiges Sprachmodell vorgestellt. Es basiert auf rund 15 Billionen Tokens, von denen 40 Prozent nicht englisch sind, und unterstützt über 1000 Sprachen, darunter auch Schweizerdeutsch und Rätoromanisch. Apertus erfüllt als erstes großes Modell die Vorgaben des EU AI Act und macht Architektur, Modellgewichte sowie Trainingsmaterial frei zugänglich. Damit soll die digitale Eigenständigkeit gestärkt und ein Fundament für Forschung, Wirtschaft und Gesellschaft geschaffen werden.
WAS DIESE WOCHE PASSIERT
TOOLS & RESEARCH
Creaitor.ai - Hochwertige Texte und Content für Marketing erstellen
Writesonic - Vielfältige Inhalte für unterschiedliche Bedürfnisse erstellen
HubSpot KI Text-Generator - Marketingtexte direkt in HubSpot erstellen
Wir lesen täglich eure E-Mails, Kommentare und Umfrageantworten.
Klick auf "Antworten" und lass uns wissen, wovon du mehr willst!
Bis zum nächsten Mal, Das Startplatz AI Hub Team.
Wie hat dir diese Ausgabe gefallen? |
Login oder Abonnieren um an umfragen teilzunehmen. |