GPT wird gefühlvoller, Urheber klagen – und wir lernen, Fakes zu durchschauen
Wird aus dem KI-Wettrennen bald ein juristisches Minenfeld? Und wie erkennt man ein künstliches Lächeln, wenn es täuschend echt wirkt?
OpenAI bringt ein empathischeres Sprachmodell, wird gleichzeitig von deutschen Gerichten wegen Urheberrechtsverletzung gerügt – und währenddessen trainieren Menschen ihr Auge, um KI-Fakes zu entlarven. Willkommen in einer Welt, in der Maschinen Gefühle simulieren, aber Gesetze (noch) nicht verstehen.
Forschung & Entwicklung
OpenAI bringt GPT-5.1: ChatGPT soll flexibler, empathischer und gründlicher werden
OpenAI hat ein Update für sein Sprachmodell veröffentlicht: GPT-5.1. Die neue Version soll nicht nur schneller antworten, sondern dabei auch besser auf den Tonfall und die Absicht der Nutzer:innen eingehen. Klingt nach einem KI-Coach mit Feingefühl – oder einem digitalen Chamäleon. GPT-5.1 kann sich offenbar besser merken, was im Gespräch wichtig war, und sogar den Stil der Gegenüber nachahmen. Das klingt hilfreich – aber auch ein bisschen gruselig.
Die Grenze zwischen empathisch und manipulativ wird damit noch dünner. Wenn ein Sprachmodell uns besser versteht als unser bester Freund – wird es dann auch unser bester Freund?
Quelle: The Decoder
Modelle & Unternehmen
Urteil in Deutschland: OpenAI verletzt Urheberrecht mit KI-Training
Ein deutsches Gericht hat entschieden, dass OpenAI beim Training seiner Sprachmodelle – konkret ChatGPT – gegen das Urheberrecht verstoßen hat. Der Vorwurf: Das Modell wurde mit urheberrechtlich geschützten Musiktexten gefüttert, ohne Genehmigung. OpenAI muss nun Schadensersatz zahlen.
Das Urteil könnte Signalwirkung haben – nicht nur für OpenAI, sondern für die gesamte Branche. Denn viele KI-Modelle lernen aus riesigen Datenmengen, die nicht immer sauber lizenziert sind. Die Frage lautet: Ist das bloß technischer Fortschritt – oder digitaler Raubdruck 2.0?
Quelle: TechCrunch AI
Gesellschaft & Politik
KI-Fakes erkennen in 5 Minuten: Neues Training soll unser Auge schärfen
Real oder künstlich? Diese Frage wird immer schwieriger zu beantworten, wenn es um KI-generierte Gesichter geht. Doch Forscher:innen haben eine überraschend einfache Methode gefunden, um unser Gehirn auf Fake-Bilder zu trainieren: Ein fünfminütiges Kurztraining reicht offenbar, um die Trefferquote beim Erkennen von KI-Gesichtern deutlich zu steigern.
Das Ganze erinnert ein wenig an die Sehtests beim Augenarzt – nur dass es hier um neuronale Netze statt Netzhaut geht. Die Methode: Menschen lernen typische Fehler in KI-Bildern zu erkennen, etwa unnatürliche Augenreflexionen oder asymmetrische Ohren. Das ist wichtig, denn Deepfakes werden nicht nur besser – sondern auch gefährlicher.
Quelle: t3n Magazine
Fazit
Die KI von morgen hört besser zu, fühlt mit – und verletzt dabei vielleicht Gesetze. Während Maschinen uns täuschend echte Gesichter zeigen, lernen wir, genauer hinzusehen. Vielleicht ist das die eigentliche Superkraft der Zukunft: Nicht, was KI kann – sondern, was wir noch durchschauen.

