Neuronale Notizen vom 13. November 2025

Neuronale Notizen vom 13. November 2025

GPT wird gefühlvoller, Urheber klagen – und wir lernen, Fakes zu durchschauen

Wird aus dem KI-Wettrennen bald ein juristisches Minenfeld? Und wie erkennt man ein künstliches Lächeln, wenn es täuschend echt wirkt?

OpenAI bringt ein empathischeres Sprachmodell, wird gleichzeitig von deutschen Gerichten wegen Urheberrechtsverletzung gerügt – und währenddessen trainieren Menschen ihr Auge, um KI-Fakes zu entlarven. Willkommen in einer Welt, in der Maschinen Gefühle simulieren, aber Gesetze (noch) nicht verstehen.

Forschung & Entwicklung

OpenAI bringt GPT-5.1: ChatGPT soll flexibler, empathischer und gründlicher werden

OpenAI hat ein Update für sein Sprachmodell veröffentlicht: GPT-5.1. Die neue Version soll nicht nur schneller antworten, sondern dabei auch besser auf den Tonfall und die Absicht der Nutzer:innen eingehen. Klingt nach einem KI-Coach mit Feingefühl – oder einem digitalen Chamäleon. GPT-5.1 kann sich offenbar besser merken, was im Gespräch wichtig war, und sogar den Stil der Gegenüber nachahmen. Das klingt hilfreich – aber auch ein bisschen gruselig.

Die Grenze zwischen empathisch und manipulativ wird damit noch dünner. Wenn ein Sprachmodell uns besser versteht als unser bester Freund – wird es dann auch unser bester Freund?

Quelle: The Decoder


Modelle & Unternehmen

Urteil in Deutschland: OpenAI verletzt Urheberrecht mit KI-Training

Ein deutsches Gericht hat entschieden, dass OpenAI beim Training seiner Sprachmodelle – konkret ChatGPT – gegen das Urheberrecht verstoßen hat. Der Vorwurf: Das Modell wurde mit urheberrechtlich geschützten Musiktexten gefüttert, ohne Genehmigung. OpenAI muss nun Schadensersatz zahlen.

Das Urteil könnte Signalwirkung haben – nicht nur für OpenAI, sondern für die gesamte Branche. Denn viele KI-Modelle lernen aus riesigen Datenmengen, die nicht immer sauber lizenziert sind. Die Frage lautet: Ist das bloß technischer Fortschritt – oder digitaler Raubdruck 2.0?

Quelle: TechCrunch AI


Gesellschaft & Politik

KI-Fakes erkennen in 5 Minuten: Neues Training soll unser Auge schärfen

Real oder künstlich? Diese Frage wird immer schwieriger zu beantworten, wenn es um KI-generierte Gesichter geht. Doch Forscher:innen haben eine überraschend einfache Methode gefunden, um unser Gehirn auf Fake-Bilder zu trainieren: Ein fünfminütiges Kurztraining reicht offenbar, um die Trefferquote beim Erkennen von KI-Gesichtern deutlich zu steigern.

Das Ganze erinnert ein wenig an die Sehtests beim Augenarzt – nur dass es hier um neuronale Netze statt Netzhaut geht. Die Methode: Menschen lernen typische Fehler in KI-Bildern zu erkennen, etwa unnatürliche Augenreflexionen oder asymmetrische Ohren. Das ist wichtig, denn Deepfakes werden nicht nur besser – sondern auch gefährlicher.

Quelle: t3n Magazine


Fazit

Die KI von morgen hört besser zu, fühlt mit – und verletzt dabei vielleicht Gesetze. Während Maschinen uns täuschend echte Gesichter zeigen, lernen wir, genauer hinzusehen. Vielleicht ist das die eigentliche Superkraft der Zukunft: Nicht, was KI kann – sondern, was wir noch durchschauen.

Schreibe einen Kommentar