Neuronale Notizen vom 04. November 2025

Neuronale Notizen vom 04. November 2025

KI auf Abwegen: Wer kontrolliert Inhalte, Daten und Busse?

Wie echt ist noch echt, wenn KI mit fremden Werken trainiert wird? Was passiert, wenn kleine Studios gegen mächtige KI-Firmen aufbegehren?

Heute dreht sich alles um Kontrolle – über Daten, Inhalte und sogar Fahrzeuge. Während OpenAI mit Vorwürfen kämpft, japanische Kulturgüter ungefragt zu nutzen, sorgt eine Fernsteuerung aus China für Stirnrunzeln. Und ChatGPT? Gibt weiterhin munter Ratschläge – trotz anderslautender Gerüchte.

Forschung & Entwicklung

Keine Panik: ChatGPT gibt weiterhin medizinische und juristische Antworten

Ein Sturm im digitalen Wasserglas: In sozialen Netzwerken kursierten Gerüchte, OpenAI habe ChatGPT verboten, rechtliche oder medizinische Auskünfte zu geben. Doch OpenAI widerspricht – es habe keine Änderung der Richtlinien gegeben. Karan Singhal, bei OpenAI für Gesundheitsthemen zuständig, nennt die Meldungen schlicht „falsch“. Der Chatbot gibt also weiterhin Antworten – mit dem bekannten Disclaimer, dass sie keine professionelle Beratung ersetzen.

Quelle: The Verge AI


Modelle & Unternehmen

OpenAI mietet sich bei Amazon ein – aber nur als Nebendarsteller

OpenAI erweitert seine Rechenpower und setzt dabei nicht nur auf Microsoft oder Oracle, sondern nun auch auf Amazon Web Services (AWS). Allerdings bleibt AWS laut Insidern nur zweite Wahl. Für OpenAI zählt vor allem, dass die immense Rechenleistung für das Training und die Bereitstellung großer Sprachmodelle möglichst zuverlässig und skalierbar ist. Die Cloud wird also zur Bühne für den KI-Wettlauf – und Amazon spielt diesmal nicht die Hauptrolle.

Quelle: Heise KI

Japanische Publisher gegen OpenAI: „Trainiert nicht auf unseren Werken!“

Studio Ghibli, Bandai Namco und weitere japanische Medienhäuser fordern OpenAI auf, ihre Inhalte nicht länger für das Training von KI-Modellen zu verwenden – konkret geht es um das Video-KI-Modell Sora 2. Der Vorwurf: OpenAI habe ohne Erlaubnis urheberrechtlich geschütztes Material genutzt. Der Konflikt erinnert an das Prinzip „erst trainieren, dann fragen“, das viele KI-Firmen verfolgen. Doch was passiert, wenn das kulturelle Erbe plötzlich als Rohstoff für Maschinen dient?

Quelle: TechCrunch AI


Gesellschaft & Politik

Fernsteuerbar aus Fernost: Chinesische KI kontrolliert europäische Linienbusse

In Norwegen, Dänemark und Österreich fahren E-Busse eines chinesischen Herstellers – und lassen sich laut einem Test sogar von China aus fernsteuern. Die Fahrzeuge sind mit KI-gestützter Software ausgestattet, die Remote-Zugriff erlaubt. Während manche nur mit den Schultern zucken, schlagen andere Alarm: Was, wenn ein Systemfehler oder ein Hackerangriff den Verkehr lahmlegt? Die Debatte um digitale Souveränität bekommt mit dieser KI-Story eine ganz reale Dimension auf Europas Straßen.

Quelle: t3n Magazine


Generative KI

Anime gegen Algorithmen: Japanische Kreative wehren sich gegen KI-Training auf Sora 2

Die Content Overseas Distribution Association (CODA), ein Zusammenschluss japanischer Medienunternehmen, hat OpenAI offiziell aufgefordert, das KI-Modell Sora 2 nicht weiter mit urheberrechtlich geschütztem Material zu füttern. Sora 2 ist eine generative Video-KI, die auf Basis von Textbeschreibungen kurze Filme erzeugt – ähnlich wie Midjourney für Bilder, nur mit Bewegung. Doch wenn plötzlich Totoro & Co. ungefragt als Trainingsmaterial dienen, stellt sich die Frage: Wo endet Inspiration und wo beginnt digitale Piraterie?

Quelle: The Verge AI


Fazit

Wenn KI fremde Werke nutzt, Busse aus der Ferne lenkt und Cloud-Giganten sich gegenseitig die Rechenzentren streitig machen, wird klar: Die Zukunft ist nicht nur intelligent, sondern auch kompliziert. Vielleicht braucht es bald nicht nur Datenschutz, sondern auch Kulturschutz – für Totoro und die Straßenbahn gleichermaßen.

Schreibe einen Kommentar