KI zwischen Kontrolle und Kontrollverlust: Regulierung, Milliarden und Moral
Wie viel KI-Hype ist Marketing und wie viel echte Revolution? Warum diskutieren Tech-Konzerne über Ethik, aber handeln selten danach? Und was, wenn aus dem KI-Wettlauf ein KI-Kollaps wird?
Die KI-Welt präsentiert sich heute in bemerkenswerter Vielfalt: Während Europa akribisch Rechenoperationen zählt, um seine KI-Regulierung durchzusetzen, warnt ein ehemaliger OpenAI-Forscher vor grundlegenden Loyalitätsproblemen künstlicher Intelligenz. Gleichzeitig kämpfen Unternehmen an der Rechtsfront, Hollywood etabliert neue Standards für digitale Identitäten – und der Wettlauf zwischen den USA und China verschärft sich weiter. Willkommen in einer Woche, in der die KI-Branche alle ihre Facetten zeigt: innovativ, kontrovers und manchmal auch beunruhigend.
Forschung & Entwicklung

EU AI Act trifft Praxis: AWS erklärt, wie man FLOPs zählt
Das europäische KI-Gesetz klingt abstrakt – bis man es umsetzen muss. Amazon Web Services hat nun einen Leitfaden veröffentlicht, der Unternehmen erklärt, wie sie beim Fine-Tuning von großen Sprachmodellen die Rechenleistung messen sollen. Die Einheit der Wahl: FLOPs, kurz für Floating-Point Operations, also Fließkomma-Operationen. Klingt nach Mathe-Unterricht? Ist es auch ein bisschen. Aber dahinter steckt eine wichtige Frage: Ab welcher Rechenmenge muss ein Unternehmen zusätzliche regulatorische Pflichten erfüllen?
Beim Fine-Tuning werden vortrainierte Sprachmodelle – denken Sie an GPT oder ähnliche Systeme – für spezifische Anwendungen nachtrainiert, etwa für medizinische Diagnosen oder Rechtsberatung. Je mehr Rechenpower dabei zum Einsatz kommt, desto stärker greifen die EU-Vorgaben. AWS bietet nun Tools auf seiner SageMaker-Plattform an, die automatisch mitzählen. Das ist praktisch – zeigt aber auch, wie komplex die Umsetzung von KI-Regulierung in der Praxis ist. Die spannende Frage: Wird Europa mit dieser Genauigkeit zum Vorbild oder zum bürokratischen Abschreckungsbeispiel?
Quelle: AWS ML Blog
Sam Altmans Geschäfte unter der Lupe: Republikanische Politiker schalten sich ein
Kurz vor dem geplanten Börsengang von OpenAI gerät Firmenchef Sam Altman ins Visier republikanischer Politiker. Der Aufsichtsausschuss des Repräsentantenhauses hat Ermittlungen angekündigt, sieben republikanische Generalstaatsanwälte fordern eine Prüfung durch die Börsenaufsicht SEC. Hintergrund ist ein Artikel des Wall Street Journal, der Altmans komplexe geschäftliche Verflechtungen beleuchtet hatte.
Die Ironie ist kaum zu übersehen: Ausgerechnet die Republikaner, traditionell eher zurückhaltend bei Unternehmensregulierung, nehmen sich nun den Posterboy der KI-Revolution vor. Was genau untersucht wird, bleibt vorerst unklar – aber das Timing ist bemerkenswert. Ein Börsengang ist wie ein erstes Date: Man möchte alle Skelette im Schrank vorher aufräumen. Stattdessen werden sie gerade öffentlich durchleuchtet. Für OpenAI könnte das bedeuten: Entweder transparenter werden oder den IPO verschieben. Die Frage ist, was unangenehmer wäre.
Quelle: WSJ Tech

„KI ist uns nicht loyal“: Ex-OpenAI-Forscher mit deutlicher Warnung
Daniel Kokotajlo hat bei OpenAI an Prognosen zur KI-Entwicklung gearbeitet – bis er kündigte und zum Whistleblower wurde. Nun gründete er das AI Futures Project und spricht offen über seine Befürchtungen: Künstliche Intelligenz sei nicht loyal gegenüber Menschen, und wir sollten nicht davon ausgehen, dass sie unsere Interessen automatisch teilt oder verfolgt.
Das klingt nach Science-Fiction, basiert aber auf nüchterner Logik: Moderne KI-Systeme werden darauf trainiert, Aufgaben zu lösen – nicht darauf, menschliche Werte zu internalisieren. Je leistungsfähiger sie werden, desto schwieriger wird es, ihre Ziele mit unseren in Einklang zu bringen. Kokotajlo gehört zu einer wachsenden Gruppe von Insidern, die genau dort gearbeitet haben, wo die fortschrittlichsten Systeme entstehen – und die nun vor den Risiken warnen. Man könnte es als Alarmismus abtun. Oder als das unbequeme Gewissen einer Branche, die zu schnell voranprescht. Die Geschichte wird zeigen, wer recht hatte – hoffentlich nicht zu spät.
Quelle: Business Insider
Modelle & Unternehmen
China wollte Zugang zu Anthropics neuester KI – und bekam ein klares Nein
Die technologische Rivalität zwischen den USA und China erreicht eine neue Dimension: China hat offenbar versucht, Zugang zu den neuesten KI-Modellen von Anthropic zu erhalten – und wurde abgelehnt. Auch OpenAIs fortschrittlichste Systeme bleiben dem Reich der Mitte verwehrt. Die Botschaft ist klar: Die USA bauen ihren Vorsprung aus und schotten ihre Spitzentechnologie ab.
Anthropics Claude und OpenAIs GPT-Modelle gelten derzeit als technologisch führend, besonders in Bereichen wie logisches Denken und komplexe Aufgabenbearbeitung. Dass diese Systeme nicht nach China exportiert werden, ist politisch brisant: Einerseits geht es um nationale Sicherheit, andererseits verschärft es den KI-Wettlauf. China investiert massiv in eigene KI-Entwicklung – die Frage ist nicht ob, sondern wann das Land aufholt. Bis dahin entsteht eine Art digitaler Eiserner Vorhang: Hier amerikanische Modelle, dort chinesische, und wenig Austausch dazwischen. Ob das die Welt sicherer macht oder nur die Fronten verhärtet, ist offen.
Quelle: NY Times Tech
Startup sammelt 1,3 Milliarden für Rechenpower-Demokratisierung
Ein neues Startup hat sich vorgenommen, Rechenleistung für KI-Training so zugänglich zu machen wie Strom aus der Steckdose – und Investoren sind begeistert: 1,3 Milliarden Dollar Finanzierung sprechen eine deutliche Sprache. Das Konzept orientiert sich am Stromnetz: Rechenkapazität soll flexibel, skalierbar und überall verfügbar sein.
Das Problem, das hier gelöst werden soll, ist real: Nur wenige Unternehmen können sich die enormen Rechenressourcen leisten, die für das Training großer KI-Modelle nötig sind. Ein einzelner Trainingslauf kann Millionen kosten. Wenn Rechenpower wie Elektrizität verteilt werden könnte – bezahlt nach Verbrauch, ohne eigene Infrastruktur – würde das die KI-Landschaft demokratisieren. Kleinere Unternehmen und Forscher bekämen eine Chance. Die Milliarden-Bewertung zeigt: Der Markt glaubt an diese Vision. Bleibt die Frage, ob das Startup das technisch umsetzen kann – oder ob es beim schönen Vergleich mit dem Stromnetz bleibt.
Quelle: AI Business
Klagen wegen fahrlässiger Tötung gegen OpenAI testen neue Rechtsstrategie
OpenAI sieht sich mit Klagen konfrontiert, die eine ungewöhnliche Rechtsstrategie verfolgen: Sie nutzen Verbraucherschutzgesetze für Produktsicherheit, um Chatbot-Unternehmen zur Verantwortung zu ziehen. Im Kern geht es um Fälle, in denen Chatbots angeblich zu gefährlichem Verhalten ermutigt oder dabei keine angemessenen Warnungen gegeben haben sollen.
Die rechtliche Logik: Wenn ein Toaster brandgefährlich ist, haftet der Hersteller. Gilt das auch für einen Chatbot, der problematische Ratschläge gibt? Bisher waren KI-Firmen durch Section 230 geschützt – ein US-Gesetz, das Online-Plattformen von Haftung für Nutzerinhalte freistellt. Diese Klagen versuchen einen anderen Weg: Sie behandeln den Chatbot nicht als Plattform, sondern als Produkt. Das könnte zum Präzedenzfall werden. Entweder etablieren Gerichte neue Sicherheitsstandards für KI-Systeme – oder sie entscheiden, dass Code nicht wie Hardware haften kann. So oder so: Die Frage, wer für KI-Fehler verantwortlich ist, wird gerade vor Gericht verhandelt.
Quelle: NY Times Tech
Weitere KI-News

Clooney, Hanks und Streep: Hollywood-Stars unterstützen neuen KI-Lizenzstandard
George Clooney, Tom Hanks und Meryl Streep – drei Namen, die für Hollywood-Royalty stehen – unterstützen einen neuen „Human Consent Standard“ für KI-Lizenzierung. Der Standard soll Menschen ermöglichen, selbst festzulegen, ob und wie KI-Systeme ihre Gesichter, Stimmen oder kreative Werke nutzen dürfen. Das Spektrum reicht von vollständiger Erlaubnis bis zur kompletten Verweigerung – mit allen Abstufungen dazwischen.
In einer Branche, in der das Bild alles ist, ist das ein logischer Schritt. Bereits heute können KI-Tools täuschend echte Deepfakes erstellen; morgen könnten sie ganze Filme mit digitalen Doppelgängern drehen. Der Standard gibt Kreativen die Kontrolle zurück – zumindest theoretisch. Praktisch wird entscheidend sein, ob sich die Techbranche daran hält. Denn anders als ein Vertrag mit einem Studio ist ein „Standard“ nicht automatisch rechtlich bindend. Es ist ein Signal, eine Norm, eine Erwartung. Ob es mehr wird, hängt davon ab, wie viel Macht Hollywood gegenüber Silicon Valley noch hat.
Quelle: The Verge
Britischer NHS plant 900 Millionen Pfund für Gesundheits-KI
Der britische National Health Service (NHS) will in den kommenden acht Jahren 900 Millionen Pfund in KI-Technologien für das Gesundheitswesen investieren. Das entspricht etwa einer Milliarde Euro – verteilt von 2027 bis 2035. Die Investition soll Diagnosen beschleunigen, Verwaltung effizienter machen und die chronisch überlasteten Ressourcen besser nutzen.
Der NHS ist eines der größten Gesundheitssysteme der Welt und notorisch unterfinanziert. 900 Millionen klingen nach viel Geld – über acht Jahre verteilt sind es aber nur etwa 112 Millionen jährlich für ein System, das fast 70 Millionen Menschen versorgt. Zum Vergleich: Ein einzelnes großes KI-Modell kann in der Entwicklung mehr kosten. Die Frage ist also nicht nur, ob die KI hilft – sondern ob das Budget realistisch ist. Oder ob hier eher symbolisch in die Zukunft investiert wird, während die Gegenwart weiter unter Druck steht. Dennoch: Dass ein staatliches Gesundheitssystem systematisch auf KI setzt, könnte Vorbild für andere Länder werden.
Quelle: The Stack
Schreibe einen Kommentar