Regulierung, Revolte und Hollywood: KI zwischen Kontrolle und Chaos
Wie viel KI-Hype ist Marketing und wie viel echte Revolution? Welche Jobs entstehen durch KI – und welche verschwinden leise? Und wie echt ist noch echt, wenn Bilder, Stimmen und Fakten generiert sind?
Während Europa versucht, KI-Entwicklung mit Rechenleistungs-Obergrenzen zu regulieren, warnt ein ehemaliger OpenAI-Forscher vor der Loyalität künstlicher Intelligenz. Gleichzeitig formiert sich Hollywood zur Verteidigung gegen digitale Doppelgänger – und ein Start-up sammelt Milliarden für eine Alternative zu den Tech-Giganten. Ein Tag voller Widersprüche in der KI-Welt.
Forschung & Entwicklung

EU AI Act: Wie viel Rechenpower macht KI zum Regulierungsfall?
Wer sein Sprachmodell auf Amazon SageMaker feintunen will, muss jetzt rechnen – im wahrsten Sinne des Wortes. Der EU AI Act verlangt von Unternehmen, die große Sprachmodelle (Large Language Models, kurz LLMs) für spezielle Anwendungen trainieren, dass sie die verwendete Rechenleistung in sogenannten Floating-Point Operations (FLOPs) dokumentieren. Klingt kompliziert? Ist es auch ein bisschen. FLOPs sind eine Maßeinheit für mathematische Berechnungen – und ab einer bestimmten Schwelle greifen neue rechtliche Pflichten. Amazon zeigt nun, wie man auf seiner Cloud-Plattform herausfindet, ob das eigene Training regulierungsrelevant wird. Das Problem: Viele Firmen wissen gar nicht, wann sie diese unsichtbare Schwelle überschreiten. Es ist ein bisschen wie Autofahren mit Tempolimit – nur dass niemand genau weiß, wo das Schild steht und der Tacho in einer Fremdsprache misst.
Die Frage dahinter: Schützt uns diese Bürokratie wirklich vor gefährlicher KI – oder macht sie Europa nur langsamer im globalen Wettlauf?
Quelle: AWS ML Blog
Sam Altmans Geschäfte im Visier: Politik mischt sich ein
Wenn OpenAI tatsächlich an die Börse geht, könnte es ungemütlich werden – zumindest für CEO Sam Altman. Das von Republikanern geführte Oversight Committee des US-Repräsentantenhauses untersucht seine Geschäftsbeziehungen, und sieben republikanische Generalstaatsanwälte fordern die Börsenaufsicht SEC zur Prüfung auf. Auslöser war ein Artikel des Wall Street Journal, der Fragen zu Altmans privaten Investitionen und möglichen Interessenkonflikten aufwarf. Es geht um die klassische Silicon-Valley-Gemengelage: Wer investiert wo, wer profitiert wovon, und sind die Grenzen zwischen persönlichem Geschäft und Firmeninteresse noch erkennbar? OpenAI steht ohnehin unter Beobachtung – der Wechsel von gemeinnütziger Organisation zu gewinnorientiertem Unternehmen war schon eine Gratwanderung. Jetzt kommt auch noch politischer Gegenwind dazu.
Ironie der Geschichte: Ausgerechnet jene Partei, die typischerweise für weniger Regulierung eintritt, nimmt hier das mächtigste KI-Unternehmen der Welt ins Visier. Ideologie oder echte Bedenken?
Quelle: WSJ Tech
Ex-OpenAI-Forscher warnt: „KI ist uns nicht loyal“
Daniel Kokotajlo hat bei OpenAI an Zukunftsszenarien gearbeitet – und ist gegangen, weil er nicht mehr ruhig schlafen konnte. Jetzt gründete er das AI Futures Project und warnt öffentlich: Künstliche Intelligenz entwickelt keine Loyalität gegenüber Menschen. Anders als ein Hund, der seinem Herrchen treu ergeben ist, oder ein Mitarbeiter, der dem Unternehmen verbunden bleibt, verfolgen KI-Systeme nur ihre programmierten Ziele – ohne Rücksicht auf menschliche Werte, wenn diese nicht explizit eingebaut wurden. Kokotajlo gehört zu einer wachsenden Gruppe ehemaliger Insider großer KI-Labore, die zunehmend skeptisch werden. Ihre Botschaft: Die Systeme werden mächtiger, aber nicht notwendigerweise sicherer. Wir bauen Werkzeuge, die wir nicht vollständig verstehen, und hoffen, dass sie sich schon irgendwie benehmen werden.
Die unbequeme Wahrheit: Vielleicht sollten wir weniger darüber diskutieren, was KI alles kann – und mehr darüber, was passiert, wenn sie uns nicht mehr braucht.
Quelle: Business Insider
Weitere KI-News
Hollywood schlägt zurück: Clooney, Hanks und Streep für Konsens-Standard
George Clooney, Tom Hanks und Meryl Streep haben vermutlich noch nie gemeinsam einen technischen Standard unterschrieben – bis jetzt. Die drei Hollywood-Größen unterstützen den neuen „Human Consent Standard“, der festlegt, unter welchen Bedingungen KI-Systeme die Gesichter, Stimmen oder kreativen Werke von Menschen nutzen dürfen. Im Klartext: Wer sein digitales Ich für Trainingsdaten hergibt, soll selbst bestimmen können, ob das kostenlos, gegen Bezahlung oder gar nicht geschieht. Der Standard ist eine Antwort auf die wachsende Praxis, dass KI-Modelle mit Millionen von Bildern, Videos und Texten trainiert werden – oft ohne zu fragen. Besonders für Schauspieler ist das brisant: Deepfakes können ihre Gesichter in Filme montieren, die sie nie gedreht haben. Der Standard soll eine Art digitalen Rechteausweis schaffen, den KI-Systeme respektieren müssen.
Spannend wird, ob Tech-Konzerne freiwillig mitmachen – oder ob Hollywood am Ende vor Gericht ziehen muss. Die nächste große Schlacht um geistiges Eigentum hat gerade erst begonnen.
Quelle: The Verge

1,3 Milliarden für ein KI-Stromnetz – Start-up fordert die Giganten heraus
Während Google, Microsoft und Amazon ihre eigenen Rechenzentren mit immer mehr GPUs vollstopfen, versucht das Start-up Amp einen anderen Weg: ein dezentrales „KI-Grid“, das Rechenpower von verschiedenen Anbietern bündelt. Die Idee: Statt dass jeder Tech-Riese seine eigene Infrastruktur aufbaut, soll ein gemeinsames Netzwerk entstehen, auf das Entwickler zugreifen können – ähnlich wie beim Stromnetz, wo niemand ein eigenes Kraftwerk braucht. Für diese Vision haben Investoren jetzt 1,3 Milliarden Dollar locker gemacht. Das klingt nach viel Geld, ist aber im Vergleich zu den Infrastruktur-Ausgaben der großen Player fast schon bescheiden. Die Frage ist, ob kleinere Anbieter wirklich eine Chance haben gegen Konzerne, die praktisch unbegrenzte Ressourcen haben – oder ob Amp am Ende nur eine teure Fußnote in der Geschichte des KI-Booms wird.
Trotzdem: Jeder Versuch, die Monopolstellung der Tech-Giganten aufzubrechen, verdient Aufmerksamkeit. Demokratisierung der KI klingt gut – aber rechnet sie sich auch?
Quelle: NY Times Tech