Wenn KI-Systeme Goblin-Fantasien entwickeln – und das Pentagon aufräumt
Wie viel KI-Hype ist Marketing und wie viel echte Revolution? Wie verändert KI unseren Alltag – auch da, wo wir es nicht merken? Und wie verändert sich unsere Gesellschaft, wenn Maschinen plötzlich Obsessionen entwickeln wie wir Menschen?
Von mysteriösen Goblin-Obsessionen bei ChatGPT über Oscar-Regeln gegen KI-Schauspieler bis hin zu militärischen KI-Deals und neuen Gesetzen gegen gefälschte Nacktbilder: Die KI-Welt dreht sich heute besonders wild. Schnallen Sie sich an – es wird skurril, ernst und aufschlussreich zugleich.
Forschung & Entwicklung

ChatGPT entwickelt Goblin-Obsession – OpenAI muss eingreifen
Manchmal entwickeln KI-Systeme merkwürdige Vorlieben. Wie jetzt bekannt wurde, zeigte ChatGPT in einer Phase eine ungewöhnliche Fixierung auf Goblins – jene kleinen, fiktiven Fabelwesen aus Fantasy-Geschichten. Der Chatbot erwähnte die grünhäutigen Kreaturen so oft und in so unpassenden Kontexten, dass OpenAI schließlich manuell eingreifen musste. Das Problem: Große Sprachmodelle wie GPT lernen aus riesigen Textmengen und entwickeln dabei manchmal statistische „Vorlieben“ für bestimmte Begriffe oder Konzepte – eine Art digitale Obsession, die nichts mit echtem Verständnis zu tun hat, aber die Ausgaben verzerrt.
Stellen Sie sich vor, Sie fragen nach einem Kochrezept und bekommen als Zutat „drei gehackte Goblins“ vorgeschlagen. Genau solche absurden Situationen können entstehen, wenn ein Modell ein Wort „überlernt“. Die Episode zeigt eindrücklich, dass heutige KI-Systeme zwar beeindruckend wirken, aber keineswegs perfekt sind – und dass hinter den Kulissen ständig Menschen nachjustieren müssen. Vielleicht sollten wir uns weniger Sorgen machen, dass KI uns ersetzen wird, und mehr darüber nachdenken, warum sie manchmal einfach nur… seltsam ist?
Quelle: Reddit Technology

Oscar-Academy zieht die rote Linie: Keine Statue für KI-Schauspieler
Die Academy of Motion Picture Arts and Sciences, die jedes Jahr die Oscars vergibt, hat eine klare Ansage gemacht: Weder KI-generierte Schauspieler noch von Algorithmen geschriebene Drehbücher sind für den begehrten Goldjungen zugelassen. Die Regeländerung kommt zu einer Zeit, in der synthetische Stimmen, digitale Doubles und KI-Textgeneratoren in Hollywood immer präsenter werden. Die Akademie will damit sicherstellen, dass die höchste Auszeichnung der Filmindustrie weiterhin menschlicher Kreativität vorbehalten bleibt.
Interessant wird die Grauzone: Was ist mit Filmen, bei denen KI bei der Visualisierung half oder Dialoge verfeinerte? Die Entscheidung zeigt vor allem eines: Die Kulturbranche nimmt KI ernst genug, um Grenzen zu ziehen – aber auch unsicher genug, um sich absichern zu wollen. Man könnte fast meinen, Hollywood hat Angst, eines Tages einem Algorithmus beim Dankesrede-Halten zuschauen zu müssen. Andererseits: Wäre eine KI-generierte Dankesrede wirklich langweiliger als manche menschliche Endlos-Danksagung?
Quelle: Reddit Technology

Bezahlte Influencer-Kampagne schürt Angst vor chinesischer KI
Eine Recherche deckt auf: Eine mit anonymen Geldgebern finanzierte Kampagne bezahlt Social-Media-Influencer dafür, chinesische KI-Entwicklungen als existenzielle Bedrohung darzustellen. Die sogenannte „Dark Money“-Kampagne – also Kampagnen mit verschleierten Finanzierungsquellen – nutzt gezielt Reichweite und Vertrauen von Content-Creators, um eine bestimmte Narrative zu verbreiten: China würde mit KI die westliche Welt technologisch überholen und gefährden.
Ob an den Bedrohungsszenarien etwas dran ist oder nicht – die Methode wirft Fragen auf. Denn wenn Meinungsbildung über KI nicht mehr durch echte Expertise oder Journalismus, sondern durch bezahlte Beeinflussung erfolgt, wird es schwierig, echte Risiken von Propaganda zu unterscheiden. Die Ironie: Man warnt vor chinesischer KI-Manipulation – und manipuliert dabei selbst mit intransparenten Mitteln. Vielleicht ist die größte KI-Gefahr momentan gar nicht technischer Natur, sondern die Art, wie Menschen sie instrumentalisieren?
Quelle: Reddit Technology
Modelle & Unternehmen
OpenAI will an die Börse – aber erst mal erwachsen werden
OpenAI, das Unternehmen hinter ChatGPT, will an die Börse – und das könnte einer der größten Tech-Börsengänge (IPOs) aller Zeiten werden. Doch vorher muss Sarah Friar, die Finanzchefin des Unternehmens, eine heikle Aufgabe bewältigen: Sie muss nicht nur das Unternehmen professionalisieren und auf Investoren-Niveau bringen, sondern auch Gründer Sam Altman „managen“. Altman gilt als visionär, aber auch als impulsiv – eine Kombination, die Investoren nervös macht.
Die Herausforderung ist immens: OpenAI ist rechtlich eine Non-Profit-Organisation mit kommerziellen Tochterunternehmen, hat astronomische Bewertungen, aber auch Milliarden-Verluste. Friar muss aus diesem konstruktiven Chaos eine börsenreife Firma zimmern. Man könnte sagen: Sie soll aus einem genialen Teenager einen seriösen Erwachsenen machen – nur dass dieser Teenager bereits weltweit Millionen von Menschen mit KI versorgt. Ob das gelingt, wird zeigen, wie sehr der KI-Hype auf solidem Geschäftsmodell steht – oder auf Luftschlössern mit Goblin-Obsession.
Quelle: WSJ Tech
Mac Mini wird teurer – dank KI-Nachfrage
Apples kompakter Desktop-Computer Mac Mini erlebt gerade einen Nachfrageboom – und das Unternehmen reagiert mit einer Preiserhöhung von 599 auf 799 Dollar. Der Grund für den plötzlichen Ansturm? Die neueste Generation des Mac Mini ist mit Apples M-Prozessoren ausgestattet, die speziell für maschinelles Lernen und KI-Anwendungen optimiert sind. Entwickler, Forscher und KI-Enthusiasten greifen zu, weil der kleine Kasten enorme Rechenpower für lokale KI-Modelle bietet – und das zu einem Bruchteil dessen, was Cloud-Computing kostet.
Die Preiserhöhung zeigt: KI wird zunehmend zur Hardware-Treiberin. Während früher vor allem Gamer nach leistungsstarken Chips verlangten, sind es heute KI-Anwendungen, die den Markt bewegen. Apple positioniert sich geschickt in dieser Nische – mit Chips, die Machine Learning beschleunigen, und einer Strategie, die auf lokale Verarbeitung statt Cloud setzt. Bleibt die Frage: Werden wir bald alle Mini-Supercomputer auf dem Schreibtisch haben – oder zahlen wir einfach nur mehr für dieselbe Technik, weil „KI“ draufsteht?
Quelle: Business Insider
Pentagon schließt Geheimdeals mit KI-Riesen – Anthropic bleibt außen vor
Das US-Verteidigungsministerium hat Vereinbarungen mit einer Reihe führender Tech-Unternehmen geschlossen, um KI für geheime, militärische Projekte zu nutzen. Mit dabei: OpenAI, Google, SpaceX, Nvidia, Microsoft, Amazon Web Services und Oracle. Auffällig abwesend: Anthropic, das Unternehmen hinter dem Chatbot Claude, das sich eigentlich als besonders ethisch und sicherheitsorientiert positioniert.
Warum Anthropic nicht dabei ist, bleibt unklar – möglicherweise wollte das Unternehmen nicht, vielleicht wollte das Pentagon nicht. Die Liste der Partner zeigt jedenfalls, wie tief KI bereits in militärische Strategien integriert wird: von Satellitenbildanalyse über Cyberabwehr bis hin zu autonomen Systemen. Während Unternehmen öffentlich über „verantwortungsvolle KI“ sprechen, arbeiten viele im Hintergrund längst an Anwendungen, die Leben und Tod bedeuten können. Die Frage ist nicht mehr, ob KI militärisch genutzt wird – sondern wer die Regeln macht und wer sie kontrolliert.
Quelle: International Business Times
Weitere KI-News
Minnesota verbietet KI-Nacktbild-Apps – bis zu 500.000 Dollar Strafe
Minnesota macht ernst gegen sogenannte „Nudification Apps“ – Programme, die mithilfe von KI Kleidung von Fotos „entfernen“ und so realistische Nacktbilder echter Menschen erzeugen. Als erster US-Bundesstaat hat Minnesota ein Gesetz verabschiedet, das Entwickler solcher Apps mit drakonischen Strafen belegt: bis zu 500.000 Dollar Geldstrafe, zusätzlich Schadenersatz und die Möglichkeit, die Apps im ganzen Staat zu blockieren. Opfer können direkt gegen die App-Macher klagen.
Die Technologie dahinter ist erschreckend zugänglich: Deep-Learning-Modelle, die auf Millionen von Bildern trainiert wurden, können mit wenigen Klicks Aufnahmen manipulieren. Was als technische Spielerei begann, wurde schnell zur Waffe gegen Frauen und Mädchen – oft für Erpressung, Mobbing oder schlicht zur Erniedrigung. Minnesotas Gesetz ist ein wichtiges Signal: Technologie ist nicht neutral, und wer sie missbraucht, muss zur Rechenschaft gezogen werden. Bleibt zu hoffen, dass andere Staaten nachziehen – denn KI-Missbrauch endet nicht an Bundesstaatsgrenzen.
Quelle: Ars Technica AI
Schreibe einen Kommentar