Wenn KI-Warner kündigen und Stromnetze stöhnen
Wie viel KI-Hype ist noch Fortschritt – und ab wann wird es gefährlich? Wer schützt unsere Netze, wenn KI immer mehr Energie frisst? Und was passiert, wenn aus KI-Entwicklern plötzlich Dichter werden?
Heute geht es um warnende Stimmen aus dem Inneren der KI-Industrie, um Stromprobleme in Rechenzentren – und um einen Entwickler, der zu OpenAI wechselt, während andere lieber aussteigen. Eine Branche zwischen Poesie, Power und Politik.
Forschung & Entwicklung
KI-Sicherheitsexperte kündigt bei Anthropic und sagt: Die Welt ist in Gefahr
Wenn ein KI-Sicherheitschef seinen Job aufgibt, um Gedichte zu schreiben, horcht man auf. Mrinank Sharma war bei Anthropic für die Sicherheit fortgeschrittener KI-Modelle zuständig – und zieht nun die Reißleine. In einem viel beachteten Post warnt er vor einem gefährlichen Wettrennen bei der Entwicklung immer mächtigerer KI-Systeme. Seine Sorge: Die Sicherheitsmaßnahmen halten mit dem Tempo nicht Schritt.
Sharma ist nicht der Erste, der mit einem dramatischen Abgang auf Risiken hinweist. Auch ehemalige OpenAI-Mitarbeitende äußerten zuletzt öffentlich Zweifel. Wenn Entwickler sich in die Lyrik flüchten, weil ihnen die Realität zu düster erscheint – ist das dann ein Gedicht oder ein Alarmsignal?
Quelle: Heise KI
Stromhunger der KI: Indisches Start-up will Rechenzentren entlasten
KI-Modelle fressen Rechenleistung, und die Rechenzentren fressen Strom – so viel, dass vielerorts die Stromnetze ächzen. Das indische Start-up C2i will nun mit einer cleveren Idee gegensteuern: Statt Energie wie bisher über Umwege zu den Grafikprozessoren (GPUs) zu leiten, soll der Strom direkter und effizienter fließen – quasi ein Schnellweg für Elektronen.
Mit 15 Millionen US-Dollar frischem Kapital testet C2i sein Konzept in Pilotzentren. Der Bedarf ist riesig: Allein ein großes KI-Modell wie GPT verbraucht beim Training so viel Strom wie ein ganzes Dorf in einem Jahr. Wird also bald nicht nur die KI intelligent – sondern auch das Stromnetz?
Quelle: TechCrunch AI
Modelle & Unternehmen
OpenAI holt den Erfinder von OpenClaw ins Team
Peter Steinberger, der Entwickler des Open-Source-Projekts OpenClaw, wechselt zu OpenAI. OpenClaw ist ein Framework, mit dem KI-Systeme besser auf reale Umgebungen reagieren können – beispielsweise bei der Steuerung von Robotern. OpenAI verspricht, das Projekt weiterhin offen zugänglich zu halten.
Ein kluger Schachzug oder ein weiterer Schritt zur Konsolidierung von KI-Talent bei den Giganten? Während einige Entwickler Alarm schlagen (siehe oben), zieht OpenAI die nächste Verstärkung an Land. Vielleicht ist das Rennen um die besten Köpfe längst genauso heiß wie das um die besten Modelle…
Quelle: TechCrunch AI
Gesellschaft & Politik
Bruce Schneier: KI kann Sicherheit bringen – aber nur mit Regeln
Der bekannte Sicherheitsexperte Bruce Schneier sieht in Künstlicher Intelligenz ein zweischneidiges Schwert: Einerseits könne sie helfen, Software robuster zu machen – etwa durch automatisierte Fehleranalyse. Andererseits warnt er vor monopolartigen Strukturen bei großen KI-Anbietern, die Sicherheitslücken eher verschärfen könnten.
Sein Appell: Europa solle sich als Gegengewicht zu den US-Giganten positionieren – mit klaren Regeln, offenen Standards und unabhängiger Forschung. Wer will, dass KI Sicherheit bringt, müsse selbst für sichere Rahmenbedingungen sorgen. Klingt logisch – aber wer setzt’s um?
Quelle: Heise KI
Fazit
Während die einen KI feiern wie einen neuen Superstar, dichten andere lieber über den drohenden Untergang. Vielleicht brauchen wir beides – Visionäre mit Visionen und Skeptiker mit Stift. Denn wer nur auf das nächste große Modell schaut, verpasst womöglich die leisen Warnungen im Flur.

