Wenn Chatbots coachen und Konzerne rot sehen: KI im Praxistest
Wer gibt bei der KI den Takt an – Entwickler, Nutzer oder Politiker? Und was passiert, wenn ein KI-Modell plötzlich zur Zielscheibe im US-Senat wird?
Heute zeigt sich: Künstliche Intelligenz ist längst auf dem Spielfeld angekommen – im Stadion, in der Wirtschaft und sogar beim Militär. Doch je weiter sie vordringt, desto größer wird auch das Risiko von Fehlpässen. Ob sportlich, juristisch oder politisch – KI wird zur Mitspielerin, Gegnerin und manchmal zur Schiedsrichterin zugleich.
Forschung & Entwicklung
ChatGPT als Taktiktrainer: US-Fußballteam will mit KI-Support in die Playoffs
Die Trainerin des US-Frauenteams Seattle Reign FC hatte nach einer enttäuschenden Saison genug von klassischen Spielanalysen – und wandte sich an ChatGPT. Der KI-Chatbot, der normalerweise bei Hausaufgaben, Bewerbungsschreiben oder Beziehungsfragen hilft, wurde kurzerhand zum digitalen Co-Trainer. Seine Vorschläge zu Taktik und Aufstellung führten laut Trainerin zu „frischen Impulsen“ – und möglicherweise zur Playoff-Teilnahme 2025.
Ein Fußballspiel ist komplex – wie ein Schachspiel auf Rasen. Dass eine KI dabei helfen kann, überrascht nicht, schließlich sind neuronale Netze besonders gut darin, Muster zu erkennen. Aber wenn bald auch die Halbzeitansprache aus dem Prompt kommt: Wer bekommt dann den Pokal – Mensch oder Maschine?
Quelle: t3n Magazine
Modelle & Unternehmen
Google zieht KI-Modell Gemma zurück – Vorwurf: Rufschädigung durch Halluzination
Ein KI-Modell halluziniert – also erfindet Fakten – und plötzlich steht Google vor dem US-Kongress. Der Grund: Die republikanische Senatorin Marsha Blackburn wirft der Google-KI „Gemma“ vor, sie verleumdet zu haben. Gemma hatte offenbar falsche Aussagen über sie generiert. Google reagierte prompt und nahm das Modell aus seinem öffentlich zugänglichen AI Studio.
Was wie ein Science-Fiction-Gerichtssaal klingt, ist Realität: KI wird nicht nur für ihre technischen Fähigkeiten, sondern zunehmend auch für ihre rechtlichen Konsequenzen bewertet. Wer haftet, wenn eine Maschine lügt? Und was ist schlimmer – dass sie es tut oder dass wir ihr zuhören?
Quelle: TechCrunch AI
Gesellschaft & Politik
Berliner KI-Drohne stürzt ab – Stark Defense blamiert sich bei Tests
Das Berliner Rüstungs-Startup Stark Defense wollte mit einer KI-gesteuerten Kamikaze-Drohne den Markt aufmischen – und scheiterte spektakulär. Bei Tests versagte das System offenbar mehrfach. Die Drohne, die mit Hilfe künstlicher Intelligenz selbstständig Ziele erkennen und angreifen sollte, konnte weder zuverlässig navigieren noch korrekt differenzieren.
Dass militärische KI-Systeme versagen, ist einerseits beruhigend – niemand wünscht sich ein autonomes Fehlurteil im Kriegsgebiet. Andererseits zeigt es, wie weit die Technik noch von verlässlicher Autonomie entfernt ist. Vielleicht ist es gar nicht so schlecht, wenn Maschinen manchmal stolpern, bevor sie schießen.
Quelle: Golem
Fazit
Fußball, Fake-News, Flugkörper – KI mischt überall mit, aber nicht immer mit Happy End. Während ChatGPT Taktikpläne schreibt, schreibt sich Google aus der Verantwortung. Und eine deutsche Drohne schreibt Geschichte – allerdings als Mahnung. Vielleicht sollten wir der KI nicht nur beibringen, wie man spielt, sondern auch, wann man besser auf der Bank bleibt.

