KI zwischen Schachzug und Schachmatt – wer führt das Spiel?
Was passiert, wenn kleine KI-Modelle plötzlich große Aufgaben meistern? Und wie offen darf KI sein, bevor sie zur geopolitischen Waffe wird?
Heute werfen wir einen Blick auf Googles Trickkiste für kleine Modelle, hitzige Open-Source-Debatten zwischen USA und China, und was LinkedIn jetzt mit generativer KI anstellt – Spoiler: Es geht nicht um perfekte Lebensläufe, sondern um die Suche nach Menschen.
Forschung & Entwicklung
Google gibt kleinen KI-Modellen Nachhilfe in Logik
Google Cloud und die Universität UCLA haben ein neues Trainingsverfahren für Sprachmodelle vorgestellt: „Supervised Reinforcement Learning“ (SRL). Klingt kompliziert, ist aber clever – die Methode bringt kleinen KI-Modellen bei, komplexe Aufgaben Schritt für Schritt zu lösen, fast wie beim Lösen eines Sudoku mit Anleitung. Statt wie bisher einfach nur das nächste Wort vorherzusagen, lernt das Modell, eine logische Kette von Aktionen zu bilden – wie ein Schachspieler, der mehrere Züge vorausdenkt.
Besonders spannend: Diese Technik könnte es ermöglichen, auch mit kleineren Modellen anspruchsvolle Aufgaben zu bewältigen – was Ressourcen spart und neue Anwendungen ermöglicht. Vielleicht bald ein Chatbot, der nicht nur plausibel klingt, sondern auch wirklich nachdenkt?
Quelle: VentureBeat AI
Wettlauf mit China: Databricks-Mitgründer fordert Open Source als Waffe
Andy Konwinski, Mitgründer von Databricks, schlägt Alarm: Die USA verlieren im KI-Rennen gegen China – und das ausgerechnet beim Thema Offenheit. Seine Forderung: Mehr Open Source! Also frei zugängliche KI-Modelle und -Werkzeuge, damit Innovation nicht hinter Firmenmauern verschwindet.
Der Hintergrund: Während US-Konzerne wie OpenAI ihre Modelle zunehmend abschotten, setzt China auf staatlich geförderte Forschung – auch mit offenem Code. Für Konwinski ist klar: Nur mit transparenter, gemeinschaftlicher Entwicklung kann der Westen langfristig mithalten. Aber wie offen darf ein KI-System sein, wenn es auch für Überwachung oder Propaganda genutzt werden kann?
Quelle: TechCrunch AI
Modelle & Unternehmen
OpenAI zahlt Millionen an Microsoft – jetzt wissen wir’s
Durchgesickerte Dokumente enthüllen: OpenAI überweist beachtliche Summen an Microsoft – offenbar im Rahmen einer Umsatzbeteiligung. Der Tech-Riese stellt nicht nur Rechenleistung zur Verfügung, sondern verdient auch kräftig mit, wenn ChatGPT & Co. genutzt werden.
Interessant ist auch: Die Dokumente geben Hinweise auf sogenannte „Inference-Kosten“ – also wie viel es kostet, ein Modell wie GPT-4 eine Antwort berechnen zu lassen. Spoiler: Denken ist teuer, zumindest für Maschinen. Wer also glaubt, KI sei ein kostenloses Orakel, sollte mal einen Blick auf die Stromrechnung werfen.
Quelle: TechCrunch AI
ChatGPT im Rückspiegel: Die Evolution eines Chatbots
TechCrunch hat die komplette Entwicklung von ChatGPT aufgerollt – von der ersten Version bis zu den neuesten Updates. Ein Blick zurück auf Meilensteine, neue Funktionen und Veränderungen im Geschäftsmodell.
Besonders deutlich wird: ChatGPT ist längst nicht mehr nur ein Textgenerator. Mit Plug-ins, Sprachfunktionen und Code-Verständnis hat sich der Chatbot zum digitalen Multitool entwickelt. Eine Art Schweizer Taschenmesser für alles Digitale – nur dass es manchmal auch den Korkenzieher vergisst.
Quelle: TechCrunch AI
Gesellschaft & Politik
Merz will keine chinesische 6G-Technik – aber was ist mit KI?
Bundeskanzler Friedrich Merz kündigt an, bei der kommenden 6G-Technologie auf chinesische Komponenten verzichten zu wollen – aus Sicherheitsgründen. Auch bei 5G soll möglichst auf „selbst produzierte Komponenten“ umgestellt werden.
Die KI-relevante Frage: Wenn die Infrastruktur der Zukunft zunehmend KI-gestützt ist – von der Verkehrssteuerung bis zur Industrieproduktion – wie unabhängig kann (oder muss) Europa dann technologisch sein? Und wie viel KI „Made in China“ steckt schon in unseren Netzen?
Quelle: Golem
Generative KI
LinkedIn macht jetzt auf KI-Detektiv: Personensuche mit Chatbot-Flair
LinkedIn führt in den USA eine neue generative KI-Suche ein – exklusiv für Premium-Nutzer. Statt sich durch Filter und Schlagworte zu klicken, kann man nun einfach in natürlicher Sprache fragen: „Wer hat Erfahrung mit KI-Startups in Berlin und spricht Spanisch?“ Die KI versteht, sucht – und liefert Treffer.
Technisch gesehen nutzt LinkedIn ein Sprachmodell, das Text versteht und passende Profile generiert – ähnlich wie ChatGPT, nur mit Fokus auf Menschen statt auf Poesie. Für Recruiter ein Traum, für Datenschützer vielleicht ein Albtraum. Und für uns alle? Vielleicht der Beginn einer Ära, in der unser digitaler Zwilling immer besser gefunden – und beurteilt – wird.
Quelle: The Decoder

