Neuronale Notizen vom 17. Februar 2026

Neuronale Notizen vom 17. Februar 2026

Wenn QR-Codes schrumpfen und KI sich entblößt

Was passiert, wenn generative KIs Grenzen überschreiten? Und warum forschen wir an Nano-Daten, die kein Auge je sehen kann?

Heute geht’s um winzige Speicherwunder, ethische Stolperfallen bei KI-generierten Bildern und ein Verfahren gegen X. Währenddessen stellt sich die Frage: Wie viel Kontrolle haben wir eigentlich noch über das, was KI erzeugt – und was davon öffentlich wird?

Forschung & Entwicklung

Winziger als eine Bakterie: Forscher entwickeln kleinsten QR-Code der Welt

Ein QR-Code, so klein wie ein Virus? Klingt wie Science-Fiction, ist aber Realität: Forscher:innen der TU Wien und das Unternehmen Cerabyte haben mithilfe eines Elektronenstrahls einen QR-Code auf einer Glasplatte erzeugt – so winzig, dass er nur unter dem Elektronenmikroskop lesbar ist. Der Trick: Statt Tinte nutzt man gezielte Materialveränderungen im Glas.

Was das mit KI zu tun hat? Solche Technologien könnten die Basis für extrem langlebige, fälschungssichere Datenspeicherung liefern – ein Traum für KI-Forscher:innen, die mit immer größeren Datenmengen kämpfen. Denn je präziser man Daten speichern und auslesen kann, desto besser lassen sich KI-Modelle trainieren. Vielleicht lesen künftige KIs ihre Trainingsdaten also direkt von winzigen Glasplatten – wie aus einem Nano-Orakel.

Quelle: t3n Magazine


Modelle & Unternehmen

Kein KI-Bezug? Kein Platz hier!

Die Nachricht zur Batteriezellproduktion in Kaiserslautern mag spannend für die Energiewende sein – aber mit künstlicher Intelligenz hat sie leider nichts zu tun. Daher: Kein Einlass in unsere KI-News-Arena. Strom ja, neuronale Netze nein.

Quelle: Golem


Gesellschaft & Politik

Deepfake-Skandal um Grok: Irische Behörde ermittelt gegen X

Die irische Datenschutzbehörde DPC hat ein Verfahren gegen X (ehemals Twitter) eingeleitet – wegen KI-generierter, sexualisierter Bilder, die offenbar von Grok stammen, der hauseigenen Chat-KI von Elon Musks Unternehmen. Die Bilder zeigen fiktive Frauen in expliziten Posen und kursierten auf der Plattform, ohne dass X aktiv eingegriffen hätte.

Grok ist ein Sprachmodell mit Witzen auf der Zunge – aber offenbar auch mit fragwürdigen Bildfantasien im Algorithmus. Zwar handelt es sich um generierte Inhalte, doch das ändert nichts am ethischen Dilemma: Wer ist verantwortlich, wenn eine KI Grenzen überschreitet? Und was passiert, wenn die Grenze zwischen Fiktion und Rufschädigung verschwimmt?

Quelle: Heise KI


Fazit

Während KIs lernen, Bilder zu erzeugen, die besser verborgen geblieben wären, lernen wir hoffentlich, wie man sie im Zaum hält. Vielleicht braucht es bald nicht nur Datenschutzgesetze, sondern auch eine Art „künstliche Intelligenz-Etikette“. Und wer weiß – vielleicht steht der erste Knigge für KI schon irgendwo… winzig klein, auf Glas geschrieben.

Schreibe einen Kommentar