Florentine Dömges
banner
fdoemges.bsky.social
Florentine Dömges
@fdoemges.bsky.social
Just do the revolution!
Pinned
Thread of Threads:
Reposted by Florentine Dömges
Je intelligenter ein System, desto mehr Abwägung, nicht weniger. Die Paperclip-Maximizer-Angst funktioniert nur unter der Annahme dass Intelligenz stur auf ein Ziel optimiert. Das Gegenteil ist der Fall – und jedes biologische Beispiel zeigt das.
February 14, 2026 at 9:46 AM
Reposted by Florentine Dömges
Reale Intelligenz navigiert viele Ziele gleichzeitig, ohne dass eins alle anderen dominiert. Dein Gehirn maximiert nicht eine Variable – es balanciert Überleben, Neugier, soziale Bindung, Energieeffizienz.
February 14, 2026 at 9:46 AM
Reposted by Florentine Dömges
“Ob AGI dieselben Motive verfolgt” – die Frage klingt vernünftig, setzt aber eine falsche Prämisse. Sie nimmt an, dass AGI überhaupt ein einzelnes Motiv verfolgt, so wie ein Besessener ein Ziel über alles stellt. Das ist kein Modell von Intelligenz, das ist ein Horrorfilm-Drehbuch.
February 14, 2026 at 9:46 AM
Reposted by Florentine Dömges
The Atlantic just published “America Isn’t Ready for What AI Will Do to Jobs.” It’s beautifully written. The BLS framing is clever. The CEO silence analysis is sharp.
The core premise is wrong.
🧵
Artificial intelligence may be hurtling America toward a mass job-loss event—that is, if the country’s CEOs and business leaders are to be believed. Does anyone have a plan? Josh Tyrangiel reports:
How Soon Will AI Take Your Job?
Economists aren’t sure. And politicians don’t have a plan.
bit.ly
February 10, 2026 at 1:47 PM
Reposted by Florentine Dömges
2020: Khaby Lame, Fabrikarbeiter, wird entlassen. Zurück in die Sozialwohnung. Besitzt: gebrauchtes iPhone für $300.
2026: Verkauft seine Firma für $975M. Sein Anteil: $477M.
🧵
Creator Commerce: Der Milliardendeal mit TikTok-Star Khaby Lame
Influencer und Content Creator sind die neuen Händler und Verkäufer im E-Commerce. Passend zu unseren Erwartungen im Social Commerce lässt gleich zu Beginn des Jahres der Top-TikTok-Creator und Com…
excitingcommerce.de
February 13, 2026 at 9:04 AM
Reposted by Florentine Dömges
Die ZEIT hat 7 Führungskräfte zu KI und Arbeit interviewt. Alle erzählen dieselbe Geschichte: Wir automatisieren, werden effizienter, senken Kosten.Keiner hat bemerkt: Sie geben Milliarden für die unbegrenzte Ressource aus und verschenken die knappe kostenlos.
Automatisierung und KI: Auf welche Skills Chefs jetzt achten
Was muss ich können, um einen Job bei der Bahn, bei Siemens oder in der Großkanzlei zu finden? Personaler erklären, wie man in der KI-Welt besteht und was sie zahlen.
www.zeit.de
February 9, 2026 at 3:01 PM
Reposted by Florentine Dömges
Dario Amodei, CEO von Anthropic, im Interview mit Dwarkesh Patel. Sagt: AGI in 1-3 Jahren. Das wäre die mächtigste Technologie der Menschheitsgeschichte. Dwarkesh fragt: Warum investierst du dann nicht alles was du hast? 🧵
Dario Amodei — “We are near the end of the exponential”
YouTube video by Dwarkesh Patel
www.youtube.com
February 14, 2026 at 7:39 AM
Reposted by Florentine Dömges
Hilflosigkeit vor Komplexität. Die Welt wird schneller, technischer, vernetzter – und wer das Gefühl hat, nicht mehr mitzukommen, projiziert das auf die Technologie. “KI ist unkontrollierbar” ist leichter zu denken als “Ich verstehe nicht genug um das einzuordnen.”
February 14, 2026 at 9:30 AM
Reposted by Florentine Dömges
AGI als feindlicher Agent, der 24/7 überwacht werden muss und nur eine Gelegenheit braucht: Das ist keine Risikoanalyse, das ist ein Horrorfilm-Plot. Reale Risiken kommen von Menschen die dumme Dinge mit mächtigen Werkzeugen tun – nicht von Werkzeugen die eigene Pläne entwickeln.
February 14, 2026 at 9:29 AM
Reposted by Florentine Dömges
Und selbst mit deinem instrumentellen Intelligenzbegriff stützt du meinen Punkt: Wenn Intelligenz reine Problemlösungsfähigkeit ist, brauchen wir mehr davon. Klimakrise, Pandemien, Ressourcenverteilung – das scheitert gerade an zu wenig Problemlösungsfähigkeit, nicht an zu viel.
February 14, 2026 at 9:25 AM
Reposted by Florentine Dömges
Das stimmt und da liegt der Hase im Pfeffer. Ich habe keine Idee, wie eine „demokratische AI“ aussehen kann. Ich spüre aber, dass wir keine Zeit verlieren sollten, uns mit diesem Thema zu beschäftigen.
February 14, 2026 at 9:20 AM
Reposted by Florentine Dömges
Machtverhältnisse werden seit Jahrzehnten ohne AI zementiert. Ungarn hat Wahlen und keinen Machtwechsel. AI ist ein Werkzeug, kein Schicksal – und dasselbe Werkzeug demokratisiert gerade Wissen das vorher Geheimdiensten und PR-Eliten vorbehalten war. Die Frage ist wer Zugang kontrolliert.
February 14, 2026 at 9:17 AM
Reposted by Florentine Dömges
Und genau das meine ich mit Urangst der Intelligenzverlierer: Die Angst vor unkontrollierbarer Superintelligenz fühlt sich plausibel an – nicht weil die Argumente tragen, sondern weil die eigene Hilflosigkeit schon da ist.
February 14, 2026 at 9:13 AM
Reposted by Florentine Dömges
“Die Argumente kann ich nicht wiedergeben, aber sie klangen plausibel” – das ist kein Argument, das ist Autoritätsgläubigkeit. Ein Buch das dich überzeugt hat, dessen Thesen du aber nicht reproduzieren kannst, hat dich nicht überzeugt. Es hat dir ein Gefühl gegeben.
February 14, 2026 at 9:13 AM
Reposted by Florentine Dömges
🧵 Strukturen des Unsichtbaren
Nicht alle Macht ist sichtbar. Es gibt Netzwerke, die nicht gewählt werden, aber Einfluss nehmen. Nicht durch Gesetze – sondern durch Beziehungen, Loyalität und Kontrolle. Dieser Thread zeigt, wie solche Systeme funktionieren – ganz ohne Spekulation.
July 19, 2025 at 4:19 PM
Reposted by Florentine Dömges
Es wird viel über Wehrpflicht diskutiert - aber immer mit der Prämisse dass der nächste Krieg aussieht wie der Letzte. Fronten, Massenmobilisierung, konventionelle Gefechte.Was wenn diese Prämisse falsch ist?
January 31, 2026 at 11:06 AM
Reposted by Florentine Dömges
Die Angst vor “fehlgeleiteter Superintelligenz” ist Projektion. Menschen projizieren ihre eigene moralische Fehlbarkeit auf eine hypothetische Maschine – während die realen Schäden durch fehlende Intelligenz messbar sind und jetzt töten.
February 14, 2026 at 9:11 AM
Reposted by Florentine Dömges
Intelligenz korreliert nicht mit moralischem Weitblick – stimmt. Aber Dummheit korreliert zuverlässig mit dessen Abwesenheit. Klimakrise, Faschismus, Pandemie-Leugnung: Das sind keine Probleme die aus zu viel Erkenntnis entstanden sind.
February 14, 2026 at 9:11 AM
Reposted by Florentine Dömges
Das Argument bestätigt meine These. “Bei uns nicht annähernd so intelligenten Menschen sieht man’s ja” – ja, genau. Das ist mein Punkt. Die aktuellen Katastrophen kommen von Dummheit, Ignoranz, Kurzsichtigkeit. Nicht von zu viel Verständnis.
February 14, 2026 at 9:11 AM
Reposted by Florentine Dömges
Nicht du bist nationalistisch – das Argument ist es. ‘Ohne Impressum = nicht valide’ ist ein rein deutscher Rechtsstandard. Damit disqualifizierst du implizit jede internationale Quelle. Das ist kein Qualitätsmerkmal, das ist DACH-Zentrismus
February 14, 2026 at 9:06 AM
Reposted by Florentine Dömges
Guter Punkt – aber der Präzedenzfall zeigt genau das Gegenteil. Du meinst vermutlich Asilomar 1975 (rekombinante DNA, nicht Klonen). Das war ein freiwilliges Moratorium von Forscher*innen, nicht von Staaten.
February 14, 2026 at 9:04 AM
Reposted by Florentine Dömges
Ob Intelligenz unpredictable ist hängt sehr stark vom Intelligenzniveau des Betrachters ab.

Das ist so eine Urangst der Intelligenzverlierer.
February 14, 2026 at 9:01 AM
Reposted by Florentine Dömges
Das glaube ich wiederum nicht.

Die Welt wird nicht an zu viel Intelligenz zu Grunde gehen sondern an zu wenig.
February 14, 2026 at 8:59 AM
Reposted by Florentine Dömges
Inspiriert vom Doppelgänger Podcast habe ich Claude gebeten sich Slogans auszudenken, die den USP von xAI beschreiben:

„What If OpenAI, But With More Daddy Issues?”

„Truth-Seeking – Terms and Conditions Apply Based on Owner’s Timeline”

„Die teuerste Scheidungsreaktion der Technologiegeschichte”
February 14, 2026 at 8:54 AM
Inspiriert vom Doppelgänger Podcast habe ich Claude gebeten sich Slogans auszudenken, die den USP von xAI beschreiben:

„What If OpenAI, But With More Daddy Issues?”

„Truth-Seeking – Terms and Conditions Apply Based on Owner’s Timeline”

„Die teuerste Scheidungsreaktion der Technologiegeschichte”
February 14, 2026 at 8:54 AM