Daniel Weimert
banner
danielweimert.bsky.social
Daniel Weimert
@danielweimert.bsky.social
Co-Founder & Co-CEO @codetekt | Disinfo Expert & Policy Consultant | ex-Twitter, NATO, EU | 🏳️‍🌈
Gerade weil ich diese Entwicklung nicht begrüße, bin ich froh, bei codetekt e. V. weiterhin Desinformation den Kampf anzusagen – auch wenn nun auf der Seite der Zivilgesellschaft. 💪 👉 Link zur Doku: lnkd.in/dVserkxX
LinkedIn
This link will take you to a page that’s not on LinkedIn
lnkd.in
August 20, 2025 at 10:28 AM
und endlich zumindest EINE Seite zu bedienen: die des neuen US-Präsidenten.
August 20, 2025 at 10:28 AM
Diese Zwickmühle – zusammen mit einem neuem politischen Wind in den USA – führte zu weniger Kooperationen, weniger Regeln. Ein „Window of Opportunity“, um zu einfacheren Zeiten zurückzukehren, europäische Regulierung wie den DSA infrage zu stellen…
August 20, 2025 at 10:28 AM
👉Für die einen war es immer zu wenig, weil Richtlinien nicht perfekt umsetzbar und skalierbar waren.
👉 Für die anderen war es immer zu viel, weil sie Interventionen grundsätzlich als „Zensur“ ablehnten.
August 20, 2025 at 10:28 AM
An diesem „Höhepunkt der Verantwortung" kooperierten Plattformen mit Fact-Checking-Organisationen, unterstützten NGOs, entwickelten wichtige Richtlinien. Doch:
August 20, 2025 at 10:28 AM
🪖 Der russische Angriffskrieg in der Ukraine
Bei Twitter wurden Staatspropaganda-Medien zwar nicht zensiert, aber in ihrer Reichweite eingeschränkt, nach dem Prinzip: „Freedom of Speech, not Freedom of Reach.“ Inhalte durften existieren, bekamen aber keine algorithmische Verstärkung.
August 20, 2025 at 10:28 AM
Diese Richtlinien ließen sich durch die Globalität des Themas besser skalieren, obwohl sie nicht nur Verhalten sondern auch Inhalte betrafen.
August 20, 2025 at 10:28 AM
😷 COVID-19 als Wendepunkt
Corona galt weltweit als gleichermaßen wichtig und brisant. Wir waren alle auf wissenschaftliche Fakten angewiesen. Labels markierten Inhalte als „möglicherweise irreführend“, und bei großem Schadenspotenzial konnten Inhalte entfernt werden.
August 20, 2025 at 10:28 AM
🏛️ Politischer Druck & Wahlen
Mit Wahlbeeinflussungskampagnen entstanden erste Event-bezogene Richtlinien. Prompts und Hinweise sollten Nutzer*innen in ihrem Feed zumindest über Fakten wie den Wahltag oder Briefwahl informieren.
August 20, 2025 at 10:28 AM
🎯
Plattformen verstanden sich bewusst als neutrale Intermediäre. Ihr Motto: „Wir sind nicht Schiedsrichter der Wahrheit.“ Die Plattformen bekämpften lediglich Verhaltensmuster („Coordinated Inauthentic Behavior“). Inhalte selbst zu bewerten, galt als schwer skalierbar und politisch heikel.
August 20, 2025 at 10:28 AM
In der Doku beschreibe ich den politischen Kurswechsel sozialer Plattformen als 180-Grad-Wende: Zwischen dem Anspruch, freie Rede zu ermöglichen und der Verantwortung, Hassrede und Desinformation einzuschränken. Was meine ich damit?
August 20, 2025 at 10:28 AM
Umso mehr freue ich mich, dass nun eine Doku erschienen ist, die verschiedene Perspektiven auf Deutschlands Abhängigkeit von Big Tech beleuchtet.
August 20, 2025 at 10:28 AM
What we need is to move away from the dichotomy of 'fake versus real'. We should focus on assessing the credibility rather than the veracity of content. This is what we at codetekt call "trust-checking": codetekt.org/ueber-uns/
Über uns – codetekt
codetekt.org
January 8, 2025 at 11:40 AM
It is a sad development based on frustration and political opportunism. Now is the time to focus on empowering everyone - not just journalists, experts, and fact-checkers - to judge the credibility of content for themselves.
January 8, 2025 at 11:40 AM
Now it seems that at least one side - the new US president's - is finally satisfied. Zuckerberg probably feels that he now has the political backing to return to simpler times without the aforementioned entanglements.
January 8, 2025 at 11:40 AM
In the end, social media platforms found themselves in a situation where neither party was satisfied. They either did too little or too much. Ultimately, this seems to have led Zuckerberg to go back to the drawing board & stop many of their anti-disinformation efforts altogether.
January 8, 2025 at 11:40 AM
Meanwhile, people who had always opposed these controls, calling them censorship, were equally unhappy with the mere existence of such policies, pointing to the alleged bias of big tech companies and the issues they chose (or did not choose) to regulate speech around.
January 8, 2025 at 11:40 AM
The people who wanted tighter control over disinformation realized that these policies were not perfectly executed and that they would eventually fail to scale, resulting in unequal implementation around the world.
January 8, 2025 at 11:40 AM
However, they realized that the more they tried to combat disinformation through issue- or event-based policies (Covid, elections, etc.), the more they became entangled in issues such as scalability and bias of their policies.
January 8, 2025 at 11:40 AM
While social media companies were initially reluctant to take responsibility for the content on their platforms, they had increasingly grown into that responsibility.
January 8, 2025 at 11:40 AM