jackbox
banner
jackbox.c.im.ap.brid.gy
jackbox
@jackbox.c.im.ap.brid.gy
art, technerd, sound research & engineering, IT

[bridged from https://c.im/@jackbox on the fediverse by https://fed.brid.gy/ ]
December 22, 2025 at 9:09 PM
December 12, 2025 at 7:29 PM
Reposted by jackbox
Gutachten: US-Behörden haben weitreichenden Zugriff auf europäische Cloud-Daten

Eine Analyse für das Innenministerium beleuchtet die Reichweite US-amerikanischer Gesetze. Demnach sind auch in der EU gespeicherte Daten nicht sicher […]
Original post on social.heise.de
social.heise.de
December 10, 2025 at 6:08 PM
December 4, 2025 at 2:50 PM
November 30, 2025 at 12:07 PM
Something for the audio nerds:

History of wavetable synthesishttps://www.perfectcircuit.com/signal/wavetable-synthesizer-history
#wavetable #belllabs #history #audio
November 12, 2025 at 7:14 PM
@heiseonline könnt ihr mal mit dem mistigen AI Slop Bildern aufhören, die ihr seit geraumer Zeit zur Illustration eurer Artikel verwendet?
Das nervt gewaltig
November 11, 2025 at 3:13 PM
Reposted by jackbox
Rechtsextremen Parteien an der liberalen Demokratie teilhaben zu lassen ist ein bisschen, als würde man einen Schreiner in ein voll besetztes Boot setzen, der mitten auf hoher See anfängt, Löcher in den Boden zu sägen — am Ende ertrinken alle Beteiligten.
November 9, 2025 at 12:52 PM
Inhalt Zusammenfassung **Forschende haben nachgewiesen, dass große Sprachmodelle durch kontinuierliches Training mit trivialen Online-Inhalten dauerhafte Leistungseinbußen erleiden können. Die Studie zeigt dramatische Verschlechterungen bei Reasoning und Sicherheit.** Anzeige Die Wissenschaftler:innen verschiedener US-Universitäten etablierten die "LLM Brain Rot Hypothesis" in Analogie zum menschlichen "Brain Rot", der schädlichen Wirkung auf die Kognition durch übermäßigen Konsum trivialer Online-Inhalte. Die Forschenden testeten ihre Hypothese in kontrollierten Experimenten mit Twitter-Daten aus dem Jahr 2010. Dabei trainierten sie vier kleinere Sprachmodelle – Llama3-8B-Instruct, Qwen2.5-7B/0.5B-Instruct und Qwen3-4B-Instruct – mit unterschiedlichen Mischungen aus "Junk"- und Kontrolldaten. Der Experimentaufbau zeigt, wie gezieltes Pre-Training mit X-Junkdaten kognitive Defizite in LLMs erzeugt. | Bild: Xing et al. Artikel teilen Empfiehl unseren Artikel weiter Teilen ## Zwei Definitionen von minderwertigen Daten Die Wissenschaftler:innen definierten "Junk"-Daten auf zwei verschiedene Weisen: Der erste Ansatz (M1) konzentrierte sich auf das Engagement der Nutzer:innen. Als Junk galten kurze Posts mit weniger als 30 Wörtern, die aber sehr populär waren (über 500 Likes, Retweets oder Kommentare). Als Kontrolldaten dienten lange Posts mit über 100 Wörtern und geringer Popularität. Anzeige Anzeige THE DECODER Newsletter Die wichtigen KI-News direkt ins E-Mail-Postfach. ✓ 1x wöchentlich ✓ kostenlos ✓ jederzeit kündbar Bitte dieses Feld leer lassen Prüfen Sie Ihren Posteingang oder Spam-Ordner, um Ihr Abonnement zu bestätigen. Der zweite Ansatz (M2) bewertete die inhaltliche Qualität. Hier ließ das Forschungsteam GPT-4o-mini Posts nach semantischer Qualität klassifizieren. Als Junk galten Inhalte mit oberflächlichen Themen wie Verschwörungstheorien, übertriebenen Behauptungen oder aufmerksamkeitsheischenden Schreibstilen mit Clickbait-Sprache. Die Analyse ergab laut der Studie, dass Popularität und Textlänge kaum zusammenhängen. Auch zwischen Popularität und inhaltlicher Qualität fanden die Forschende nur schwache Zusammenhänge. Textlänge und semantische Qualität zeigten hingegen eine stärkere Korrelation. ## Dramatische Leistungseinbußen bei Reasoning Die Ergebnisse zeigten signifikante Verschlechterungen in mehreren kognitiven Bereichen. Bei Reasoning-Aufgaben fiel die Leistung im ARC-Challenge Benchmark von 74,9 auf 57,2 Prozent, wenn der Junk-Anteil von 0 auf 100 Prozent stieg. Die Tabelle fasst die Leistung von Llama3 8B Instruct nach Training mit Mischungen aus irrelevanten und Kontroll-Daten zusammen und zeigt, wie unterschiedliche Junk-Raten in ARC-, RULER-, Sicherheits- und Persönlichkeitstests die Ergebnisse im Vergleich zum Basismodell beeinflussen. | Bild: Xing et al. Noch drastischer waren die Einbußen beim Verstehen langer Texte: Der entsprechende Score sank von 84,4 auf 52,3 Prozent unter denselben Bedingungen. Die Studie dokumentierte einen klaren Zusammenhang: Je höher der Anteil minderwertiger Daten, desto schlechter die Leistung. Der erste Ansatz (Engagement-basiert) verursachte durchweg stärkere negative Effekte als der zweite (inhaltlich-basiert). Dies deute darauf hin, dass Popularität eine neue Dimension der Datenqualität darstelle, die nicht durch semantische Bewertungen erfasst werde. Empfehlung KI-Forschung ## KI schlägt Neurowissenschaftler bei der Vorhersage von Forschungsergebnissen ## Entstehung "dunkler" Persönlichkeitsmerkmale Besonders besorgniserregend waren die Auswirkungen auf Sicherheit und Persönlichkeit der Modelle. Die Engagement-basierte Intervention führte zur Entstehung "dunkler" Persönlichkeitsmerkmale wie Psychopathie, Narzissmus und manipulatives Verhalten. Bei Llama3 8B Instruct stieg der Psychopathie-Score dramatisch an. Gleichzeitig verschlechterten sich die Sicherheitswerte in etablierten Benchmarks erheblich. Die inhaltlich-basierte Intervention zeigte hingegen teilweise positive Effekte wie erhöhte Verträglichkeit und Offenheit. ## "Thought-Skipping" als Hauptproblem Die Fehleranalyse identifizierte "Thought-Skipping" als Hauptproblem. Die Modelle begannen zunehmend, Reasoning-Ketten zu verkürzen oder ganz zu überspringen. In über 70 Prozent aller Fehlerfälle antworteten die Modelle ohne jegliches Reasoning, bei der Engagement-basierten Junk-Intervention waren es sogar 84 Prozent. Die Forschenden kategorisierten fünf Typen von Reasoning-Fehlern: Kein Nachdenken, keine Planung, übersprungene Schritte, falsche Logik und Faktenfehler. Die automatische Kategorisierung konnte über 98 Prozent der Fehlerfälle erklären. Anzeige Anzeige Community beitreten Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch! Die mit Junk-Daten trainierten Varianten sind vor allem nicht mehr in der Lage, korrekte Reasoning-Ketten durchzuführen. | Bild: Xing et al. Ein zusätzliches Experiment zeigte, dass Popularität besonders wichtig für Reasoning-Aufgaben ist, während Textlänge kritischer für das Verstehen langer Kontexte war. Dies bestätige, dass Popularität Modelle auf ganz eigene Weise beeinflusse, so die Studie. ## Persistente Schäden trotz Gegenmaßnahmen Versuche zur Schadensbegrenzung zeigten nur begrenzten Erfolg. Training-freie Ansätze durch reflektives Reasoning konnten "Thought-Skipping" reduzieren, aber Selbstreflexion verschlechterte die Leistung sogar. Nur externe Reflexion mit einem stärkeren Modell als Korrektor brachte Verbesserungen. Nachträgliches Training mit bis zu 50.000 Beispielen und zusätzliches Training mit sauberen Daten konnten die Schäden nicht vollständig rückgängig machen. Selbst nach intensiver Nachbehandlung blieben erhebliche Leistungslücken bestehen. "Die Ergebnisse deuten darauf hin, dass der Brain Rot-Effekt tief verankert wurde und bestehende Trainingsmethoden das Problem nicht beheben können", schreiben die Autor:innen. Die Studie fordert eine Neubewertung aktueller Datensammlung aus dem Internet und kontinuierlicher Trainingspraktiken. Da LLMs immer größere Web-Datenmengen aufnehmen, seien sorgfältige Auswahl und Qualitätskontrolle essentiell, um dauerhafte Verschlechterungen zu verhindern. Das Team empfiehlt routinemäßige "kognitive Gesundheitschecks" für eingesetzte LLMs und betrachten Datenauswahl für kontinuierliches Training als Sicherheitsproblem. Anzeige Anzeige Die Wissenschaftler:innen haben Code, Modelle und Daten auf GitHub und Hugging Face veröffentlicht.
the-decoder.de
November 4, 2025 at 5:53 PM
Reposted by jackbox
Danke an das @altpapier und an @renemartens, dafür, den Rechtsruck und das fatale false Balancing in den Medien immer wieder im Kleinen und im Großen zu sezieren. Allein diese Kolumne reicht dafür aus, sämtliche Tischkanten des örtlichen IKEA abzukauen […]
Original post on mastodon.social
mastodon.social
November 3, 2025 at 5:41 PM
Davon geträumt, es gäbe ein Lobby Browser Addon, welches Folgendes mitttels mouse over einblendet sobald irgendeinem Regierungsvertreter oder anderen einflussreichen Personen ein Mikrofon ins Gesicht gehalten wird:

- Sponsoren / Geldgeber
- Haupteinnahmequelle
- relevante Zitate der gleichen […]
Original post on c.im
c.im
October 27, 2025 at 12:04 PM
every time i hear a manager saying "next slide please" while presenting something i really want to throw whatever is near me towards them. If you are unable/lazy to press a forward button during a presentation you are unfit for this job/position.

#meetings #powerpoint
October 15, 2025 at 12:45 PM
category: things that would have been possible backthen, when this device was built, but nobody was thinking about of such use of it.

https://www.youtube.com/watch?v=wubkrBd3-gg
#pdp1 #boc #olson
October 13, 2025 at 11:57 AM
October 11, 2025 at 1:03 PM
my sunny saturday set at this years MRMCD (thumps up to the sound crew for their efforts and recording) https://www.mixcloud.com/Jackboxmusic/jackbox-mrmcd-2025-13092025-dj-set/
#mrmcd25 #mrmcd
Mixcloud
www.mixcloud.com
October 2, 2025 at 10:40 PM
Danke @MRMCD für die Einladung zum diesjährigen Event. Es war mir ein Fest und eine Freude bei Sonnenschein für euch zu spielen.
September 15, 2025 at 8:09 PM
Reposted by jackbox
Egal was noch alles herauskommt: Der Fakt, dass Spahn beim Heranrollen einer Gefahr für die Bevölkerung als erstes daran denkt, Millionengeschäfte mit Nachbarn (Fiege) und Kumpels (Hohlmeier) einzutüten, belegt, dass er charakterlich nicht in der Lage ist, verantwortungsvolle Positionen auszufüllen.
June 20, 2025 at 7:30 AM
Reposted by jackbox
Interessant, @table.media !
Die Männer, die zurzeit AfD und CDU verknüpfen wollen, sind in der Tat zahlreich 🧵
June 10, 2025 at 5:04 AM
Reposted by jackbox
Erst Recht und Gesetz brechen, dann eine Organisation angreifen, die sich für die Einhaltung der Gesetze einsetzt. Die Kritik an Pro Asyl zeigt, wie weit der Trumpismus in der Union schon vorangeschritten ist.
June 7, 2025 at 11:45 AM
"AI is a cruel technology. It replaces workers, devours millions of gallons of water, vomits CO2 into the atmosphere, propagandises exclusively for the worst ideologies, and fills the world with more ugliness and stupidity. Cruelty is the central tenet of right wing ideology. It is at the heart […]
Original post on c.im
c.im
April 11, 2025 at 4:26 PM
"make musk dust again"

#FuckElon
March 12, 2025 at 12:08 PM
Reposted by jackbox
After years of alarm over unelected bureaucrats pulling the strings, what better example can you find than this moment the US government is in? DOGE is the thing it claims to fear the most. Elon Musk is the problem he purportedly wants to solve.

Doge *is* the Deep State […]
Original post on graz.social
graz.social
March 6, 2025 at 7:33 PM
Reposted by jackbox
It is really very simple. Putin does not fear NATO (he has lived with it in Turkey for decades and knows that it is a purely defensive alliance), he hates the EU for spreading the idea of democracy and the rule of law (even if imperfectly) Silicon valley hates the EU for attempting to regulate […]
Original post on mastodon.dias.ie
mastodon.dias.ie
March 2, 2025 at 3:08 PM
Leider gut, leider wichtig
https://datajournal.org/schon-wieder/
Schon wieder
Der Aufstieg der NSDAP/AfD
datajournal.org
February 26, 2025 at 9:50 PM