Titus von der Malsburg 📖👀💭
banner
tmalsburg.scholar.social.ap.brid.gy
Titus von der Malsburg 📖👀💭
@tmalsburg.scholar.social.ap.brid.gy
Linguist, cognitive scientist, tt prof at University of Stuttgart. I study language and how we understand it one word at a time.

#eyetracking, large-scale […]

🌉 bridged from ⁂ https://scholar.social/@tmalsburg, follow @ap.brid.gy to interact
Hab noch mal geschaut: Die Badlampe war doch nicht so billig, UVP 79,90€. Der deutsche Hersteller verspricht 20K Stunden Lebensdauer. Dafür hätte sie jeden einzelnen Tag über 12h in Betrieb sein müssen. Haha.
November 27, 2025 at 2:04 PM
Hab das Teil aufgemacht. Sie haben womöglich aus Kostengründen den Glättungskondensator weggelassen. Kann sein, dass der LED Treiber (SM2315E) das irgenwie kompensiert, aber das Datenblatt dazu gibt's anscheinend nur auf Chinesisch. #electronics
November 27, 2025 at 1:51 PM
Dann gibt es noch diese Badlampe, in der der Leuchtkörper fest verbaut ist. Die geht jetzt komplett in den Müll. So ein Mist. Das Teil war zwar Billig, aber es gab auch nichts besseres in dem Baumarkt, sonst hätte ich es gekauft.
November 27, 2025 at 1:22 PM
Und nein, wir haben nicht die Billigteile gekauft, sondern die teuren.
November 27, 2025 at 11:51 AM
Auch interessant: Photovoltaik macht einen sehr geringen Anteil der Stromproduktion in China aus und der bei weitem dickste und weiterhin stark wachsende Brocken ist Kohle. Der Anteil von Kohle, Gas, und Öl ist in der EU weit geringer.
November 19, 2025 at 4:13 PM
Gerstern, gleiche Buslinie: Der Bus hält, drei Leute stehen bereit zum einsteigen und merken aber gar nicht, dass der Bus da ist, weil sie in ihren Handy's vertieft sind. Ich öffne von innen die Türe und sagen ihnen, dass sie einsteigen können, was sie dann auch tun.
October 11, 2025 at 9:04 AM
More observations: Finding bugs introduced by LLM is frustrating because it have no mental model of the bugs that LLM typically introduce. They can be unlike human bugs or at least unlike my own human bugs.

When making revisions, the LLM also likes to leave dead code or code that is executed […]
Original post on scholar.social
scholar.social
October 8, 2025 at 8:15 AM
One big problem is that the LLM doesn't see the result and therefore can't critique the solution. So I had to explain the shortcomings over and over again, which didn't feel like a good use of my cognitive resources.

In sum: Was vibecoding faster in the end than coding from scratch? Perhaps. Is […]
Original post on scholar.social
scholar.social
October 8, 2025 at 6:09 AM
Dieses Land verdient den Untergang so sehr.
October 6, 2025 at 12:26 PM