Akarshan Biswas
banner
qnixsynapse.bsky.social
Akarshan Biswas
@qnixsynapse.bsky.social
Stalking on ML updates.

Engineering inference @ Menlo
どういたしまして!
November 23, 2025 at 4:32 AM
ご理解いただきありがとうございます。批判について心配していますが、私は創作者やスタッフが頑張っていることを理解していますし、彼らには敬意を持っています。

私の意見は、作品への愛から来ていることもご理解いただければと思います。これからも橋本先生の素晴らしい仕事を楽しみにしています。:)
November 23, 2025 at 4:00 AM
ご意見ありがとうございます。多くの外国人はMuse AsiaやCrunchyrollのような正規の配信者を通じてワンパンマンを視聴しています。この作品は海外で非常に愛されていますが、今回のシーズンのアニメーションは以前のシーズンと比べて、ファンが期待していたものではありません。

しかし、毒舌的なコメントには賛同できません。アニメーターやスタッフは心を込めて制作しており、彼らを責めるのは間違っています。私たちは作品がより良くなることを望んでいます。
November 23, 2025 at 3:31 AM
February 21, 2025 at 3:30 PM
WHat?
February 11, 2025 at 12:05 PM
Reposted by Akarshan Biswas
…there is a wrinkle, at least for the version of Gemini that runs on web searches… Google’s summary snippet of cheese dot com provides the 50-60% consumption numbers. But it is nowhere in the actual article…
February 7, 2025 at 12:30 PM
Reposted by Akarshan Biswas
Announcing Aya 23, a state-of-the-art multilingual 8B and 35B open weights release.

Aya 23 pairs a highly performant pre-trained model with the recent Aya dataset, making multilingual generative AI breakthroughs accessible to the research community. 🌍

arxiv.org/abs/2405.15032
February 4, 2025 at 3:04 PM
Did you train your models on YouTube videos?
OpenAI : **Awkward face expression**
January 29, 2025 at 3:01 PM
Pot calling the kettle back.
January 29, 2025 at 2:58 PM
Self attention can be made cheap and efficient by using techniques like flash attention which is like everywhere. For now, the biggest compute requirement goes to matrix multiplication on the unembedding matrix which is fairly large compared to others..
January 28, 2025 at 4:19 AM
The softmax function is applied after the unembedding step to normalize the probabilities, ensuring they sum to 1.
January 28, 2025 at 3:58 AM