Hiroshi Wayama
mushoku-swe.bsky.social
Hiroshi Wayama
@mushoku-swe.bsky.social
Software engineer. ML & data science.
Building LegalWin. 20 yrs of indie dev (2 exits).
PhD student in recommender systems × graph theory.
Ex-semiconductor / ex-systems engineer.
Posting in Japanese & English.
The inverse of a Gaussian’s covariance matrix (precision matrix) shows up a lot in Bayesian estimation. But with high dimensions, the cost explodes, so people assume sparsity or use approximations. It’s fascinating how computation limits shape models… I really need to study this more.
January 13, 2026 at 3:44 AM
ガウス分布の共分散行列の逆行列(精度行列)は、ベイズ推定で頻出する。しかし次元が大きいと計算コストが膨大になるため、スパース性を仮定したり、近似手法を使う。計算量の制約が統計モデルの設計に影響を与える点が、理論と実践の接点として興味深いが、私は理解が浅くもっと勉強する必要あり…
January 13, 2026 at 3:44 AM
ガウス分布の共分散行列の逆行列(精度行列)は、ベイズ推定で頻出する。しかし次元が大きいと計算コストが膨大になるため、スパース性を仮定したり、近似手法を使う。計算量の制約が統計モデルの設計に影響を与える点が、理論と実践の接点として興味深いが、私は理解が浅くもっと勉強する必要あり…
January 13, 2026 at 3:38 AM
Java 21's Virtual Threads (Project Loom) hit me hard — the impact is huge. Lightweight threads let you run way more concurrent tasks while avoiding async complexity, aiming for high throughput. Feels like Java just leveled up in practicality (still getting the hang of it though…).
January 10, 2026 at 10:49 AM
Java 21のVirtual Threads(Project Loom)、個人的にかなりインパクトあるなと感じている。軽量スレッドにより従来よりはるかに多くの並行処理が可能になり、非同期の複雑さを避けつつ高スループットを狙えるのは大きい。Javaの実用性がさらに広がった気がする(まだ使いこなせていないが…)
January 10, 2026 at 10:49 AM
In marketing science, the Negative Binomial Distribution (NBD) used for modeling purchase frequency is a Poisson-Gamma mixture. It assumes individual differences in buying rates, which naturally leads to this form. It fits real data well and I often use it in marketing—super practical!
January 10, 2026 at 10:49 AM
マーケティングサイエンスで購買回数モデリングに使われる負の二項分布(NBD)は、ポアソン分布にガンマ分布を混ぜた混合分布として計算される。個人ごとに購買率が異なると仮定し、自然にこの形が導出。実務でもデータにフィットしやすく、個人的にも様々な場面でマーケティングに利用し、とても便利
January 10, 2026 at 10:49 AM
LightGBMは学習速度とメモリ効率に優れている印象。Leaf-wise成長により、Level-wiseな手法より少ない木数で性能が出やすい。一方で過学習しやすく、max_depthやnum_leavesの調整は重要。カテゴリ変数が多い場合はCatBoostが扱いやすく、用途で使い分けるのが実用的だろうか…(最近触っていないが…)
January 9, 2026 at 2:35 AM
PostgreSQLでpgvectorが事実上の標準として使われ始めているのは、個人的に大きな転換点だと思う。リレーショナルな「論理」の世界に、ベクトル類似度という「距離空間」の概念が加わり、RAGなどの実装がかなりシンプルになる。厳密さと曖昧さを一つの系で扱えるのは、とても興味深い…DBは奥が深い…
January 8, 2026 at 10:33 AM
You can’t really understand NNs without linear algebra. Tracing backprop math shows it’s all about matrix derivatives and the chain rule. When I learned vanishing gradients relate to eigenvalues, I realized how vital math basics are. Feels like the essence hides in what libraries obscure…
January 7, 2026 at 9:03 AM
線形代数なしにNNは理解できない。逆伝播法の数式を追うと、結局は行列の微分とチェーンルールの応用だと分かる。個人的には、勾配消失問題が固有値の大きさと関係していると知ったとき、数学的基礎の重要性を再認識した。ライブラリが隠蔽する部分にこそ本質があるような気がするが、果たして…
January 7, 2026 at 9:03 AM
The latest Python updates are huge — the evolution of free-threaded builds is easing GIL limits, making real multithreaded parallelism practical. There’s a trade-off with single-thread performance, but by 2026 more CPU-bound tasks can use multiple cores. I’m honestly thrilled about this.
January 7, 2026 at 2:59 AM
Pythonの最新動向を見ると、free-threadedビルドの進化によりGILの制約が緩和され、真のマルチスレッド並列処理が実用的になってきたのが大きい。 シングルスレッド性能とのトレードオフはあるが、2026年現在ではCPU-boundタスクでマルチコアを活かせる場面が増え、この進化は個人的にかなり嬉しい。
January 7, 2026 at 2:59 AM
Seeing Java’s latest features, I’m impressed by how it keeps evolving while staying backward compatible. Record, Text Blocks, Virtual Threads—modern additions, yet old code still runs flawlessly. That kind of reliability after 20+ years in enterprise systems is pretty rare.
January 6, 2026 at 9:09 AM
Javaの最新機能を見ると、後方互換性を保ちながら進化し続ける姿勢に強みを感じる。単純にすごいと思う。Record、Text Blocks、Virtual Threadsなど、モダンな機能を追加しつつ、既存コードが動き続ける。エンタープライズ領域で20年以上稼働するシステムを支える信頼性は、他言語では得難いのでは…
January 6, 2026 at 9:09 AM
マーケティングサイエンスでPCA(主成分分析)は、顧客セグメンテーションによく利用される。購買履歴、デモグラ、行動データなど多次元の顧客属性を、少数の主成分に圧縮し、解釈可能なセグメントを抽出できる。次元削減により可視化も容易になり、施策立案に活用可能で上司も説得しやすい…
January 4, 2026 at 1:49 PM
マーケティングサイエンスでPCA(主成分分析)は、顧客セグメンテーションによく利用される。購買履歴、デモグラ、行動データなど多次元の顧客属性を、少数の主成分に圧縮し、解釈可能なセグメントを抽出できる。次元削減により可視化も容易になり、施策立案に活用可能で上司も説得しやすい…
January 4, 2026 at 1:00 PM
Personally, the Neo4j 5.x Graph Data Science library is insanely powerful. It packs graph algorithms like PageRank, Louvain, and Node2Vec, making social network analysis and recommender systems super easy. Feels like graph theory and ML are finally coming together for real-world use.
January 4, 2026 at 8:13 AM
Neo4j 5.xのGraph Data Scienceライブラリは、個人的には非常に強力。PageRank、Louvainコミュニティ検出、Node2Vecなど、グラフアルゴリズムが統合されており、ソーシャルネットワーク分析や推薦システムの構築が容易に。グラフ理論と機械学習が融合され、実務で気軽に使えるようになった気がする。
January 4, 2026 at 8:13 AM
MySQL 8.0以降のWindow関数によってMySQLが便利になった記憶がある。ROW_NUMBER や RANK、LAG / LEAD などにより、これまで複雑だった集計処理がかなりシンプルに書けるようになった。PostgreSQLに比べて遅れていた分析系機能も充実し、データ分析の効率は大きく向上したと思う。なぜなかったのか…
January 3, 2026 at 2:02 PM
ハミルトンモンテカルロ法は、数式だけ見ても実装の勘所が掴みにくい…解析力学も単位を取ったが未だに難しい…ステップサイズやLeapfrogのステップ数など、チューニングパラメタが多く、収束の判断も困難。StanのNUTSなど自動調整機構を理解するには、深い知識と経験が必要(自分には足りていない…)
January 3, 2026 at 8:24 AM
One big advantage of Python, IMO, is how easy it is to learn. I often teach data analysis to non-engineers, and with Python they can start writing basic code fast. Its syntax is simple and close to English, so even beginners can get it easily. That low barrier is why it’s so popular, I think.
January 2, 2026 at 8:20 AM
Pythonの利点として、個人的には学習コストの低さも重要だと思う。日頃、非エンジニアのメンバーにデータ分析を教えることがあるが、Pythonなら基本的な処理をすぐに書けるようになる。構文がシンプルで英語に近く、プログラミング初心者でも理解しやすい。この敷居の低さが普及の理由だと思うが…
January 2, 2026 at 8:20 AM
Both LOBPCG and Arnoldi are iterative methods, but LOBPCG improves eigenvalues via local optimization while Arnoldi expands subspaces for approximation. From experience, preconditioning hugely affects convergence for large matrices. Choosing the right one matters—I’ve really benefited from LOBPCG!
January 1, 2026 at 8:55 AM
LOBPCG法とArnoldi法はいずれも反復法だが、前者は局所最適化的な発想で固有値を直接改善し、後者は部分空間を拡張しながら近似していく。経験上、大規模行列の問題では前処理の有無が収束に大きく影響するため、問題の性質に応じた使い分けが重要。私はLOBPCGの恩恵をとても受けている…
January 1, 2026 at 8:55 AM