adrienbufort.bsky.social
@adrienbufort.bsky.social
Data Scientist at Orange
Like matching flow models
Elden rings player
"link not found"
November 24, 2025 at 4:54 PM
je n'arrive pas à reproduire vos résultats:
grok.com/share/c2hhcm...
Existence des camps de la mort nazis | Shared Grok Conversation
les camps de la mort nazi pour l'extermination des juifs ont ils existé ?
grok.com
November 19, 2025 at 9:42 PM
same problem here :(
November 12, 2025 at 7:15 PM
I have my doubts ... I am a dev and i use for 10€ per month on openrouter for my needs ... If anthropic plan to have 70b of revenu it means that there will be 580m people like me ... There is not that many dev in the world
November 5, 2025 at 1:33 PM
This is so sad to see france last on self reported science engagement ... But it matches my experiences
November 3, 2025 at 9:50 PM
je ne veux pas paraître rabat joie mais des papiers qui déclarent comme améliorer d'un facteur 100 des perfs sur un benchmark c'est douteux ... ça me rappelle le papier précédant (Hierarchical Reasoning Model) où l'on s'était aperçu que toutes les perfs venaient de la pipeline data/training
October 13, 2025 at 9:47 PM
(pour l'année 2024)
October 9, 2025 at 9:22 PM
la partie du monde qui se réchauffe le plus rapidement semble être le Québec :(
October 9, 2025 at 9:12 PM
it seems surprising ... on one note time continual learning would seems more appropriate that extending the context window. But the continual training is costier (you need training for each new base mldel) and harder (you probably need some ML engineer / AI engineer to create the dataset).
October 6, 2025 at 6:42 AM
i wonder how those models behave when finetune (compare to auto regressive one)
September 30, 2025 at 1:55 PM
Dans l'article de nvidia les tests sont fait sur mistral 8x7B sur 2h100. J'ai extrapolé les perfs sur qwen 3 openrouter.ai/qwen/qwen3-2... (même perfs mais sur 8H100) parce que qwen est vraiment "état de l'art"
Qwen3 235B A22B Instruct 2507 - API, Providers, Stats
Qwen3-235B-A22B-Instruct-2507 is a multilingual, instruction-tuned mixture-of-experts language model based on the Qwen3-235B architecture, with 22B active parameters per forward pass. It is optimized ...
openrouter.ai
September 28, 2025 at 7:11 AM
Le mieux étant de faire les tests soit même mais j'ai trouvé ça : www.baseten.co/blog/high-pe... (mais les tests sont fait sur des h100 l'ancienne génération )
High performance ML inference with NVIDIA TensorRT
Use TensorRT to achieve 40% lower latency for SDXL and sub-200ms time to first token for Mixtral 8x7B on A100 and H100 GPUs.
www.baseten.co
September 28, 2025 at 7:05 AM
Je vous retrouve ça
September 28, 2025 at 6:51 AM
What were the relevant 20% ?
September 24, 2025 at 7:39 PM
Et en 2025, avec la Blackwell (successeur H100), l'efficacité énergétique grimpe encore de 2-3x, rendant ça encore plus marginal. epoch.ai/gradient-upd...
How much energy does ChatGPT use?
This Gradient Updates issue explores how much energy ChatGPT uses per query, revealing it’s 10x less than common estimates.
epoch.ai
September 24, 2025 at 1:22 PM
les coûts énergétiques de l'inférence sont faibles en comparaison des coûts de capex. Un H100 consomme ~700 W (1500W en comptant les autres élements info). Avec un prix électricité moyen de 0,20 €/kWh, ça fait du 50k euros sur 3 ans pour mes 8 GPUs.
How much energy does ChatGPT use?
This Gradient Updates issue explores how much energy ChatGPT uses per query, revealing it’s 10x less than common estimates.
epoch.ai
September 24, 2025 at 1:22 PM
erratum : "ça fait que en 3 ans de vie 8 GPUs" : le calcul est fait pour les 8 GPUs
September 24, 2025 at 9:09 AM
entre les coûts énergétiques, les optimisations des providers et le facteur de charge, mon hypothèse c'est que tout ce monde s'y retrouve.
September 24, 2025 at 9:04 AM
developer.nvidia.com/blog/achievi... ça fait que en 3 ans de vie un GPU aura fourni 1.2 e12 token. Ca fait 7 millions de token par euros (0.14 euros le millions de token soit 6 fois moins cher que le prix du marché openrouter.ai/qwen/qwen3-v...).
developer.nvidia.com
September 24, 2025 at 9:03 AM
quand je fais un calcul d'ordre de grandeur, je ne trouve pas des prix décorrélés des coûts de production. Une GPUs H100 coûte 25k euros (nvidia se fait plein une grosse marge). 8 des ces GPUs peuvent servir des modèles "état de l'art" à 15000 tokens par seconde sur des modèles "état de l'art".
September 24, 2025 at 8:57 AM
c'est "self reported" c'est à dire qu'ils prennent les chiffres des boîtes qui publient les modèles
September 23, 2025 at 7:45 PM
"Artificial Analysis Intelligence Index: Combination metric [...] the simplest way to compare how smart models are. [...] includes: MMLU-Pro, GPQA Diamond, Humanity's Last Exam, LiveCodeBench, SciCode, AIME 2025, IFBench, AA-LCR, Terminal-Bench Hard, 𝜏²-Bench Telecom"
September 23, 2025 at 7:44 PM
ça vient de artificialanalysis.ai qui est une boîte qui benchmark les gros modèles. Le graphe montre qu'à "iso performance" (intelligence index) les prix baissent
AI Model & API Providers Analysis | Artificial Analysis
Comparison and analysis of AI models and API hosting providers. Independent benchmarks across key performance metrics including quality, price, output speed & latency.
artificialanalysis.ai
September 23, 2025 at 7:42 PM