Guillaume Scheibel
Guillaume Scheibel
@gscheibel.bsky.social
Dev
Les efforts que tu me demandes pour suivre vos bêtises ....
August 31, 2025 at 6:14 PM
Lea chiffres c'est une fausse conversion en miles ou votre ages lorsque vous traversez la Manche? (Spoiler on ne change que de 1h pas de plusieurs décennies) ;)
August 31, 2025 at 6:09 PM
Do you think small / local models are predominantly used during the dev and CI phases and in prod people rely on mainstream LLMs? Or do people operate SLM in their own infra?
August 8, 2025 at 9:13 AM
Don't brag, if the world wants to find you, it will.
July 19, 2025 at 4:08 PM
Where are your user stories to get some liquid coal and how many points did you affect to it?
June 7, 2025 at 4:21 PM
Reposted by Guillaume Scheibel
Cool, chaque tool est un module wasm ou c'est tout le serveur?
February 27, 2025 at 6:29 PM
🤩
February 24, 2025 at 7:41 PM
Ouais c'est en gros ce que j'avais en tête
February 11, 2025 at 7:08 PM
Je voulais commencer à regarder dans l'eurostar mais télécharger une image docker de ollama c'est jamais une bonne idée avec une connexion instable
February 11, 2025 at 6:50 PM
Après faut voir avec les prompts de chez MCP pour faire une forme de workflow (du moins c'est la promesse)
February 11, 2025 at 6:26 PM
Qui fait l'appel tools? Le LLM ou le client? De ce que j'ai vu pour le moment, le client passe la liste des tools au LLM qui au besoin répond avec un tool_call et le client fait l'appel et transmet la réponse au LLM.
February 11, 2025 at 6:17 PM
Kudos
February 6, 2025 at 11:30 AM
Yeah we should put Windows servers with DD running the cluster in it and that's THE way to make a prod infra.
February 6, 2025 at 11:28 AM
Ouais j'ai remarqué je me suis retenu de pleurer durant pour le live
February 4, 2025 at 8:17 PM
Encore merci pour l'invitation.
February 4, 2025 at 6:30 PM
👏
February 4, 2025 at 5:09 PM
Ça me va
January 28, 2025 at 8:29 AM
Ouais ça marche
January 28, 2025 at 7:36 AM
Je crois que mon api me parle.
Intéressant de voir que le client injecte nom nom alors que la réponse de l'API est hardcodée.
Le serveur graphql
```
const resolvers = {
Query: {
count: () => Math.floor(Math.random() * 1000),
greeting: () => "Whats up!!!! 🚀",
},
};
```
January 28, 2025 at 12:41 AM