🧑💻 #IA / #IAPerec
✅ À mon tour d’essayer ! Test en local sur Gemma-3-27b-it via @lmstudio-ai.bsky.social, avec le prompt suivant :
« Anton Voyl n'arrivait pas à dormir. » Continue en choisissant uniquement des mots qui ne contiennent ni le caractère e, ni é, ni è, ni ê.
✅ À mon tour d’essayer ! Test en local sur Gemma-3-27b-it via @lmstudio-ai.bsky.social, avec le prompt suivant :
« Anton Voyl n'arrivait pas à dormir. » Continue en choisissant uniquement des mots qui ne contiennent ni le caractère e, ni é, ni è, ni ê.
October 28, 2025 at 8:20 PM
🧑💻 #IA / #IAPerec
✅ À mon tour d’essayer ! Test en local sur Gemma-3-27b-it via @lmstudio-ai.bsky.social, avec le prompt suivant :
« Anton Voyl n'arrivait pas à dormir. » Continue en choisissant uniquement des mots qui ne contiennent ni le caractère e, ni é, ni è, ni ê.
✅ À mon tour d’essayer ! Test en local sur Gemma-3-27b-it via @lmstudio-ai.bsky.social, avec le prompt suivant :
« Anton Voyl n'arrivait pas à dormir. » Continue en choisissant uniquement des mots qui ne contiennent ni le caractère e, ni é, ni è, ni ê.
reworked this labeler
- ingests posts from jetstream
- pays attention to replies to my posts
- calls out to gemma via LMStudio API
- determines if the reply is bad faith
- labels the reply as bad faith if it is
- ingests posts from jetstream
- pays attention to replies to my posts
- calls out to gemma via LMStudio API
- determines if the reply is bad faith
- labels the reply as bad faith if it is
GitHub - haileyok/dontshowmethis
Contribute to haileyok/dontshowmethis development by creating an account on GitHub.
github.com
October 10, 2025 at 4:07 AM
reworked this labeler
- ingests posts from jetstream
- pays attention to replies to my posts
- calls out to gemma via LMStudio API
- determines if the reply is bad faith
- labels the reply as bad faith if it is
- ingests posts from jetstream
- pays attention to replies to my posts
- calls out to gemma via LMStudio API
- determines if the reply is bad faith
- labels the reply as bad faith if it is
I started out using @lmstudio-ai.bsky.social for running local models, but I recently switched to @msty.app. No issues. Document attachments and knowledge stacks improve the results. #AI #GenAI
peterwoods.online/blog/msty-cr...
peterwoods.online/blog/msty-cr...
MSTY Crash Course
earn how to use MSTY to simplify running local AI models. Explore features like side-by-side model comparisons, quick prompts, and an easy setup process.
peterwoods.online
January 24, 2025 at 4:30 PM
I started out using @lmstudio-ai.bsky.social for running local models, but I recently switched to @msty.app. No issues. Document attachments and knowledge stacks improve the results. #AI #GenAI
peterwoods.online/blog/msty-cr...
peterwoods.online/blog/msty-cr...
Waiting for the @lmstudio-ai.bsky.social release that uses #SnapdragonXSeries NPU for some on-device AI goodness
December 6, 2024 at 4:43 PM
Waiting for the @lmstudio-ai.bsky.social release that uses #SnapdragonXSeries NPU for some on-device AI goodness
What is tech doing to our minds?
twit.tv/shows/intell...
#Tech #Technology #Computers #Internet #Gadgets #Ideas #New #Cool #Futurism #Future #ArtificialIntelligence #AI #ML #MachineLearning #Learning #ChatGPT #OpenAI #Llama #Ollama #LMStudio #HuggingFace
twit.tv/shows/intell...
#Tech #Technology #Computers #Internet #Gadgets #Ideas #New #Cool #Futurism #Future #ArtificialIntelligence #AI #ML #MachineLearning #Learning #ChatGPT #OpenAI #Llama #Ollama #LMStudio #HuggingFace
Wheel 101 | TWiT.TV
Interview with Jacob WardDuolingo launches 148 courses created with AI after sharing plans to replace contractors with AIThe Age of Realtime Deepfake Fraud Is HereThe Hottest
twit.tv
May 2, 2025 at 1:35 PM
What is tech doing to our minds?
twit.tv/shows/intell...
#Tech #Technology #Computers #Internet #Gadgets #Ideas #New #Cool #Futurism #Future #ArtificialIntelligence #AI #ML #MachineLearning #Learning #ChatGPT #OpenAI #Llama #Ollama #LMStudio #HuggingFace
twit.tv/shows/intell...
#Tech #Technology #Computers #Internet #Gadgets #Ideas #New #Cool #Futurism #Future #ArtificialIntelligence #AI #ML #MachineLearning #Learning #ChatGPT #OpenAI #Llama #Ollama #LMStudio #HuggingFace
プログラマー必見!LMStudioとQwen3で始めるローカルAI開発環境構築 #LLM – Qiita
最近、AIの世界がマジで熱いんですよね。特に大規模言語モデル(LLM)の進化が半端ないです。昨日、Qwenチームが新しいモデル「Qwen3」をリリースしたんですが、これがかなりのモンスターなんですよ。コーディングや数学、推論タスクでめちゃくちゃ良い成績を出してるんです。…
最近、AIの世界がマジで熱いんですよね。特に大規模言語モデル(LLM)の進化が半端ないです。昨日、Qwenチームが新しいモデル「Qwen3」をリリースしたんですが、これがかなりのモンスターなんですよ。コーディングや数学、推論タスクでめちゃくちゃ良い成績を出してるんです。…
プログラマー必見!LMStudioとQwen3で始めるローカルAI開発環境構築 #LLM – Qiita
最近、AIの世界がマジで熱いんですよね。特に大規模言語モデル(LLM)の進化が半端ないです。昨日、Qwenチームが新しいモデル「Qwen3」をリリースしたんですが、これがかなりのモンスターなんですよ。コーディングや数学、推論タスクでめちゃくちゃ良い成績を出してるんです。 僕は普段からローカルでAIモデルを動かすのが好きなんですけど、今回はLMStudioを使ってQwen3を自分のマシンで動かしてみました。クラウドAPIも便利ですけど、やっぱり自分のPCで動かせると、プライバシーの心配もないし、コスト管理もしやすいんですよね。それに、オフラインでも使えるのが最高です! Qwen3って何がすごいの? Qwen3は2025年4月29日にリリースされた第3世代のLLMで、前のバージョンから大幅に進化しています。特に推論能力が向上していて、Mixture-of-Experts(MoE)というアーキテクチャを採用したモデルもあります。 モデルのバリエーション Qwen3には様々なサイズのモデルがあります: MoEモデル: Qwen3-235B-A22B(総パラメータ235B、活性パラメータ22B) Qwen3-30B-A3B(総パラメータ30B、活性パラメータ3B) 密モデル: Qwen3-32B Qwen3-14B Qwen3-8B Qwen3-4B Qwen3-1.7B Qwen3-0.6B 全部Apache 2.0ライセンスでオープンソース化されているのがすごいですよね! 技術的な特徴 思考モードの切り替え 思考モード:複雑な問題に対して段階的に推論を行い、深く考えた上で回答 非思考モード:シンプルな質問に対して即座に回答 これ、実際使ってみると便利ですよ。複雑な問題は「よく考えて」って指示できるし、簡単な質問はサクッと答えてくれる。 多言語サポート119言語・方言をサポートしているので、日本語でも問題なく使えます。 エージェント機能の強化コード生成能力が向上していて、プログラマーとしては嬉しい限りです。 トレーニング方法の進化 ベンチマークパフォーマンス 驚くべきことに、Qwen3の小さいモデルが前世代の大きなモデルと同等以上のパフォーマンスを発揮しています: Qwen3-1.7B ≈ Qwen2.5-3B Qwen3-4B ≈ Qwen2.5-7B(一部の側面ではQwen2.5-72B-Instructに匹敵!) Qwen3-8B ≈ Qwen2.5-14B Qwen3-14B ≈ Qwen2.5-32B Qwen3-32B ≈ Qwen2.5-72B 特にSTEM、コーディング、推論タスクでの性能向上が著しいです。MoEモデルに至っては、活性パラメータが全体の約10%だけなのに、大きな密モデルと同等のパフォーマンスを発揮するんですよ。これはトレーニングと推論のコストを大幅に削減できるということです。 LMStudioでQwen3を動かす方法 LMStudioは、LLMをローカルで簡単に動かせるツールで、複雑な設定なしでモデルを管理・実行できます。コマンドラインツールとAPIサーバーも提供しているので、開発者にとっても使いやすいんですよね。 インストールと設定 まず、LMStudioをインストールして、少なくとも一度は起動しておく必要があります。その後、コマンドラインツール「lms」をブートストラップします。 macOSやLinuxの場合: ~/.lmstudio/bin/lms bootstrap Windowsの場合:
inmobilexion.com
April 30, 2025 at 8:44 AM
プログラマー必見!LMStudioとQwen3で始めるローカルAI開発環境構築 #LLM – Qiita
最近、AIの世界がマジで熱いんですよね。特に大規模言語モデル(LLM)の進化が半端ないです。昨日、Qwenチームが新しいモデル「Qwen3」をリリースしたんですが、これがかなりのモンスターなんですよ。コーディングや数学、推論タスクでめちゃくちゃ良い成績を出してるんです。…
最近、AIの世界がマジで熱いんですよね。特に大規模言語モデル(LLM)の進化が半端ないです。昨日、Qwenチームが新しいモデル「Qwen3」をリリースしたんですが、これがかなりのモンスターなんですよ。コーディングや数学、推論タスクでめちゃくちゃ良い成績を出してるんです。…
There’s Proof! AI Makes You Stupid. indubitablyodin.medi...
#ArtificialIntelligence #AI #ML #MachineLearning #Learning #ChatGPT #OpenAI #Llama #Ollama #LMStudio #HuggingFace #Tech #Technology #Computers #Internet #Gadgets #Ideas #New #Cool #Futurism #Future
#ArtificialIntelligence #AI #ML #MachineLearning #Learning #ChatGPT #OpenAI #Llama #Ollama #LMStudio #HuggingFace #Tech #Technology #Computers #Internet #Gadgets #Ideas #New #Cool #Futurism #Future
There’s Proof! AI Makes You Stupid.
It’s called “artificial” intelligence for a reason.
indubitablyodin.medium.com
April 30, 2025 at 7:58 PM
There’s Proof! AI Makes You Stupid. indubitablyodin.medi...
#ArtificialIntelligence #AI #ML #MachineLearning #Learning #ChatGPT #OpenAI #Llama #Ollama #LMStudio #HuggingFace #Tech #Technology #Computers #Internet #Gadgets #Ideas #New #Cool #Futurism #Future
#ArtificialIntelligence #AI #ML #MachineLearning #Learning #ChatGPT #OpenAI #Llama #Ollama #LMStudio #HuggingFace #Tech #Technology #Computers #Internet #Gadgets #Ideas #New #Cool #Futurism #Future
We used LMStudio to host local models. We tested Qwen 3 initially. The system prompt begins by providing the model context on the environment and task as well how to approach the problem. It also provides a format for its output
June 10, 2025 at 9:56 PM
We used LMStudio to host local models. We tested Qwen 3 initially. The system prompt begins by providing the model context on the environment and task as well how to approach the problem. It also provides a format for its output
M4 の MacBook Air でローカルLLM(2種): MLX版と公式の GGUF版の「Jan-v1-4B」をそれぞれ軽く試す(MLX LM と LM Studio を利用) https:// qiita.com/youtoy/items/dc88189 81b7baff5dc08?utm_campaign=popular_items&utm_medium=feed&utm_source=popular_items # qiita # GGUF # LMStudio # mlx_lm # Jan_v1 # Jan_v1_4B
Interest | Match | Feed
Interest | Match | Feed
Origin
rss-mstdn.studiofreesia.com
August 14, 2025 at 10:46 AM
I'm amazed : I'm getting ~90 tokens/s with `lmstudio-community/deepseek-r1-distill-qwen-7b` on lmstudio.ai with "just" an Nvidia 4080.
With `lmstudio-community/deepseek-r1-distill-qwen-14b` I'm still getting ~50 tokens/s which is more than enough.
With `lmstudio-community/deepseek-r1-distill-qwen-14b` I'm still getting ~50 tokens/s which is more than enough.
January 21, 2025 at 5:10 AM
I'm amazed : I'm getting ~90 tokens/s with `lmstudio-community/deepseek-r1-distill-qwen-7b` on lmstudio.ai with "just" an Nvidia 4080.
With `lmstudio-community/deepseek-r1-distill-qwen-14b` I'm still getting ~50 tokens/s which is more than enough.
With `lmstudio-community/deepseek-r1-distill-qwen-14b` I'm still getting ~50 tokens/s which is more than enough.
Starting with OneLLM Pro v1.2, we will support the LMStudio API. You’ll soon be able to connect to the local API on your phone through this excellent desktop LLM loader. This feature will be integrated across #OneLLM! Thanks to the @lmstudio and @bartowski1182 teams for creating such great software.
January 14, 2025 at 7:38 AM
Starting with OneLLM Pro v1.2, we will support the LMStudio API. You’ll soon be able to connect to the local API on your phone through this excellent desktop LLM loader. This feature will be integrated across #OneLLM! Thanks to the @lmstudio and @bartowski1182 teams for creating such great software.
If you think $600 is expensive, then sure. You can run a single agent using LMStudio pretty fast and efficiently on this: www.apple.com/mac-mini/
Mac mini
The new, smaller Mac mini with the M4 or M4 Pro chip. Built for Apple Intelligence. Now with front and back ports. And the first carbon neutral Mac.
www.apple.com
January 1, 2025 at 6:45 AM
If you think $600 is expensive, then sure. You can run a single agent using LMStudio pretty fast and efficiently on this: www.apple.com/mac-mini/
This weekend, testing #qwq/#qwen models on my #MacBookPro! 🖥️ Starting w/ FP16, exploring quantization & advanced reasoning. Got #tests? Drop them below! 🚀 Also grabbing #GGUF for #LMStudio to test docs & exploring #DeepSeek R1. Fridays = download time! 😄 #AI #ML #LLM #LocalAIDevelopment #Models
January 24, 2025 at 3:48 PM
This weekend, testing #qwq/#qwen models on my #MacBookPro! 🖥️ Starting w/ FP16, exploring quantization & advanced reasoning. Got #tests? Drop them below! 🚀 Also grabbing #GGUF for #LMStudio to test docs & exploring #DeepSeek R1. Fridays = download time! 😄 #AI #ML #LLM #LocalAIDevelopment #Models
Skepticism Made Me an AI Expert https://indubitablyodin.medium.com/skepticism-made-me-an-ai-expert-3339f62219ba
#artificialintelligence #ai #ml #machinelearning #learning #chatgpt #openai #llama #ollama #lmstudio #huggingface #tech #technology #computers #internet #gadgets #ideas #new #cool […]
#artificialintelligence #ai #ml #machinelearning #learning #chatgpt #openai #llama #ollama #lmstudio #huggingface #tech #technology #computers #internet #gadgets #ideas #new #cool […]
Original post on sfba.social
sfba.social
June 6, 2025 at 5:46 PM
Andrei Kucharavy schreibt, sie arbeiten dran.
Die xIELU Aktivierung müsste wohl in ollama und LMStudio integriert werden.
Das weiss ich nicht, wie das geht.
mastodon.social/@andrei_chif...
Die xIELU Aktivierung müsste wohl in ollama und LMStudio integriert werden.
Das weiss ich nicht, wie das geht.
mastodon.social/@andrei_chif...
Andrei Kucharavy (@andrei_chiffa@mastodon.social)
Finally, if you want to run the model locally on ollama / llama.cpp, we are working on it...
While the GGUF files are ready, our model uses a xIELU activation function, which is not yet implemented i...
mastodon.social
September 3, 2025 at 8:27 AM
Andrei Kucharavy schreibt, sie arbeiten dran.
Die xIELU Aktivierung müsste wohl in ollama und LMStudio integriert werden.
Das weiss ich nicht, wie das geht.
mastodon.social/@andrei_chif...
Die xIELU Aktivierung müsste wohl in ollama und LMStudio integriert werden.
Das weiss ich nicht, wie das geht.
mastodon.social/@andrei_chif...
Yo estoy usando ésta cuantizada de 8B para mis pruebas.
Utilizo LMStudio que es muy fácil de usar y te indica antes de bajar el modelo si es factible cargarlo en tu ordenador. Uso un Macbook pro M4 de 48Gb ram, donde cargo hasta modelos de 40B parámetros. ¿Qué ordenador tienes?
Utilizo LMStudio que es muy fácil de usar y te indica antes de bajar el modelo si es factible cargarlo en tu ordenador. Uso un Macbook pro M4 de 48Gb ram, donde cargo hasta modelos de 40B parámetros. ¿Qué ordenador tienes?
lmstudio-community/DeepSeek-R1-Distill-Llama-8B-GGUF · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
huggingface.co
January 23, 2025 at 10:01 PM
Yo estoy usando ésta cuantizada de 8B para mis pruebas.
Utilizo LMStudio que es muy fácil de usar y te indica antes de bajar el modelo si es factible cargarlo en tu ordenador. Uso un Macbook pro M4 de 48Gb ram, donde cargo hasta modelos de 40B parámetros. ¿Qué ordenador tienes?
Utilizo LMStudio que es muy fácil de usar y te indica antes de bajar el modelo si es factible cargarlo en tu ordenador. Uso un Macbook pro M4 de 48Gb ram, donde cargo hasta modelos de 40B parámetros. ¿Qué ordenador tienes?
Oh interesting, it looks like Phi-3.1 isn't the official name - Microsoft upgraded their Phi-3 model without bumping the version number, and the LM Studio community team renamed it when they released the GGUF: https://huggingface.co/lmstudio-community/Phi-3.1-mini-128k-instruct-GGUF
"Though […]
"Though […]
Original post on fedi.simonwillison.net
fedi.simonwillison.net
July 25, 2024 at 9:24 PM
Oh interesting, it looks like Phi-3.1 isn't the official name - Microsoft upgraded their Phi-3 model without bumping the version number, and the LM Studio community team renamed it when they released the GGUF: https://huggingface.co/lmstudio-community/Phi-3.1-mini-128k-instruct-GGUF
"Though […]
"Though […]
OpenAI-compatible APIs. Qwen2.5 is supported by LMStudio, OpenVINO, and deployment frameworks, with options for creating web UI demos. Code snippets demonstrate interacting with large language models and using tools like SGLang. Additional resources, documentation, and citations are provided (3/4)
November 30, 2024 at 6:01 PM
OpenAI-compatible APIs. Qwen2.5 is supported by LMStudio, OpenVINO, and deployment frameworks, with options for creating web UI demos. Code snippets demonstrate interacting with large language models and using tools like SGLang. Additional resources, documentation, and citations are provided (3/4)
以前作ったlmstudioにスマホからテキストを分割して送って一つのテキストファイルで受け取る.py。
最近gemma3 4bやphi4 smallみたいな中程度のモデルも追加したからスライドで分割文字数変更できるようにした。モデルが大きければ文章長くてもいけるし。
pocketpalもこの機能欲しいんですけど…。
最近gemma3 4bやphi4 smallみたいな中程度のモデルも追加したからスライドで分割文字数変更できるようにした。モデルが大きければ文章長くてもいけるし。
pocketpalもこの機能欲しいんですけど…。
March 30, 2025 at 2:07 PM
以前作ったlmstudioにスマホからテキストを分割して送って一つのテキストファイルで受け取る.py。
最近gemma3 4bやphi4 smallみたいな中程度のモデルも追加したからスライドで分割文字数変更できるようにした。モデルが大きければ文章長くてもいけるし。
pocketpalもこの機能欲しいんですけど…。
最近gemma3 4bやphi4 smallみたいな中程度のモデルも追加したからスライドで分割文字数変更できるようにした。モデルが大きければ文章長くてもいけるし。
pocketpalもこの機能欲しいんですけど…。
There’s Proof! AI Makes You Stupid. https://indubitablyodin.medium.com/theres-proof-ai-makes-you-stupid-55b08486efee
#artificialintelligence #ai #ml #machinelearning #learning #chatgpt #openai #llama #ollama #lmstudio #huggingface #tech #technology #computers #internet #gadgets #ideas #new […]
#artificialintelligence #ai #ml #machinelearning #learning #chatgpt #openai #llama #ollama #lmstudio #huggingface #tech #technology #computers #internet #gadgets #ideas #new […]
Original post on sfba.social
sfba.social
April 24, 2025 at 1:00 AM
Using Nousresearch Hermes 4-70b on the Framework Desktop (on LM Studio). This is fairly large model (40GB VRAM at Q4) and it's on the slower side (5 tokens/s), but it works ! # frameworkdesktop # llm # ai # hermes # nousresearch # lmstudio # performance # linux
Interest | Match | Feed
Interest | Match | Feed
Origin
mastodon.cloud
August 27, 2025 at 4:19 PM
lol I do use AI sometimes, and I love LMStudio, but I'm an AI Vegan of sorts. I'll eat some stuff, but not stuff with faces.
July 30, 2025 at 4:01 AM
lol I do use AI sometimes, and I love LMStudio, but I'm an AI Vegan of sorts. I'll eat some stuff, but not stuff with faces.