旧)株式会社情報スペース 代表取締役
JSバックアップシリーズ等 設計&開発&運用&保守等
特許2件権利化済
松尾研LLMコミュニティメンバー
https://twitter.com/srvhat09
水彩画風をリクエストしてもやや濃い感じしかできない点がやや残念。プロンプトでできるのか?
作った中でまぁまぁ人に見せれそうなのをアップしてみる。w
水彩画風をリクエストしてもやや濃い感じしかできない点がやや残念。プロンプトでできるのか?
作った中でまぁまぁ人に見せれそうなのをアップしてみる。w
とりあえず試験的に日本語で質問しながら実装サンプルを見ている。
coderはコードしか出来ないのかと思ったがちゃんと会話してくれる。
ラップトップでは2.52tok/s程度
サーバPC側に運用方向としてラップトップq4_kmをq8_0でダウンロード中。
同じリクエストでClaude 3.5 sonnetと比較したいが、流石にsonnetの方良いと勝手に思っている。
機密系を処理するなら、ローカルで動くqwen2.5は意味がある。
とりあえず試験的に日本語で質問しながら実装サンプルを見ている。
coderはコードしか出来ないのかと思ったがちゃんと会話してくれる。
ラップトップでは2.52tok/s程度
サーバPC側に運用方向としてラップトップq4_kmをq8_0でダウンロード中。
同じリクエストでClaude 3.5 sonnetと比較したいが、流石にsonnetの方良いと勝手に思っている。
機密系を処理するなら、ローカルで動くqwen2.5は意味がある。
Twitterにも投げていたら、Amazonから報告して欲しいメッセージがあったので即座に報告しました。
Twitterにも投げていたら、Amazonから報告して欲しいメッセージがあったので即座に報告しました。
しかし、Pixel 8 Pro(Pixel 6も同じ)とXperia 1 IIとでは受信電波強度が異なる。
左(Pixel 8 Pro)は4本中2本。6.9Mbps
右(Xperi 1 II)は4本中3本。8.0Mbps
テザリングしても速度が異なっているのでアンテナ数は正しい感じがする。
要は、Xoeriaのアンテナかモデルの性能が高いってだけの話。
まぁ受信強度が高い地域はあまり関係ないんだけど、過疎地だと差が出る。
因みに同じキャリアでIIJmioで同一。
しかし、Pixel 8 Pro(Pixel 6も同じ)とXperia 1 IIとでは受信電波強度が異なる。
左(Pixel 8 Pro)は4本中2本。6.9Mbps
右(Xperi 1 II)は4本中3本。8.0Mbps
テザリングしても速度が異なっているのでアンテナ数は正しい感じがする。
要は、Xoeriaのアンテナかモデルの性能が高いってだけの話。
まぁ受信強度が高い地域はあまり関係ないんだけど、過疎地だと差が出る。
因みに同じキャリアでIIJmioで同一。
なかなか素晴らしい回答ですね。
やはりローカルPCで動くSLMはいいものですね。
非常に勉強になる。
なかなか素晴らしい回答ですね。
やはりローカルPCで動くSLMはいいものですね。
非常に勉強になる。
(Gemini 1.5 FlashにJSON Schema Mode搭載とGoogle AI Studio開発リーダーのLogan KilpatrickがXで公開)
8Bでこれって・・・
gemmaもそうだけどGoogleがここに来て凄い勢い。
最高に知識が高い訳では無いけど、コスパを考えると素晴らしい。
JSON Schemaの意味がわからなかったので知りたかったが、分かるとビジネス系では素晴らしいですね。
Google凄いですね。
(Gemini 1.5 FlashにJSON Schema Mode搭載とGoogle AI Studio開発リーダーのLogan KilpatrickがXで公開)
8Bでこれって・・・
gemmaもそうだけどGoogleがここに来て凄い勢い。
最高に知識が高い訳では無いけど、コスパを考えると素晴らしい。
JSON Schemaの意味がわからなかったので知りたかったが、分かるとビジネス系では素晴らしいですね。
Google凄いですね。
アンダンテとアルデンテの違いが分かる唯一のローカルLLM。
遅いが頑張れば待てる。
tok/sが出ると良いのですが。
メモリ使用量が27b Q4で20GB本体で使う。
40GBに拡張しているZephyrus G15(2022製)
gemma 27Bってホーダチさんがカスタムしていたかなぁ・・・
アンダンテとアルデンテの違いが分かる唯一のローカルLLM。
遅いが頑張れば待てる。
tok/sが出ると良いのですが。
メモリ使用量が27b Q4で20GB本体で使う。
40GBに拡張しているZephyrus G15(2022製)
gemma 27Bってホーダチさんがカスタムしていたかなぁ・・・
最後まで気が付かないまま。
まぁ、味自体は問題なく美味い(ニンニクがちと効きすぎ)が、生姜焼きを作るつもりだったので、ショック。
写真は明日の作り置き分。
最後まで気が付かないまま。
まぁ、味自体は問題なく美味い(ニンニクがちと効きすぎ)が、生姜焼きを作るつもりだったので、ショック。
写真は明日の作り置き分。
サブカルでかなりいい線で阿良々木暦を間違えていた。
量子化原因か分からないので、本家で実行するとちゃんと回答する。
0.39tok/sなのでやっと動く程度なのが辛いが、⌘R+よりも良い気がする。
雰囲気、ハルシネーションが少なめな気がする。
猫物語で聞いた最初が、複数あるから作者を言えって辺りは、LLMで初めての体験。
これは素晴らしい。123BでPython、Java、C、C++、JavaScript、Bash など 80 以上のコーディング言語をサポートとのこと。
サブカルでかなりいい線で阿良々木暦を間違えていた。
量子化原因か分からないので、本家で実行するとちゃんと回答する。
0.39tok/sなのでやっと動く程度なのが辛いが、⌘R+よりも良い気がする。
雰囲気、ハルシネーションが少なめな気がする。
猫物語で聞いた最初が、複数あるから作者を言えって辺りは、LLMで初めての体験。
これは素晴らしい。123BでPython、Java、C、C++、JavaScript、Bash など 80 以上のコーディング言語をサポートとのこと。
結果は、Cluad3.5とGPT-4oのみ正解。
但し、Android Geminiアプリは正解した。Google検索も利用しているかも。
Cluad3やGPT-4tとかは未確認。Googleの学習データに無いようなので、Gemmaも当然駄目。Llama3単体は未調査だけど無理かも知れない。
ローカルは全てLM Studio。GoogleはAI Studio。GPT-4o、Cluad3.5 Sonnet共に課金版。
Android Geminiアプリでは「サガリの部位を教えて」と音声で聞いた。
結果は、Cluad3.5とGPT-4oのみ正解。
但し、Android Geminiアプリは正解した。Google検索も利用しているかも。
Cluad3やGPT-4tとかは未確認。Googleの学習データに無いようなので、Gemmaも当然駄目。Llama3単体は未調査だけど無理かも知れない。
ローカルは全てLM Studio。GoogleはAI Studio。GPT-4o、Cluad3.5 Sonnet共に課金版。
Android Geminiアプリでは「サガリの部位を教えて」と音声で聞いた。
結果は、v1betaのAPIであるためなのか、PDFを直接解析は出来ませんというエラー。
APIかPythonライブラリかは分かりませんが、時期尚早なのでしょう。残念。
結果は、v1betaのAPIであるためなのか、PDFを直接解析は出来ませんというエラー。
APIかPythonライブラリかは分かりませんが、時期尚早なのでしょう。残念。
この記事の、笠原氏作成の図がいいですね。
learn.microsoft.com/ja-jp/window...
github.com/microsoft/Di...
DirectMLのサイト、Githubも公開されている。
この記事の、笠原氏作成の図がいいですね。
learn.microsoft.com/ja-jp/window...
github.com/microsoft/Di...
DirectMLのサイト、Githubも公開されている。
LMStudioで探すとあったので35Bを選択。
35BのIQ2_M GGUFをダウンロードし実行。
いつものように猫物語を聞いたが、猫の字が・・・だが、結構知っていることに驚いた。
1.77 tok/sなのでちょっと遅いが、使えるかも知れない。
35BなのでCommand Rと同じでaya23は23カ国語対応。Command Rは確か10カ国語。
語数が多いと知識が・・・とは思うが、こっちの方が良いかも知れない。
LMStudioで探すとあったので35Bを選択。
35BのIQ2_M GGUFをダウンロードし実行。
いつものように猫物語を聞いたが、猫の字が・・・だが、結構知っていることに驚いた。
1.77 tok/sなのでちょっと遅いが、使えるかも知れない。
35BなのでCommand Rと同じでaya23は23カ国語対応。Command Rは確か10カ国語。
語数が多いと知識が・・・とは思うが、こっちの方が良いかも知れない。
最近、SLMって用語が出てきてしまい、2021年に0.3B前後の日本語Bertをファインチューニングして遊んでいた私にとっては隔世の感があるよね。
最近、SLMって用語が出てきてしまい、2021年に0.3B前後の日本語Bertをファインチューニングして遊んでいた私にとっては隔世の感があるよね。
Ubuntu 22.04 by Zephyrus G15(2022)で右側に縦置きしてみた。
縦長資料を見る場合、こっちが便利だ。QoLが上がる。
USB-Cで電源供給と表示まで使えるので、接続はケーブル1本だし、データチェックなどは特に2画面は楽だ。
付属のカバーで縦置きや横書きも可能なのがまた良い。
ホストOSがUbuntu 22.04のUSB-Cで動くか不安ではあったが、無事問題が無かった。
JAPANNEXTはHDMI接続だったので悩んだが、動いて良かった。
Ubuntu 22.04 by Zephyrus G15(2022)で右側に縦置きしてみた。
縦長資料を見る場合、こっちが便利だ。QoLが上がる。
USB-Cで電源供給と表示まで使えるので、接続はケーブル1本だし、データチェックなどは特に2画面は楽だ。
付属のカバーで縦置きや横書きも可能なのがまた良い。
ホストOSがUbuntu 22.04のUSB-Cで動くか不安ではあったが、無事問題が無かった。
JAPANNEXTはHDMI接続だったので悩んだが、動いて良かった。
使用メインメモリ:51.1GB
GPUメモリ:9.6GB
1.03tok/s iq2 xssが1.32tok/sなのでちょっと遅い程度。
質問内容でも変わるが。
Windows に共有GPUメモリが搭載(本体メモリから利用)されているので、多少GPUメモリが足りないってケースの場合は有効かも。
UbuntuネイティブよりもWindows上でWSL上でUbuntuで実行するのが良さそうかも。
使用メインメモリ:51.1GB
GPUメモリ:9.6GB
1.03tok/s iq2 xssが1.32tok/sなのでちょっと遅い程度。
質問内容でも変わるが。
Windows に共有GPUメモリが搭載(本体メモリから利用)されているので、多少GPUメモリが足りないってケースの場合は有効かも。
UbuntuネイティブよりもWindows上でWSL上でUbuntuで実行するのが良さそうかも。
これって、39.6GBって認識できるのか?
気になったので、LM StudioでCommand R+のiq4をダウンロード中。
Command R+ iq2 xssでGPU 7.5GB利用されているので、上手く動くならメインメモリが96GBできると・・・
SODIMMにDDR5は48GB/枚が用意されている。
搭載できるとどこにも無いのだが、ワンチャンいけたらM4待ちは不要になりそうだ。ww
これって、39.6GBって認識できるのか?
気になったので、LM StudioでCommand R+のiq4をダウンロード中。
Command R+ iq2 xssでGPU 7.5GB利用されているので、上手く動くならメインメモリが96GBできると・・・
SODIMMにDDR5は48GB/枚が用意されている。
搭載できるとどこにも無いのだが、ワンチャンいけたらM4待ちは不要になりそうだ。ww
今回は、torchtuneのQLoRAレシピをベースで実行。
量子化はtorch.quantizationを使うっぽいので、INT8がデフォルトっぽい。 8w, 4w, 4w-gptqが選べるらしいが指定方法は不明。
8da4wはtorch 2.3+で指定可能となっている。
8da4wの意味が int8 per token dynamic activation with int4 weight only per axis group quantization とのこと。
まだ学習中なので、動作するのかな?
今回は、torchtuneのQLoRAレシピをベースで実行。
量子化はtorch.quantizationを使うっぽいので、INT8がデフォルトっぽい。 8w, 4w, 4w-gptqが選べるらしいが指定方法は不明。
8da4wはtorch 2.3+で指定可能となっている。
8da4wの意味が int8 per token dynamic activation with int4 weight only per axis group quantization とのこと。
まだ学習中なので、動作するのかな?
どうも、英語で考えるようなので日本語で質問すると上手く翻訳が出来ないため、回答に失敗している。
「アンダンテとアルデンテ」は何か言語と勘違いしているが英語で質問するとおおよそ正しそうな回答までは持ってくる。URLリンクが壊れているのは愛嬌。
Markdownの順番入れ替えは、列の追加を行の追加と勘違いし勝手な数字を入れるし、ソートも間違っている。
どうも、英語で考えるようなので日本語で質問すると上手く翻訳が出来ないため、回答に失敗している。
「アンダンテとアルデンテ」は何か言語と勘違いしているが英語で質問するとおおよそ正しそうな回答までは持ってくる。URLリンクが壊れているのは愛嬌。
Markdownの順番入れ替えは、列の追加を行の追加と勘違いし勝手な数字を入れるし、ソートも間違っている。
「アンダンテ」と「アルデンテ」を聞いたが、Llama3 8Bと70Bは同じ回答で、アルデンテをアレグロと勘違いしている。
だからどうしたって話では無いが、GPT4 Turboは当然としてOpus, Gemini 1.5 Pro, Command R+も間違わないで回答してくれる。
やはりもう少しパラメタ数が多くないと、トンチっぽい内容はダメなのかも知れない。
プロンプトの前後関係が無い状態なので、人間でも急に言われたら勘違いすることはあるしね。
「アンダンテ」と「アルデンテ」を聞いたが、Llama3 8Bと70Bは同じ回答で、アルデンテをアレグロと勘違いしている。
だからどうしたって話では無いが、GPT4 Turboは当然としてOpus, Gemini 1.5 Pro, Command R+も間違わないで回答してくれる。
やはりもう少しパラメタ数が多くないと、トンチっぽい内容はダメなのかも知れない。
プロンプトの前後関係が無い状態なので、人間でも急に言われたら勘違いすることはあるしね。
7Bではかなり優秀な気がする。ただ、日本語を理解するし日本語に翻訳できるのに、日本語での回答は頑なに無視する。
System Promptに入れようが、質問に入れようが。
まぁQ6なのでそうなっているのかもしれないので、断定は難しい。
7.6トークン/s出るので、そこそこ使える。
7Bではかなり優秀な気がする。ただ、日本語を理解するし日本語に翻訳できるのに、日本語での回答は頑なに無視する。
System Promptに入れようが、質問に入れようが。
まぁQ6なのでそうなっているのかもしれないので、断定は難しい。
7.6トークン/s出るので、そこそこ使える。