AI活用

1-bitモデルは実用的か?Bonsai 8B vs Gemma 4 E2B をRAG連携で徹底比較

超軽量1.28GBの1-bit量子化モデル「Bonsai 8B」と、3.37GBの4-bit量子化「Gemma 4 E2B」をRAG連携タスクで比較検証。iOSやApple Siliconでのローカル推論を想定し、知識系Q&A・RAGソース活用・回答の具体性を評価。結論として、1-bitモデルは技術デモとしては興味深いが、実用にはサイズ差2.6倍でも4-bitモデルが圧勝。
AI活用

ローカルLLM思考モード対決:Qwen 3.5 vs Gemma 4 – 桜の開花と交通情報で比較

はじめに 最新のローカルLLMには「思考モード(Thinking Mode)」が搭載されています。回答前に内部で推論プロセスを実行し、より正確な回答を導き出す機能です。 今回は、コーディング以外のタスクでQwen 3.5とGemma 4...
AI活用

Gemma 4 vs Qwen 3.5 画像認識ベンチマーク — Apple Silicon ローカルVLM比較【2026年4月】

Apple M1 Max上でGemma 4 26BとQwen 3.5 35Bの画像認識性能を比較。vllm-mlxを使用し、速度・品質を3つのテスト画像で検証。Gemma 4が約4.5倍高速で品質も上回る結果に。2026年4月版。
AI活用

OllamaのMLX対応で本当に乗り換えるべき? mlx-lm.serverとQwen 3.5で比較してみた

OllamaのMLX対応は本当に速いのか。Mac M1 MaxでQwen 3.5を使い、mlx-lm.serverと速度・品質・運用性を比較した実測ベースの記事。
AI活用

Qwen 3.5コーディング支援ベンチマーク — 9B/27B/35B MoEを実務タスクで比較した結果

Qwen 3.5の9B Dense、27B Dense、35B A3B(MoE)をMacBook ProでTodoアプリ生成タスクで比較。思考ON/OFFの品質差、MoEの真価、27Bが過大評価だった理由を実データで解説。
Web制作

「Gmailアドレス変えたい」への現実解とWeb連携の注意点

こんにちは、mogucaライターの僕です。最近、ネットを見ていると「Gmailのアドレスがついに変更できるようになる!?」みたいな噂をちらほら見かけませんか?正直、僕も昔作ったちょっと恥ずかしいGmailアドレスをずっと使い続けていて、「こ...
AI活用

森保ジャパンの歴史的勝利を支えたAI分析とデータサッカーの裏側

あのカタールW杯の熱狂、まだ記憶に新しいですよね。ドイツとスペインという優勝候補を次々と破った、あの歴史的なジャイアントキリング。当時は日本中で「奇跡」なんて言われて大盛り上がりでしたが、どうやらあれは単なる奇跡や運だけじゃなかったみたいな...
サーバー・インフラ

KDDI障害の教訓。サーバーインフラの「真の冗長化」とは何か

普段何気なく使っているスマートフォンが、突然繋がらなくなったら。想像するだけで少しゾッとしますよね。僕自身、過去に通信障害に巻き込まれたとき、連絡手段はおろか、地図アプリも電子決済も使えなくなって、街中で途方に暮れた経験があります。現代社会...
AI活用

Qwen3.5ベンチマーク比較 — 35B-A3B (MoE) vs 9B (Dense)、Mac M1 Maxで検証した驚きの結果

Mac M1 Max(64GB)でQwen3.5の35B-A3B(MoE)と9B(Dense)をMLXで比較。RAGでは35B-A3Bが高速・高精度、HTMLクロールでは9Bが100%正確という驚きの結果に。思考モードの検証や用途別の使い分け戦略も解説。
Web制作

伝説の雑誌「ぴあ」復活!令和のWeb・アプリ戦略を分析

僕と同世代、あるいは少し上の世代の方なら、かつて駅の売店やコンビニに必ず並んでいた情報誌「ぴあ」を覚えているんじゃないでしょうか。表紙のユニークなイラストや、電話帳みたいに分厚い情報量。週末の予定を立てるために、友達と回し読みした記憶がある...
タイトルとURLをコピーしました