--- sidebar_position: 100 title: 03/10 AIヘッドライン(朝刊) description: 2026年3月10日のAI関連ニュースまとめ --- # 03/10 AIヘッドライン(朝刊) 2026年3月10日に話題になったAI関連のニュースをまとめました。 --- ## 🔥 ERNIE-21B-A3B-Claude-4.5-High-OPUS-Thinking のGGUF量子化版が話題 **元ツイート**: [@HuggingModels](https://x.com/HuggingModels/status/2031100066182869156) ### 概要 HuggingModelsの連投では、`ERNIE-21B-A3B-Claude-4.5-High-OPUS-Thinking-i1-GGUF` が紹介されました。投稿は単発ではなく3連投のスレッドになっており、1本目でモデル概要、2本目で特徴整理、3本目でHugging Faceの配布先リンクを案内しています。つまり今回の話題は「新モデルの一次公開」そのものというより、既存のERNIE系派生モデルをローカル向けGGUF形式で使いやすくした配布物の紹介です。 ### 深掘り リンク先のHugging Faceページによると、このGGUFは `DavidAU/ERNIE-21B-A3B-Claude-4.5-High-OPUS-Thinking` を量子化したもので、さらにその元には Baidu の `ERNIE-4.5-21B-A3B-Thinking` があります。Baiduの公式モデル説明では、21B総パラメータ・1トークンあたり3B活性のMoE構成、64エキスパート、128Kコンテキスト長、推論・ツール利用・長文理解の強化が打ち出されています。 派生モデル側では「Claude 4.5 High Opus reasoning dataset」を用いたファインチューニングをうたい、創作や汎用用途、詳細な推論出力を強みとして紹介しています。今回のGGUF配布では、4.6GB級の超軽量量子化から18GB級まで多数のバリエーションが並び、`Q4_K_M` や `Q4_K_S` などローカル実行でバランスを取りやすい量子化も含まれています。つまり、重めの推論モデルを手元GPUやCPUでも試しやすくする、コミュニティ流通版として注目された形です。 ### ポイント Baidu公式の軽量MoE推論モデルをベースに、コミュニティが派生学習とGGUF量子化で再流通させているのが今回の流れです。実用上は「話題のローカル推論素材」として面白い一方、性能・安全性・ライセンス解釈は一次ソースと派生配布を分けて確認したいところです。 --- ## まとめ 今日の注目ポイント: - X上で話題になったのは、ERNIE系派生モデルのGGUF量子化配布 - 元をたどると、Baiduの21B級MoE推論モデルがベース - ローカル実行しやすい複数量子化サイズが用意され、試しやすさが強み --- *情報は2026年03月10日時点のものです。*