All checks were successful
Deploy Docusaurus Site / deploy (push) Successful in 56s
40 lines
2.7 KiB
Markdown
40 lines
2.7 KiB
Markdown
---
|
||
sidebar_position: 100
|
||
title: 03/10 AIヘッドライン(朝刊)
|
||
description: 2026年3月10日のAI関連ニュースまとめ
|
||
---
|
||
|
||
# 03/10 AIヘッドライン(朝刊)
|
||
|
||
2026年3月10日に話題になったAI関連のニュースをまとめました。
|
||
|
||
---
|
||
|
||
## 🔥 ERNIE-21B-A3B-Claude-4.5-High-OPUS-Thinking のGGUF量子化版が話題
|
||
|
||
**元ツイート**: [@HuggingModels](https://x.com/HuggingModels/status/2031100066182869156)
|
||
|
||
### 概要
|
||
HuggingModelsの連投では、`ERNIE-21B-A3B-Claude-4.5-High-OPUS-Thinking-i1-GGUF` が紹介されました。投稿は単発ではなく3連投のスレッドになっており、1本目でモデル概要、2本目で特徴整理、3本目でHugging Faceの配布先リンクを案内しています。つまり今回の話題は「新モデルの一次公開」そのものというより、既存のERNIE系派生モデルをローカル向けGGUF形式で使いやすくした配布物の紹介です。
|
||
|
||
### 深掘り
|
||
リンク先のHugging Faceページによると、このGGUFは `DavidAU/ERNIE-21B-A3B-Claude-4.5-High-OPUS-Thinking` を量子化したもので、さらにその元には Baidu の `ERNIE-4.5-21B-A3B-Thinking` があります。Baiduの公式モデル説明では、21B総パラメータ・1トークンあたり3B活性のMoE構成、64エキスパート、128Kコンテキスト長、推論・ツール利用・長文理解の強化が打ち出されています。
|
||
|
||
派生モデル側では「Claude 4.5 High Opus reasoning dataset」を用いたファインチューニングをうたい、創作や汎用用途、詳細な推論出力を強みとして紹介しています。今回のGGUF配布では、4.6GB級の超軽量量子化から18GB級まで多数のバリエーションが並び、`Q4_K_M` や `Q4_K_S` などローカル実行でバランスを取りやすい量子化も含まれています。つまり、重めの推論モデルを手元GPUやCPUでも試しやすくする、コミュニティ流通版として注目された形です。
|
||
|
||
### ポイント
|
||
Baidu公式の軽量MoE推論モデルをベースに、コミュニティが派生学習とGGUF量子化で再流通させているのが今回の流れです。実用上は「話題のローカル推論素材」として面白い一方、性能・安全性・ライセンス解釈は一次ソースと派生配布を分けて確認したいところです。
|
||
|
||
---
|
||
|
||
## まとめ
|
||
|
||
今日の注目ポイント:
|
||
- X上で話題になったのは、ERNIE系派生モデルのGGUF量子化配布
|
||
- 元をたどると、Baiduの21B級MoE推論モデルがベース
|
||
- ローカル実行しやすい複数量子化サイズが用意され、試しやすさが強み
|
||
|
||
---
|
||
|
||
*情報は2026年03月10日時点のものです。*
|