Add: 02/20 AIヘッドライン
All checks were successful
Deploy Docusaurus Site / deploy (push) Successful in 31s
All checks were successful
Deploy Docusaurus Site / deploy (push) Successful in 31s
This commit is contained in:
parent
aed01d0880
commit
3047ba7663
@ -85,8 +85,8 @@ LavaSRは帯域幅拡張(BWE)とノイズ除去を行う50MBのコンパク
|
|||||||
| モデル | GPU速度 | サイズ | 品質 |
|
| モデル | GPU速度 | サイズ | 品質 |
|
||||||
|--------|---------|--------|------|
|
|--------|---------|--------|------|
|
||||||
| LavaSR | 4000x | 50MB | High |
|
| LavaSR | 4000x | 50MB | High |
|
||||||
| AudioSR | <1x | ~3GB+ | High |
|
| AudioSR | <1x | ~3GB+ | High |
|
||||||
| AP-BWE | <400x | ~200MB+ | Medium |
|
| AP-BWE | <400x | ~200MB+ | Medium |
|
||||||
|
|
||||||
**ユースケース:**
|
**ユースケース:**
|
||||||
- 低品質オーディオデータセットの復元
|
- 低品質オーディオデータセットの復元
|
||||||
|
|||||||
156
docs/2026-02-21-morning-headline/index.md
Normal file
156
docs/2026-02-21-morning-headline/index.md
Normal file
@ -0,0 +1,156 @@
|
|||||||
|
---
|
||||||
|
sidebar_position: 100
|
||||||
|
title: 02/21 AIヘッドライン
|
||||||
|
description: 2026年2月21日のAI関連ニュースまとめ
|
||||||
|
---
|
||||||
|
|
||||||
|
# 02/21 AIヘッドライン
|
||||||
|
|
||||||
|
2026年2月21日に話題になったAI関連のニュースをまとめました。
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 🔥 Qwen3-Swallow & GPT-OSS-Swallow リリース — 日本語LLMの新時代
|
||||||
|
|
||||||
|
**元ツイート**: [@chokkanorg](https://x.com/chokkanorg/status/2024697240233922641)
|
||||||
|
|
||||||
|
### 概要
|
||||||
|
東京科学大学のSwallow LLM Projectから、日本語性能と推論能力を両立させたオープンLLM「Qwen3-Swallow」と「GPT-OSS-Swallow」がApache 2.0ライセンスで公開されました。継続事前学習(CPT)、SFT、強化学習(RLVR)を全面刷新したモデルです。
|
||||||
|
|
||||||
|
### 深掘り
|
||||||
|
公式Tech Blogによると、このリリースには以下の特徴があります:
|
||||||
|
|
||||||
|
**技術的ハイライト**
|
||||||
|
- **Qwen3-Swallow**: Alibaba Qwen3ベース、8B/30B-A3B(MoE)/32Bの3サイズ展開
|
||||||
|
- **GPT-OSS-Swallow**: OpenAI GPT-OSSベース、20B/120Bの2サイズ展開
|
||||||
|
- 約209.7Bトークンの継続事前学習を実施
|
||||||
|
- **FP8学習の実用化**: NVIDIA Hopper世代GPUのBlockwise FP8(E4M3)を採用し、20%のTFLOP/s/GPU向上を達成
|
||||||
|
|
||||||
|
**学習の工夫**
|
||||||
|
- 数学・コード能力を損なわずに日本語性能を強化する独自データセット(SwallowCode-v2、SwallowMath-v2)を使用
|
||||||
|
- Reasoning SFTデータセットはGPT-OSS-120Bで再合成し、DeepSeek-R1の冗長性を解消
|
||||||
|
- RLVRにはslimeライブラリを使用し、GRPO+DAPO手法を採用
|
||||||
|
|
||||||
|
**評価結果**
|
||||||
|
- GPT-OSS-Swallow-120B-RL-v0.1は日本語MT-Benchで0.916を達成
|
||||||
|
- Qwen3-Swallow-32B-RL-v0.2は元のQwen3-32Bを日本語・英語タスク両方で上回る
|
||||||
|
|
||||||
|
### ポイント
|
||||||
|
商用利用可能なApache 2.0ライセンスで、アカデミック発の高性能日本語LLMが登場。FP8学習のノウハウ公開も貴重。
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 🚀 AirLLM — 8GB VRAMで405Bモデルを動かす
|
||||||
|
|
||||||
|
**元ツイート**: [@tom_doerr](https://x.com/tom_doerr/status/2024878886652150059)
|
||||||
|
|
||||||
|
### 概要
|
||||||
|
メモリ制約のある環境でも超大規模言語モデルを実行できるライブラリ「AirLLM」が話題に。なんと8GB VRAMのGPUでLlama 3.1 405Bモデルを実行可能。
|
||||||
|
|
||||||
|
### 深掘り
|
||||||
|
GitHubによると、AirLLMの仕組みは:
|
||||||
|
|
||||||
|
**技術アプローチ**
|
||||||
|
- モデルをレイヤーごとに分割して順次ロード
|
||||||
|
- 量子化なし、蒸留なし、プルーニングなしで動作
|
||||||
|
- 4bit/8bitブロック単位量子化で3倍の高速化オプションあり
|
||||||
|
|
||||||
|
**対応モデル**
|
||||||
|
- Llama 3.1 405B(8GB VRAM)
|
||||||
|
- Llama 3 70B(4GB VRAM)
|
||||||
|
- Qwen、ChatGLM、Mistral、Baichuanなど多数対応
|
||||||
|
|
||||||
|
**特徴**
|
||||||
|
- MacOS(Apple Silicon)対応
|
||||||
|
- CPU推論もサポート
|
||||||
|
- プリフェッチによるロード・計算のオーバーラップで10%高速化
|
||||||
|
|
||||||
|
### ポイント
|
||||||
|
「とりあえず大きいモデルを試したい」という用途に最適。推論速度は犠牲になるが、ローカルで巨大モデルを動かせるのは魅力的。
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 🛠️ tornado — Claude Code + Codexのマルチエージェント開発
|
||||||
|
|
||||||
|
**元ツイート**: [@mizchi](https://x.com/mizchi/status/2024808499130356036)
|
||||||
|
|
||||||
|
### 概要
|
||||||
|
mizchi氏が開発した「tornado」は、Codexでコードレビューを行い、その結果を元にClaude Codeが開発を進めるマルチエージェント開発オーケストレーター。
|
||||||
|
|
||||||
|
### 深掘り
|
||||||
|
GitHubによると:
|
||||||
|
|
||||||
|
**使い方**
|
||||||
|
```bash
|
||||||
|
# プランファイルから実行
|
||||||
|
npx -y @mizchi/tornado ./plan.md --dev=codex --review=claude
|
||||||
|
|
||||||
|
# 設定ファイル指定
|
||||||
|
npx -y @mizchi/tornado --config=./tornado.json --dev=codex --review=claude
|
||||||
|
```
|
||||||
|
|
||||||
|
**対応エージェント**
|
||||||
|
- claude / claude-code
|
||||||
|
- codex
|
||||||
|
- api
|
||||||
|
- mock
|
||||||
|
|
||||||
|
**特徴**
|
||||||
|
- TUI(ターミナルUI)付き
|
||||||
|
- プランファイル(Markdown)からタスクを実行
|
||||||
|
- 複数のAIコーディングエージェントを組み合わせ可能
|
||||||
|
|
||||||
|
### ポイント
|
||||||
|
AIコーディングツールの「いいとこ取り」ができる面白いアプローチ。レビューと実装を別のモデルに任せることで、品質向上が期待できる。
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 🖼️ Luna 12B V.3 — バイリンガルマルチモーダルAI
|
||||||
|
|
||||||
|
**元ツイート**: [@HuggingModels](https://x.com/HuggingModels/status/2024892220357443772)
|
||||||
|
|
||||||
|
### 概要
|
||||||
|
画像とテキストを同時に処理できるバイリンガル会話AI「Luna 12B V.3」が公開。単なるキャプション生成を超えた、真の画像-テキスト理解を実現。
|
||||||
|
|
||||||
|
### 深掘り
|
||||||
|
Hugging Modelsの紹介によると:
|
||||||
|
|
||||||
|
**特徴**
|
||||||
|
- **マルチモーダル**: 画像とテキストを一緒に処理
|
||||||
|
- **バイリンガル**: 2言語に対応(英語ともう1言語)
|
||||||
|
- **会話最適化**: ロールプレイや動的チャットに最適化
|
||||||
|
- **12Bパラメータ**: 中規模サイズで実用的
|
||||||
|
|
||||||
|
**ユースケース**
|
||||||
|
- 画像を見ながらの対話
|
||||||
|
- ロールプレイシナリオ
|
||||||
|
- クリエイティブ・技術プロジェクト
|
||||||
|
|
||||||
|
### ポイント
|
||||||
|
キャプション生成ではなく「理解」を重視したマルチモーダルモデル。ロールプレイ用途への最適化は珍しいアプローチ。
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## 📊 LLM大規模学習の知見公開
|
||||||
|
|
||||||
|
**元ツイート**: [@ymg_aq](https://x.com/ymg_aq/status/2024800930189975904)
|
||||||
|
|
||||||
|
### 概要
|
||||||
|
チューリングCTOの山口氏が、Qwen3-Swallow & GPT-OSS-Swallowの技術ブログについて「LLMの大規模学習の知見が惜しみなく記載されている」と紹介。特にFP8/FP4での大規模学習について、国内ではほとんど事例がない貴重な情報とのこと。
|
||||||
|
|
||||||
|
### ポイント
|
||||||
|
次世代GPUで主流になる低精度(FP8/FP4)学習の実践的ノウハウ。日本語で読める技術文書として非常に価値が高い。
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
## まとめ
|
||||||
|
|
||||||
|
今日の注目ポイント:
|
||||||
|
- **Swallowシリーズの大型リリース**: 日本語LLMがまた一歩前進。Apache 2.0で商用利用可能
|
||||||
|
- **FP8学習の実用化**: 低精度学習のノウハウが日本語で公開されたのは貴重
|
||||||
|
- **AirLLM**: メモリ制約を突破する技術。8GB VRAMで405Bは驚き
|
||||||
|
- **AIエージェントの組み合わせ**: tornado のようなマルチエージェントツールが増加傾向
|
||||||
|
|
||||||
|
---
|
||||||
|
|
||||||
|
*情報は2026年02月21日時点のものです。*
|
||||||
@ -12,4 +12,4 @@ slug: /
|
|||||||
|
|
||||||
毎日のAI関連ニュースをまとめています。
|
毎日のAI関連ニュースをまとめています。
|
||||||
|
|
||||||
- [02/20 AIヘッドライン](/blog/2026-02-20-evening-headline/) 🆕
|
- [02/20 AIヘッドライン](/blog/2026-02-21-morning-headline/) 🆕
|
||||||
|
|||||||
Loading…
x
Reference in New Issue
Block a user