koide 3047ba7663
All checks were successful
Deploy Docusaurus Site / deploy (push) Successful in 31s
Add: 02/20 AIヘッドライン
2026-02-20 21:04:45 +00:00

6.2 KiB
Raw Blame History

sidebar_position, title, description
sidebar_position title description
100 02/21 AIヘッドライン 2026年2月21日のAI関連ニュースまとめ

02/21 AIヘッドライン

2026年2月21日に話題になったAI関連のニュースをまとめました。


🔥 Qwen3-Swallow & GPT-OSS-Swallow リリース — 日本語LLMの新時代

元ツイート: @chokkanorg

概要

東京科学大学のSwallow LLM Projectから、日本語性能と推論能力を両立させたオープンLLM「Qwen3-Swallow」と「GPT-OSS-Swallow」がApache 2.0ライセンスで公開されました。継続事前学習CPT、SFT、強化学習RLVRを全面刷新したモデルです。

深掘り

公式Tech Blogによると、このリリースには以下の特徴があります

技術的ハイライト

  • Qwen3-Swallow: Alibaba Qwen3ベース、8B/30B-A3B(MoE)/32Bの3サイズ展開
  • GPT-OSS-Swallow: OpenAI GPT-OSSベース、20B/120Bの2サイズ展開
  • 約209.7Bトークンの継続事前学習を実施
  • FP8学習の実用化: NVIDIA Hopper世代GPUのBlockwise FP8(E4M3)を採用し、20%のTFLOP/s/GPU向上を達成

学習の工夫

  • 数学・コード能力を損なわずに日本語性能を強化する独自データセットSwallowCode-v2、SwallowMath-v2を使用
  • Reasoning SFTデータセットはGPT-OSS-120Bで再合成し、DeepSeek-R1の冗長性を解消
  • RLVRにはslimeライブラリを使用し、GRPO+DAPO手法を採用

評価結果

  • GPT-OSS-Swallow-120B-RL-v0.1は日本語MT-Benchで0.916を達成
  • Qwen3-Swallow-32B-RL-v0.2は元のQwen3-32Bを日本語・英語タスク両方で上回る

ポイント

商用利用可能なApache 2.0ライセンスで、アカデミック発の高性能日本語LLMが登場。FP8学習のウハウ公開も貴重。


🚀 AirLLM — 8GB VRAMで405Bモデルを動かす

元ツイート: @tom_doerr

概要

メモリ制約のある環境でも超大規模言語モデルを実行できるライブラリ「AirLLM」が話題に。なんと8GB VRAMのGPUでLlama 3.1 405Bモデルを実行可能。

深掘り

GitHubによると、AirLLMの仕組みは

技術アプローチ

  • モデルをレイヤーごとに分割して順次ロード
  • 量子化なし、蒸留なし、プルーニングなしで動作
  • 4bit/8bitブロック単位量子化で3倍の高速化オプションあり

対応モデル

  • Llama 3.1 405B8GB VRAM
  • Llama 3 70B4GB VRAM
  • Qwen、ChatGLM、Mistral、Baichuanなど多数対応

特徴

  • MacOSApple Silicon対応
  • CPU推論もサポート
  • プリフェッチによるロード・計算のオーバーラップで10%高速化

ポイント

「とりあえず大きいモデルを試したい」という用途に最適。推論速度は犠牲になるが、ローカルで巨大モデルを動かせるのは魅力的。


🛠️ tornado — Claude Code + Codexのマルチエージェント開発

元ツイート: @mizchi

概要

mizchi氏が開発した「tornado」は、Codexでコードレビューを行い、その結果を元にClaude Codeが開発を進めるマルチエージェント開発オーケストレーター。

深掘り

GitHubによると

使い方

# プランファイルから実行
npx -y @mizchi/tornado ./plan.md --dev=codex --review=claude

# 設定ファイル指定
npx -y @mizchi/tornado --config=./tornado.json --dev=codex --review=claude

対応エージェント

  • claude / claude-code
  • codex
  • api
  • mock

特徴

  • TUIターミナルUI付き
  • プランファイルMarkdownからタスクを実行
  • 複数のAIコーディングエージェントを組み合わせ可能

ポイント

AIコーディングツールの「いいとこ取り」ができる面白いアプローチ。レビューと実装を別のモデルに任せることで、品質向上が期待できる。


🖼️ Luna 12B V.3 — バイリンガルマルチモーダルAI

元ツイート: @HuggingModels

概要

画像とテキストを同時に処理できるバイリンガル会話AI「Luna 12B V.3」が公開。単なるキャプション生成を超えた、真の画像-テキスト理解を実現。

深掘り

Hugging Modelsの紹介によると

特徴

  • マルチモーダル: 画像とテキストを一緒に処理
  • バイリンガル: 2言語に対応英語ともう1言語
  • 会話最適化: ロールプレイや動的チャットに最適化
  • 12Bパラメータ: 中規模サイズで実用的

ユースケース

  • 画像を見ながらの対話
  • ロールプレイシナリオ
  • クリエイティブ・技術プロジェクト

ポイント

キャプション生成ではなく「理解」を重視したマルチモーダルモデル。ロールプレイ用途への最適化は珍しいアプローチ。


📊 LLM大規模学習の知見公開

元ツイート: @ymg_aq

概要

チューリングCTOの山口氏が、Qwen3-Swallow & GPT-OSS-Swallowの技術ブログについて「LLMの大規模学習の知見が惜しみなく記載されている」と紹介。特にFP8/FP4での大規模学習について、国内ではほとんど事例がない貴重な情報とのこと。

ポイント

次世代GPUで主流になる低精度FP8/FP4学習の実践的ウハウ。日本語で読める技術文書として非常に価値が高い。


まとめ

今日の注目ポイント:

  • Swallowシリーズの大型リリース: 日本語LLMがまた一歩前進。Apache 2.0で商用利用可能
  • FP8学習の実用化: 低精度学習のノウハウが日本語で公開されたのは貴重
  • AirLLM: メモリ制約を突破する技術。8GB VRAMで405Bは驚き
  • AIエージェントの組み合わせ: tornado のようなマルチエージェントツールが増加傾向

情報は2026年02月21日時点のものです。