--- sidebar_position: 100 title: 03/21 AIヘッドライン(朝刊) description: 2026年3月21日のAI関連ニュースまとめ --- # 03/21 AIヘッドライン(朝刊) 2026年3月21日に話題になったAI関連のニュースをまとめました。 --- ## 🔥 3DreamBooth: 3D一貫性を重視した被写体ドリブン動画生成 **元ツイート**: [@HuggingPapers](https://x.com/HuggingPapers/status/2035027939205513219) ### 概要 被写体ドリブン動画生成で、被写体を2D特徴として扱う従来手法の限界(視点変化時の破綻)を改善する方向として注目。 ### 深掘り プロジェクトページでは、3DreamBooth + 3Dapterの構成を提示。1フレーム最適化で3D空間情報を焼き込み、マルチビュー注意機構で視点間の一貫性を維持しながら質感を補強する設計。 ### ポイント 「見た目の雰囲気一致」ではなく「視点が変わっても同じ対象に見える」ことを重視したのが強み。 --- ## 🔥 MoTok: 意味条件と運動学条件を分離する離散モーショントークナイザ **元ツイート**: [@HuggingPapers](https://x.com/HuggingPapers/status/2035086531967467860) ### 概要 Perception/Planning/Controlの3段フレームワークで、意味情報の計画と細かなモーション再構成を分離。拡散ベースの離散トークナイザで制御性と忠実度の両立を狙う。 ### 深掘り GitHub公開のアブストラクトでは、HumanML3Dで軌道誤差0.72cm→0.08cm、FID 0.083→0.029と報告。トークン数も従来比で圧縮しつつ性能改善を主張。 ### ポイント “意味計画”と“細部制御”を混ぜない設計が、条件付き生成の安定化に効いている。 --- ## 🔥 WanVideo_comfy: ComfyUI導入を前提にした実践的配布 **元ツイート**: [@HuggingModels](https://x.com/HuggingModels/status/2035091777355751722) ### 概要 Wan系動画モデルをComfyUIで扱いやすくまとめた配布が再拡散。単一ファイル運用や関連Wrapper導入フローが明確で、現場導入の障壁を下げる動き。 ### 深掘り Hugging Faceのモデルカードでは、Wan-AI由来モデルを中心に各種派生(fp8_scaledなど)や互換導線を提示。GitHubのComfyUI-WanVideoWrapper側でも導入手順と運用上の注意が整理されている。 ### ポイント 高性能モデルでも、実装導線がわかりやすいと採用速度が一段上がる。 --- ## 🔥 DeepSeek-V3再注目: MoE設計と効率学習の実装力 **元ツイート**: [@HuggingModels](https://x.com/HuggingModels/status/2035084224219566564) ### 概要 DeepSeek-V3が再び話題化。671B総パラメータ/37B活性のMoE設計で、オープンモデルとして高性能と推論効率の両立を訴求。 ### 深掘り 公開モデル説明では、MLA、補助損失なしの負荷分散、MTP(Multi-Token Prediction)などを採用。大規模学習の安定性とコスト効率を強く打ち出している。 ### ポイント 単なる“巨大モデル”ではなく、活性計算量を抑える設計の積み上げが競争力。 --- ## 🔥 MoTok追補: 論文・プロジェクト・コード同時公開で追試しやすい形 **元ツイート**: [@HuggingPapers](https://x.com/HuggingPapers/status/2035086542113579109) ### 概要 同スレッドで論文ページ・プロジェクトページ・実装リポジトリが一体で共有され、検証導線が整った公開形態として評価。 ### 深掘り 研究速報では情報断片化が起きがちだが、今回のように“読む・試す・比較する”導線が同時に出ると、コミュニティ検証が早く進む。 ### ポイント 話題性だけでなく、再現可能性が高いほど長期的な信用につながる。 --- ## まとめ 今日の注目ポイント: - 3D一貫性を重視した被写体ドリブン動画生成の進展 - モーション生成で意味計画と運動制約を分離する設計トレンド - モデル性能競争に加えて、導入容易性・再現性が評価軸として強化 --- *情報は2026年03月21日時点のものです。*