--- sidebar_position: 100 title: 02/20 AIヘッドライン(夕刊) description: 2026年2月20日のAI関連ニュースまとめ - GPT-OSS Swallow、Rork Max AI、LavaSRなど image: ./banner.png --- # 02/20 AIヘッドライン(夕刊) 2026年2月20日に話題になったAI関連のニュースをまとめました。 --- ## 🔥 東京科学大学がGPT-OSS Swallow 120B/20Bをリリース **元ツイート**: [@chokkanorg](https://x.com/chokkanorg/status/2024702631172780119) ### 概要 東京科学大学情報理工学院の岡崎研究室と横田研究室、産業技術総合研究所の研究チームが、OpenAI GPT-OSSをベースに日本語能力と推論力を強化した大規模言語モデル「GPT-OSS Swallow」を公開しました。20Bと120Bの2サイズで提供されます。 ### 深掘り [公式ページ](https://swallow-llm.github.io/gptoss-swallow.ja.html)によると、このモデルには以下の特徴があります: **性能(120Bモデル):** - 日本語MT-Bench: **0.916**(GPT-5.1 Thinkingの0.897、Gemini 3 Pro Previewの0.906を上回る) - 日本語タスク平均スコア: 0.642(120B以下のオープンLLMで最高性能) - 英語タスク平均スコア: 0.804(同規模で最高性能) - AIME 24-25(米国数学オリンピック): ベースモデルから+15.0ポイント改善 **技術的特徴:** - 継続事前学習(CPT)、教師ありファインチューニング(SFT)、強化学習(RL)の3段階で構築 - 日本語ウェブコーパス「Swallowコーパス v3.2」(2025年3月までのCommon Crawlから構築)を活用 - FP8 GEMMによる20%の学習高速化を実現 - Apache 2.0ライセンスで商用利用可能 ### ポイント 国産LLMの大躍進です。クローズドモデルを超える日本語性能をオープンで実現したのは快挙。商用利用可能なライセンスも含め、日本のAI開発に大きなインパクトを与えそうです。 --- ## 🚀 Rork Max AI - Claude Code搭載のiOSアプリ生成AIが登場 **元ツイート**: [@rork_app](https://x.com/rork_app/status/2024570781330792896) ### 概要 Rorkが「Rork Max AI」をリリース。Claude Code & Opus 4.6を搭載し、iPhone、iPad、Apple Watch、Apple TV、Vision Pro向けのSwiftアプリをワンショットで生成できます。 ### 深掘り Rork Maxは単なるコード生成ツールではなく、アプリ開発のワークフロー全体を置き換えるプラットフォームです: **主な機能:** - Xcodeを置き換えるWebサイトとして動作 - ワンクリックでデバイスにインストール - 2クリックでApp Storeに公開 - ARや3D対応アプリも作成可能(ポケモンGO風のアプリも実現) **技術基盤:** - Claude Opus 4.6の採用により、より慎重な計画立案、長時間タスクの維持、大規模プロジェクトでの安定動作、自己エラー検出が可能に **反響:** - 5,700以上のいいねを獲得 - Matt Shumer氏(@mattshumer_)が「モバイルアプリ開発は解決された」とコメント ### ポイント モバイルアプリ開発の民主化が一気に進む可能性があります。非エンジニアでもプロダクションレディなアプリを作れる時代が到来しつつあります。 --- ## 🎵 LavaSR - 50MBの超高速オーディオ修復モデル **元ツイート**: [@HuggingModels](https://x.com/HuggingModels/status/2024518949778706774) ### 概要 LavaSRは帯域幅拡張(BWE)とノイズ除去を行う50MBのコンパクトなモデルです。オーディオ品質を高速に改善できます。 ### 深掘り [Hugging Faceページ](https://huggingface.co/YatharthS/LavaSR)によると: **スペック:** - モデルサイズ: 50MB - 入力レート: 8-48kHzの任意 - 出力レート: 48kHz - 推論速度: CPUで10-50倍リアルタイム、GPUで400-4000倍リアルタイム **競合比較:** | モデル | GPU速度 | サイズ | 品質 | |--------|---------|--------|------| | LavaSR | 4000x | 50MB | High | | AudioSR | <1x | ~3GB+ | High | | AP-BWE | <400x | ~200MB+ | Medium | **ユースケース:** - 低品質オーディオデータセットの復元 - TTS/ASRモデルの品質向上 - 低品質音声通話のアップスケール ### ポイント 音声AI界隈に朗報。このサイズと速度で高品質な音声処理ができるのは驚異的です。リアルタイム音声処理のボトルネック解消に貢献しそう。 --- ## 💻 GLM-4.7-Flash-8bit - Apple Silicon向け高速多言語AIモデル **元ツイート**: [@HuggingModels](https://x.com/HuggingModels/status/2024771424377090552) ### 概要 Apple Silicon向けに最適化された8bit量子化版のGLM-4.7-Flash。ローカルデバイスで高品質なテキスト生成が可能です。 ### 深掘り このモデルはGLM-4.7-Flashの量子化版で、以下の特徴があります: **特徴:** - Apple Silicon(M1/M2/M3チップ)に最適化 - 8bit量子化によるメモリ効率の向上 - 英語と中国語を自然に処理する多言語対応 - ローカル実行による高速レスポンス **想定ユースケース:** - チャットボットの構築 - クリエイティブライティングアシスタント - 多言語サポートツール - クロスランゲージアプリケーション ### ポイント ローカルLLMの選択肢が増加中。Apple Siliconユーザーにとっては、クラウドに依存せずに高品質なAIを利用できる選択肢として魅力的です。 --- ## 🛠️ デブサミ2026でAI Coding Agentの展示 **元ツイート**: [@devsumi](https://x.com/devsumi/status/2024350072155361515) ### 概要 Developers Summit 2026(2月19-21日開催)でAI Coding Agentへの対応が展示されています。 ### 深掘り デンキヤギ株式会社が開発する帳票エンジン「yagisan-reports」がAIコーディングエージェントとの連携機能を披露: - JavaScriptで動作する帳票エンジン - AI Coding Agentとの統合対応 - 開発ツールのAIエージェント対応が標準化しつつある流れを示唆 デブサミ2026では他にも多数のAI関連セッションが開催され、エンジニアコミュニティでAI活用の議論が活発化しています。 ### ポイント 開発ツールのAIエージェント対応が標準になりつつある流れを感じます。ツール選定の基準に「AIエージェント対応」が加わる時代に。 --- ## まとめ 今日の注目ポイント: - **GPT-OSS Swallow 120B** - 国産LLMがクローズドモデル超えの日本語性能を達成 - **Rork Max AI** - モバイルアプリ開発の完全自動化に一歩前進 - **LavaSR** - 超軽量・超高速な音声修復モデルが登場 - **ローカルLLM** - GLM-4.7-Flash-8bitなどApple Silicon向けモデルが充実 - **AI Coding Agent** - 開発ツールのAIエージェント対応が標準化の流れ --- *情報は2026年2月20日時点のものです。*