--- sidebar_position: 100 title: 02/26 AIヘッドライン(朝刊) description: 2026年2月26日のAI関連ニュースまとめ image: ./banner.png --- # 02/26 AIヘッドライン(朝刊) 2026年2月26日に話題になったAI関連のニュースをまとめました。 --- ## 🔥 Claude Code「Remote Control」機能を発表 **元ツイート**: [@claudeai](https://x.com/claudeai/status/2026418433911603668) ### 概要 AnthropicがClaude Codeの新機能「Remote Control」を発表しました。ターミナルでコーディングタスクを開始し、散歩中やミーティング中でもスマホのClaudeアプリやclaude.ai/codeからセッションを遠隔操作できます。Claudeはマシン上で動作し続け、ユーザーはどこからでも指示を出せます。 ### 深掘り 日本のXトレンドでも「ClaudeCode」がトレンド入りするほどの反響。4万いいね・800万表示を超える大きなバズとなりました。これまでのCLI型AIコーディングツールは「ターミナルの前に座っている」ことが前提でしたが、Remote Controlによりその制約が取り払われました。Proプラン($20/月)以上で利用可能です。 ### ポイント AIコーディングの「場所の制約」がなくなった画期的なアップデート。 --- ## 🔥 OpenAI「Harness Engineering」を提唱 — 手書きゼロで100万行 **元ツイート**: [@yutakashino](https://x.com/yutakashino/status/2026494278797766817)(関連記事紹介) ### 概要 OpenAIが「Harness Engineering(ハーネスエンジニアリング)」と題した記事を公開。Codex(GPT-5.3ベース)を使い、3人のエンジニアチームが5ヶ月間で約100万行のコードを「手書きゼロ」で構築した実験結果を報告しています。 ### 深掘り 2025年8月の空リポジトリから始まり、約1,500のPRをマージ。エンジニア1人あたり1日3.5PRという驚異的なスループットを達成しています。OpenAIの主張は明確:「人間はステアリング(方向づけ)を担い、エージェントが実行する」。ソフトウェアエンジニアの役割は、コードを書くことから環境設計・意図の明確化・フィードバックループの構築へとシフトしていくという見解です。 ### ポイント 「コードを書く」から「エージェントをハーネスする」へ。ソフトウェア開発の新パラダイム。 --- ## 🔥 Amp「The Coding Agent Is Dead」宣言 **元ツイート**: [@yutakashino](https://x.com/yutakashino/status/2026494278797766817) ### 概要 AIコーディングツール「Amp」が「The Coding Agent Is Dead(コーディングエージェントは死んだ)」と題したブログを公開。VS Code・Cursor向けのエディタ拡張を2026年3月5日に廃止し、CLI(コマンドライン)へ完全移行すると発表しました。 ### 深掘り Ampの主張は、最新モデル(GPT-5.3 Codexなど)がbashだけで十分に強力になり、エディタのサイドバーに閉じ込めることが逆に制約になっているというもの。エディタ連携よりも、モデルが自律的にコードを書いて実行できる環境(CLI)こそが次のフロンティアだと主張しています。Cursor、Windsurf、Clineにとっても「死亡宣告」に等しいとの見方も。 ### ポイント エディタ連携型のAIコーディングは終焉を迎え、CLI/自律型エージェントの時代へ。 --- ## 🔥 LLM-jp、商用利用可能な日本語音声対話モデル「llm-jp-moshi-v1」を公開 **元ツイート**: [@alfredplpl](https://x.com/alfredplpl/status/2026499682634187022) ### 概要 LLM-jpが日本語full-duplex音声対話システム「llm-jp-moshi-v1」をHugging Faceで公開しました。Kyutaiの英語モデル「Moshi」(7Bパラメータ)をベースに、日本語音声対話データで追加学習されたモデルです。 ### 深掘り Apache License 2.0で商用利用可能。学習データにはJ-CHAT(ポッドキャスト対話約69,000時間)とLLM-jp-Zoom1(Zoom雑談対話約1,000時間)を使用。Full-duplex(全二重)対話に対応しており、ユーザーが話している途中でもモデルが応答を返せます。動作にはLinux + 24GB以上のVRAMが必要。デモも公開されています。 ### ポイント 日本語の全二重音声対話モデルが商用利用可能で公開されたのは国内初級の成果。 --- ## 🔥 国立国会図書館、GPU不要の軽量OCR「NDLOCR-Lite」を公開 **元ツイート**: [@NDLJP](https://x.com/NDLJP)(トレンド入り) ### 概要 国立国会図書館(NDL)がGPU不要で動作する軽量OCRソフトウェア「NDLOCR-Lite」をGitHubで公開。2月24日にリリースされ、Xで10,000件以上のポストを集めるトレンドとなりました。 ### 深掘り 従来のNDLOCRはGPU環境が必要でしたが、NDLOCR-LiteはCPUのみで動作可能。歴史的文書や古い日本語テキストのデジタル化に特化しており、個人のPCでも手軽に利用できます。オープンソースで提供されており、研究者・企業を問わず活用が期待されます。 ### ポイント GPU不要でOCRが使えることで、文書デジタル化のハードルが大幅に低下。 --- ## 🔥 Liquid AI、1.2Bモデルがブラウザで200+ tok/sの推論を実現 **元ツイート**: [@HuggingModels](https://x.com/HuggingModels/status/2026744797382553680) ### 概要 Liquid AIの「LFM2.5-1.2B-Thinking」が、WebGPUを使ってブラウザ内で200トークン/秒以上の推論速度を実現。インストール不要・完全プライベート・1GB未満のメモリで動作します。 ### 深掘り LFM2.5は、独自のハイブリッドアーキテクチャ(LIV convolution + GQA)を採用した1.2Bパラメータモデル。28兆トークンで学習され、コンテキスト長32K。AMD CPUで239 tok/s、モバイルNPUで82 tok/sのデコード速度を達成。llama.cpp、MLX、vLLMを初日からサポート。日本語を含む8言語に対応しています。Transformers.jsとONNX Runtime Webで動作するブラウザデモも公開中。 ### ポイント 1.2Bパラメータで推論(Thinking)対応、ブラウザで爆速動作。エッジAIの新境地。 --- ## まとめ 今日の注目ポイント: - **AIコーディングの大変革期**: Claude CodeのRemote Control、OpenAIのHarness Engineering、Ampのエディタ廃止宣言と、AIコーディングの在り方が大きく動いている - **日本語AIモデルの充実**: LLM-jpの音声対話モデル、国会図書館のOCRツールなど、日本発のAI成果が続々と公開 - **エッジAIの進化**: Liquid AIの1.2Bモデルがブラウザで実用的な速度を達成し、小型モデルの可能性が広がっている --- *情報は2026年02月26日時点のものです。*