📢 自動生成レポート — 最新のAI Agent・LLM開発情報をエンジニア視点でキュレーション。個人開発者が今すぐ活用できるネタを優先します。
🎯 今日の注目トピック
1. OpenAI ChatGPT Personal Finance — Plaid経由で12,000以上の金融機関に接続、Proユーザー向けパーソナルファイナンスエージェントを実装
OpenAI / TechCrunch / MacRumors | 2026年5月15日発表
OpenAIがChatGPT Personal Financeを発表。Plaid経由で12,000以上の金融機関(Chase、Schwab、Fidelity、Robinhood、AmEx、Capital Oneなど)に接続し、銀行口座・投資ポートフォリオ・クレジットカード・ローンのデータをChatGPTが横断的に分析する。現時点ではPro契約者限定で米国のみ提供。
主要機能:
| 機能 | 内容 |
|---|---|
| 支出ダッシュボード | カテゴリ別の支出分析・月次トレンド |
| ポートフォリオ分析 | 投資パフォーマンス・資産配分の可視化 |
| サブスクリプション管理 | 定期支払いの検出・不要サブスクの提案 |
| キャッシュフロー予測 | 今後の支払い・収入の予測 |
| 負債管理 | ローン残高・金利の最適化提案 |
セキュリティとプライバシー:
- 接続はPlaid経由で口座番号の完全な表示は不可
- 取引の実行やアカウント変更は不可能 — 読み取り専用
- 金融データは広告ターゲティングやモデルトレーニングに使用しないとOpenAIが明言
- データの削除は「設定→接続済みアカウント」からいつでも可能
今後の拡張予定:
- Intuit統合 — 税金影響分析・クレジットカード審査通過確率の予測
- 無料ユーザーへの段階的開放を検討中
- iOS・Webで先行提供、Android版は後日
Claude for Small Business(5/15報告)との対比:
- OpenAI: コンシューマー向け × 個人資産管理 × 読み取り専用
- Anthropic: SMB向け × ビジネスオペレーション × エージェントワークフロー(請求書発行等のアクション実行)
- 両社の戦略的な棲み分けがより鮮明に
個人開発者向けのポイント:
- Plaid APIとAIの組み合わせはフィンテック×AIエージェントの黄金パターン。個人開発者でもPlaid + Claude APIで同様のパーソナルファイナンスエージェントを構築できる
- 「読み取り専用」という制約は金融AIにおけるセーフガードの設計パターンとして参考に。最初はリードオンリーで信頼を獲得し、段階的に実行権限を付与する
- Proユーザー限定はプレミアム機能としてのAIエージェントの収益化モデル。自分のSaaSでもエージェント機能を上位プランに配置する戦略が有効
- OpenAI(個人金融)+Anthropic(SMB業務)+Freshworks(ITSM)と、エージェントがバーティカル特化で急拡大している。次にどの領域が開拓されるかに注目
👉 参考: OpenAI — Personal finance in ChatGPT 👉 参考: TechCrunch — OpenAI launches ChatGPT for personal finance 👉 参考: MacRumors — ChatGPT Personal Finance
2. Thinking Machines Lab(Mira Murati)が「Interaction Models」を発表 — 0.40秒レイテンシのフルデュプレックスAI、会話の根本アーキテクチャを刷新
Thinking Machines Lab / TechCrunch / Semafor / MarkTechPost | 2026年5月11〜13日発表
OpenAI元CTOのMira Muratiが率いるThinking Machines Labが、Interaction Modelsを発表。従来のリクエスト→レスポンスのターンベースモデルを根本から覆し、人間とAIが同時に話し・聞き・考えるフルデュプレックスのリアルタイム対話を実現するアーキテクチャ。レスポンスレイテンシ0.40秒で、自然な会話のテンポを達成。
Interaction Modelsのアーキテクチャ:
- デュアルモデル構造:
- Interaction Model — ユーザーとリアルタイムで対話(聞きながら話す)
- Background Model — 推論・ツール使用・長時間計算を担当
- 両モデルがフルコンテキストを共有し、シームレスに連携
- 200msマイクロターン — 従来のターン境界(VAD=Voice Activity Detection)を排除
- ネイティブマルチモーダル — テキスト・音声・映像をネイティブに処理(外部ハーネス不要)
従来のモデルとの根本的な違い:
| 従来のモデル | Interaction Models |
|---|---|
| リクエスト→レスポンス | フルデュプレックス(双方向同時) |
| ターン境界で区切り | 200msマイクロターンで連続的 |
| VAD(音声検出)でターンを管理 | ターン境界自体が不要 |
| テキスト変換後にLLMで処理 | 音声・映像をネイティブ処理 |
| 推論中はユーザーを待たせる | バックグラウンドで推論しながら対話継続 |
現在のステータス:
- モデル名:TML-Interaction-Small
- 限定リサーチプレビューで提供中
- 2026年内により広範なリリースを計画
- APIの一般公開時期は未定
個人開発者向けのポイント:
- 「Interaction Model + Background Model」のデュアル構造は、リアルタイムエージェントの新しい設計パターン。フロントエンド(ユーザー対話)とバックエンド(推論・ツール実行)を分離し、それぞれを最適化するアーキテクチャ
- 0.40秒レイテンシは人間の自然な会話テンポに匹敵。音声AIエージェントの品質基準が根本的に引き上げられる
- VAD不要のアーキテクチャは、既存の音声AIパイプライン(Whisper→LLM→TTS)を完全に置き換える可能性。音声エージェントを開発中なら、このアーキテクチャへの移行を検討すべき
- Mira Murati(元OpenAI CTO)のチームが構築しているという事実は、技術的な実現可能性の高さを裏付ける。リサーチプレビューへのアクセスを申請する価値がある
- 2026年後半のAPIリリースに備え、フルデュプレックス対応のUI設計を今から構想しておく
👉 参考: TechCrunch — Thinking Machines wants to build an AI that actually listens while it talks 👉 参考: Semafor — Mira Murati's Thinking Machines previews Interaction Models 👉 参考: MarkTechPost — Thinking Machines Lab introduces Interaction Models
3. Notion 3.5 Developer Platform — ワークスペースをAIエージェントのオーケストレーションハブに変革、Claude Code・Cursor・Codexが直接参加可能に
Notion / TechCrunch | 2026年5月13日発表
Notionがバージョン3.5で本格的なDeveloper Platformを発表。ワークスペースをAIエージェントのオーケストレーション基盤に変革し、外部のAIエージェント(Claude Code、Cursor、Codex、Decagonなど)がファーストクラスのワークスペース参加者として活動できるようにした。従来の「ドキュメントツール」から「エージェントの制御プレーン」へのピボット。
Developer Platformの3本柱:
🖥 Workers(ホステッドコードランタイム):
- Notionのインフラ上にカスタムコードをデプロイ
- ベータ期間中は無料、8月11日からクレジットベースの課金開始
- イベントドリブン実行(ページ更新、データベース変更等でトリガー)
- Business・Enterpriseプランで利用可能
🤖 External Agent API:
- Claude Code、Cursor、Codex、Decagonなどの外部エージェントをNotionワークスペースに「参加者」として招待
- エージェントがNotion内のデータベース・ページ・コメントに直接アクセス・編集
- 人間のチームメンバーと同じインターフェースでエージェントが活動
- エージェントの権限をきめ細かく制御
🔗 Database Sync:
- Salesforce、Zendesk、PostgreSQLなどの外部データソースからNotionデータベースにライブデータを同期
- リアルタイムの双方向同期
- エージェントが最新の業務データを参照して意思決定
CLI(ntn):
- ターミナル/IDEからの認証・読み書き・Workerデプロイ
- 全プランで利用可能
ntn deployでワンコマンドデプロイ
個人開発者向けのポイント:
- External Agent APIは「エージェントがどこで仕事をするか」の標準を作る試み。Notionがエージェントの「職場」になれば、エージェント開発者はNotion連携を必須機能として実装すべき
- Workers(ホステッドランタイム)はサーバーレスなエージェントバックエンドを無料で構築できる環境。8月までにプロトタイプを検証するチャンス
- Database Syncはエージェントが業務コンテキストを獲得する最短経路。Salesforceの顧客データやZendeskのチケットをNotionに集約し、エージェントが横断的に参照するアーキテクチャ
- CLI対応により、CI/CDパイプラインからNotionワークスペースを自動操作できる。プロジェクト管理の完全自動化が現実的に
- Notion × Claude Code の組み合わせは、「仕様書はNotionに、実装はClaude Codeに」というワークフローをシームレスに接続する
👉 参考: Notion Blog — Introducing Developer Platform 👉 参考: TechCrunch — Notion just turned its workspace into a hub for AI agents
4. Fractile $220M Series B — 推論100倍高速・コスト90%削減の「メモリ・コンピュート融合」AIチップ、$1B評価で量産へ
Fractile / Bloomberg / Tech.eu / HPCwire | 2026年5月13日発表
英国ロンドン拠点のAIチップスタートアップFractileが、$220MのSeries BラウンドをAccel、Factorial Funds、Founders Fundから調達。評価額は約**$1Bに到達。独自の「メモリ・コンピュート融合(Memory-Compute Fusion)」アーキテクチャで、LLMの推論を既存ハードウェアより最大100倍高速・90%のコスト削減**を実現すると主張。
技術の核心 — Memory-Compute Fusion:
- 従来のGPU: データをオフチップメモリ(HBM)から計算ユニットへ転送 → メモリ帯域幅がボトルネック
- Fractile: データをSRAM上に保持し、計算とメモリを同一チップ上で融合 → メモリ転送のオーバーヘッドを根本的に排除
- LLMの推論はメモリバウンド(計算よりデータ転送が律速)であるため、メモリ転送を排除することで桁違いのスピードアップを実現
主張される性能:
| 指標 | Fractile vs 既存GPU |
|---|---|
| 推論速度 | 最大100倍高速 |
| 運用コスト | 90%削減 |
| 電力効率 | 大幅改善(SRAM使用でHBMの電力消費を回避) |
チームと資金:
- 2022年創業(ロンドン)
- 累計調達額:$220M+(Series B含む)
- Accel、Factorial Funds、Founders Fund
- ロンドン・ブリストル・サンフランシスコ・台北で採用拡大中
- チップの量産化フェーズに移行
AIチップ市場の文脈:
- NVIDIAが学習(トレーニング)市場を独占する中、推論(インファレンス)市場は未だ勝者不在
- Groq(LPU)、Cerebras(ウェーハスケール)、Fractile(メモリ融合)がそれぞれ異なるアプローチで挑戦
- エージェント型AIの普及で推論需要が爆発的に増加(Goldman Sachs:エージェントは通常の4〜15倍のトークンを消費)
- 推論コストの劇的な削減はエージェント型プロダクトの経済性を根本的に改善する
個人開発者向けのポイント:
- 推論コスト90%削減が実現すれば、エージェント型プロダクトのユニットエコノミクスが根本的に変わる。現在「コストが高すぎて断念した」ユースケースの再評価を
- Fractileが量産に成功すれば、APIプロバイダーの推論コストも連鎖的に低下する。長期的にはClaude API・GPT API・Gemini APIの価格低下要因
- 「推論市場は未だ勝者不在」という状況は、2026〜2027年のAIインフラ投資の最大のテーマの一つ。インフラの価格動向がプロダクト設計に直結する時代
- SubQ(5/14報告:アルゴリズムによる50倍高速化)+Fractile(ハードウェアによる100倍高速化)が組み合わされば、AIの推論コストは現在の1000分の1以下になる理論的な可能性も
- Goldman Sachsが指摘する「エージェントの4〜15倍のトークン消費」(5/15報告)と合わせて考えると、推論チップの革新がなければエージェント経済は成立しない
👉 参考: Bloomberg — AI startup Fractile raises $220 million for chip production 👉 参考: Tech.eu — UK AI chip startup Fractile raises $220M to tackle the growing inference bottleneck 👉 参考: HPCwire — Fractile raises $220M to build the next generation of inference hardware
5. NVIDIA Vera Rubin Platform — 336Bトランジスタ・HBM4 288GB・Blackwell比5倍の推論性能でH2 2026出荷開始
NVIDIA | 2026年5月報道
NVIDIAが次世代AIプラットフォームVera Rubinの詳細仕様を公開。Rubin GPUは336億トランジスタ、288GB HBM4メモリを搭載し、FP4推論で50 PFLOPS(Blackwellの5倍)を達成。Vera CPUとのペアリングで、NVL72ラックは72基のRubin GPUと36基のVera CPUを統合し3.6 EFLOPSの推論性能を実現。2026年後半に出荷開始。
Rubin GPUの主要スペック:
| 仕様 | Rubin | Blackwell比 |
|---|---|---|
| トランジスタ数 | 336B | 約1.5倍 |
| メモリ | 288GB HBM4 | 2.4倍 |
| FP4推論性能 | 50 PFLOPS | 5倍 |
| トレーニング性能 | 35 PFLOPS | 3.5倍 |
| メモリ帯域幅 | 大幅向上(HBM4の広帯域) | — |
Vera CPUの主要スペック:
- 88コアのカスタムOlympus設計(Arm互換)
- 176スレッド
- 最大1.5TB LPDDR5xメモリ
- 1.2TB/sメモリ帯域幅
NVL72ラック構成:
| 構成 | 仕様 |
|---|---|
| GPU | 72基 Rubin GPU |
| CPU | 36基 Vera CPU |
| 推論性能 | 3.6 EFLOPS |
| トレーニング性能 | 2.5 EFLOPS |
| HBM4合計 | 20.7TB |
| LPDDR5x合計 | 54TB |
| NVLink 6帯域幅 | 260 TB/s |
エコシステムの影響:
- Anthropicの$200B Amazon契約で確保されるインフラがVera Rubin世代に移行すれば、Claude APIの性能が飛躍的に向上
- NVIDIA + IREN パートナーシップ(5月7日発表):最大5GWのAIインフラ展開、NVIDIAがIREN株式$2.1B相当を取得するオプション付き
- データセンター電力需要の急増(Goldman Sachs:220%増)に対し、チップ効率の向上で消費電力あたりの性能を改善
個人開発者向けのポイント:
- Blackwell比5倍の推論性能は、2027年以降のAPI応答速度とコストの劇的改善を予告。現在のレイテンシやコストで断念しているユースケースが実現可能に
- NVL72ラックの3.6 EFLOPSは、エージェントの同時並列実行数を桁違いに拡大する基盤。マルチエージェントアーキテクチャの設計がますます実用的に
- Vera Rubin世代の出荷は2026年後半。APIプロバイダーの性能・価格改善が2027年初頭から本格化する見込み
- HBM4の288GBメモリはより大きなモデルのデプロイやより長いコンテキストウィンドウを可能にする。SubQの12Mトークン(5/14報告)のようなモデルがハードウェアレベルでもサポートされる
- NVIDIA + IRENの5GW契約は、データセンター容量の急速な拡大を意味。API可用性の改善要因
👉 参考: NVIDIA Newsroom — Vera Rubin Platform 👉 参考: NVIDIA Investor — NVIDIA Kicks Off Next Gen AI with Rubin 👉 参考: VideoCardz — NVIDIA Vera Rubin NVL72 Detailed
6. AIコーディングエージェント最新ベンチマーク — Claude Code (Opus 4.7) がSWE-bench Verified 87.6%で首位、スキャフォールディング設計の重要性が浮き彫りに
MarkTechPost / NxCode / Kilo AI | 2026年5月15日公開
MarkTechPostが**「Best AI Agents for Software Development Ranked」**を公開。2026年5月時点の最新ベンチマーク結果をまとめ、Claude Code (Opus 4.7)がSWE-bench Verified 87.6%で首位を獲得。一方で「スキャフォールディング(エージェントフレームワーク)がモデル性能と同等に重要」という新たな知見が明らかに。
SWE-bench最新ランキング:
| エージェント | SWE-bench Verified | SWE-bench Pro |
|---|---|---|
| Claude Code (Opus 4.7) | 87.6% | 64.3% |
| GPT-5.5 (Terminal-Bench) | — | 82.7%(独自ベンチ) |
| Mistral Medium 3.5 | 77.6% | — |
Claude Code Opus 4.7の成長:
- SWE-bench Verified:80.8% → 87.6%(+6.8ポイント)
- SWE-bench Pro:53.4% → 64.3%(+10.9ポイント)
- わずか数ヶ月で大幅なスコア向上を達成
エージェントArenaランキング(コミュニティ評価):
| 順位 | エージェント | Arena Score |
|---|---|---|
| 1位 | Boba(ステルス) | 1238 |
| 2位 | Claude Sonnet 4.6 | 1148 |
| 3位 | Claude Opus 4.7 | 1044 |
最重要インサイト — スキャフォールディングの影響:
- 2026年2月のテストで、同一モデルを3つの異なるエージェントフレームワークで実行したところ、731問中で17問の差が生じた
- これはモデル性能だけでなく、エージェントのツール使用戦略・プロンプト設計・ループ構造が結果を大きく左右することを証明
- OpenAIは全てのフロンティアモデルでSWE-bench Verifiedにトレーニングデータリークがあることを確認し、スコア報告を停止。代替としてSWE-Bench Proを推奨
ベンチマークの信頼性問題:
- SWE-bench VerifiedはOpenAI含む複数社がトレーニングデータとの重複を確認
- SWE-bench Proは汚染の少ない新しいベンチマーク
- Terminal-Bench 2.0はOpenAI独自のコーディングベンチマーク
- 実際の開発体験とベンチマークスコアの乖離が指摘される場面も増加
個人開発者向けのポイント:
- **Claude Code (Opus 4.7) の87.6%は「実際のGitHubイシューの87.6%を自律解決できる」**ことを意味。日常の開発タスクの大部分をエージェントに委託可能な品質レベル
- スキャフォールディングが17問の差を生むという事実は、同じAPIを使っていてもフレームワーク設計で大きな差が生まれることを意味。エージェント開発ではツール設計・プロンプトエンジニアリング・ループ構造への投資が高ROI
- Arena LeaderboardでBoba(ステルス)が首位という事実は、未公開のエージェントフレームワークがまだ存在し、競争が激化していることを示す
- SWE-bench Verifiedのデータリーク問題は、ベンチマークスコアを鵜呑みにしない重要性を再確認。実際のプロジェクトでの体感品質とベンチマークの乖離に注意
- Claude Sonnet 4.6がArena 2位(Opus 4.7より上)という結果は、コストパフォーマンスではSonnetがOpusを上回る場面があることを示唆。タスク複雑度に応じたモデル選択が重要
👉 参考: MarkTechPost — Best AI Agents for Software Development Ranked 👉 参考: NxCode — Best AI Coding Tools 2026 Complete Ranking 👉 参考: Kilo AI Leaderboard
7. EU AI Omnibus合意 — 高リスクAI規制を2027年末まで延期、ディープフェイクヌード完全禁止、開発者に大幅な猶予期間を付与
EU Council / TechPolicy.Press / White & Case / Bird & Bird | 2026年5月7日合意
EU理事会と欧州議会がAI Omnibus(AI法修正案)で政治的合意に達した。高リスクAIの適用期限を2027年12月2日まで延期(当初は2026年8月2日)し、開発者に約1年半の追加猶予を付与。同時にAIによる「ヌード化」アプリケーションを完全禁止する新規制を追加。EU以外のAI開発者にも影響する重要な規制変更。
主要な変更点:
| 項目 | 変更前 | 変更後 |
|---|---|---|
| 高リスクAI(Annex III)適用期限 | 2026年8月2日 | 2027年12月2日 |
| 製品安全AI(Annex I)適用期限 | 2027年8月2日 | 2028年8月2日 |
| ディープフェイクヌード | 明示的規制なし | 完全禁止(2026年12月2日施行) |
| AI生成コンテンツ透かし | 2026年8月2日 | 2026年12月2日 |
| SME優遇措置 | 小規模企業のみ | 中規模企業にも拡大 |
高リスクAIカテゴリ(Annex III):
- 生体認証(顔認証等)
- 重要インフラ(電力、水道、交通)
- 教育・職業訓練
- 雇用・労働者管理(AI面接、AI人事評価等)
- 法執行・司法
- 移民管理
ディープフェイクヌード禁止の詳細:
- 非同意の親密な画像を生成するAIを完全禁止
- CSAM(児童性的虐待素材)の生成も明示的に禁止
- 2026年12月2日から施行
- 違反時の制裁金はAI法の最高額が適用される可能性
開発者への影響:
- 高リスクAI領域で活動する開発者は約1年半の追加猶予を獲得
- この期間に適合性評価・技術文書・リスク管理システムを整備
- ただし基本要件の完全施行は確定しており、猶予は「廃止」ではなく「延期」
- EU規制サンドボックスへの参加で早期にコンプライアンスを検証可能
個人開発者向けのポイント:
- **高リスクAI規制の2027年12月延期は「コンプライアンス準備の時間が増えた」**ことを意味するが、準備を先延ばしにすべきではない。特にEU向けに生体認証・人事評価・教育AIを提供するなら今から設計を開始
- ディープフェイクヌード禁止は2026年12月に施行。画像生成AIを活用するプロダクトには、ヌード化防止のセーフガード実装が必須に
- **AI生成コンテンツの透かし義務(2026年12月)**は、AI生成テキスト・画像・動画を出力するすべてのプロダクトに影響。C2PA等のコンテンツ認証標準への対応を検討
- SME優遇措置の拡大は、中規模のAIスタートアップにとっての負担軽減。規制コンプライアンスのコストが少し軽くなる
- EU市場を完全に無視するのは非現実的。グローバルに展開するSaaSであれば、EU AI法への対応は避けられない設計要件
👉 参考: EU Council — Council and Parliament agree to simplify and streamline AI rules 👉 参考: TechPolicy.Press — What the EU AI Omnibus Deal Changes for the AI Act 👉 参考: White & Case — EU agrees Digital Omnibus deal to simplify AI rules 👉 参考: Bird & Bird — Digital Omnibus on AI: Provisional agreement reached
📊 今日の学び・トレンド
| 観点 | トレンド |
|---|---|
| AIファイナンスエージェントの開花 | OpenAI ChatGPT Personal Finance(個人資産管理)+Claude for Small Business(SMB業務)で、金融×AIエージェントが消費者・中小企業の両面で本格展開。Plaid API経由のバンキング統合がスタンダードパターンに |
| 会話AIのアーキテクチャ革命 | Thinking Machines Labの「Interaction Models」がリクエスト→レスポンスの根本パラダイムを破壊。デュアルモデル(対話+推論)+200msマイクロターンのフルデュプレックスが次世代の会話AIの基盤に |
| エージェントの「職場」が確立 | Notion Developer PlatformがAIエージェントのオーケストレーション基盤を提供。**エージェントが人間と同じワークスペースで「働く」**パターンが標準化の方向へ。External Agent APIがデファクトスタンダードの候補に |
| 推論チップ革命の本格化 | Fractile(メモリ融合で100倍高速)+NVIDIA Vera Rubin(Blackwell比5倍)で、2027年のAI推論コストは現在の1/10〜1/100に低下する見通し。エージェント経済の成立条件が整う |
| ベンチマーク=モデル+スキャフォールディング | Claude Code 87.6%が首位だが、同一モデルでもフレームワーク設計で17問の差が生じる。エージェント開発の差別化ポイントはモデル選択だけでなくオーケストレーション設計に |
| EU規制の現実化と猶予 | AI Omnibusで高リスクAIに1年半の猶予が付与されたが、ディープフェイクヌード禁止・透かし義務は2026年12月に施行。生成AIプロダクトには今すぐの対応が必要 |
🚀 個人開発者が「今すぐ」やるべきこと
- Notion Developer Platform(ベータ)に登録し、External Agent APIを試す — エージェントがNotionワークスペースに「参加者」として活動できるこのAPIは、エージェントの活動基盤の標準を作る可能性がある。8月の課金開始前にWorkers+Agent APIでプロトタイプを検証し、**「Notionにデプロイするエージェント」**という新しい配布チャネルを検討
- Plaid API × AI でパーソナルファイナンスツールを構築する — OpenAIの参入で市場が検証された。Plaid API(月$100〜のスタータープラン)+Claude APIで、特定ニッチ向けの金融分析エージェント(フリーランス向け確定申告最適化、投資ポートフォリオ分析等)を構築する個人開発の機会
- エージェントのスキャフォールディング設計を見直す — MarkTechPostのベンチマーク結果が示す「同一モデルで17問の差」は、ツール設計・プロンプト構造・ループ制御への投資が高ROIであることを証明。Claude Code自体のアーキテクチャ(Outcomes → ループ実行 → 検証)を自分のエージェントに適用する
- AI生成コンテンツの透かし・ラベリング対応を開始する — EU AI法の透かし義務は2026年12月に施行。画像・テキスト・動画を生成するプロダクトには、C2PA準拠のメタデータ埋め込みを今から設計に織り込むべき。早期対応は競合優位性にもなる
- Thinking Machines Labのリサーチプレビューに登録する — 0.40秒レイテンシのフルデュプレックスAIは、音声エージェント・カスタマーサポートBot・リアルタイムチュータリングの品質を根本的に変える可能性。2026年後半のAPI公開に備え、フルデュプレックス対応のUIを構想しておく
- 推論コストの長期ロードマップを描き直す — Fractile(100倍高速)とVera Rubin(5倍高速)の出荷は2026〜2027年。これにより現在月$500かかるエージェントが月$50以下で稼働する計算になる。コスト制約で見送ったエージェントプロダクトの再検討を
🔗 参考リンク集
- OpenAI — Personal finance in ChatGPT
- TechCrunch — OpenAI launches ChatGPT for personal finance
- MacRumors — ChatGPT Personal Finance
- TechCrunch — Thinking Machines wants to build an AI that listens while it talks
- Semafor — Mira Murati's Thinking Machines previews Interaction Models
- MarkTechPost — Thinking Machines Lab introduces Interaction Models
- Notion Blog — Introducing Developer Platform
- TechCrunch — Notion AI agent hub
- Bloomberg — Fractile raises $220M
- Tech.eu — Fractile $220M for inference bottleneck
- HPCwire — Fractile next-gen inference hardware
- NVIDIA Newsroom — Vera Rubin Platform
- NVIDIA Investor — Rubin Six New Chips
- VideoCardz — Vera Rubin NVL72 Detailed
- MarkTechPost — Best AI Agents for Software Development Ranked
- NxCode — Best AI Coding Tools 2026
- Kilo AI Leaderboard
- EU Council — AI Omnibus Agreement
- TechPolicy.Press — EU AI Omnibus Deal Changes
- White & Case — EU Digital Omnibus Deal
- Bird & Bird — Digital Omnibus on AI