【後編】AIリスクと暗号/ICP、想定される巨額マネーの流入【ICP福岡Meetupレポート】
- Sho T

- 5月24日
- 読了時間: 7分

※ ICP福岡Meetupでは、AIと暗号が結びつく "ビッグ・ナラティブ" に関する議論がありました。
※ ここではそのハイライトをレポートします。
※ 今回は後編です。前編は こちら(ICP佐賀Meetup) となります。
【背景】AIと暗号が結びつく "ビッグ・ナラティブ" の認知
---
昨今、web3/暗号クリプトの市場では、「ビジネス」や「産業」でのユースケースに固執し、これまでの技術的段階や規制等の背景から、予算が縮小している背景があります。そのため、「どの大企業(の予算)にぶら下がるか?」のようなミクロ・ディテールの世間話が盛り上がりがちです。
しかし一方で、「 【前編】AIリスクと暗号/ICP、そしてDeAI【ICP佐賀Meetupレポート】 」で述べた通り、AIリスク(AI Safety)の話と暗号(クリプト)が交差する "ビッグ・ナラティブ" が存在します。そして、「AI投資」で巨額の資金がAI関連に流入する中、その巨額資金のうち「AI Safety ※」に予算配分する必要性が上がり始めています。
【AIへの巨額投資(例:オイルマネーの流入)】
【AI Safetyへの予算配分(約3分の1を目安といった主張)】
UAEの国営企業「G42」のCEOは、2024年10月のGITEXで「AI開発企業はR&D予算の少なくとも1/3をAI安全策に振り向けるべき」と明言(G42はスターゲート計画にも参加してるアブダビの政府系ファンドMGXにも半分出資している/中東発のAI投資ファンドとして世界最大級)(*)/ G42は「Frontier AI Safety Framework」を発表し、リスク評価や外部監査などのガバナンス体制構築をリードしています(*)
ニューラルネットワークや深層学習(Deep Learning)の先駆者として知られるトロント大学名誉教授であるジェフリー・ヒントン氏は、主要テック企業および政府機関がAI研究開発(R&D)予算の少なくとも3分の1を、安全性と倫理的運用の確保に配分すべきと主張しており(*)、この提言は、2023年10月の国際AI安全サミット(ロンドン開催)を前に、ハーバードやオックスフォードを含む計24名のAI研究者が公開した政策提案にも取り入れられています(*)
また、AIのリスクについて最も議論しているEA(Effective Altruism)や合理主義コミュニティでも、中央集権から分散型の意思決定が良いというPlurality的な考え方が増えつつあります / 単一障害点的なリスクから広範なリスクについて議論(*)

つまり、小さなナラティブではなく、大きなナラティブで観た場合、巨額資金の数%〜3割でもAI Safety関連に資金流入の可能性はあり、その中核として暗号/Cryptoのインフラ・R&D等に流れてくる可能性はあります。それだけで、少なくとも数兆円〜数十兆円の資金流入が考えられ、右上の象限(公共/プロトコル等)への純粋な予算として集中することが可能と考えられます。

From:小さなナラティブ >>> To:大きなナラティブへの発想の拡張がありうる
※本来のCrypto/サイファーパンクの視点へ
なぜ「AI Safety ≒ Crypto」と言えるのか
---
AI SafetyとCrypto(暗号/ブロックチェーン技術, etc)は、表面的には無関係に見えるかもしれませんが、実際には技術的に不可分の関係にあると言えます。「3つの技術的必然性」を中心に見ていきます。
1. 構造的同一性(中央集権リスクの回避)
AI開発の中央集権化リスク = Cryptoが本質的に解決する問題
Google、OpenAI等への過度な集中 → 分散化技術による解決
中央集権的な支配構造の分散化
単一障害点の排除
検閲耐性の確保
民主的ガバナンスの実現
2. 制御メカニズムの一致
AI制御に必要な要素(透明性、検証可能性、プログラマビリティ)
= Cryptoが提供する基盤技術(ブロックチェーン、スマートコントラクト、分散合意)
AI制御の課題
アライメント問題: AIの目標と人間の価値観の一致
解釈可能性: AIの判断プロセスの透明化
制御可能性: 人間によるAIの継続的制御
検証可能性: AI出力の正当性確認
Cryptoによる解決メカニズム
分散合意: 複数主体によるAI判断の検証
透明性: ブロックチェーン上での判断プロセス記録
不変性: AI行動ログの改ざん防止
プログラマビリティ: スマートコントラクトによる自動制御
説明責任: リアルタイム、自動的な監査
AI時代のセキュリティ要件
例)
認証: AI主体の身元確認
認可: AI行動の権限管理
監査: AI活動の記録と検証
回復: AI暴走時の復旧メカニズム
Cryptoが提供するセキュリティ基盤
暗号学的認証: 偽装不可能な身元証明
スマートコントラクト: 自動的権限管理
不変台帳: 完全な監査証跡
分散復旧: 単一障害点のない回復機能
3. 技術スタックの必然的統合
AI Safetyを実現するには、結果的にCryptoの全技術要素が必要になる:
例)
AI制御 → スマートコントラクト(Ethereum/ICP等)
AI処理の分散実行 → 分散型クラウド(ICP等)
システム間連携 → インターオペラブル通信(特定仲介のブリッジなしに/ICP等)
外部サービス統合 → HTTPSアウトコール(特定仲介のブリッジなしに/ICP等)
透明性 → ブロックチェーン台帳(Ethereum等)
分散化 → コンセンサスアルゴリズム(Ethereum/ICP等)
スケーラブル処理 → 分散コンピューティング基盤(L2/ICP等)
プライバシー → ゼロ知識証明(zk等)
認証 → 公開鍵暗号(Ethereum/ICP等)
ガバナンス → DAO + トークン, etc(Ethereum/ICP等)d/accが与えるAI Safety文脈への影響
---
また、これらを本質的に俯瞰できるものとして、Vitalikの d/acc は非常に示唆的なものとなっています。
d/accは、
「技術の進歩を加速」させながら、
「防御に焦点」を当て、
「分散型・民主的な方法」で進めること
を目指しており、以下の3つのアプローチの欠点を克服し、どの視点かが欠如している場合のリスクを主張しています。
■「分散・加速」だけに興味を持つ人は、「差別的防御」に興味を持たない
→これは、技術の進歩を加速させることは重要だと考えるものの、 それが攻撃能力と防御能力のどちらを向上させるかには注意を払わないアプローチ
■「差別的防御・加速」だけに興味を持つ人は、「分散/民主的」に興味を持たない
→このアプローチは、安全のために中央集権的なコントロールを受け入れるというものです。
■「分散・防衛」だけに興味を持つ人は、「加速」に興味を持たない
→このアプローチは、技術の進歩を遅らせるか、経済成長を抑制しようとするものです。
Vitalikの思想的とも言える d/acc は、EAや合理主義コミュニティにも影響を与えています。
【提起】小さなナラティブだけでなく、大きなナラティブを含有できるか?
---
上記のような背景・流れから、web3や暗号は、AI Safety等におけるその必然性など、ビッグ・ナラティブを含有する発想を全体として持つべきかもしれません。そうした議論が、ICP福岡Meetupのハイライトでした。
日本でも、AI SafetyとCryptoの交差点(d/accのような、他)、ビッグ・ナラティブを踏まえた動きが必要かもしれません。 ICP佐賀Meetup の議論の中でも、そのような話が出ていました。今後、カテゴリ・ジャンル・界隈といった小さな枠の世界観を超えた、指数関数が加速する2020年代後半〜にふさわしい展開が生まれることでしょう。
ICP Japan
X: https://x.com/icphub_JP




コメント