マイコ・アモリムによるUnsplashの写真* * *AI法案はまだ草案の段階ですが、欧州連合の投資家や事業者はすでに結果を心配しています。これにより、欧州連合が世界的な競争相手として価値を失うことになるのでしょうか?規制当局によると、そのようなことはないとのことです。しかし、何が起きているのか見てみましょう。 AI法案とリスク評価-------------------AI法案は人工知能がもたらすリスクをさまざまなリスクカテゴリーに分けていますが、その前に、人工知能の定義を機械学習と論理に基づくシステムのみに限定しています。これは、AIシステムをより単純なソフトウェアと区別する目的だけでなく、EUがリスクを分類したい理由を理解するのにも役立ちます。 AIのさまざまな用途は、「許容できないリスク」、「高リスク」、および「低または最小リスク」に分類されます。許容できないリスクの範疇に入る行為は、「禁止」とみなされます。この種の行為には次のようなものが含まれます: * 人の意識を超える技術を用いる行為、 * 脆弱な部分を悪用しようとする行為、 * 個人の特性や行動に基づいて人を分類するためのAIシステム、 * 公共空間での生体認証を用いるAIシステム。「高リスク」とみなされる行為には、禁止活動に類似したケースもあります。これには、労働者の採用や信用評価・分析に使われるシステムが含まれます(これがフィンテックにとって危険になる可能性もあります)。これらのシステムを作成・使用するすべての企業は、システムの仕組みやリスク回避のための措置について詳細な報告書を作成し、できるだけ透明性を保つ必要があります。すべては明確で正しいように見えますが、規制当局が対処すべき問題も存在します。法案はあまりに一般的すぎる----------------------------事業者や投資家が最も懸念している点の一つは、特定のAI分野に対する配慮不足です。例えば、一般目的のAIシステムを製造・使用する企業は、高リスクのユースケースにAIを利用しているとみなされる可能性があります。これは、詳細な報告書を作成する必要があり、時間とコストがかかることを意味します。中小企業も例外ではなく、欧州経済の最大部分を占めるため、長期的には競争力が低下する恐れがあります。そして、米国と欧州のAI企業の違いこそが大きな懸念を引き起こしています。実際、欧州には米国のような大規模なAI企業はなく、主に中小企業やスタートアップによってAI環境が形成されているからです。appliedAIが実施した調査によると、多くの投資家は「高リスク」とラベル付けされたスタートアップへの投資を避ける傾向にあります。これは、この分類の複雑さに起因しています。ChatGPTがEUの計画を変えた--------------------------EUの規制当局は4月19日に文書を締めくくる予定でしたが、AIシステムの定義やそのユースケースに関する議論が遅れ、最終草案の提出が遅れました。さらに、技術企業の中には、現行の文書に全員が同意しているわけではないことも示されました。最も遅れの原因となったポイントは、「基盤モデル」と「一般目的AI」の区別です。例として、OpenAIのChatGPTはAI基盤モデルの一例です。これらのシステムは大量のデータを用いて訓練され、あらゆる種類の出力を生成できます。一般目的AIは、さまざまな用途や分野に適応できるシステムを指します。EUの規制当局は、基盤モデルに対して厳格な規制を望んでいます。これらはより多くのリスクをもたらし、人々の生活に悪影響を及ぼす可能性があるからです。米国と中国のAI規制-------------------EUの規制当局の対応を見ると、何か目立つ点があります。それは、規制当局が協力的でないように見えることです。例えば、米国ではバイデン政権がChatGPTのようなシステムの安全性について一般から意見を募り、その後規制枠組みの設計に着手しました。中国では、AIとデータ収集の規制は何年も前から行われており、その主な関心は社会の安定にあります。これまでのところ、AI規制において良い位置にいると見られる国は英国です。英国は「ライト」なアプローチを採用していますが、AIとフィンテックの採用においてリーダーになりたいという明確な意向もあります。フィンテックとAI法案-------------------金融サービスを提供する企業やスタートアップに関しては、状況はさらに複雑です。実際、もし現行のバージョンのまま法案が成立すれば、フィンテック企業は既存の金融規制だけでなく、新たな規制枠組みにも従わなければなりません。信用評価が高リスクのユースケースとみなされる可能性は、フィンテック企業が負うべき負担の一例です。これにより、これまでのように柔軟に投資を集めたり競争力を保ったりすることが難しくなる恐れがあります。結論----Silo AIのCEO、ピーター・サーリンは、「問題は規制そのものではなく、悪い規制にある」と指摘しています。あまりに一般的すぎる規制は、イノベーションやAIを用いた製品・サービスの生産・流通・利用に関わるすべての企業に悪影響を及ぼす可能性があります。EUの投資家が、「高リスク」とラベル付けされたスタートアップや企業に対して懸念を抱けば、欧州連合のAI環境は悪化する恐れがあります。一方、米国は公開コメントを求めて技術の改善を図っており、中国はすでにAIの規制について明確な見解を持っています。Apherisの共同創設者ロビン・ロームによると、考えられるシナリオの一つは、スタートアップが米国に移ることです。米国はブロックチェーンや暗号通貨に関しては多くを失う可能性もありますが、AIレースでは勝利を収めるかもしれません。* * *フィンテックについてもっと知りたい、ニュースやイベント、意見を知りたい方は、FTWニュースレターに登録してください!
ヨーロッパにおけるAI:AI法が意味すること
マイコ・アモリムによるUnsplashの写真
AI法案はまだ草案の段階ですが、欧州連合の投資家や事業者はすでに結果を心配しています。
これにより、欧州連合が世界的な競争相手として価値を失うことになるのでしょうか?
規制当局によると、そのようなことはないとのことです。しかし、何が起きているのか見てみましょう。
AI法案とリスク評価
AI法案は人工知能がもたらすリスクをさまざまなリスクカテゴリーに分けていますが、その前に、人工知能の定義を機械学習と論理に基づくシステムのみに限定しています。
これは、AIシステムをより単純なソフトウェアと区別する目的だけでなく、EUがリスクを分類したい理由を理解するのにも役立ちます。
AIのさまざまな用途は、「許容できないリスク」、「高リスク」、および「低または最小リスク」に分類されます。許容できないリスクの範疇に入る行為は、「禁止」とみなされます。
この種の行為には次のようなものが含まれます:
「高リスク」とみなされる行為には、禁止活動に類似したケースもあります。
これには、労働者の採用や信用評価・分析に使われるシステムが含まれます(これがフィンテックにとって危険になる可能性もあります)。これらのシステムを作成・使用するすべての企業は、システムの仕組みやリスク回避のための措置について詳細な報告書を作成し、できるだけ透明性を保つ必要があります。
すべては明確で正しいように見えますが、規制当局が対処すべき問題も存在します。
法案はあまりに一般的すぎる
事業者や投資家が最も懸念している点の一つは、特定のAI分野に対する配慮不足です。
例えば、一般目的のAIシステムを製造・使用する企業は、高リスクのユースケースにAIを利用しているとみなされる可能性があります。
これは、詳細な報告書を作成する必要があり、時間とコストがかかることを意味します。中小企業も例外ではなく、欧州経済の最大部分を占めるため、長期的には競争力が低下する恐れがあります。
そして、米国と欧州のAI企業の違いこそが大きな懸念を引き起こしています。実際、欧州には米国のような大規模なAI企業はなく、主に中小企業やスタートアップによってAI環境が形成されているからです。
appliedAIが実施した調査によると、多くの投資家は「高リスク」とラベル付けされたスタートアップへの投資を避ける傾向にあります。これは、この分類の複雑さに起因しています。
ChatGPTがEUの計画を変えた
EUの規制当局は4月19日に文書を締めくくる予定でしたが、AIシステムの定義やそのユースケースに関する議論が遅れ、最終草案の提出が遅れました。
さらに、技術企業の中には、現行の文書に全員が同意しているわけではないことも示されました。
最も遅れの原因となったポイントは、「基盤モデル」と「一般目的AI」の区別です。
例として、OpenAIのChatGPTはAI基盤モデルの一例です。これらのシステムは大量のデータを用いて訓練され、あらゆる種類の出力を生成できます。
一般目的AIは、さまざまな用途や分野に適応できるシステムを指します。
EUの規制当局は、基盤モデルに対して厳格な規制を望んでいます。これらはより多くのリスクをもたらし、人々の生活に悪影響を及ぼす可能性があるからです。
米国と中国のAI規制
EUの規制当局の対応を見ると、何か目立つ点があります。それは、規制当局が協力的でないように見えることです。
例えば、米国ではバイデン政権がChatGPTのようなシステムの安全性について一般から意見を募り、その後規制枠組みの設計に着手しました。
中国では、AIとデータ収集の規制は何年も前から行われており、その主な関心は社会の安定にあります。
これまでのところ、AI規制において良い位置にいると見られる国は英国です。英国は「ライト」なアプローチを採用していますが、AIとフィンテックの採用においてリーダーになりたいという明確な意向もあります。
フィンテックとAI法案
金融サービスを提供する企業やスタートアップに関しては、状況はさらに複雑です。
実際、もし現行のバージョンのまま法案が成立すれば、フィンテック企業は既存の金融規制だけでなく、新たな規制枠組みにも従わなければなりません。
信用評価が高リスクのユースケースとみなされる可能性は、フィンテック企業が負うべき負担の一例です。これにより、これまでのように柔軟に投資を集めたり競争力を保ったりすることが難しくなる恐れがあります。
結論
Silo AIのCEO、ピーター・サーリンは、「問題は規制そのものではなく、悪い規制にある」と指摘しています。
あまりに一般的すぎる規制は、イノベーションやAIを用いた製品・サービスの生産・流通・利用に関わるすべての企業に悪影響を及ぼす可能性があります。
EUの投資家が、「高リスク」とラベル付けされたスタートアップや企業に対して懸念を抱けば、欧州連合のAI環境は悪化する恐れがあります。一方、米国は公開コメントを求めて技術の改善を図っており、中国はすでにAIの規制について明確な見解を持っています。
Apherisの共同創設者ロビン・ロームによると、考えられるシナリオの一つは、スタートアップが米国に移ることです。米国はブロックチェーンや暗号通貨に関しては多くを失う可能性もありますが、AIレースでは勝利を収めるかもしれません。
フィンテックについてもっと知りたい、ニュースやイベント、意見を知りたい方は、FTWニュースレターに登録してください!