マイコ・アモリムによるUnsplashの写真* * *AI法案はまだ草案の段階ですが、欧州連合の投資家や事業者はすでにその結果に対して緊張しています。これが欧州連合を世界的な競争相手として価値ある存在にするのを妨げるのでしょうか?規制当局によると、そのようなことはないとのことです。しかし、何が起きているのか見てみましょう。 AI法案とリスク評価-------------------AI法案は人工知能がもたらすリスクをさまざまなリスクカテゴリーに分けていますが、その前に、人工知能の定義を機械学習と論理に基づくシステムのみに限定しています。これはAIシステムをより単純なソフトウェアと区別する目的だけでなく、EUがリスクを分類したい理由を理解するのにも役立ちます。 AIのさまざまな用途は、「許容できないリスク」、「高リスク」、および「低または最小リスク」に分類されます。許容できないリスクに該当する行為は、「禁止」とみなされます。この種の行為には次のようなものが含まれます: * 人の意識を超える技術を用いる行為、 * 脆弱な部分を悪用しようとする行為、 * 個人の特性や行動に基づいて人を分類するためのAIシステム、 * 公共空間での生体認証を用いるAIシステム。「高リスク」とみなされる行為には、禁止活動に類似したいくつかのユースケースがあります。これには、労働者の採用や信用評価・分析に用いられるシステムが含まれ、(これらはフィンテックにとって危険となる可能性もあります)。これらのシステムを作成または使用するすべての企業は、システムの仕組みやリスク回避のために取った措置について詳細な報告書を作成し、できるだけ透明性を保つ必要があります。すべては明確で正しいように見えますが、規制当局が対処すべき問題もいくつかあります。法案はあまりに一般的すぎる----------------------------事業者や投資家が最も懸念している点の一つは、特定のAI分野に対する注意不足です。例えば、一般的な目的でAIシステムを製造・使用する企業は、高リスクのユースケースにAIを利用しているとみなされる可能性があります。これは、詳細な報告書を作成する必要があり、時間とコストがかかることを意味します。中小企業も例外ではなく、欧州経済の最大部分を占めるため、長期的には競争力が低下する恐れがあります。そして、米国と欧州のAI企業の違いこそが大きな懸念を引き起こしています。実際、欧州には米国のような大規模なAI企業はなく、欧州のAI環境は主に中小企業やスタートアップによって構築されているからです。applyAIが実施した調査によると、投資家の大多数は「高リスク」とラベル付けされたスタートアップへの投資を避ける傾向にあります。これは、この分類に伴う複雑さが理由です。ChatGPTがEUの計画を変えた--------------------------EUの規制当局は4月19日に文書を締めくくる予定でしたが、AIシステムの定義やそのユースケースに関する議論が遅延させ、最終草案の提出が遅れました。さらに、技術企業の中には、現行の文書に全員が同意しているわけではないことを示す例もあります。最も遅延の原因となったポイントは、「基盤モデル」と「汎用AI」の区別です。例として、OpenAIのChatGPTはAI基盤モデルの一例です。これらのシステムは大量のデータを用いて訓練され、あらゆる種類の出力を生成できます。一方、汎用AIは、さまざまな用途や分野に適応できるシステムを指します。EUの規制当局は、より多くのリスクを伴い人々の生活に悪影響を及ぼす可能性のある基盤モデルを厳しく規制したいと考えています。米国と中国のAI規制-------------------EUの規制当局の対応を見ると、何か目立つ点があります。それは、規制当局が協力的でないように見えることです。例えば、米国ではバイデン政権がChatGPTのようなシステムの安全性について一般から意見を求め、その後に規制枠組みを設計しようとしました。中国では、AIとデータ収集の規制は何年も前から行われており、その主な関心は社会の安定にあります。これまでのところ、AI規制において良い位置にいると見られる国は英国です。英国は「ライト」なアプローチを採用していますが、AIとフィンテックの採用においてリーダーになりたいという明確な意向もあります。フィンテックとAI法案-------------------金融サービスを提供する企業やスタートアップに関しては、状況はさらに複雑です。実際、もし現行のバージョンのまま法案が進めば、フィンテック企業は既存の金融規制だけでなく、新たな規制枠組みにも従わなければなりません。信用評価が高リスクのユースケースとみなされる可能性は、フィンテック企業がこれまでの柔軟性を失い、投資を集めたり競争力を保つのを妨げる負担の一例です。結論----Silo AIのCEO、ピーター・サーリンは、「問題は規制そのものではなく、悪い規制にある」と指摘しています。あまりに一般的すぎる規制は、イノベーションやAIを用いた製品・サービスの生産・流通・利用に関わるすべての企業に悪影響を及ぼす可能性があります。もしEUの投資家が、「ハイリスク」カテゴリーに該当するとラベル付けされたスタートアップや企業に対して懸念を抱けば、欧州連合のAI環境は悪化する恐れがあります。一方、米国は公開コメントを求めて技術の改善を進めており、中国はすでにAIの規制について明確な見解を持っています。Apherisの共同創設者ロビン・ロームによると、考えられるシナリオの一つは、スタートアップが米国に移ることです。米国はブロックチェーンや暗号通貨に関しては多くを失う可能性もありますが、AIレースでは勝つ可能性もあります。* * *フィンテックについてもっと知りたい、ニュースやイベント、意見を知りたい方は、FTWニュースレターに登録してください!
ヨーロッパにおけるAI:AI法案が意味すること
マイコ・アモリムによるUnsplashの写真
AI法案はまだ草案の段階ですが、欧州連合の投資家や事業者はすでにその結果に対して緊張しています。
これが欧州連合を世界的な競争相手として価値ある存在にするのを妨げるのでしょうか?
規制当局によると、そのようなことはないとのことです。しかし、何が起きているのか見てみましょう。
AI法案とリスク評価
AI法案は人工知能がもたらすリスクをさまざまなリスクカテゴリーに分けていますが、その前に、人工知能の定義を機械学習と論理に基づくシステムのみに限定しています。
これはAIシステムをより単純なソフトウェアと区別する目的だけでなく、EUがリスクを分類したい理由を理解するのにも役立ちます。
AIのさまざまな用途は、「許容できないリスク」、「高リスク」、および「低または最小リスク」に分類されます。
許容できないリスクに該当する行為は、「禁止」とみなされます。
この種の行為には次のようなものが含まれます:
「高リスク」とみなされる行為には、禁止活動に類似したいくつかのユースケースがあります。
これには、労働者の採用や信用評価・分析に用いられるシステムが含まれ、(これらはフィンテックにとって危険となる可能性もあります)。これらのシステムを作成または使用するすべての企業は、システムの仕組みやリスク回避のために取った措置について詳細な報告書を作成し、できるだけ透明性を保つ必要があります。
すべては明確で正しいように見えますが、規制当局が対処すべき問題もいくつかあります。
法案はあまりに一般的すぎる
事業者や投資家が最も懸念している点の一つは、特定のAI分野に対する注意不足です。
例えば、一般的な目的でAIシステムを製造・使用する企業は、高リスクのユースケースにAIを利用しているとみなされる可能性があります。
これは、詳細な報告書を作成する必要があり、時間とコストがかかることを意味します。中小企業も例外ではなく、欧州経済の最大部分を占めるため、長期的には競争力が低下する恐れがあります。
そして、米国と欧州のAI企業の違いこそが大きな懸念を引き起こしています。実際、欧州には米国のような大規模なAI企業はなく、欧州のAI環境は主に中小企業やスタートアップによって構築されているからです。
applyAIが実施した調査によると、投資家の大多数は「高リスク」とラベル付けされたスタートアップへの投資を避ける傾向にあります。これは、この分類に伴う複雑さが理由です。
ChatGPTがEUの計画を変えた
EUの規制当局は4月19日に文書を締めくくる予定でしたが、AIシステムの定義やそのユースケースに関する議論が遅延させ、最終草案の提出が遅れました。
さらに、技術企業の中には、現行の文書に全員が同意しているわけではないことを示す例もあります。
最も遅延の原因となったポイントは、「基盤モデル」と「汎用AI」の区別です。
例として、OpenAIのChatGPTはAI基盤モデルの一例です。これらのシステムは大量のデータを用いて訓練され、あらゆる種類の出力を生成できます。
一方、汎用AIは、さまざまな用途や分野に適応できるシステムを指します。
EUの規制当局は、より多くのリスクを伴い人々の生活に悪影響を及ぼす可能性のある基盤モデルを厳しく規制したいと考えています。
米国と中国のAI規制
EUの規制当局の対応を見ると、何か目立つ点があります。それは、規制当局が協力的でないように見えることです。
例えば、米国ではバイデン政権がChatGPTのようなシステムの安全性について一般から意見を求め、その後に規制枠組みを設計しようとしました。
中国では、AIとデータ収集の規制は何年も前から行われており、その主な関心は社会の安定にあります。
これまでのところ、AI規制において良い位置にいると見られる国は英国です。英国は「ライト」なアプローチを採用していますが、AIとフィンテックの採用においてリーダーになりたいという明確な意向もあります。
フィンテックとAI法案
金融サービスを提供する企業やスタートアップに関しては、状況はさらに複雑です。
実際、もし現行のバージョンのまま法案が進めば、フィンテック企業は既存の金融規制だけでなく、新たな規制枠組みにも従わなければなりません。
信用評価が高リスクのユースケースとみなされる可能性は、フィンテック企業がこれまでの柔軟性を失い、投資を集めたり競争力を保つのを妨げる負担の一例です。
結論
Silo AIのCEO、ピーター・サーリンは、「問題は規制そのものではなく、悪い規制にある」と指摘しています。
あまりに一般的すぎる規制は、イノベーションやAIを用いた製品・サービスの生産・流通・利用に関わるすべての企業に悪影響を及ぼす可能性があります。
もしEUの投資家が、「ハイリスク」カテゴリーに該当するとラベル付けされたスタートアップや企業に対して懸念を抱けば、欧州連合のAI環境は悪化する恐れがあります。一方、米国は公開コメントを求めて技術の改善を進めており、中国はすでにAIの規制について明確な見解を持っています。
Apherisの共同創設者ロビン・ロームによると、考えられるシナリオの一つは、スタートアップが米国に移ることです。米国はブロックチェーンや暗号通貨に関しては多くを失う可能性もありますが、AIレースでは勝つ可能性もあります。
フィンテックについてもっと知りたい、ニュースやイベント、意見を知りたい方は、FTWニュースレターに登録してください!