マイコ・アモリムによるUnsplashの写真* * *AI法案はまだ草案の段階ですが、欧州連合の投資家や事業者はすでに結果に対して緊張しています。これが欧州連合の世界的な競争力を妨げることになるのでしょうか?規制当局によると、そのようなことはないとのことです。しかし、何が起きているのか見てみましょう。 AI法案とリスク評価-------------------AI法案は人工知能がもたらすリスクをさまざまなリスクカテゴリーに分けていますが、その前に人工知能の定義を機械学習と論理に基づくシステムのみに限定しています。これはAIシステムをより単純なソフトウェアと区別する目的だけでなく、EUがリスクを分類したい理由を理解するのにも役立ちます。 AIのさまざまな用途は、「許容できないリスク」、「高リスク」、そして「低または最小リスク」に分類されます。許容できないリスクの範疇に入る行為は「禁止」とみなされます。このタイプの行為には次のようなものが含まれます: * 人の意識を超える技術を用いる行為、 * 脆弱な部分を悪用しようとする行為、 * 個人の特性や行動に基づいて人を分類するためのAIシステム、 * 公共空間での生体認証を用いるAIシステム。「高リスク」とみなされる行為には、禁止活動に類似した用途もあります。これには、労働者の採用や信用評価・分析に使われるシステム(が含まれ、これらはフィンテックにとって危険となる可能性もあります。これらのシステムを作成または使用するすべての企業は、システムの仕組みやリスク回避のために取った措置について詳細な報告書を作成し、できるだけ透明性を保つ必要があります。すべては明確で正しいように見えますが、規制当局が対処すべき問題もいくつかあります。法案はあまりに一般的すぎる----------------------------事業者や投資家が最も懸念している点の一つは、特定のAI分野に対する配慮の欠如です。例えば、一般目的のAIシステムを製造・使用する企業は、高リスクの用途にAIを利用しているとみなされる可能性があります。これは、詳細な報告書を作成する必要があり、時間とコストがかかることを意味します。中小企業も例外ではなく、欧州経済の最大部分を占めるため、長期的には競争力が低下する恐れがあります。そして、米国と欧州のAI企業の違いこそが大きな懸念を引き起こしています。実際、欧州には米国のような大規模なAI企業はなく、欧州のAI環境は主に中小企業やスタートアップによって形成されているからです。appliedAIが実施した調査によると、多くの投資家は「高リスク」とラベル付けされたスタートアップへの投資を避ける傾向にあります。これは、この分類の複雑さに起因しています。ChatGPTがEUの計画を変えた--------------------------EUの規制当局は4月19日に文書を締めくくる予定でしたが、AIシステムの定義や用途に関する議論が遅れ、最終草案の提出が遅れました。さらに、技術企業の中には、現行の文書に全員が同意しているわけではないことも示されました。最も遅れの原因となったポイントは、「基盤モデル」と「汎用AI」の区別です。例として、OpenAIのChatGPTはAI基盤モデルの一例です。これらのシステムは大量のデータを用いて訓練され、あらゆる種類の出力を生成できます。一方、汎用AIはさまざまな用途や分野に適応できるシステムを指します。EUの規制当局は、より多くのリスクを伴い、人々の生活に悪影響を及ぼす可能性のある基盤モデルを厳しく規制したいと考えています。米国と中国のAI規制-------------------EUの規制当局の対応を見ると、何か目立つ点があります。それは、規制当局が協力的でないように見えることです。例えば、米国ではバイデン政権がChatGPTのようなシステムの安全性について一般から意見を求め、その後に規制枠組みを設計しようとしました。中国では、AIとデータ収集の規制は何年も前から行われており、その主な関心は社会の安定にあります。これまでのところ、AI規制において良い位置にいると見られる国は英国です。英国は「ライト」なアプローチを採用していますが、AIとフィンテックの採用においてリーダーになりたいという明確な意向もあります。フィンテックとAI法案-------------------金融サービスを提供する企業やスタートアップに関しては、状況はさらに複雑です。実際、もし現行のバージョンのまま法案が成立すれば、フィンテック企業は既存の金融規制だけでなく、新たな規制枠組みにも従わなければなりません。信用評価が高リスクの用途とみなされる可能性は、フィンテック企業がこれまでの柔軟性を失い、投資を集めたり競争力を保つ妨げとなる負担の一例です。結論----Silo AIのCEO、ピーター・サーリンは、「問題は規制そのものではなく、悪い規制にある」と指摘しています。あまりに一般的すぎる規制は、イノベーションやAIを用いた製品・サービスの生産・流通・利用に関わるすべての企業に悪影響を及ぼす可能性があります。もしEUの投資家が、「ハイリスク」とラベル付けされたスタートアップや企業に対して懸念を抱けば、欧州連合のAI環境は悪化する恐れがあります。一方、米国は技術向上のために一般からの意見を求めており、中国はすでにAIの規制について明確な見解を持っています。Apherisの共同創設者ロビン・ロームによると、考えられるシナリオの一つは、スタートアップが米国に移ることです。米国はブロックチェーンや暗号通貨に関しては多くを失う可能性もありますが、AIレースでは勝利を収めるかもしれません。* * *フィンテックについてもっと知りたい、ニュースやイベント、意見を知りたい方は、FTWニュースレターに登録してください!
ヨーロッパにおけるAI:AI法が意味する可能性
マイコ・アモリムによるUnsplashの写真
AI法案はまだ草案の段階ですが、欧州連合の投資家や事業者はすでに結果に対して緊張しています。
これが欧州連合の世界的な競争力を妨げることになるのでしょうか?
規制当局によると、そのようなことはないとのことです。しかし、何が起きているのか見てみましょう。
AI法案とリスク評価
AI法案は人工知能がもたらすリスクをさまざまなリスクカテゴリーに分けていますが、その前に人工知能の定義を機械学習と論理に基づくシステムのみに限定しています。
これはAIシステムをより単純なソフトウェアと区別する目的だけでなく、EUがリスクを分類したい理由を理解するのにも役立ちます。
AIのさまざまな用途は、「許容できないリスク」、「高リスク」、そして「低または最小リスク」に分類されます。許容できないリスクの範疇に入る行為は「禁止」とみなされます。
このタイプの行為には次のようなものが含まれます:
「高リスク」とみなされる行為には、禁止活動に類似した用途もあります。
これには、労働者の採用や信用評価・分析に使われるシステム(が含まれ、これらはフィンテックにとって危険となる可能性もあります。これらのシステムを作成または使用するすべての企業は、システムの仕組みやリスク回避のために取った措置について詳細な報告書を作成し、できるだけ透明性を保つ必要があります。
すべては明確で正しいように見えますが、規制当局が対処すべき問題もいくつかあります。
法案はあまりに一般的すぎる
事業者や投資家が最も懸念している点の一つは、特定のAI分野に対する配慮の欠如です。
例えば、一般目的のAIシステムを製造・使用する企業は、高リスクの用途にAIを利用しているとみなされる可能性があります。
これは、詳細な報告書を作成する必要があり、時間とコストがかかることを意味します。中小企業も例外ではなく、欧州経済の最大部分を占めるため、長期的には競争力が低下する恐れがあります。
そして、米国と欧州のAI企業の違いこそが大きな懸念を引き起こしています。実際、欧州には米国のような大規模なAI企業はなく、欧州のAI環境は主に中小企業やスタートアップによって形成されているからです。
appliedAIが実施した調査によると、多くの投資家は「高リスク」とラベル付けされたスタートアップへの投資を避ける傾向にあります。これは、この分類の複雑さに起因しています。
ChatGPTがEUの計画を変えた
EUの規制当局は4月19日に文書を締めくくる予定でしたが、AIシステムの定義や用途に関する議論が遅れ、最終草案の提出が遅れました。
さらに、技術企業の中には、現行の文書に全員が同意しているわけではないことも示されました。
最も遅れの原因となったポイントは、「基盤モデル」と「汎用AI」の区別です。
例として、OpenAIのChatGPTはAI基盤モデルの一例です。これらのシステムは大量のデータを用いて訓練され、あらゆる種類の出力を生成できます。
一方、汎用AIはさまざまな用途や分野に適応できるシステムを指します。
EUの規制当局は、より多くのリスクを伴い、人々の生活に悪影響を及ぼす可能性のある基盤モデルを厳しく規制したいと考えています。
米国と中国のAI規制
EUの規制当局の対応を見ると、何か目立つ点があります。それは、規制当局が協力的でないように見えることです。
例えば、米国ではバイデン政権がChatGPTのようなシステムの安全性について一般から意見を求め、その後に規制枠組みを設計しようとしました。
中国では、AIとデータ収集の規制は何年も前から行われており、その主な関心は社会の安定にあります。
これまでのところ、AI規制において良い位置にいると見られる国は英国です。英国は「ライト」なアプローチを採用していますが、AIとフィンテックの採用においてリーダーになりたいという明確な意向もあります。
フィンテックとAI法案
金融サービスを提供する企業やスタートアップに関しては、状況はさらに複雑です。
実際、もし現行のバージョンのまま法案が成立すれば、フィンテック企業は既存の金融規制だけでなく、新たな規制枠組みにも従わなければなりません。
信用評価が高リスクの用途とみなされる可能性は、フィンテック企業がこれまでの柔軟性を失い、投資を集めたり競争力を保つ妨げとなる負担の一例です。
結論
Silo AIのCEO、ピーター・サーリンは、「問題は規制そのものではなく、悪い規制にある」と指摘しています。
あまりに一般的すぎる規制は、イノベーションやAIを用いた製品・サービスの生産・流通・利用に関わるすべての企業に悪影響を及ぼす可能性があります。
もしEUの投資家が、「ハイリスク」とラベル付けされたスタートアップや企業に対して懸念を抱けば、欧州連合のAI環境は悪化する恐れがあります。一方、米国は技術向上のために一般からの意見を求めており、中国はすでにAIの規制について明確な見解を持っています。
Apherisの共同創設者ロビン・ロームによると、考えられるシナリオの一つは、スタートアップが米国に移ることです。米国はブロックチェーンや暗号通貨に関しては多くを失う可能性もありますが、AIレースでは勝利を収めるかもしれません。
フィンテックについてもっと知りたい、ニュースやイベント、意見を知りたい方は、FTWニュースレターに登録してください!