Photo by Maico Amorim on Unsplash* * *AI法案はまだ草案の段階ですが、欧州連合の投資家や事業主は、可能性のある結果についてすでに不安を抱いています。 これは、欧州連合がグローバルな競争者として価値を持つことを妨げるのでしょうか? 規制当局によれば、そうではないとのことですが、現状を見てみましょう。 AI法案とリスク評価---------------------------------AI法案は、人工知能がもたらすリスクを異なるリスクカテゴリーに分けますが、その前に、人工知能の定義を機械学習や論理に基づくシステムだけに絞り込みます。 これは、AIシステムをより単純なソフトウェアから区別する目的だけでなく、EUがリスクを分類したい理由を理解するのにも役立ちます。 AIのさまざまな用途は、**受け入れられないリスク**、**高リスク**、および **低リスクまたは最小リスク**のカテゴリーに分類されます。 受け入れられないリスクカテゴリーに該当する行為は、**禁止**と見なされます。 この種の行為には以下が含まれます: * 人の意識を超えて働く技術を含む行為、 * 脆弱な人口層を搾取しようとする行為、 * 個人の特性や行動に基づいて人々を分類するために設置されたAIベースのシステム、 * 公共の場で生体認証を使用するAIベースのシステム。 禁止活動に含まれるいくつかの行為に似たユースケースが、"高リスク"の実践のカテゴリーに該当します。 これには、労働者を採用したり、人々の信用worthinessを評価・分析するために使用されるシステムが含まれます(これはフィンテックにとって危険かもしれません)。 この場合、この種のシステムを作成または使用するすべての企業は、システムがどのように機能するか、リスクを回避するために取られた措置、できるだけ透明性を持つために詳細な報告書を作成する必要があります。 すべては明確で正しいように見えますが、規制当局が対処すべき問題がいくつかあります。 法案はあまりにも一般的-------------------------事業主や投資家が最も懸念する点の一つは、特定のAIセクターへの配慮が不足していることです。 たとえば、一般目的のためにAIベースのシステムを製造・使用する企業は、高リスクのユースケースに人工知能を使用する企業と見なされる可能性があります。 これは、彼らが時間とお金がかかる詳細な報告書を作成する必要があることを意味します。 中小企業は例外ではなく、欧州経済の最大の部分を形成しているため、時間が経つにつれて競争力が低下する可能性があります。 そして、米国と欧州のAI企業の違いが大きな懸念を引き起こしています。実際、欧州には米国のような大規模なAI企業は存在せず、欧州のAI環境は主に中小企業やスタートアップによって構築されています。 appliedAIが実施した調査によると、投資家の大多数は「高リスク」とラベル付けされたスタートアップへの投資を避ける傾向があるとされています。この分類に関わる複雑さが理由です。 ChatGPTがEUの計画を変更--------------------------EUの規制当局は4月19日に文書を締め切る予定でしたが、AIベースのシステムのさまざまな定義とそのユースケースに関連する議論が最終草案の提出を遅らせました。 さらに、技術企業は、全ての企業が文書の現在のバージョンに同意しているわけではないことを示しました。 遅延の主な原因となったポイントは、**基盤モデル**と**一般目的AI**の区別です。 AI基盤モデルの例としては、OpenAIのChatGPTがあります。これらのシステムは、大量のデータを使用してトレーニングされ、あらゆる種類の出力を生成できます。 一般目的AIには、さまざまなユースケースやセクターに適応できるシステムが含まれます。 EUの規制当局は、基盤モデルを厳格に規制したいと考えています。なぜなら、これらはより多くのリスクをもたらし、人々の生活に悪影響を与える可能性があるからです。 米国と中国がAIを規制する方法--------------------------------------EUの規制当局がAIを扱う方法を見ると、際立つものがあります。それは、規制当局が協力する意欲が低いように見えることです。 たとえば、米国では、バイデン政権がChatGPTのようなシステムの安全性についての公的コメントを求めてから、可能な規制枠組みを設計することを望んでいました。 中国では、政府は数年前からAIとデータ収集を規制しており、その主な関心は社会的安定にあります。 これまでのところ、AI規制において良い位置にいる国は、"ライト"なアプローチを選んだ英国です。しかし、英国がAIとフィンテックの採用でリーダーになりたいことは明らかです。 フィンテックとAI法案----------------------金融サービスを提供する企業やスタートアップに関しては、状況はさらに複雑です。 実際、法案が現在のバージョンのままであれば、フィンテックは現在の金融規制に加えて、この新しい規制枠組みにも従う必要があります。 信用worthinessの評価が高リスクのユースケースとしてラベル付けされる可能性があるという事実は、フィンテック企業が抱える負担の一例に過ぎず、これにより彼らは今までのように柔軟に投資を集めたり、競争力を持つことが難しくなります。 結論-----------Silo AIのCEOであるピーター・サーリンが指摘したように、問題は規制ではなく、悪い規制です。 あまりにも一般的であることは、イノベーションやAIベースの製品やサービスの生産、配布、使用に関与するすべての企業に害を及ぼす可能性があります。 EUの投資家が、スタートアップや企業が「高リスク」のカテゴリーに該当するというラベルがもたらす潜在的リスクについて懸念を抱く場合、欧州連合のAI環境は悪影響を受ける可能性があります。一方、米国は技術を改善するための公的コメントを探しており、中国はすでに人工知能を規制する方法について明確な意見を持っています。 Apherisの共同創設者であるロビン・ローエムによれば、スタートアップが米国に移転する可能性もあるというシナリオがあります。米国はブロックチェーンや暗号通貨に関して多くのものを失うかもしれませんが、AIレースでは勝つ可能性があります。 * * *フィンテックについてもっと知り、フィンテックのニュース、イベント、意見を発見したい場合は、FTWニュースレターに登録してください!
ヨーロッパにおけるAI:AI法が意味するもの
Photo by Maico Amorim on Unsplash
AI法案はまだ草案の段階ですが、欧州連合の投資家や事業主は、可能性のある結果についてすでに不安を抱いています。
これは、欧州連合がグローバルな競争者として価値を持つことを妨げるのでしょうか?
規制当局によれば、そうではないとのことですが、現状を見てみましょう。
AI法案とリスク評価
AI法案は、人工知能がもたらすリスクを異なるリスクカテゴリーに分けますが、その前に、人工知能の定義を機械学習や論理に基づくシステムだけに絞り込みます。
これは、AIシステムをより単純なソフトウェアから区別する目的だけでなく、EUがリスクを分類したい理由を理解するのにも役立ちます。
AIのさまざまな用途は、受け入れられないリスク、高リスク、および
低リスクまたは最小リスクのカテゴリーに分類されます。 受け入れられないリスクカテゴリーに該当する行為は、禁止と見なされます。
この種の行為には以下が含まれます:
禁止活動に含まれるいくつかの行為に似たユースケースが、"高リスク"の実践のカテゴリーに該当します。
これには、労働者を採用したり、人々の信用worthinessを評価・分析するために使用されるシステムが含まれます(これはフィンテックにとって危険かもしれません)。 この場合、この種のシステムを作成または使用するすべての企業は、システムがどのように機能するか、リスクを回避するために取られた措置、できるだけ透明性を持つために詳細な報告書を作成する必要があります。
すべては明確で正しいように見えますが、規制当局が対処すべき問題がいくつかあります。
法案はあまりにも一般的
事業主や投資家が最も懸念する点の一つは、特定のAIセクターへの配慮が不足していることです。
たとえば、一般目的のためにAIベースのシステムを製造・使用する企業は、高リスクのユースケースに人工知能を使用する企業と見なされる可能性があります。
これは、彼らが時間とお金がかかる詳細な報告書を作成する必要があることを意味します。 中小企業は例外ではなく、欧州経済の最大の部分を形成しているため、時間が経つにつれて競争力が低下する可能性があります。
そして、米国と欧州のAI企業の違いが大きな懸念を引き起こしています。実際、欧州には米国のような大規模なAI企業は存在せず、欧州のAI環境は主に中小企業やスタートアップによって構築されています。
appliedAIが実施した調査によると、投資家の大多数は「高リスク」とラベル付けされたスタートアップへの投資を避ける傾向があるとされています。この分類に関わる複雑さが理由です。
ChatGPTがEUの計画を変更
EUの規制当局は4月19日に文書を締め切る予定でしたが、AIベースのシステムのさまざまな定義とそのユースケースに関連する議論が最終草案の提出を遅らせました。
さらに、技術企業は、全ての企業が文書の現在のバージョンに同意しているわけではないことを示しました。
遅延の主な原因となったポイントは、基盤モデルと一般目的AIの区別です。
AI基盤モデルの例としては、OpenAIのChatGPTがあります。これらのシステムは、大量のデータを使用してトレーニングされ、あらゆる種類の出力を生成できます。
一般目的AIには、さまざまなユースケースやセクターに適応できるシステムが含まれます。
EUの規制当局は、基盤モデルを厳格に規制したいと考えています。なぜなら、これらはより多くのリスクをもたらし、人々の生活に悪影響を与える可能性があるからです。
米国と中国がAIを規制する方法
EUの規制当局がAIを扱う方法を見ると、際立つものがあります。それは、規制当局が協力する意欲が低いように見えることです。
たとえば、米国では、バイデン政権がChatGPTのようなシステムの安全性についての公的コメントを求めてから、可能な規制枠組みを設計することを望んでいました。
中国では、政府は数年前からAIとデータ収集を規制しており、その主な関心は社会的安定にあります。
これまでのところ、AI規制において良い位置にいる国は、"ライト"なアプローチを選んだ英国です。しかし、英国がAIとフィンテックの採用でリーダーになりたいことは明らかです。
フィンテックとAI法案
金融サービスを提供する企業やスタートアップに関しては、状況はさらに複雑です。
実際、法案が現在のバージョンのままであれば、フィンテックは現在の金融規制に加えて、この新しい規制枠組みにも従う必要があります。
信用worthinessの評価が高リスクのユースケースとしてラベル付けされる可能性があるという事実は、フィンテック企業が抱える負担の一例に過ぎず、これにより彼らは今までのように柔軟に投資を集めたり、競争力を持つことが難しくなります。
結論
Silo AIのCEOであるピーター・サーリンが指摘したように、問題は規制ではなく、悪い規制です。
あまりにも一般的であることは、イノベーションやAIベースの製品やサービスの生産、配布、使用に関与するすべての企業に害を及ぼす可能性があります。
EUの投資家が、スタートアップや企業が「高リスク」のカテゴリーに該当するというラベルがもたらす潜在的リスクについて懸念を抱く場合、欧州連合のAI環境は悪影響を受ける可能性があります。一方、米国は技術を改善するための公的コメントを探しており、中国はすでに人工知能を規制する方法について明確な意見を持っています。
Apherisの共同創設者であるロビン・ローエムによれば、スタートアップが米国に移転する可能性もあるというシナリオがあります。米国はブロックチェーンや暗号通貨に関して多くのものを失うかもしれませんが、AIレースでは勝つ可能性があります。
フィンテックについてもっと知り、フィンテックのニュース、イベント、意見を発見したい場合は、FTWニュースレターに登録してください!