ヨーロッパにおけるAI:AI法が意味するもの

UnsplashのMaico Amorimによる写真


AI Actはまだ単なる草案にすぎませんが、欧州連合(EU)ではすでに投資家や事業者が想定される結末に不安を抱いています。

それは、EUがグローバルの分野で価値ある競争相手として存在することを妨げるのでしょうか?

規制当局によれば、それは当てはまりません。ですが、何が起きているのか見てみましょう。

AI Actとリスク評価

AI Actは、人工知能がもたらすリスクを異なるリスク区分に分けていますが、その前に、人工知能の定義を機械学習とロジックに基づくシステムに限定して絞り込みます。

これは、AIシステムをより単純なソフトウェア部品と区別する目的にとどまらず、EUがなぜリスクを分類したいのかを理解するのにも役立ちます。

AIのさまざまな用途は、容認できないリスク高リスク、および
低い、または最小のリスクに分類されます。容認できないリスク区分に該当する行為は、禁止されたものとみなされます。

この種の行為には以下が含まれます:

*   人の意識の範囲を超えて機能する技術を伴う行為、 
*   人口の脆弱な部分を悪用しようとする行為、 
*   個人の特性または行動に基づいて人々を分類するために導入されたAIベースのシステム、 
*   公共の場で生体認識による識別を行うAIベースのシステム。 

禁止された活動に含まれるいくつかの行為と同様と考えるべきユースケースがあり、それらは「高リスク」な行為のカテゴリに該当します。

これには、労働者を採用するため、または人々の信用力を評価し分析するために用いられるシステムが含まれます(そしてこれはフィンテックにとって危険になり得ます)。これらの場合、この種のシステムを作成または利用するすべての事業者は、そのシステムがどのように機能するのか、そして人々のリスクを回避するために講じられた措置について、できるだけ透明性を確保するための詳細な報告書を作成する必要があります。

すべてが明確で正しいように見えますが、規制当局が対処すべきいくつかの問題があります。

この法律はあまりにも一般的

事業者や投資家が最も心配している側面の1つは、特定のAI分野に対する注目が欠けていることです。

例えば、汎用目的のためにAIベースのシステムを生産し利用する企業は、それらが高リスクのユースケースに対して人工知能を利用しているものだとみなされ得ます。

つまり、時間とお金がかかる詳細な報告書を作成しなければなりません。SME(中小企業)は例外ではなく、しかも欧州経済の最大部分を占めるため、長期的には競争力が低下する可能性があります。

そして、米国と欧州のAI企業の違いこそが大きな懸念を引き起こしています。実際、欧州には米国のような大規模なAI企業がありません。というのも、欧州のAI環境は主にSMEとスタートアップによって作られているからです。

appliedAIが実施した調査によれば、投資家の大多数は、「高リスク」とラベル付けされたスタートアップへの投資を避けるでしょう。まさに、この分類に伴う複雑さのためです。

ChatGPTがEUの計画を変えた

EUの規制当局は4月19日に文書を締め切るはずでしたが、AIベースのシステムのさまざまな定義と、それらのユースケースに関する議論によって、最終草案の提出が遅れました。

さらに、テック企業は、文書の現行版に全員が同意しているわけではないことを示しました。

遅れの原因として最も大きかったのは、ファウンデーションモデル汎用AIを区別する点です。

AIのファウンデーションモデルの例としてはOpenAIのChatGPTが挙げられます。これらのシステムは大量のデータで訓練され、あらゆる種類の出力を生成できます。

汎用AIには、さまざまなユースケースや業界に適応できるようにしたシステムが含まれます。

EUの規制当局はファウンデーションモデルを厳格に規制したいと考えています。なぜなら、それらはより多くのリスクをもたらし、人々の生活に悪影響を与えかねないからです。

米国と中国がどのようにAIを規制しているか

EUの規制当局がAIをどう扱っているかを見れば、際立っている点があります。規制当局が協力に消極的に見えるのです。

例えば米国では、Biden政権が、可能な規制枠組みを設計する前に、ChatGPTのようなシステムの安全性についてのパブリックコメントを求めました。

中国では、政府が何年も前からAIとデータ収集を規制しており、最大の懸念は社会の安定であり続けています。

現時点でAI規制において好位置にあるように見えるのは英国で、同国は「軽い」アプローチを好みました。しかし、英国がAIとフィンテック導入のリーダーになりたいと考えていることは周知の事実です。

フィンテックとAI Act

金融サービスを提供する企業やスタートアップとなると、状況はさらに複雑になります。

実際、この法律が現行のバージョンのままであるなら、フィンテックは現在の金融規制だけに紐づくだけでなく、この新しい規制枠組みにも結び付けられる必要があります。

信用力の評価が高リスクのユースケースとしてラベル付けされ得るという事実は、フィンテック企業が背負うべき負担の一例にすぎません。この負担が、これまでのように柔軟で、投資を集め、競争力を持つことを妨げるのです。

結論

Silo AIのCEOであるPeter Sarlinが指摘したように、問題は規制そのものではなく、悪い規制です。

あまりにも一般的だと、AIベースの製品やサービスの製造、流通、利用に関わるすべての企業のイノベーションを損ない得ます。

もしEUの投資家が、「高リスク」に分類されるといったラベルがもたらし得るリスクを懸念するなら、欧州連合のAI環境は悪影響を受ける可能性があります。一方、米国は技術を改善するためのパブリックコメントを求めており、中国はすでに人工知能をどう規制するかについて明確な見解を持っています。

Apherisの共同創業者であるRobin Röhmによれば、考えられるシナリオの1つは、スタートアップが米国へ移ることです。米国は、ブロックチェーンや暗号資産の面では失うものが多いかもしれませんが、AIレースでは勝ち取る可能性があります。


フィンテックについてもっと知り、フィンテックのニュース、イベント、意見を発見したいなら、FTW Newsletterに購読してください!

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン