ヨーロッパにおけるAI:AI法が意味するもの

Unsplash の Maico Amorim による写真


AI法(AI Act)はまだ単なる法案の段階ですが、欧州連合(EU)内の投資家や事業者は、起こりうる結末についてすでに不安を抱えています。

それによって、EUがグローバルの分野で価値ある競争相手であり続けることを妨げるのでしょうか?

規制当局によれば、それは当てはまりません。ですが、いま何が起きているのか見てみましょう。

AI法(AI Act)とリスク評価

AI法(AI Act)は、人工知能(AI)がもたらすリスクを複数のリスク区分に分けていますが、それを行う前に、人工知能の定義を、機械学習と論理に基づくシステムのみに絞り込みます。

これは、AIシステムをより単純なソフトウェアの一部と区別する目的にとどまらず、EUがなぜリスクを分類したがっているのかを理解するうえでも役立ちます。

AIのさまざまな用途は、容認できないリスク高リスク、そして
低いまたは最小のリスク に分類されます。容認できないリスク区分に該当する行為は、禁止されるものと見なされます。

この種の行為には以下が含まれます:

*   人の意識の範囲を超えて機能する技術を用いる行為、 
*   人口の脆弱な部分を悪用しようとする行為、 
*   個人の属性や行動に基づいて人々を分類するために導入されるAIベースのシステム、 
*   公共の場で生体認証による識別を行うAIベースのシステム。 

禁止される活動に含まれる一部の実践と同様に考えるべきユースケースがいくつかあり、それらは「高リスク」の実践のカテゴリーに該当します。

これらには、労働者を採用するために使われるシステム、または人々の信用力を評価・分析するために使われるシステムが含まれます(そして、これはフィンテックにとって危険になり得ます)。こうした場合、この種のシステムを作成または利用するすべての事業者は、システムがどのように機能するのか、そして人々のリスクを回避するために講じられた措置を説明する詳細な報告書を作成し、可能な限り透明性を確保しなければなりません。

すべてが明確で正しいように見えますが、規制当局が対処すべき問題がいくつかあります。

法律があまりに一般的

事業者や投資家の大半が最も懸念しているのは、特定のAI分野に対する配慮が欠けていることです。

たとえば、汎用目的のためにAIベースのシステムを製造し利用する企業は、高リスクのユースケースにおいて人工知能を使用している企業だと見なされ得ます。

つまり、時間とお金がかかる詳細な報告書を作成しなければならないということです。中小企業(SMEs)に例外はなく、そしてそれらは欧州の経済の最大部分を占めているため、時間が経つにつれて競争力が低下する可能性があります。

そして、米国と欧州のAI企業の違いそのものが、重大な懸念を引き起こしているのです。実際には、欧州には米国のような大規模なAI企業がありません。というのも、欧州のAI環境は主に中小企業とスタートアップによって作られているからです。

appliedAI が実施した調査によれば、大多数の投資家は、「高リスク」とラベル付けされたスタートアップへの投資を避けるでしょう。まさに、この分類に伴う複雑さゆえです。

ChatGPT がEUの計画を変えた

EUの規制当局は4月19日に文書を閉じるべきでしたが、AIベースのシステムのさまざまな定義や、それらのユースケースに関する議論が、最終案の提出を遅らせました。

さらに、テック企業は、現行の文書版について全員が同意しているわけではないことを示しました。

遅れの原因となった最大のポイントは、フレームワークモデル(foundation models)汎用AI(general purpose AI) の区別です。

AIのフレームワークモデルの例として、OpenAI の ChatGPT があります。これらのシステムは大量のデータを用いて学習され、あらゆる種類の出力を生成できます。

汎用AIには、さまざまなユースケースや業界に合わせて適応できるシステムが含まれます。

EUの規制当局は、フレームワークモデルを厳格に規制したいと考えています。これは、それらがより大きなリスクをもたらし、人々の生活に悪影響を与え得るからです。

米国と中国はAIをどう規制しているか

EUの規制当局がAIをどう扱っているのかを見ると、際立つ点が1つあります。それは、規制当局が協力する意欲があまり高くないように見えることです。

たとえば米国では、Biden政権が、ChatGPT のようなシステムの安全性について、可能な規制枠組みを設計する前にパブリックコメントを求めました。

中国では、政府が何年も前からAIとデータ収集を規制しており、最大の懸念は社会の安定であり続けています。

これまでのところ、AI規制でうまく位置づけられているように見えるのは英国で、同国は「軽い」アプローチを好みました。しかし、英国がAIとフィンテックの導入でリーダーになりたいと考えていることは、公然の秘密ではありません。

フィンテックとAI法

金融サービスを提供する企業やスタートアップに関しては、状況はさらに複雑になります。

実際、もしこの法律が現行版のままなら、フィンテックは現在の金融規制に紐づくだけでなく、この新しい規制枠組みにも紐づく必要があります。

信用力評価が高リスクのユースケースとしてラベル付けされ得るという事実は、フィンテック企業が背負うべき負担のほんの一例にすぎません。これにより、投資を集めたり競争力を高めたりするために、これまでのように柔軟でいることが難しくなります。

結論

Silo AI のCEOである Peter Sarlin が指摘したように、問題は規制ではなく、悪い規制です。

あまりに一般的すぎると、AIベースの製品・サービスの製造、流通、利用に関わるすべての企業に対して、イノベーションを損なう可能性があります。

もしEUの投資家が、「高リスク」に分類されるスタートアップや企業であるというラベルによってもたらされる潜在的リスクを懸念するなら、欧州連合(EU)のAI環境は悪影響を受ける可能性があります。一方で米国は技術を改善するためにパブリックコメントを求めており、中国はすでに人工知能をどのように規制するかについて明確な見解を持っています。

Apheris の共同創業者である Robin Röhm によれば、考えられるシナリオの1つは、スタートアップが米国へ移転することです。米国は、ブロックチェーンや暗号資産の分野に関しては失うものが多いかもしれませんが、AIレースでは勝ち得る可能性があります。


フィンテックについてもっと知り、フィンテックのニュース、イベント、意見を見つけたいなら、FTW Newsletter を購読してください!

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン