ホームページ  >  記事  >  テクノロジー周辺機器  >  AI 法案の制定が迫っていますが、AI が業界に与える影響をどのように考えていますか?

AI 法案の制定が迫っていますが、AI が業界に与える影響をどのように考えていますか?

PHPz
PHPz転載
2023-06-11 16:41:52854ブラウズ

6月8日のニュースによると、「人工知能法」が立法計画に盛り込まれ、年内に全人代常務委員会に草案が提出されて審議される予定だという。すでに4月には中国サイバースペース局が「生成型人工知能サービス管理措置(意見募集草案)」を策定しており、諸外国でもAIGCに対する規制が導入されており、人工知能の脅威を感じている人もいるかもしれない。核技術を超える。しかし現在、AI の最も基本的なアプリケーションはインターネットの普及率に達していません。監視するのは少し時期尚早であり、おそらく管理に向けたものであると言えます。管理も制限もなければ、AI テクノロジーは可能性があります。一部違法なものに使用される場合があります。

わが国だけでなく、他の国々も立法問題に注目しています。先月、ドイツのテレビは、欧州議会の域内市場委員会と自由人権委員会が「AI法」提案の交渉認可草案を圧倒的多数で可決したと報じました。 11日。

欧州委員会は、AI トピックに関する世界標準の開発を目的として、2 年前にこの法案を提案しました。法律の最終形態についても、EU加盟国の代表者と交渉中である。欧州議会が発表した声明では、この法律が承認されれば、人工知能に関する世界初の規制となると述べられている。この法律が可決された後、規制に違反した企業には最大4,000万ユーロ、または全世界の年間売上高の7%の罰金が科される可能性がある。議員らは提案の修正案で、AIシステムが人間による監視が可能で、安全かつ透明性があり、差別がなく、環境に優しいものであることを保証したいと述べた。

この問題は注目に値します。

現在、AI テクノロジーを使用して、嫌がらせの電話録音を使用して誰かの音声を抽出し、素材を入手した後にその音声を合成して、相手を騙すなどの違法行為を実行する人がいます。偽声。別の例としては、AI を使用して顔を変更したり、一般の人々がオンラインに投稿したさまざまな種類の情報を分析したり、一連の欺瞞を特定したり、AI テクノロジーを使用してターゲット グループを選別したりすることが挙げられます。 AIを利用してビデオ通話中に顔を変えて信頼を得るなど、この手の詐欺は何度か発生している。

AI 法案の制定が迫っていますが、AI が業界に与える影響をどのように考えていますか?

規制は左側、イノベーションは右側ですか?

監督とイノベーションはあまり長く切り離すことはできません。この 2 つは互いに伴走する必要があります。前を歩く人は後ろを待つ必要があります。両者はあまりにも逸脱してはなりません。場合によっては、AI システムが適切に機能しない可能性があります。 AI テクノロジーを合理的に規制する法律がなければ、これらの抜け穴が悪用される可能性があります。法律は AI テクノロジーが合理的かつ秩序ある環境で発展するのに役立ち、いくつかの製品が登場しています。テクノロジーにより、製品は存在するものの、それに対応する規制制度がなく、問題が発生した場合の解決は困難であるため、法整備による市場の監督と規律の強化が依然として必要である。

また、AI技術はまだ大規模には活用されていませんが、医療、運輸、金融、教育、警備などの一部の業界で活用されており、私たちに多くの利便性をもたらしています。 AI テクノロジーや製品のさらなる可能性を知ることができました。将来の AI テクノロジーや製品の可能性に関しては、それに対応し合理的に規制するために、テクノロジーによってもたらされる課題と潜在的なリスクを知る必要があります。

対応する法制度により、関連機関は AI テクノロジーまたは製品を制限および監督し、このテクノロジーの悪用の可能性を回避できます。それだけではなく、機関用AI技術メーカーとの間には、公正かつ標準化された市場競争環境が存在しており、標準化された法律や規制制度により、人的ミスや悪用を回避することができ、公正な環境のもとで信頼性が高く安全なネットワーク環境を構築することができます。不必要な問題の発生を減らし、製品や技術を人類により良く役立てるための製品技術の研究開発に焦点を当てます。

実際のところ、誰もが抵抗しているのは、立法の方法や内容についてまだ議論があることかもしれません。例えば、どの業種を本当に対象にする必要があるのか​​、違法性をどう定義するのか、また、研究開発や技術の推進に影響を与えずに安全性を確保する必要があるのか​​、といった点が挙げられます。厳格な監督はメーカーの技術理解、あるいは製品開発や実装に影響を与えるということです。私たちが最終的に直面しなければならないのは、イノベーションの促進、AI の恩恵の享受、AI リスクへの対応、効果的な権利保護の間のバランスをどのように達成するかということです。

したがって、法律の内容には、技術製品を開発する製造業者、消費者など、複数の観点からの利益が関与する可能性があるため、政策立案者は法律を制定する際にこれらのさまざまな利益を考慮し、広範な協議および参加手順を採用する必要があります。立法の実現可能性と公平性を確保するため。テクノロジー製品を開発するメーカーは、法律の規定を遵守し、関連する法律の要件に従って製品を製造したり、製品を更新および反復したりする必要があるほか、製品やテクノロジーが準拠していることを全員に知らせるために法律の内容と目的を伝達する必要がある場合もあります。関連する法律や規制に準拠し、状況に応じて実施されます。テクノロジーや製品を楽しむ一般の人々は、関連する法律や規制の無知によって引き起こされる問題を回避するために、法律の内容を知る必要がある場合もあります。

どうやってコントロールするの?

AI 技術の法整備は静的なものではなく、長期的な調整と改善が必要であり、製品の進歩に追いつくために、技術や製品の開発と更新に応じてゆっくりと調整、改善する必要があります。テクノロジー。

どのように制御するかが非常に重要です。その 1 つの方法は、リスクを階層的に定義することです。2021 年 4 月に欧州委員会が提案した人工知能の法的枠組みでは、人工知能の適用シナリオはレベルに応じて「最小限のリスク」に分けられていますリスクのレベルは 、限定的、高、許容不可能の 4 つで、アプリケーション シナリオのレベルが高くなるほど、制限は厳しくなります。

報告書によると、高リスクのアプリケーションシナリオとは、輸送機器、教育と訓練、医療支援、信用格付けなど、人々の生命と生活に重大な影響を与える可能性のあるシナリオを指し、欧州委員会は強調したすべての長距離生体認証システムは危険性が高いと考えられており、法執行機関は、行方不明の子供の発見や個別のテロ攻撃の防止、犯罪者の検査、および犯罪者の検査などの少数の例外を除いて、公共の場所でこのテクノロジーを使用することを禁止されています。このようなアプリケーションは、司法部門または独立機関の認可が必要です。明らかに人々の安全と生命を脅かし、人々の権利を侵害する一部のシステムは、人間の行動を利用してユーザーを誤解させるアプリケーションなど、許容できないリスク シナリオとして分類されます。音声アシスタントを使用して未成年者に危険な行為を伴うおもちゃの作成を誘導するなど、自由意志を侵害するアプリケーションは禁止されなければなりません。

当時 EU は非常に多くの側面に配慮していたにもかかわらず、この法案はまた物議を醸しました。たとえば、一部の人々は、複雑な審査要件と手続きにより企業の管理コストが増加し、特に小規模企業にとっては悪影響を与えると感じていました。テクノロジーの使用により、EU のデジタル変革プロセスが遅れています。この法案は、イノベーションの促進と権利保護の効果的なバランスを図る上でのEUの本質的な対立を反映している。

昨年、上海市の「人工知能産業の発展促進に関する上海条例」が正式に発効しました。中国の人工知能分野における初の省レベルの地方規制として、さまざまなリスクレベルの表現についても言及されており、リスクの高い人工知能製品とサービスのリストベースの管理と、必要原則の遵守が求められています。 、合法性、制御可能性などの規制上のレビュー。中リスクおよび低リスクの人工知能製品およびサービスの事前開示と事後管理のガバナンス モデルを採用し、パイロット試験を促進します。

実際、さまざまな国の規制は、それが法律であれ他の手段であれ、これらの定義は法規定を策定するための避けられない論理的要件であり、主な方向性は立法者が人工知能と産業の発展がますます良くなることを期待しているということです。犯罪者に利用されるのではなく、医療、交通、金融、教育、安全保障などの分野で私たちに役立ってくれます。

陸長順 (ケアンズ) 認証番号: A0150619070003。 [上記の内容はあくまでも個人的な意見であり、売買の根拠となるものではありません。株式市場はリスクが高いため、投資は慎重に行う必要があります]

以上がAI 法案の制定が迫っていますが、AI が業界に与える影響をどのように考えていますか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事はsohu.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。