ホームページ  >  記事  >  テクノロジー周辺機器  >  リー・フェイフェイ氏は個人的に記事を書き、数十人の科学者がカリフォルニア州のAI制限法案に反対する共同書簡に署名した。

リー・フェイフェイ氏は個人的に記事を書き、数十人の科学者がカリフォルニア州のAI制限法案に反対する共同書簡に署名した。

WBOY
WBOYオリジナル
2024-08-08 04:21:12627ブラウズ

AIは本当にそのような規制を正当化するほど危険なのでしょうか?


イノベーションのホットスポットであるシリコンバレーでは、リー・フェイフェイ氏やアンドリュー・ン氏などのAI科学者が、安全性とイノベーションを巡って規制当局と綱引きを繰り広げている。
リー・フェイフェイ氏は個人的に記事を書き、数十人の科学者がカリフォルニア州のAI制限法案に反対する共同書簡に署名した。
リー・フェイフェイ氏は個人的に記事を書き、数十人の科学者がカリフォルニア州のAI制限法案に反対する共同書簡に署名した。
この綱引きの中心にあるのは、SB-1047と呼ばれる法案です。この法案の正式名称は「フロンティア人工知能のための安全かつ安全なイノベーション法」であり、高リスクの AI モデルの悪用やその結果としての大惨事の発生を防ぐための明確なセキュリティ基準を確立することを目的としています。

この法案は今年2月に上院に提出され、その後多くの論争を引き起こしました。多くの科学者は、法案の規定はあまりにも不合理であり、科学技術イノベーションに壊滅的な影響を与えると考えている。
リー・フェイフェイ氏は個人的に記事を書き、数十人の科学者がカリフォルニア州のAI制限法案に反対する共同書簡に署名した。
法案のリンク: https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

具体的には、この法案はモデルレベルから人工知能を規制することを目的としています。特定の計算およびコストのしきい値を超えてトレーニングされたこと。

モデルの対象範囲は次のとおりです:

1. 10^26 を超える整数または浮動小数点演算を使用してトレーニングされた人工知能モデルには、1 億米ドル (1 億ドル) を超えるコストがかかります。トレーニング開始時のクラウド コンピューティングの平均市場価格に対する開発者の合理的な評価に基づいて計算されます。

2. 10^25 の整数または浮動小数点演算の 3 倍以上の計算能力を使用して、範囲内でモデルを微調整することによって作成された人工知能モデル。

この範囲は基本的に、今日の市場で主流のすべての大型モデルをカバーします。この法案が可決されれば、これらのモデルは「潜在的に危険」に分類されるか、追加の監視が必要となる。

この法案では、モデル開発者がモデルの下流での使用または変更に対して法的責任を負うことも求められています。トレーニングを開始する前に、開発者はモデルが「危険な機能」を有効化または提供しないことを証明し、そのような使用を防止するための一連の安全措置を実装する必要があります。これはオープンソース コミュニティの発展を妨げることになります。

新法の施行を監督するのは、新設の監督・規制機関である「フロンティアモデル部門」となる。安全基準を設定し、AI法について助言する政府機関に対してモデルの機能を偽ると、開発者は偽証罪で投獄される可能性がある。

この法案には、AI開発企業内の内部告発者を保護および奨励し、従業員が報復を受けることなく企業の不遵守を報告できることを保証する内部告発者保護条項も追加されています。

この法案が可決されれば、ギャビン・ニューサム知事の署名ひとつでカリフォルニア州法として制定されることになる。この法案がカリフォルニア州で可決されれば、他の州に前例が設定され、米国全土および海外に波及効果をもたらすことになり、本質的にイノベーションの現状に巨大なバタフライ効果を生み出すことになる、とa16zゼネラルパートナーのアニジニー・ミダ氏は述べた。

この法案に関する公聴会は太平洋夏時間8月7日午前に開催されます。科学者が抗議する時間は残り少なくなっている。そのため、李飛飛氏は個人的にこの法案の賛否を述べる記事を執筆した。一部の科学者は法案可決を阻止する書簡に署名している。
リー・フェイフェイ氏は個人的に記事を書き、数十人の科学者がカリフォルニア州のAI制限法案に反対する共同書簡に署名した。

リー・フェイフェイはSB-1047を批判する記事を書きました

リー・フェイフェイは記事の中で次のように述べています:「カリフォルニア州のSB-1047は重大かつ意図せぬ結果をもたらすだろう。法案が可決されれば、SB-1047はSB-1047は、開発者を不必要に罰し、オープンソースコミュニティを抑圧し、学術的なAI研究を妨げる一方で、本来解決しようとしている真の問題を解決することはできない」と彼女は書いた。 -1047 は開発者を不当に罰し、イノベーションを抑制します。SB-1047 は、AI モデルが悪用された場合、責任者とモデルの元の開発者に責任を負わせます。すべての AI 開発者 (特に新進のプログラマーや起業家) が、自分のモデルのあらゆる用途を予測することは不可能です。 SB-1047 は、開発者に一歩下がって防御的な行動をとらせることになります。これはまさに私たちが避けようとしているものです。

第二に、SB-1047 はオープンソース開発を制限します。 SB-1047 では、特定のしきい値を超えるすべてのモデルに、いつでもプログラムをシャットダウンできるメカニズムである「キル スイッチ」を組み込むことが義務付けられています。開発者がダウンロードして構築したプログラムが削除されるのではないかと心配すると、コーディングや共同作業をさらに躊躇することになります。このキルスイッチは、無数のイノベーションの源であるオープンソース コミュニティを破壊します。その影響は人工知能の分野に限定されず、GPSからMRI、インターネットそのものに至るまであらゆるものに及んでいます。

第三に、SB-1047 は公共部門と学術的な AI 研究を麻痺させます。オープンソース開発は民間部門にとって重要ですが、学術界にとっても重要です。コラボレーションとモデル データへのアクセスがなければ、学術は前進できません。私たちの教育機関が適切なモデルやデータにアクセスできない場合、次世代の AI リーダーをどのように訓練すればよいでしょうか?キルスイッチは、大手ハイテク企業に比べてデータやコンピューティングに関してすでに不利な立場にある学生や研究者の努力をさらに台無しにすることになる。 SB-1047 は、公共部門の AI への投資を倍増すべきときに、学術 AI に死の鐘を鳴らすことになるでしょう。

最も懸念すべき点は、この法案が偏見やディープフェイクを含む人工知能の進歩の潜在的な害に対処していないことです。代わりに、SB-1047 は、一定量のコンピューティング能力を使用するモデル、またはトレーニングに 1 億ドルかかるモデルを規制する任意のしきい値を設定します。この措置は保護策を提供するどころか、学界を含むセクター全体のイノベーションを制限するだけです。現在、学術 AI モデルはこのしきい値を下回っていますが、民間部門と公共部門の AI への投資をリバランスする場合、学術界は SB-1047 によって規制されることになります。その結果、私たちの AI エコシステムはさらに悪化するでしょう。

SB-1047 の制限は恣意的すぎるため、私たちはその逆を行う必要があります。

私はAIガバナンスに反対ではありません。人工知能の安全かつ効果的な開発には法律が不可欠です。しかし、AI 政策はオープンソース開発を支援し、統一された合理的なルールを提案し、消費者の信頼を構築する必要があります。 SB-1047 はこれらの規格を満たしていません。

数十人の科学者が反対の請願書に署名しました

SB-1047に対抗して、李飛飛に加えて、カリフォルニア大学の7つのキャンパスの教師と学生、およびそれ以上の研究者で構成されるグループが署名しました。他の20機関も積極的な行動をとっている。彼らは共同でSB-1047に反対する公開書簡に署名し、この法案がカリフォルニア州のAI研究と教育目標に悪影響を与えることを研究者の観点から概説した。
リー・フェイフェイ氏は個人的に記事を書き、数十人の科学者がカリフォルニア州のAI制限法案に反対する共同書簡に署名した。
この共同書簡では、SB-1047の不合理性について次の側面から議論しています:

1. この法案はオープンソースモデルのリリースに「萎縮効果」をもたらし、研究に損害を与えるでしょう

この法案は「セキュリティ監査」と「最先端モデル」を「完全にシャットダウン」する能力を要求しており、これはオープンソースやオープンウェイトモデルのリリースを著しく妨げる可能性がある。これらの厳格な規制は、民間団体が管理する独自モデルの場合は実装が容易ですが、非営利団体や大学のコンソーシアムが使用するオープン モデルの場合はより困難です。安全性の実証と監査に関する法案の規定は十分に具体的ではなく、まだ存在せず科学的厳密性に欠ける可能性のある試験に依存している。このような監査の潜在的なコストは、収益性の高い製品を提供する営利団体にとっては容易に手頃な価格である可能性がありますが、Meta の LLaMA シリーズのような営利団体による科学的なオープン リリースや、非営利団体や大学コンソーシアムによって訓練されたオープン モデルの場合は当てはまらない可能性があります。 。

これらの面倒な制限により、オープンソース モデルの開発者は、カリフォルニアまたは米国以外でシステムを構築し、責任を負うことなくモデルをリリースすることを選択する可能性があります。この場合、コンプライアンスを考慮しない民間の関係者がこれらのモデルを密かに使用する可能性がある一方、公的研究の性質上制約を受けている学術研究者は、研究テーマを変更したり、学問の自由を侵害しないテーマに異動したりする可能性があります。 、管轄区域は除外されます。オープンソース モデルの可用性は、現代の学術 AI 研究にとって非常に重要です。オープンソース モデルを使用すると、学者がモデルがどのように機能するか、トレーニング中に機能がどのように向上するか、モデルをどのように改善してハッキングできるかを調査できるからです。

2. 人工知能のリスク予測と「能力」評価は非科学的である

人工知能、機械学習、自然言語処理の分野の専門家として、これらの研究者は次のように強調しています。モデルのリスクを評価するアプローチには非常に疑問があります。言語モデルやその他の最先端の人工知能システムが公衆に脅威をもたらすかどうか、またどのように脅威をもたらすかについて科学的なコンセンサスはありません。

3. オープンソースモデルに対する保護が不十分

法案では、パラメータ数の急速な増加とパラメータの減少により、将来的にはオープンソースモデルに特別なケースが提供される可能性があると述べていますが、コンピューティングコストが高くなると、既存の保護措置を継続することが困難になる可能性があります。強力な保護が講じられていない場合、これらのモデルへの影響はすぐに明らかになる可能性があります。さらに、同等のパフォーマンスを持つ小規模モデルは、大規模モデルよりも高い計算コストを必要とします。したがって、この法案の修正は、オープンソース モデルのリリースに対する悪影響を軽減するとは期待されておらず、厳格な報告とレビューの要件は研究活動に不必要に影響を与えることになります。

4. 学生の就職とキャリアの成果に関する懸念

SB-1047 は、人工知能に興味のある学生が将来的に関連知識をさらに学ぶことを妨げる可能性があり、さらには新しい才能がコンピューター サイエンスに参入することを妨げる可能性があります。その他の重要な分野。さらに、テクノロジー業界が大企業から新興企業に移行するにつれて、さらなる規制のハードルがより大きく、より優れた企業を優遇することで、新興のイノベーターを麻痺させる可能性があります。この変化は学生のキャリアパスを狭める可能性があります。签 一部の学者による署名。
リー・フェイフェイ氏は個人的に記事を書き、数十人の科学者がカリフォルニア州のAI制限法案に反対する共同書簡に署名した。
公開書簡に加えて、ソーシャルメディアで発言することを選択する研究者もいます。その中で、あるシステム生物学者は、SB-1047は、病原体が何なのか、いつ感染するのか、どこで感染が起こるのかさえ分からないうちに、炎症反応を活性化させるようなものであると指摘しました。

これに先立ち、Ng Endaもこの問題について何度も発言しました。同氏は、規制当局はテクノロジーではなくアプリケーションを規制すべきだと考えている。たとえば、電気モーターも技術です。これをミキサー、電気自動車、透析装置、または誘導爆弾に組み込むと、アプリケーションになります。誰かがモーターを有害な方法で使用したときに、法律がモーター製造業者に責任を負わせたらどうなるかを想像してみてください。そのモーターメーカーは生産を中止するか、モーターを非常に小さくしてほとんどの用途には役に立たないようにするかのどちらかです。このような法律を制定すれば、人々が爆弾を作るのを阻止できるかもしれませんが、ミキサー、電気自動車、透析装置も失うことになります。代わりに、特定のアプリに焦点を当てれば、より合理的にリスクを評価し、それらを安全に保つ方法を判断したり、特定の種類のアプリを禁止したりすることができます。
リー・フェイフェイ氏は個人的に記事を書き、数十人の科学者がカリフォルニア州のAI制限法案に反対する共同書簡に署名した。
AIは本当にそのような規制を正当化するほど危険なのでしょうか?どう思いますか?

参考リンク:https://a16z.com/sb-1047-what-you-need-to-know-with-anjney-midha/
https://drive. google.com/file/d/1E2yDGXryPhhlwS4OdkzMpNeaG5r6_XXS/view
https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us -エコシステム-技術-政治/?abc123

以上がリー・フェイフェイ氏は個人的に記事を書き、数十人の科学者がカリフォルニア州のAI制限法案に反対する共同書簡に署名した。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。