リー・フェイフェイは記事の中で次のように述べています:「カリフォルニア州のSB-1047は重大かつ意図せぬ結果をもたらすだろう。法案が可決されれば、SB-1047はSB-1047は、開発者を不必要に罰し、オープンソースコミュニティを抑圧し、学術的なAI研究を妨げる一方で、本来解決しようとしている真の問題を解決することはできない」と彼女は書いた。 -1047 は開発者を不当に罰し、イノベーションを抑制します。SB-1047 は、AI モデルが悪用された場合、責任者とモデルの元の開発者に責任を負わせます。すべての AI 開発者 (特に新進のプログラマーや起業家) が、自分のモデルのあらゆる用途を予測することは不可能です。 SB-1047 は、開発者に一歩下がって防御的な行動をとらせることになります。これはまさに私たちが避けようとしているものです。 第二に、SB-1047 はオープンソース開発を制限します。 SB-1047 では、特定のしきい値を超えるすべてのモデルに、いつでもプログラムをシャットダウンできるメカニズムである「キル スイッチ」を組み込むことが義務付けられています。開発者がダウンロードして構築したプログラムが削除されるのではないかと心配すると、コーディングや共同作業をさらに躊躇することになります。このキルスイッチは、無数のイノベーションの源であるオープンソース コミュニティを破壊します。その影響は人工知能の分野に限定されず、GPSからMRI、インターネットそのものに至るまであらゆるものに及んでいます。
第三に、SB-1047 は公共部門と学術的な AI 研究を麻痺させます。オープンソース開発は民間部門にとって重要ですが、学術界にとっても重要です。コラボレーションとモデル データへのアクセスがなければ、学術は前進できません。私たちの教育機関が適切なモデルやデータにアクセスできない場合、次世代の AI リーダーをどのように訓練すればよいでしょうか?キルスイッチは、大手ハイテク企業に比べてデータやコンピューティングに関してすでに不利な立場にある学生や研究者の努力をさらに台無しにすることになる。 SB-1047 は、公共部門の AI への投資を倍増すべきときに、学術 AI に死の鐘を鳴らすことになるでしょう。
最も懸念すべき点は、この法案が偏見やディープフェイクを含む人工知能の進歩の潜在的な害に対処していないことです。代わりに、SB-1047 は、一定量のコンピューティング能力を使用するモデル、またはトレーニングに 1 億ドルかかるモデルを規制する任意のしきい値を設定します。この措置は保護策を提供するどころか、学界を含むセクター全体のイノベーションを制限するだけです。現在、学術 AI モデルはこのしきい値を下回っていますが、民間部門と公共部門の AI への投資をリバランスする場合、学術界は SB-1047 によって規制されることになります。その結果、私たちの AI エコシステムはさらに悪化するでしょう。
SB-1047 の制限は恣意的すぎるため、私たちはその逆を行う必要があります。
私はAIガバナンスに反対ではありません。人工知能の安全かつ効果的な開発には法律が不可欠です。しかし、AI 政策はオープンソース開発を支援し、統一された合理的なルールを提案し、消費者の信頼を構築する必要があります。 SB-1047 はこれらの規格を満たしていません。
SB-1047に対抗して、李飛飛に加えて、カリフォルニア大学の7つのキャンパスの教師と学生、およびそれ以上の研究者で構成されるグループが署名しました。他の20機関も積極的な行動をとっている。彼らは共同でSB-1047に反対する公開書簡に署名し、この法案がカリフォルニア州のAI研究と教育目標に悪影響を与えることを研究者の観点から概説した。 この共同書簡では、SB-1047の不合理性について次の側面から議論しています: 1. この法案はオープンソースモデルのリリースに「萎縮効果」をもたらし、研究に損害を与えるでしょう この法案は「セキュリティ監査」と「最先端モデル」を「完全にシャットダウン」する能力を要求しており、これはオープンソースやオープンウェイトモデルのリリースを著しく妨げる可能性がある。これらの厳格な規制は、民間団体が管理する独自モデルの場合は実装が容易ですが、非営利団体や大学のコンソーシアムが使用するオープン モデルの場合はより困難です。安全性の実証と監査に関する法案の規定は十分に具体的ではなく、まだ存在せず科学的厳密性に欠ける可能性のある試験に依存している。このような監査の潜在的なコストは、収益性の高い製品を提供する営利団体にとっては容易に手頃な価格である可能性がありますが、Meta の LLaMA シリーズのような営利団体による科学的なオープン リリースや、非営利団体や大学コンソーシアムによって訓練されたオープン モデルの場合は当てはまらない可能性があります。 。 これらの面倒な制限により、オープンソース モデルの開発者は、カリフォルニアまたは米国以外でシステムを構築し、責任を負うことなくモデルをリリースすることを選択する可能性があります。この場合、コンプライアンスを考慮しない民間の関係者がこれらのモデルを密かに使用する可能性がある一方、公的研究の性質上制約を受けている学術研究者は、研究テーマを変更したり、学問の自由を侵害しないテーマに異動したりする可能性があります。 、管轄区域は除外されます。オープンソース モデルの可用性は、現代の学術 AI 研究にとって非常に重要です。オープンソース モデルを使用すると、学者がモデルがどのように機能するか、トレーニング中に機能がどのように向上するか、モデルをどのように改善してハッキングできるかを調査できるからです。 2. 人工知能のリスク予測と「能力」評価は非科学的である人工知能、機械学習、自然言語処理の分野の専門家として、これらの研究者は次のように強調しています。モデルのリスクを評価するアプローチには非常に疑問があります。言語モデルやその他の最先端の人工知能システムが公衆に脅威をもたらすかどうか、またどのように脅威をもたらすかについて科学的なコンセンサスはありません。 法案では、パラメータ数の急速な増加とパラメータの減少により、将来的にはオープンソースモデルに特別なケースが提供される可能性があると述べていますが、コンピューティングコストが高くなると、既存の保護措置を継続することが困難になる可能性があります。強力な保護が講じられていない場合、これらのモデルへの影響はすぐに明らかになる可能性があります。さらに、同等のパフォーマンスを持つ小規模モデルは、大規模モデルよりも高い計算コストを必要とします。したがって、この法案の修正は、オープンソース モデルのリリースに対する悪影響を軽減するとは期待されておらず、厳格な報告とレビューの要件は研究活動に不必要に影響を与えることになります。 SB-1047 は、人工知能に興味のある学生が将来的に関連知識をさらに学ぶことを妨げる可能性があり、さらには新しい才能がコンピューター サイエンスに参入することを妨げる可能性があります。その他の重要な分野。さらに、テクノロジー業界が大企業から新興企業に移行するにつれて、さらなる規制のハードルがより大きく、より優れた企業を優遇することで、新興のイノベーターを麻痺させる可能性があります。この変化は学生のキャリアパスを狭める可能性があります。签 一部の学者による署名。 公開書簡に加えて、ソーシャルメディアで発言することを選択する研究者もいます。その中で、あるシステム生物学者は、SB-1047は、病原体が何なのか、いつ感染するのか、どこで感染が起こるのかさえ分からないうちに、炎症反応を活性化させるようなものであると指摘しました。
これに先立ち、Ng Endaもこの問題について何度も発言しました。同氏は、規制当局はテクノロジーではなくアプリケーションを規制すべきだと考えている。たとえば、電気モーターも技術です。これをミキサー、電気自動車、透析装置、または誘導爆弾に組み込むと、アプリケーションになります。誰かがモーターを有害な方法で使用したときに、法律がモーター製造業者に責任を負わせたらどうなるかを想像してみてください。そのモーターメーカーは生産を中止するか、モーターを非常に小さくしてほとんどの用途には役に立たないようにするかのどちらかです。このような法律を制定すれば、人々が爆弾を作るのを阻止できるかもしれませんが、ミキサー、電気自動車、透析装置も失うことになります。代わりに、特定のアプリに焦点を当てれば、より合理的にリスクを評価し、それらを安全に保つ方法を判断したり、特定の種類のアプリを禁止したりすることができます。 AIは本当にそのような規制を正当化するほど危険なのでしょうか?どう思いますか? 参考リンク:https://a16z.com/sb-1047-what-you-need-to-know-with-anjney-midha/https://drive. google.com/file/d/1E2yDGXryPhhlwS4OdkzMpNeaG5r6_XXS/viewhttps://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us -エコシステム-技術-政治/?abc123以上がリー・フェイフェイ氏は個人的に記事を書き、数十人の科学者がカリフォルニア州のAI制限法案に反対する共同書簡に署名した。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。