ホームページ  >  記事  >  テクノロジー周辺機器  >  AI が制御不能になるリスクが増大: オープンモデルの重みがメタ抗議を引き起こす

AI が制御不能になるリスクが増大: オープンモデルの重みがメタ抗議を引き起こす

王林
王林転載
2023-10-11 08:37:01775ブラウズ

編集者: Du Wei、Xiaozhou

AI、特に大規模モデルの時代におけるオープンソースとクローズドソースにはメリットとデメリットがあり、重要なのは、それを使用する過程でどのようにうまく機能するかです。

AI 分野におけるオープンソースとクローズドソースの選択については、常に意見が分かれてきましたが、大規模モデルの時代には、オープンソースの強力な力が静かに台頭しています。以前に Google からリークされた内部文書によると、Meta の LLaMA などのオープンソース モデルを中心に、コミュニティ全体が OpenAI や Google の大規模モデル機能と同様のモデルを急速に構築しています。

最近リリースされた Llama 2 など、継続的なオープンソースへの取り組みにより、Meta がオープンソースの世界の絶対的な中心であることは疑いの余地がありません。しかし、良いものは風に乗って消えてしまうもので、最近メタはオープンソースのせいで「困った」状態にあります。

サンフランシスコにある Meta のオフィスの外では、プラカードを持ったデモ参加者のグループが集まり、AI モデルを公開するという Meta の戦略に抗議し、これらの公開されたモデルが潜在的に危険なテクノロジーの「不可逆的な拡散」を引き起こしたと主張しました。デモ参加者の中には、メタ社がリリースした大型モデルを「大量破壊兵器」と比較する人もいた。

これらの抗議活動参加者は自らを「懸念する市民」と呼び、ホリー・エルモアが率いています。 LinkedIn によると、彼女は AI Pause 運動の独立した支持者です。

AI が制御不能になるリスクが増大: オープンモデルの重みがメタ抗議を引き起こす

書き直す必要がある内容は次のとおりです: 画像出典: MISHA GUREVICH

モデルが安全でないと判明した場合、API がシャットダウンされる可能性があると彼女は述べました。たとえば、Google や OpenAI などの企業は、ユーザーが API を介してのみ大規模モデルにアクセスできるようにしています

対照的に、Meta の LLaMA シリーズのオープン ソース モデルでは、モデルの重みが公開されているため、適切なハードウェアと専門知識を持つ人なら誰でも、モデルをコピーして自分で調整することができます。モデルの重みがリリースされると、出版社は AI の使用方法を制御できなくなります。

Holly Elmore 氏の見解では、モデルの重みを解放することは危険な戦略です。誰でもモデルを変更でき、これらのモデルを元に戻すことはできません。 「モデルが強力であればあるほど、この戦略はより危険になります。」

オープンソース モデルと比較して、API 経由でアクセスされる大規模なモデルには、危険または迷惑な応答の出力を防ぐための応答フィルタリングや特定のトレーニングなど、さまざまなセキュリティ機能が備わっていることがよくあります。

モデルの重みが解放されると、これらの「ガードレール」を飛び越えるようにモデルを再トレーニングすることがはるかに簡単になります。これにより、これらのオープン ソース モデルを使用してフィッシング ソフトウェアを作成し、ネットワーク攻撃を実行する可能性が高まります。

書き直す必要がある内容は次のとおりです: 画像出典: MISHA GUREVICHAI が制御不能になるリスクが増大: オープンモデルの重みがメタ抗議を引き起こす

彼女は、モデルのセキュリティの問題の一部は、現在講じられているセキュリティ対策では十分ではないことにあると考えています。そのため、モデルのセキュリティを確保するためのより良い方法を見つける必要があります。

現時点ではメタ社はこれに関してコメントを出していません。しかし、Meta のチーフ AI サイエンティストである Yann LeCun は、「オープンソース AI は非合法化されなければならない」という声明に反応しているようで、パリのオープンソース AI スタートアップ コミュニティの繁栄を示しました。

さまざまな意見を持ち、AI 開発のオープンな戦略がテクノロジーへの信頼を確保する唯一の方法であると信じている人がたくさんいますが、これはホリー・エルモアの見解とは異なります

AI が制御不能になるリスクが増大: オープンモデルの重みがメタ抗議を引き起こす 一部のネチズンは、オープンソースには長所と短所があり、人々の透明性を高め、イノベーションを強化することができますが、悪意のある者による悪用(コードなど)のリスクにも直面すると述べています。

予想通り、OpenAI は再び嘲笑され、「オープンソースに戻すべきだ」という意見もありました。

AI が制御不能になるリスクが増大: オープンモデルの重みがメタ抗議を引き起こす

オープンソースに不安を感じている人はたくさんいます

AI が制御不能になるリスクが増大: オープンモデルの重みがメタ抗議を引き起こす

MITの人工知能セキュリティの博士研究員であるピーター・S・パーク氏は、人工知能モデルの悪用を完全に防ぐことは基本的に不可能であるため、将来高度な人工知能モデルが広くリリースされると多くの問題が生じる可能性があると述べた

しかし、非営利の人工知能研究組織 EleutherAI のエグゼクティブ ディレクターであるステラ ビダーマン氏は次のように述べています。 API これによりセキュリティ問題を解決できます。」

Biderman 氏は、「LLM 構築の基本要素は無料の研究論文で公開されており、誰でもこれらの論文を読んで独自のモデルを開発できる」と考えています。

彼女はさらに次のように指摘しました。「企業がモデルの詳細の機密性を奨励する場合、特に独立した研究者にとって、野外研究の透明性、一般の意識、科学の発展に深刻な悪影響をもたらす可能性があります。」

オープンソースの影響についてはすでに誰もが議論していますが、Meta の手法が本当に十分にオープンであるかどうか、またオープンソースを活用できるかどうかはまだ不明です。

オープンソース・イニシアチブ (OSI) のエグゼクティブ・ディレクターであるステファノ・マフリ氏は、「オープンソース人工知能の概念は明確に定義されていません。さまざまな組織がさまざまなものを指すためにこの用語を使用しており、「公に」の度合いが異なることを示しています。人々を混乱させる可能性のある「もの」が入手可能です。」

Maffelli 氏は、オープンソース ソフトウェアの場合、重要な問題はソース コードが公開されており、あらゆる目的に使用できるかどうかであると指摘しています。ただし、AI モデルを再現するには、トレーニング データ、データ収集方法、トレーニング ソフトウェア、モデルの重み、推論コードなどの共有が必要になる場合があります。その中で最も重要な問題は、トレーニング データにはプライバシーと著作権の問題が含まれる可能性があることです。 AI が制御不能になるリスクが増大: オープンモデルの重みがメタ抗議を引き起こすOSI は昨年から「オープンソース AI」の正確な定義に取り組んでおり、今後数週間以内に初期草案をリリースする予定です。しかし、何があっても、AI の開発にはオープンソースが不可欠であると彼は信じています。 「AI がオープンソースでなければ、信頼できる責任ある AI を実現することはできません。」と彼は言いました

今後もオープンソースとクローズドソースの違いは続くでしょうが、オープンソースは止められません。

以上がAI が制御不能になるリスクが増大: オープンモデルの重みがメタ抗議を引き起こすの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事はsohu.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。