ホームページ > 記事 > テクノロジー周辺機器 > ビッグモデルの時代が到来!データセキュリティリスクにどう対処するか?小満耶 AI サミットの専門家からのヒント
ChatGPT のような大きな言語モデルの人気の背後にある理由は何ですか?どの業界に良いニュースをもたらすでしょうか?潜在的なバブルリスクはどこにあるのでしょうか? 5月25日から26日にかけて、2023 小満耶テクノロジーカンファレンスのサブフォーラム「インテリジェント時代に向けて文明の飛躍の実現」AIGC 特別サミットで、AI 分野の 20 名を超える研究者や実務家が AIGC のアプリケーションと新しいビジネス パラダイムについて議論しました。 、さまざまな業界や分野における新たな開発の道筋、潜在的なデータセキュリティリスクと倫理的問題。
26日のサミットでの新刊発売式では、『ビッグモデルの時代』の著者であり、アリババの元シニアプロダクトエキスパート兼事業部門副ゼネラルマネージャーで共同創業者兼チーフの龍志勇氏が登壇した。シリコンバレーのAIスタートアップの執行役員、受諾 インタビュー中、ナンドゥ氏は率直に、生成AIはまず標準化モデルに従い、開発は後であるべきだと述べた。大規模モデルの潜在的なバブルリスクに対処するには、技術的な手段と、モデルの自己評価、コンプライアンスアルゴリズムのレビューなど、および手動プロセス、さらに重要なことに、業界の問題解決の難しさとサイクルについて合理的な期待を持つことによってのみ、過度の楽観主義によって引き起こされるリスクを回避できます。
ビッグモデルが知的革命と産業再編の新たなラウンドを引き起こす
ChatGPT などの生成型人工知能の背後にある真のインテリジェントな「脳」は、大きな言語モデルです。大規模な生成事前トレーニング モデルに基づく技術の進歩により、個人や産業に複数の応用がもたらされ、知的革命と産業再建の新たなラウンドが引き起こされ、新たな脳とコンピューターのコラボレーション関係が構築されています。
大型モデルの時代が到来! Long Zhiyong 氏は、「ビッグ モデルの時代」では、テクノロジー、アプリケーション、産業変化の詳細な分析と詳細が提供され、ChatGPT ラージ モデルの背後にある原則が生き生きと説明され、ラージ モデルがどのように社会をインテリジェント革命の時代に押し上げるかを描いていることを明らかにしました。企業が大規模モデルを自社のビジネスに適用するための注意点と方法論をまとめ、個人と企業が変化に対処するための提案を提供します。同氏によると、大規模モデルは特にナレッジワーク、営利企業、クリエイティブエンターテインメントなどの分野に適用されており、主に漸進的イノベーションと破壊的イノベーションという2種類のイノベーションをもたらしているという。
サミットの基調講演で、人工知能科学者のLiu Zhiyi氏も、人工知能は経済社会発展のさまざまな分野に力を与えており、さまざまな下流分野の産業アップグレードのため大型モデルの需要が高まり続けていると述べました。中国の人工知能産業の市場規模は、2022年に3億7,000万元、2027年には15億3,700万元に達すると推定されています。今後も下流の製造、運輸、金融、金融など多くの分野に浸透していくことが予想されています。と医療の連携を図り、大規模導入を実現します。
「ビッグモデルの時代」は、5 月 26 日に開催された 2023 AIGC 特別サミット「インテリジェント時代に向けて文明の飛躍の実現」で発表されました。
生成型人工知能は信頼低下などのリスクをもたらす
しかし、大規模モデルの普及に伴い、潜在的なバブルも発生しています。 Samsung が ChatGPT を導入してから 20 日も経たないうちに、機密データが漏洩したことが明らかになりました。 AI 顔変更や AI ペインティングなどのテクノロジーによってもたらされる法的リスク、倫理的問題、データ セキュリティの問題に対する人々の関心が高まっています。
「ビッグモデル時代の AI 技術革新と倫理ガバナンス」について語る際、Liu Zhiyi 氏は、生成型人工知能には一定のリスクがあり、規模を拡大する際にこれらのリスクを考慮して軽減しなければ、変革の速度が低下する可能性があると述べました。が鈍くなるにもほどがあります。パフォーマンスを向上させるためにトレーニング済みモデルを継続的に更新すると、機密データ、プライバシー、セキュリティに関する懸念が生じる可能性があります。生成型 AI の開発、利用、議論、規制に携わるすべての人は、信頼の低下、従業員の長期的な失業リスク、偏見と差別、データ プライバシー、知的財産の保護などのリスクの管理に取り組む必要があります。
Liu Zhiyi は Nandu とのインタビューで 3 つの見解を共有しました。同氏は、まずAI技術が国民経済や社会システムのさまざまな分野に当然入り込むことになるが、技術そのものがディープニューラルネットワークのようなブラックボックスであるため、リスクが拡大するだろうと述べ、技術やアルゴリズムの計算を通じて、AI技術を活用することはできないと述べた。人はそのすべての段階を知っていますが、それを達成する方法は不透明で説明できないため、リスクが伴います。第二に、AI テクノロジーはデジタル世界の創造に関連していることがよくあります。例えば、偽の音声や画像を含む高度な偽造は、物理的アイデンティティをデジタルアイデンティティに変えることであり、デジタル経済が発展すればするほど、これらの技術的サポートが必要になり、依存性が強くなりますが、それがもたらすリスクも大きくなります。第三に、我が国はアプリケーションシナリオとエコロジーを非常に重視しており、アプリケーションシナリオの実現には革新的なものでなければならず、必然的にリスクが伴うことになるが、シナリオの革新に伴ってリスクは拡大するため、先制的な監視が行われることになる。中国政府が発表した「生成型人工知能サービスの管理に関する措置(意見草案)」と科学技術省が発表した「科学技術の倫理ガバナンスの強化に関する意見」は、いずれも一部のリスクを先制的に考慮したものである。
『ビッグモデルの時代』の著者であり、アリババの元上級製品専門家および事業部門副本部長であり、シリコンバレーの AI スタートアップ企業の共同創設者兼最高執行責任者である Long Zhiyong 氏が、新しい講演会で講演しました。書籍発売記念式典。
大規模モデル アルゴリズムの信頼性と透明性に関する要件を提示する
「GPT の大規模モデルにとって、データプライバシーは確かに重要な問題です。」 Long Zhiyong 氏は Nandu とのインタビューで、OpenAI は最近、米国での問い合わせに対応する際に事前の準備を行ったと述べました。 ChatGPT のチャット記録をオフにする。個人的なオプションとして、ユーザーは大規模モデルがトレーニングに自分のプライベート データを使用することを拒否できます。企業顧客に対して、OpenAI はプライベートにデプロイされたモデルを提供し、企業が微調整されたトレーニング データが共有されることを心配することを回避します。これらの施策は国内大型モデルにも採用される可能性が高い。
大規模モデルの潜在的なバブルリスクにどのように対処するか、そして強力な規制と生成人工知能の開発との関係のバランスをどう取るかについて、Long Zhiyong 氏は、生成 AI は最初に標準化、その後開発というモデルに従うべきであると率直に述べました。 AI 生成製品に対する法的責任の主要な担い手として、大規模モデルのサービス プロバイダーは AIGC コンテンツの正確性と価値指向に責任を負い、そのコンプライアンス圧力は依然として相当なものです。これは強い規範です。」と「北京」紙で述べられています。促進 「汎用人工知能の革新的開発のためのいくつかの措置」という文書では、生成 AI が科学研究などの非公共サービス分野で積極的な応用を達成するよう奨励されるべきであり、人工知能の中核分野で試験的に導入されるべきであると述べられています。 「中関村は包括的かつ慎重な規制試験を実施する。これは規範と開発のバランスを取る前向きなシグナルだと思う」
同氏は、規制当局の考え方では大規模なアルゴリズムの信頼性と透明性の向上が必要であると述べました。 「ビッグモデルの時代」では、潜在的な業界バブルリスクについて警告が発せられ、重要な要素の1つはビッグモデルの信頼性と透明性でした。 OpenAI の首席科学者であるイリヤ氏は、大規模なモデルの錯覚と情報の改ざんが、さまざまな業界での GPT の適用を妨げる主な障害であると考えています。幻覚問題の根絶が難しい理由は、第一に大規模モデルの学習目的と手法にあり、第二に、深層学習時代以来の AI のブラックボックス属性が不透明で、モデル内の特定の問題を特定できないことが挙げられます。大型モデルの新機能の出現メカニズムも透明かつ予測不可能であることを考慮すると、大型モデル業界では制御不能の中での制御性の追求と規制の範囲内での開発を追求することが最大の課題となっている。
制作:ナンドゥビッグデータ研究所
研究者: ユアン・ジョンシアン
以上がビッグモデルの時代が到来!データセキュリティリスクにどう対処するか?小満耶 AI サミットの専門家からのヒントの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。