ホームページ  >  記事  >  テクノロジー周辺機器  >  自動運転車の商用利用にはアルゴリズムの安全規制への注意が必要

自動運転車の商用利用にはアルゴリズムの安全規制への注意が必要

PHPz
PHPz転載
2023-04-29 22:16:10966ブラウズ

車両の電動化、ネットワーク化、インテリジェンスの発展傾向と自動運転技術の急速な発展により、自動車業界はますます根本的な変化に近づいています。しかし、近年、自動運転車の安全性の課題がますます顕著になり、それに関連する事故により、自動運転車に対する国民の信頼と信頼がある程度低下しています。自動運転アルゴリズムによってもたらされる安全性の課題に効果的に対応するには、自動運転アルゴリズムの統合セキュリティフレームワークを構築し、自動運転車の研究開発試験段階から商用応用段階への移行を加速する必要があります。

自動運転車の商用利用にはアルゴリズムの安全規制への注意が必要

##自動運転アルゴリズムにおける安全上の問題の主な兆候

我が国の現在の自動運転車法は、主に路上試験、実証申請、車両データのセキュリティに焦点を当てており、人工知能アルゴリズムを中核とした自動運転システムのための完全かつ統一された安全規制の枠組みはまだ形成されていない。今後の法律は 3 つの側面への対応に焦点を当てる必要があります。

まず、一般的な技術的セキュリティが最も重要かつ関連性のある変数です。確立された規制枠組み(安全基準、試験と認証、製品承認などを含む)の対象となる従来の自動車や、運転免許証と責任メカニズムの対象となる人間のドライバーと比較すると、自動運転システムの安全基準はまだ確立されていません。自動運転車の運転はまだ、従来の車と同じように安全性とコンプライアンスを実証するものではありません。したがって、現段階での中心的な問題は、自動運転システムの安全閾値、安全基準、試験および認証方法、承認メカニズム、その他の要件を確立することです。

重要な問題は、政策立案者や規制当局が自動運転車の商用展開を許可する前に、自動運転システムがどの程度安全である必要があるかということです。テクノロジーに対する社会の偏見により、許容可能なセキュリティのしきい値が不適切に高くなる可能性があります。たとえば、自動運転車は事故ゼロを達成するのに十分な絶対的な安全レベルに達する必要があると考えられています。著者の意見では、自動運転アルゴリズムの安全閾値は、絶対的な目標(事故ゼロ、死傷者ゼロなど)の自動運転レベルに基づくべきではなく、安全性を決定するベンチマークとして一般的な人間の運転レベルに基づくべきである。科学的かつ合理的な安全閾値。たとえば、英国が2022年8月に発表した自動運転政策文書「コネクテッドかつ自律型モビリティ2025: 英国における自動運転車の利点の解放」では、自動運転車の安全基準を明確に提示しています。つまり、自動運転車は安全基準を満たす必要があります。 「有能かつ慎重」の要件 「有能かつ慎重な人間ドライバー」(有能かつ慎重な人間ドライバー)は、通常の人間ドライバーと同等の安全性を備えています。

2 つ目は、ネットワーク セキュリティの課題です。サイバーセキュリティは自動運転車の開発と応用に影響を与える重要な要素であり、これに関連するリスクと脅威は、自動運転車に対する脅威の中で最も複雑かつ解決が困難なものとなるでしょう。全体として、自動運転車のサイバーセキュリティの課題には、主に次の特徴があります。

第一に、自動運転車は従来の車両よりもサイバーセキュリティ リスクの影響を受けやすくなっています。自動運転車は「車輪のついたロボット」であり、従来の意味でのサイバーセキュリティのリスクに直面するだけでなく、自動運転アルゴリズムによってもたらされる新たなサイバーセキュリティの課題、リスク、脅威にも直面することになります。

第二に、自動運転車のサイバーセキュリティ リスクの原因はより多様化しています。製造、運用、メンテナンス、インテリジェント インフラストラクチャ、保険、監督、その他のリンクにおいて、異なるエンティティが異なるリスクを抱えています。自動運転車へのアクセスや制御はサイバーリスクをもたらす可能性があります。

第三に、自動運転車は、より多様なネットワーク侵入手法に直面しています。たとえば、ハッカーはソフトウェアの脆弱性を狙ったり、悪意のあるデバイスを接続して自動運転車に物理的な攻撃を仕掛けたり、スマート道路インフラなどの自動運転車エコシステムのコンポーネントを攻撃したりする可能性があります。

さらに、攻撃の影響に関しては、ハッカーは障害攻撃、運用攻撃、データ操作攻撃、データ盗難など、さまざまな種類の攻撃を使用する可能性があります。これらの攻撃の影響巨大になる可能性がありますが、小さいので過小評価してはいけません。第 4 に、自動運転車のサイバーセキュリティ リスクは広範さと深さの両方の特性を示し、全方位的かつ多層的な有害な結果をもたらします。範囲の点では、自動運転車のソフトウェアとハ​​ードウェアの脆弱性は広範囲にわたる可能性があり、これはサイバー攻撃が増幅されることを意味します; 深さの点では、自動運転車が侵入され制御された後、さまざまな場所で悪影響を引き起こす可能性があります。死傷者、物的損害、データ盗難などを含むレベル。

3 番目は、倫理的安全性の課題です。自動運転アルゴリズムにとって最も重要な倫理的安全性の問題は、避けられない事故に直面したときにアルゴリズムがどのように決定を下し、行動すべきかということです。特にジレンマ(つまり道徳的ジレンマ)に直面したとき、私たちはどのように選択すべきでしょうか?歩行者などの他の道路参加者を犠牲にすることになるとしても、死傷者を最小限に抑えるか、何としても車両乗員を保護することを選択すべきでしょうか?自動運転車には道徳的ジレンマが存在する可能性があるため、テクノロジーと倫理の間の相互作用は避けられない問題、つまり複雑な人間の道徳を自動運転アルゴリズムの設計にどのようにプログラムするかという問題になります。この問題に関しては、社会の各部門はいまだ合意に達していません。

自動運転車の商用利用にはアルゴリズムの安全規制への注意が必要

#自動運転車向けのアルゴリズム セキュリティ フレームワークの構築

「インテリジェント車両イノベーション開発戦略」の実現を確実にするために、「2025年までに、中国の標準的なインテリジェント車両の技術革新、産業エコロジー、インフラ、規制と標準、製品監視およびネットワークセキュリティシステムが基本的に形成される」と提案されている。条件付き自動運転のインテリジェンスを実現するために」 自動車の大規模生産と、特定の環境における高度に自動運転するスマートカーの市場応用という目標を達成するには、法規制の枠組みの改訂と革新を加速する必要がある。従来の自動車と人間のドライバーが自動運転車を現在の道路交通システムに統合できるようにするため、新しい法制度と規制の枠組みを確立します。その核心的な側面の1つは、自動運転アルゴリズムを中核とした安全規制の枠組みを構築することであり、技術的安全基準と承認認証、ネットワークセキュリティ認証、倫理的リスク管理の3つの側面をカバーする必要がある。

まず、自動運転システムのための新しい安全基準と認証メカニズムを確立します。同国は自動運転車のための新たな統一安全基準を早急に確立する必要があり、これまで自動車のハードウェアと人間のドライバーに焦点を当ててきた安全基準から、中核として自動運転アルゴリズムを備えた安全基準に移行する必要がある。コックピット、ハンドル、ペダル、バックミラーを必要としない自動運転車。さらに、自動運転システムの安全性をより正確かつ確実に評価・検証するために、将来の法律や政策では、自動運転システムに対する科学的かつ合理的な安全しきい値やベンチマークを設定する必要がある。 「有能かつ賢明」「人間のドライバーと同じレベルの安全性」の要件を満たし、道路運転の技術レベルに基づいた科学的で合理的な一連の検出方法を確立します。

第 2 に、自動運転車には新しいサイバーセキュリティ フレームワークが必要です。政策立案者は、自動運転車全体のサイバーセキュリティを確保するために、従来のサイバーセキュリティ原則の統合を検討する必要があります。 1つ目は、自動運転車のサイバーセキュリティ認証メカニズムを確立し、サイバーセキュリティ認証に合格した自動運転車のみが販売および使用を許可されることです。そして、このメカニズムはソフトウェアとハ​​ードウェアのサプライチェーンにまで拡張する必要があります。第二に、自動運転車のサイバーセキュリティ保護能力と要件を、技術的対策と非技術的対策も含めて明確にする必要がある。 3つ目は、B2B、B2G、G2Bなど、業界と政府の間でのデータ共有、特に安全事故、ネットワークセキュリティ、自動運転システムの解除などの安全インシデントに関連するデータの共有を実現する必要性です。事故データの報告と共有のメカニズムを確立することは、自動運転業界全体の発展レベルを向上させる上で非常に重要です。

第三に、自動運転アルゴリズムなどの倫理的リスク管理メカニズムを確立します。一方で、自動運転アルゴリズムが倫理的に一般公共の利益と一致し、社会の受容性と道徳的要件との間の一定のバランスが達成されることを保証するために、自動運転アルゴリズムの設計における倫理的な選択の基準を設定するには、明確な政府の監督が必要である。 。 バランス。一方、自動運転車企業は、自動運転車技術の科学技術倫理ガバナンスを強化し、科学技術倫理管理の主要な責任を積極的に果たし、科学技術倫理の最低ラインを遵守し、科学技術倫理を遵守する必要がある。自動運転車技術の科学技術倫理リスク評価と見直しを実施し、科学技術倫理リスク監視と早期警告メカニズムを確立し、科学技術関係者の倫理研修を強化する。たとえば、英国の規制当局は、自動運転車のガバナンスをより適切にサポートするために「AVの倫理と安全に関する委員会」の設立を提案した。

要約すると、自動運転車の広範な導入と使用は、その利点の多くを実現するために必要な条件です。自動運転車の広範な導入と使用に必要な条件は、適切な安全フレームワークを確立し、自動運転車の試験から商用利用への飛躍を加速することです。しかし、いかなる合理的な法政策も国民の受け入れを無視することはできません。言い換えれば、自動運転車が最も好まれる交通手段になりたいのであれば、ユーザーの満足度や安全性だけでなく、信頼や責任といった設計上の価値など、ユーザーや社会全体の期待を考慮する必要があります。 、透明性。

自動運転車の安全規制では、これらの期待も考慮し、過度の期待を調整する必要さえあります。これらの考慮事項に基づいて、この記事は、自動運転車が商用化される前に直面する必要があるアルゴリズムの安全性の課題に対処するための、新しい自動運転アルゴリズムの安全性規制枠組みを革新的に提案します。長期的には、自動運転車の商業利用は、将来の交通法の終着点ではなく出発点にすぎず、車の設計、交通規制、賠償責任、保険補償、運転習慣などの一連の変化により、次々に来ます。

以上が自動運転車の商用利用にはアルゴリズムの安全規制への注意が必要の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。