Rumah > Artikel > Peranti teknologi > NIST: Bias AI melangkaui data itu sendiri
Pada masa ini, tiada siapa yang harus mempertikaikan bahawa kebanyakan AI dibina pada, dan pada masa ini menggunakan, beberapa bentuk berat sebelah yang bermasalah. Ini adalah cabaran yang telah diperhatikan dan dibuktikan ratusan kali. Cabaran bagi organisasi adalah untuk menghapuskan berat sebelah dalam AI, bukannya hanya menyelesaikan data yang lebih baik dan tidak berat sebelah.
Dalam semakan besar terhadap penerbitannya, Ke Arah Piawaian Mengenalpasti dan Mengurus Bias dalam Kepintaran Buatan (NIST 1270 Special Publication), dalam pengumuman awam tahun lepas Berikutan tempoh ulasan , Institut Piawaian dan Teknologi Kebangsaan (NIST) membuat hujah yang kukuh untuk melihat melangkaui data dan juga proses ML untuk mendedahkan dan memusnahkan kecenderungan AI.
Daripada menyalahkan data yang dikumpul dengan buruk atau dilabel dengan buruk, penulis mengatakan bahawa sempadan berat sebelah seterusnya dalam AI ialah "faktor institusi dan sosial manusia dan sistemik" dan menolak perpindahan dari A Perspektif sosio-teknikal mencari jawapan yang lebih baik.
"Konteks adalah segala-galanya," kata Reva Schwartz, penyelidik utama NIST mengenai berat sebelah dalam kecerdasan buatan dan salah seorang pengarang laporan itu. “Sistem AI tidak beroperasi secara berasingan Mereka membantu orang ramai membuat keputusan yang memberi kesan secara langsung kepada kehidupan orang lain Jika kita ingin membangunkan sistem AI yang boleh dipercayai, kita perlu mempertimbangkan semua faktor yang boleh menghakis kepercayaan orang ramai terhadap AI banyak yang melampaui teknologi itu sendiri dan mempengaruhinya, seperti yang diserlahkan oleh komen yang kami terima daripada pelbagai jenis orang dan organisasi Apakah bias manusia dan sistemik
Menurut laporan NIST, manusia berpecah kepada dua kategori luas: individu dan kumpulan, dan terdapat banyak berat sebelah khusus di bawah setiap kategori.
Sikap berat sebelah individu termasuk rasa puas hati dengan automasi, di mana orang terlalu bergantung pada kemahiran automatik, kepercayaan, sikap, pergaulan atau stereotaip yang mempengaruhi pembuatan keputusan seseorang bias pengesahan, di mana orang lebih suka maklumat yang konsisten atau kongruen dengan kepercayaan sedia ada mereka.
Asas manusia kumpulan termasuk groupthink, fenomena di mana orang membuat keputusan yang tidak optimum kerana keinginan untuk mematuhi kumpulan atau mengelakkan perselisihan faham pendanaan, apabila pelaporan adalah berat sebelah memuaskan agensi pembiayaan atau penyokong kewangan, yang seterusnya mungkin tertakluk kepada berat sebelah peribadi/kumpulan tambahan.
Untuk berat sebelah sistemik, laporan NIST mentakrifkannya sebagai sejarah, sosial dan institusi. Pada asasnya, berat sebelah yang telah lama wujud telah dikodkan ke dalam masyarakat dan institusi dari semasa ke semasa dan sebahagian besarnya diterima sebagai "fakta" atau "sama seperti keadaan."
Sebab berat sebelah ini penting adalah kerana sejauh mana kesan penggunaan AI terhadap cara organisasi bekerja hari ini. Kerana data berat sebelah kaum, orang ramai dinafikan gadai janji, menafikan mereka peluang untuk memiliki rumah buat kali pertama. Pencari kerja dinafikan temu duga kerana AI dilatih untuk membuat keputusan pengambilan pekerja yang mengikut sejarah memihak kepada lelaki berbanding wanita. Pelajar muda yang menjanjikan dinafikan temu duga atau kemasukan ke kolej kerana nama keluarga mereka tidak sepadan dengan nama pertama orang yang berjaya dari masa lalu.
Dalam erti kata lain: AI berat sebelah mencipta seberapa banyak pintu berkunci sebagai bukaan yang cekap. Jika organisasi tidak berusaha secara proaktif untuk menghapuskan berat sebelah dalam penempatan mereka, mereka akan dengan cepat mendapati diri mereka mengalami kekurangan kepercayaan yang teruk terhadap cara mereka berfikir dan beroperasi.
Apakah perspektif sosio-teknikal yang disyorkan oleh NIST?
Pada terasnya ialah pengiktirafan bahawa keputusan mana-mana aplikasi AI adalah lebih daripada sekadar input matematik dan pengiraan. Mereka dibuat oleh pembangun atau saintis data, kedudukan dan institusi mereka berbeza-beza, dan mereka semua mempunyai tahap beban tertentu.
Laporan NIST berbunyi: “Pendekatan sosioteknikal kepada AI mempertimbangkan nilai dan tingkah laku yang dimodelkan daripada set data, manusia yang berinteraksi dengan mereka, dan faktor organisasi yang kompleks, Faktor ini terlibat dalam pentauliahan, reka bentuk, pembangunan dan penggunaan muktamad mereka, NIST percaya bahawa melalui lensa sosioteknikal, organisasi boleh mencapai kejayaan yang lebih besar melalui "ketepatan, kebolehjelasan dan kebolehfahaman , privasi, kebolehpercayaan, keteguhan, keselamatan dan ketahanan keselamatan" untuk memupuk kepercayaan .
Salah satu cadangan mereka adalah agar organisasi melaksanakan atau menambah baik proses Ujian, Penilaian, Pengesahan dan Pengesahan (TEVV) mereka. Perlu ada cara untuk mengesahkan bias secara matematik dalam set data atau model terlatih yang diberikan. Mereka juga mengesyorkan mewujudkan lebih banyak penglibatan daripada bidang dan jawatan yang berbeza dalam usaha pembangunan AI, dan mempunyai pelbagai pihak berkepentingan daripada jabatan yang berbeza atau di luar organisasi. Dalam model "human-in-the-loop", individu atau kumpulan terus membetulkan output ML asas, yang juga merupakan alat yang berkesan untuk menghapuskan berat sebelah.
Sebagai tambahan kepada laporan ini dan disemak, terdapat Rangka Kerja Pengurusan Risiko Kecerdasan Buatan (AI RMF) NIST, satu set cadangan yang dipacu konsensus untuk mengurus risiko yang terlibat dalam sistem AI. Setelah selesai, ia akan meliputi ketelusan, reka bentuk dan pembangunan, tadbir urus dan ujian teknologi dan produk AI. Tempoh ulasan awal untuk AI RMF telah berlalu, tetapi kami masih mempunyai banyak peluang untuk belajar tentang risiko dan mitigasi AI.
Atas ialah kandungan terperinci NIST: Bias AI melangkaui data itu sendiri. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!