Rumah  >  Artikel  >  Peranti teknologi  >  Masa depan kecerdasan buatan ialah kecerdasan sistem persekitaran mesin manusia

Masa depan kecerdasan buatan ialah kecerdasan sistem persekitaran mesin manusia

王林
王林ke hadapan
2023-05-16 19:52:04947semak imbas

Masa depan kecerdasan buatan ialah kecerdasan sistem persekitaran mesin manusia

Kecerdasan tentera umpama peperangan, ia adalah kabus, terdapat banyak ketidakpastian, ia tidak dapat diramalkan dan tidak dapat diramalkan. Berdasarkan trend perkembangan semasa kecerdasan buatan, dalam peperangan masa hadapan yang boleh dijangka, terdapat banyak bahaya tersembunyi gabungan manusia-mesin yang masih belum diselesaikan, khususnya:

(1) Dalam kompleks Dalam persekitaran maklumat, manusia dan mesin menyerap, mencerna, dan menggunakan maklumat terhad dalam tempoh masa tertentu Bagi manusia, lebih besar tekanan, lebih banyak maklumat yang mereka salah faham, dan lebih mudah untuk menimbulkan kekeliruan, kekeliruan, dan kemalangan. Masih sangat sukar bagi mesin untuk belajar, memahami dan meramalkan data tidak berstruktur merentas domain.

(2) Maklumat yang diperlukan untuk membuat keputusan dalam peperangan diedarkan secara meluas dalam masa dan ruang, yang menentukan bahawa beberapa maklumat penting masih sukar diperoleh. Selain itu, adalah sukar untuk menyelaraskan dan mengintegrasikan data fizikal objektif penting yang dikumpul oleh mesin dengan maklumat dan pengetahuan yang diproses secara subjektif yang diperolehi oleh manusia.

(3) Dalam peperangan akan datang, akan terdapat sejumlah besar ciri tak linear dan kebolehubahan yang tidak dijangka, yang sering membawa kepada ketidakpastian dalam proses dan keputusan pertempuran Berdasarkan aksiom Penaakulan logik formal jauh daripada memenuhi keperluan membuat keputusan dalam situasi pertempuran yang kompleks dan sentiasa berubah. Memandangkan penyebaran berterusan dan percambahan senjata nuklear, kos peperangan masa depan antara negara, tanpa mengira saiz mereka, akan menjadi semakin tinggi. Tidak kira bagaimana kecerdasan buatan berkembang, masa depan adalah milik manusia Manusia harus bersama-sama menentukan peraturan permainan untuk peperangan masa depan dan menentukan nasib kecerdasan buatan, bukannya kecerdasan buatan yang menentukan nasib manusia adalah logik, dan Peperangan masa depan bukan sahaja logik, tetapi juga mengandungi sejumlah besar faktor tidak logik.

(4) Memandangkan klasifikasi peralatan autonomi yang berbeza di negara yang berbeza, terdapat jurang yang besar dalam definisi dan pemahaman konsep kecerdasan buatan yang kuat atau senjata kecerdasan buatan am , jadi kerja yang paling penting pada masa ini ialah Dari semasa ke semasa, ia bukan tentang cara menyelesaikan masalah teknikal tertentu (lelaran teknikal dikemas kini dengan cepat), tetapi tentang cara mencapai kata sepakat mengenai konsep asas dan definisi aplikasi kecerdasan buatan , seperti: ① Apakah AI? ②Apakah itu autonomi? ③Apakah perbezaan antara automasi dan kecerdasan? ④Apakah perbezaan antara pengiraan mesin dan pengiraan manusia? ⑤Apakah sempadan pengedaran fungsi/keupayaan manusia-mesin? ⑥Apakah hubungan antara data, AI dan tanggungjawab risiko? ⑦Perbezaan antara kebolehkiraan dan kebolehtetapan, dsb.

Sesetengah takrifan masih sangat kasar dan memerlukan pemurnian lanjut Contohnya, dari sudut keselamatan manusia, melarang senjata autonomi dengan "orang di luar gelung" adalah selaras dengan nilai sejagat ​. ​dan mengurangkan risiko kehilangan kawalan Ia adalah perlu, tetapi jenis orang yang sering diabaikan dalam gelung sistem, dan sesetengah orang yang tidak bertanggungjawab mungkin lebih teruk dalam sistem pencegahan wabak;

(5) Untuk dunia Mengenai pembangunan teknologi bebas, adalah disyorkan untuk menubuhkan pasukan penilaian bersama untuk menjalankan penilaian terperinci dan amaran awal mengenai pembangunan teknologi bebas secara berkala, untuk menyemak ambang pembangunan teknologi , untuk menjalankan analisis ramalan pembangunan teknologi, dan untuk memantau institusi utama dan institusi R&D yang membangunkan teknologi sensitif untuk menjalankan penyeliaan yang disasarkan dan mewujudkan tahap keperluan keterbukaan akademik tertentu.

(6) Risiko dan cabaran keselamatan yang dihadapi oleh pembangunan ketenteraan AI terutamanya termasuk:

① Kecerdasan buatan dan sistem autonomi boleh menyebabkan kepada Peningkatan situasi yang tidak dijangka dan krisis yang tidak stabil; Amerika Syarikat dan Rusia akan menjadi lebih tegang );

③ Kombinasi manusia dan sistem autonomi yang berbeza (termasuk pertimbangan manusia + pembuatan keputusan manusia, pertimbangan manusia + pembuatan keputusan mesin, pertimbangan mesin + pembuatan keputusan manusia, penghakiman mesin + pembuatan keputusan mesin) akan menjejaskan Situasi kedua-dua belah pihak telah meningkat

④Mesin memahami isyarat penghalang (terutamanya isyarat de-eskalasi) dihantar oleh manusia dengan buruk;

⑤ Sistem autonomi tidak berniat Kemalangan menyerang pasukan mesra atau orang awam akan menimbulkan lebih banyak persoalan; dan sistem autonomi boleh membawa kepada ketidakstabilan dalam perlumbaan senjata;

Pengiraan memperkatakan "kerumitan", dan pengiraan memperkatakan "kerumitan".

Manusia tidak dapat menguasai dunia sepenuhnya, tetapi mereka boleh cuba memahaminya, kecerdasan seperti ini akan melahirkan kategori falsafah dan pemikiran yang lebih baru.

Dalam buku terakhir von Neumann mengenai hubungan antara otak dan komputer yang diterbitkan semasa hayatnya, "Komputer dan Otak", von Neumann Neumann merumuskan pandangannya dengan mengakui bahawa otak adalah bukan sahaja jauh lebih kompleks daripada mesin, tetapi otak seolah-olah memenuhi fungsinya mengikut garis yang berbeza daripada yang dia bayangkan pada asalnya. Hampir secara konklusif, dia membuat kesimpulan bahawa komputer binari sama sekali tidak sesuai untuk mensimulasikan otak. Ini kerana dia hampir membuat kesimpulan bahawa struktur logik otak adalah berbeza sama sekali dengan struktur logik dan matematik, "dari sudut menilai matematik atau ucapan logik yang sebenarnya digunakan oleh sistem saraf pusat, matematik kita. gunakan Bentuk luaran tidak sesuai sama sekali untuk kerja sedemikian.”

Penyelidikan saintifik terkini juga mengesahkan perkara ini. Penemuan ahli sains saraf Perancis Romain Brette pada asasnya mempersoalkan konsistensi seni bina asas otak dan komputer, yang dikenali sebagai pengekodan saraf. Dipengaruhi oleh metafora antara otak dan komputer, saintis telah mengalihkan hubungan antara rangsangan dan neuron daripada deria teknikal kepada deria perwakilan di mana pengekodan neuron secara menyeluruh mewakili rangsangan. Sebenarnya, bagaimana rangkaian saraf menyampaikan isyarat kepada "struktur hiliran" pemerhati yang ideal dalam otak dengan cara penyahkodan yang optimum masih tidak diketahui dan tidak jelas walaupun dalam model mudah. Metafora ini, kemudian, membawa saintis untuk menumpukan hanya pada hubungan antara sensasi dan neuron, sambil mengabaikan kesan sebenar tingkah laku haiwan pada neuron.

Hasil penyelidikan ahli sains saraf Hungary Gyorgi Bussaki adalah lebih radikal. Dalam bukunya The Brain Inside Out, Bussaki menunjukkan bahawa otak sebenarnya tidak mewakili maklumat dengan mengekodkannya, tetapi membinanya. Pada pandangannya, otak tidak hanya menerima rangsangan secara pasif dan kemudian mewakilinya melalui pengekodan saraf, tetapi secara aktif mencari pelbagai kemungkinan untuk menguji pelbagai pilihan yang mungkin. Ini tidak diragukan lagi merupakan penggulingan sepenuhnya metafora menggunakan komputer sebagai metafora untuk otak.

Sama ada dari perspektif sains otak atau sains komputer, jangka hayat metafora membandingkan otak dengan komputer mungkin tidak lagi bertahan. Cobb bersungguh-sungguh menegaskan bahawa metafora seperti ini telah digunakan untuk penyelidikan orang ramai tentang komputer, membutakan orang dan mengecilkan skop penyelidikan sebenar.

Atas ialah kandungan terperinci Masa depan kecerdasan buatan ialah kecerdasan sistem persekitaran mesin manusia. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam