cari
RumahPeranti teknologiAIApakah peningkatan yang ada pada GPT-4 berbanding ChatGPT? Jensen Huang mengadakan 'sembang tepi api' dengan pengasas bersama OpenAI

Perbezaan paling penting antara ChatGPT dan GPT-4 ialah ia dibina berdasarkan GPT-4 untuk meramalkan watak seterusnya dengan ketepatan yang lebih tinggi. Lebih baik rangkaian saraf boleh meramalkan perkataan seterusnya dalam teks, lebih baik ia boleh memahami teks.

Dihasilkan oleh Big Data Digest

Pengarang: Caleb

Apakah jenis percikan api yang akan dibuat oleh Nvidia apabila ia menemui OpenAI?

Sebentar tadi, pengasas dan Ketua Pegawai Eksekutif NVIDIA Jensen Huang mengadakan perbincangan mendalam dengan pengasas bersama OpenAI, Ilya Sutskever semasa sembang api unggun GTC.

Apakah peningkatan yang ada pada GPT-4 berbanding ChatGPT? Jensen Huang mengadakan sembang tepi api dengan pengasas bersama OpenAI

Pautan video:

​​https://www.nvidia.cn/gtc-global/session-catalog/?tab.catalogallsessinotallow=16566177511100015Kus #/session/1669748941314001t6Nv​

Dua hari lalu, OpenAI melancarkan model kecerdasan buatan paling berkuasa setakat ini, GPT-4. OpenAI memanggil GPT-4 sebagai "sistem paling maju OpenAI" di tapak web rasminya dan "boleh menghasilkan respons yang lebih selamat dan lebih berguna."

Sutskever juga berkata semasa ceramah bahawa GPT-4 menandakan "peningkatan yang ketara" dalam banyak aspek berbanding ChatGPT, dengan menyatakan bahawa model baharu itu boleh membaca imej dan teks. "Dalam beberapa versi akan datang, [pengguna] mungkin mendapat carta" sebagai jawapan kepada soalan dan pertanyaan, katanya.

Tidak dinafikan bahawa dengan populariti ChatGPT dan GPT-4 pada skala global, ini juga menjadi tumpuan perbualan ini Selain GPT-4 dan pendahulunya termasuk topik berkaitan ChatGPT, Huang Renxun dan Sutskever juga bercakap tentang keupayaan, had dan operasi dalaman rangkaian saraf dalam, serta ramalan untuk pembangunan AI masa hadapan.

Mari kita lihat dengan lebih dekat perbualan ini dengan Digest Fungus~

Mulakan apabila tiada siapa yang mengambil berat tentang skala rangkaian dan skala pengkomputeran

Mungkin ramai orang Apabila saya mendengar Sutskever's nama, perkara pertama yang terlintas di fikiran ialah OpenAI dan produk AI yang berkaitan, tetapi anda mesti tahu bahawa resume Sutskever boleh dikesan kembali kepada postdoc Andrew Ng, saintis penyelidikan Google Brain dan pembangun bersama model Seq2Seq.

Boleh dikatakan pembelajaran mendalam telah terikat dengan Sutskever sejak awal.

Apabila bercakap tentang pemahamannya tentang pembelajaran mendalam, Sutskever berkata bahawa mulai sekarang, pembelajaran mendalam sememangnya telah mengubah dunia. Walau bagaimanapun, titik permulaan peribadinya lebih banyak terletak pada gerak hatinya tentang potensi impak besar AI, minatnya yang kuat dalam kesedaran dan pengalaman manusia, dan kepercayaannya bahawa pembangunan AI akan membantu menjawab soalan-soalan ini.

Sepanjang 2002-03, orang ramai secara amnya percaya bahawa pembelajaran adalah sesuatu yang hanya manusia boleh lakukan dan komputer tidak boleh belajar. Dan jika komputer boleh diberikan keupayaan untuk belajar, ia akan menjadi satu kejayaan besar dalam bidang AI.

Ini juga telah menjadi peluang bagi Sutskever untuk memasuki bidang AI secara rasmi.

Jadi Sutskever menemui Jeff Hinton dari universiti yang sama. Pada pandangannya, rangkaian saraf yang diusahakan oleh Hinton adalah satu kejayaan, kerana ciri-ciri rangkaian saraf terletak pada komputer selari yang boleh belajar dan diprogramkan secara automatik.

Pada masa itu, tiada siapa mengambil berat tentang kepentingan skala rangkaian dan skala pengiraan Orang hanya melatih 50 atau 100 rangkaian saraf, dan ratusan daripadanya sudah dianggap besar, dengan satu juta parameter Juga dianggap besar.

Selain itu, mereka hanya boleh menjalankan program pada kod CPU yang tidak dioptimumkan, kerana tiada siapa yang memahami BLAS Mereka menggunakan Matlab yang dioptimumkan untuk melakukan beberapa percubaan, seperti jenis soalan yang hendak digunakan untuk perbandingan.

Tetapi masalahnya ialah ini adalah eksperimen yang sangat tersebar dan tidak boleh benar-benar menggalakkan kemajuan teknologi.

Membina rangkaian saraf untuk penglihatan komputer

Pada masa itu, Sutskever menyedari bahawa pembelajaran diselia adalah jalan ke hadapan pada masa hadapan.

Ini bukan sahaja intuisi, tetapi juga fakta yang tidak dapat dipertikaikan. Jika rangkaian saraf cukup dalam dan cukup besar, ia akan mempunyai keupayaan untuk menyelesaikan beberapa tugas yang sukar. Tetapi orang ramai belum lagi menumpukan pada rangkaian neural yang mendalam dan besar, malah memberi tumpuan kepada rangkaian neural sama sekali.

Untuk mencari penyelesaian yang baik, set data besar yang sesuai dan banyak pengiraan diperlukan.

ImageNet ialah data itu. Pada masa itu, ImageNet adalah set data yang sangat sukar, tetapi untuk melatih rangkaian saraf konvolusi yang besar, anda mesti mempunyai kuasa pengkomputeran yang sepadan.

Seterusnya, tiba masanya untuk GPU muncul. Di bawah cadangan Jeff Hinton, mereka mendapati bahawa dengan kemunculan set data ImageNet, rangkaian saraf konvolusi adalah model yang sangat sesuai untuk GPU, jadi ia boleh dibuat dengan sangat pantas dan skala semakin besar dan lebih besar.

Selepas itu, ia secara langsung dan ketara memecahkan rekod penglihatan komputer Ini tidak berdasarkan kesinambungan kaedah sebelumnya.

OpenAI: Daripada 100 orang kepada ChatGPT

Pada hari-hari awal OpenAI, Sutskever mengakui bahawa mereka tidak pasti sepenuhnya cara mempromosikan projek itu.

Pada awal tahun 2016, rangkaian saraf tidak begitu berkembang dan terdapat ramai penyelidik yang lebih sedikit berbanding sekarang. Sutskever teringat bahawa hanya terdapat 100 orang dalam syarikat itu pada masa itu, dan kebanyakan mereka masih bekerja di Google atau DeepMind.

Tetapi mereka mempunyai dua idea besar pada masa itu.

Salah satunya ialah pembelajaran tanpa pengawasan melalui pemampatan. Pada tahun 2016, pembelajaran tanpa pengawasan merupakan masalah yang tidak dapat diselesaikan dalam pembelajaran mesin, dan tiada siapa yang tahu cara melaksanakannya. Pemampatan bukanlah topik yang biasa dibincangkan orang baru-baru ini, tetapi tiba-tiba semua orang menyedari bahawa GPT sebenarnya memampatkan data latihan.

Secara matematik, melatih model generatif autoregresif ini memampatkan data dan secara intuitif mungkin untuk melihat sebab ia berfungsi. Jika data dimampatkan dengan cukup baik, anda boleh mengekstrak semua maklumat tersembunyi yang terdapat di dalamnya. Ini juga secara langsung membawa kepada penyelidikan berkaitan OpenAI mengenai neuron emosi.

Pada masa yang sama, apabila mereka menyesuaikan LSTM yang sama untuk meramal watak seterusnya ulasan Amazon, mereka mendapati bahawa jika anda meramalkan watak seterusnya dengan cukup baik, akan ada neuron dalam LSTM yang sepadan dengan sentimennya. Ini adalah demonstrasi yang baik tentang kesan pembelajaran tanpa pengawasan dan juga mengesahkan idea ramalan watak seterusnya.

Tetapi di manakah anda mendapatkan data untuk pembelajaran tanpa pengawasan? Sutskever berkata titik kesakitan dengan pembelajaran tanpa pengawasan adalah kurang mengenai data dan lebih banyak tentang sebab anda melakukannya, dan menyedari bahawa melatih rangkaian saraf untuk meramalkan watak seterusnya patut diusahakan dan diterokai. Dari situ ia mempelajari representasi yang boleh difahami.

Satu lagi idea besar ialah pembelajaran pengukuhan. Sutskever sentiasa percaya bahawa lebih besar adalah lebih baik. Di OpenAI, salah satu matlamat mereka adalah untuk mengetahui cara yang betul untuk membuat skala.

Projek pertama yang sangat besar yang disiapkan OpenAI ialah pelaksanaan permainan strategi Dota 2. Pada masa itu, OpenAI melatih ejen pembelajaran pengukuhan untuk melawan dirinya sendiri Matlamatnya adalah untuk mencapai tahap tertentu dan boleh bermain permainan dengan pemain manusia.

Transformasi daripada pembelajaran pengukuhan Dota kepada pembelajaran pengukuhan maklum balas manusia yang digabungkan dengan asas teknologi output GPT telah menjadi ChatGPT hari ini.

Cara OpenAI melatih rangkaian saraf yang besar

Apabila melatih rangkaian saraf yang besar untuk meramal perkataan seterusnya dengan tepat dalam teks yang berbeza di Internet, perkara yang OpenAI lakukan ialah mempelajari Model dunia.

Ini kelihatan seperti kita hanya mempelajari korelasi statistik dalam teks, tetapi sebenarnya, mempelajari korelasi statistik ini boleh memampatkan pengetahuan ini dengan baik. Apa yang dipelajari oleh rangkaian saraf ialah beberapa ungkapan dalam proses menghasilkan teks Teks ini sebenarnya adalah peta dunia, jadi rangkaian saraf boleh mempelajari lebih banyak perspektif untuk melihat manusia dan masyarakat. Inilah yang sebenarnya dipelajari oleh rangkaian saraf dalam tugas meramal perkataan seterusnya dengan tepat.

Pada masa yang sama, lebih tepat ramalan perkataan seterusnya, lebih tinggi tahap pemulihan, dan lebih tinggi resolusi dunia yang diperoleh dalam proses ini. Ini adalah peranan fasa pra-latihan, tetapi ia tidak menjadikan rangkaian saraf berkelakuan seperti yang kita mahukan.

Apa yang sebenarnya cuba dilakukan oleh model bahasa ialah, jika saya mempunyai beberapa teks rawak di internet, bermula dengan beberapa awalan atau pembayang, apakah yang akan melengkapkannya.

Sudah tentu ia juga boleh mencari teks di Internet untuk diisi, tetapi ini bukan yang asalnya dibayangkan, jadi latihan tambahan diperlukan, iaitu penalaan halus, pembelajaran pengukuhan daripada guru manusia, dan bentuk lain Di mana bantuan AI boleh membantu.

Tetapi ini bukan tentang mengajar pengetahuan baru, tetapi tentang berkomunikasi dengannya dan menyampaikan kepadanya apa yang kita inginkan, yang juga merangkumi sempadan. Semakin baik proses ini dilakukan, semakin berguna dan boleh dipercayai rangkaian saraf, dan semakin tinggi kesetiaan sempadannya.

Mari kita bercakap tentang GPT-4 sekali lagi

Tidak lama selepas ChatGPT menjadi aplikasi dengan pengguna yang paling pesat berkembang, GPT-4 telah dikeluarkan secara rasmi.

Apabila bercakap tentang perbezaan antara kedua-duanya, Sutskever berkata bahawa GPT-4 telah mencapai peningkatan yang ketara dalam banyak dimensi berbanding ChatGPT.

Perbezaan paling penting antara ChatGPT dan GPT-4 ialah ia dibina berdasarkan GPT-4 untuk meramalkan watak seterusnya dengan ketepatan yang lebih tinggi. Lebih baik rangkaian saraf boleh meramalkan perkataan seterusnya dalam teks, lebih baik ia boleh memahami teks.

Sebagai contoh, jika anda membaca novel detektif, plotnya sangat kompleks, diselang-seli dengan banyak jalan cerita dan watak, dan terkubur dengan banyak petunjuk misteri. Dalam bab terakhir buku itu, detektif mengumpul semua petunjuk, memanggil semua orang bersama-sama, dan berkata bahawa sekarang dia akan mendedahkan siapa pelakunya, dan orang itu...

Inilah yang GPT-4 boleh meramal.

Orang mengatakan bahawa pembelajaran mendalam tidak boleh menaakul secara logik. Tetapi sama ada contoh ini atau beberapa perkara yang GPT boleh lakukan, ia menunjukkan tahap keupayaan penaakulan tertentu.

Sutskever membalas dengan mengatakan bahawa apabila kami mentakrifkan penaakulan logik, jika anda boleh memikirkannya dengan cara tertentu semasa membuat keputusan seterusnya, anda mungkin boleh mendapat jawapan yang lebih baik. Ia masih dapat dilihat sejauh mana rangkaian saraf boleh pergi, dan OpenAI masih belum memanfaatkan sepenuhnya potensinya.

Sesetengah rangkaian saraf sebenarnya sudah mempunyai keupayaan seperti ini, tetapi kebanyakannya tidak cukup dipercayai. Kebolehpercayaan adalah halangan terbesar untuk menjadikan model ini berguna, dan ia juga merupakan kesesakan utama model semasa. Ia bukan tentang sama ada model itu mempunyai keupayaan khusus, tetapi berapa banyak keupayaan yang dimilikinya.

Sutskever juga berkata bahawa GPT-4 tidak mempunyai fungsi carian terbina dalam apabila ia dikeluarkan Ia hanya alat yang baik yang boleh meramalkan perkataan seterusnya, tetapi boleh dikatakan bahawa ia mempunyai ini sepenuhnya keupayaan dan akan menjadikan carian lebih baik.

Satu lagi peningkatan ketara GPT-4 ialah tindak balas dan pemprosesan imej. Pembelajaran multimodal memainkan peranan penting di dalamnya. Sutskever mengatakan bahawa multimodality mempunyai dua dimensi yang pertama ialah multimodality berguna untuk rangkaian saraf, terutamanya penglihatan, selain itu, pengetahuan tentang dunia juga boleh dipelajari daripada imej.

Masa depan kecerdasan buatan

Mengenai penggunaan AI untuk melatih AI, Sutskever berkata bahawa bahagian data ini tidak boleh diabaikan.

Sukar untuk meramalkan perkembangan model bahasa pada masa hadapan, tetapi pada pandangan Sutskever, terdapat sebab yang kukuh untuk mempercayai bahawa bidang ini akan terus maju, dan AI akan terus mengejutkan manusia dengan kekuatannya di sempadan. daripada keupayaannya. Kebolehpercayaan AI ditentukan oleh sama ada ia boleh dipercayai, dan ia pasti akan mencapai tahap di mana ia boleh dipercayai sepenuhnya pada masa hadapan.

Jika ia tidak memahami sepenuhnya, ia juga akan memikirkannya dengan bertanya soalan, atau memberitahu anda bahawa ia tidak tahu Ini adalah kawasan di mana kebolehgunaan AI mempunyai kesan yang paling besar dan akan melihat yang paling hebat kemajuan pada masa hadapan.

Kini kita berhadapan dengan cabaran sedemikian, anda mahu rangkaian saraf meringkaskan dokumen yang panjang atau mendapatkan ringkasan, bagaimana untuk memastikan butiran penting tidak diabaikan? Jika sesuatu perkara itu jelas cukup penting sehingga setiap pembaca akan bersetuju mengenainya, maka kandungan yang diringkaskan oleh rangkaian saraf boleh diterima sebagai boleh dipercayai.

Perkara yang sama terpakai kepada sama ada rangkaian saraf dengan jelas mengikut niat pengguna.

Kita akan melihat lebih banyak lagi teknologi ini dalam tempoh dua tahun akan datang, menjadikan teknologi ini lebih dipercayai.

Laporan berkaitan:​https://blogs.nvidia.com/blog/2023/03/22/sutskever-openai-gtc/​​

Atas ialah kandungan terperinci Apakah peningkatan yang ada pada GPT-4 berbanding ChatGPT? Jensen Huang mengadakan 'sembang tepi api' dengan pengasas bersama OpenAI. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan
Artikel ini dikembalikan pada:51cto. Jika ada pelanggaran, sila hubungi admin@php.cn Padam
Panduan komprehensif untuk ekstrapolasiPanduan komprehensif untuk ekstrapolasiApr 15, 2025 am 11:38 AM

Pengenalan Katakan ada petani yang setiap hari memerhatikan kemajuan tanaman dalam beberapa minggu. Dia melihat kadar pertumbuhan dan mula merenungkan betapa lebih tinggi tumbuhannya dapat tumbuh dalam beberapa minggu lagi. Dari th

Kebangkitan AI lembut dan apa maksudnya untuk perniagaan hari iniKebangkitan AI lembut dan apa maksudnya untuk perniagaan hari iniApr 15, 2025 am 11:36 AM

Soft AI-yang ditakrifkan sebagai sistem AI yang direka untuk melaksanakan tugas-tugas tertentu yang sempit menggunakan penalaran, pengiktirafan corak, dan pengambilan keputusan yang fleksibel-bertujuan untuk meniru pemikiran seperti manusia dengan merangkul kekaburan. Tetapi apa maksudnya untuk busine

Rangka kerja keselamatan yang berkembang untuk sempadan AIRangka kerja keselamatan yang berkembang untuk sempadan AIApr 15, 2025 am 11:34 AM

Jawapannya jelas-seperti pengkomputeran awan memerlukan peralihan ke arah alat keselamatan awan asli, AI menuntut satu penyelesaian keselamatan baru yang direka khusus untuk keperluan unik AI. Kebangkitan pengkomputeran awan dan pelajaran keselamatan dipelajari Dalam th

3 cara AI Generatif menguatkan usahawan: berhati -hati dengan purata!3 cara AI Generatif menguatkan usahawan: berhati -hati dengan purata!Apr 15, 2025 am 11:33 AM

Usahawan dan menggunakan AI dan Generatif AI untuk menjadikan perniagaan mereka lebih baik. Pada masa yang sama, adalah penting untuk mengingati AI generatif, seperti semua teknologi, adalah penguat - menjadikan yang hebat dan yang biasa -biasa saja, lebih buruk. Kajian 2024 yang ketat o

Kursus Pendek Baru mengenai Model Embedding oleh Andrew NgKursus Pendek Baru mengenai Model Embedding oleh Andrew NgApr 15, 2025 am 11:32 AM

Buka kunci kekuatan model embedding: menyelam jauh ke kursus baru Andrew Ng Bayangkan masa depan di mana mesin memahami dan menjawab soalan anda dengan ketepatan yang sempurna. Ini bukan fiksyen sains; Terima kasih kepada kemajuan dalam AI, ia menjadi R

Adakah halusinasi dalam model bahasa besar (LLMS) tidak dapat dielakkan?Adakah halusinasi dalam model bahasa besar (LLMS) tidak dapat dielakkan?Apr 15, 2025 am 11:31 AM

Model bahasa besar (LLM) dan masalah halusinasi yang tidak dapat dielakkan Anda mungkin menggunakan model AI seperti ChatGPT, Claude, dan Gemini. Ini semua contoh model bahasa besar (LLM), sistem AI yang kuat yang dilatih dalam dataset teks besar -besaran ke

Masalah 60% - Bagaimana carian AI mengalir trafik andaMasalah 60% - Bagaimana carian AI mengalir trafik andaApr 15, 2025 am 11:28 AM

Penyelidikan baru-baru ini telah menunjukkan bahawa gambaran AI boleh menyebabkan penurunan 15-64% dalam trafik organik, berdasarkan jenis industri dan carian. Perubahan radikal ini menyebabkan pemasar untuk menimbang semula keseluruhan strategi mereka mengenai penglihatan digital. Yang baru

Makmal Media MIT untuk meletakkan manusia berkembang di tengah -tengah AI R & DMakmal Media MIT untuk meletakkan manusia berkembang di tengah -tengah AI R & DApr 15, 2025 am 11:26 AM

Laporan baru -baru ini dari Elon University Imagining the Digital Future Centre meninjau hampir 300 pakar teknologi global. Laporan yang dihasilkan, 'Menjadi Manusia pada tahun 2035', menyimpulkan bahawa kebanyakannya bimbang bahawa penggunaan sistem AI yang mendalam lebih daripada t

See all articles

Alat AI Hot

Undresser.AI Undress

Undresser.AI Undress

Apl berkuasa AI untuk mencipta foto bogel yang realistik

AI Clothes Remover

AI Clothes Remover

Alat AI dalam talian untuk mengeluarkan pakaian daripada foto.

Undress AI Tool

Undress AI Tool

Gambar buka pakaian secara percuma

Clothoff.io

Clothoff.io

Penyingkiran pakaian AI

AI Hentai Generator

AI Hentai Generator

Menjana ai hentai secara percuma.

Artikel Panas

R.E.P.O. Kristal tenaga dijelaskan dan apa yang mereka lakukan (kristal kuning)
4 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Tetapan grafik terbaik
4 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Cara Memperbaiki Audio Jika anda tidak dapat mendengar sesiapa
4 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Arahan sembang dan cara menggunakannya
4 minggu yang laluBy尊渡假赌尊渡假赌尊渡假赌

Alat panas

mPDF

mPDF

mPDF ialah perpustakaan PHP yang boleh menjana fail PDF daripada HTML yang dikodkan UTF-8. Pengarang asal, Ian Back, menulis mPDF untuk mengeluarkan fail PDF "dengan cepat" dari tapak webnya dan mengendalikan bahasa yang berbeza. Ia lebih perlahan dan menghasilkan fail yang lebih besar apabila menggunakan fon Unicode daripada skrip asal seperti HTML2FPDF, tetapi menyokong gaya CSS dsb. dan mempunyai banyak peningkatan. Menyokong hampir semua bahasa, termasuk RTL (Arab dan Ibrani) dan CJK (Cina, Jepun dan Korea). Menyokong elemen peringkat blok bersarang (seperti P, DIV),

Muat turun versi mac editor Atom

Muat turun versi mac editor Atom

Editor sumber terbuka yang paling popular

EditPlus versi Cina retak

EditPlus versi Cina retak

Saiz kecil, penyerlahan sintaks, tidak menyokong fungsi gesaan kod

PhpStorm versi Mac

PhpStorm versi Mac

Alat pembangunan bersepadu PHP profesional terkini (2018.2.1).

Versi Mac WebStorm

Versi Mac WebStorm

Alat pembangunan JavaScript yang berguna