Rumah  >  Artikel  >  Peranti teknologi  >  Google StyleDrop mengatasi MidJourney dari segi kebolehkawalan, dan bekas CTO GitHub menggunakan AI untuk menumbangkan pengaturcaraan

Google StyleDrop mengatasi MidJourney dari segi kebolehkawalan, dan bekas CTO GitHub menggunakan AI untuk menumbangkan pengaturcaraan

PHPz
PHPzke hadapan
2023-06-10 21:51:43891semak imbas

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Laporan Mingguan Modal Teroka AI yang dikeluarkan oleh Alpha Commune ialah laporan maklumat mingguan yang memfokuskan pada aliran baharu dalam kecerdasan buatan yang diwakili oleh model bahasa besar dan AI generatif. Alpha Commune berharap untuk menemui dan melabur dalam usahawan luar biasa (AlphaFounders), percaya bahawa usahawan luar biasa merupakan daya penggerak yang besar dalam teknologi, perniagaan dan masyarakat, dan mereka membimbing hala tuju ekosistem modal teroka.

Minggu ini, kami memerhatikan aliran dan aliran baharu berikut dalam bidang AI:

1. Penjanaan visual AI dan pelbagai mod berkembang pesat: Google StyleDrop telah menjadi "model SOTA" baharu dari segi konsistensi dan kebolehkawalan gaya, dan PandaGPT yang dilancarkan oleh Cambridge dan Tencent menyatukan 6 modaliti .

2. Keupayaan pengaturcaraan AI telah menjadi tumpuan kejayaan: Google melancarkan rangka kerja pengaturcaraan DIDACT baharu, pembantu pengaturcaraan Baidu Comate memulakan kerjayanya, dan bekas CTO Github memulakan perniagaan untuk membina parameter trilion model besar dalam bidang pengaturcaraan.

3. Pelbagai kaedah penjajaran baharu ingin menumbangkan RLHF: Pengoptimuman keutamaan langsung (DPO) memudahkan saluran pembelajaran keutamaan, dan Stanford dan Google DeepMind telah membangunkan kaedah penjajaran nilai yang lebih mudah dan berkesan.

4. Penyelidikan kecerdasan buatan baharu menjadikan algoritma pengisihan 70% lebih pantas: AlphaDev Google DeepMind telah meningkatkan kelajuan algoritma pengisihan C++ sebanyak 70% dalam menjalankan trilion kali.

5. Banyak syarikat permulaan cuba menyelesaikan masalah kuasa pengkomputeran AI: Dua pelajar Harvard yang tercicir membina cip khusus untuk inferens model bahasa yang besar, yang meningkatkan prestasi sebanyak 140 kali setiap dolar, menyediakan pengkomputeran awan untuk Generatif AI Capable CoreWeave telah mengumpul sejumlah lebih AS$400 juta dalam pembiayaan dalam tempoh satu bulan.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Penemuan baharu dalam produk dan teknologi kecerdasan buatan

1. Saingan Midjourney ada di sini! "Master Penyesuaian" Google StyleDrop meletupkan bulatan seni AI

StyleDrop terbaharu Google boleh dipanggil saingan Midjourney Ia boleh menyahbina dan menghasilkan semula mana-mana gaya seni yang kompleks melalui gambar rujukan, termasuk karya abstrak, gaya LOGO yang berbeza, dsb., dan "model pra-SOTA" Sebagai perbandingan, StyleDrop cemerlang. dalam ketekalan gaya dan penjajaran teks. Ia menyediakan proses mengecat yang lebih terkawal dan membolehkan kerja halus yang sebelum ini tidak dapat dibayangkan.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

StyleDrop dibina pada Muse, model sintesis teks-ke-imej terkini berdasarkan Transformer imej yang dijana topeng Ia mengandungi dua modul sintesis untuk penjanaan imej asas dan resolusi super, setiap modul mengandungi teks Ia terdiri daripada pengekod T, pengubah G, pensampel S, pengekod imej E dan penyahkod D.

Proses latihan StyleDrop merangkumi dua aspek utama. Yang pertama ialah penalaan halus yang berkesan bagi parameter Dengan memperhalusi parameter Transformer visual yang dijana, ia boleh menjana imej gaya yang serupa pada imej rujukan yang diberikan. Ini diikuti dengan latihan berulang dengan maklum balas Melalui proses latihan berulang, imej yang dihasilkan dioptimumkan secara beransur-ansur untuk meningkatkan konsistensi gaya dan penjajaran teks.

2. AI menulis semula algoritma pengisihan, 70% lebih pantas: AlphaDev Google DeepMind memperbaharui asas pengkomputeran

Dua ayat Google DeepMind Hassabis meletupkan medan komputer: "AlphaDev menemui algoritma pengisihan baharu dan lebih pantas, dan kami telah membuka sumbernya ke dalam perpustakaan C++ utama untuk digunakan oleh pembangun Ini hanyalah peningkatan AI. Permulaan kemajuan dalam kecekapan kod.”

Berdasarkan model AlphaZero, AlphaDev mengubah masalah pengisihan menjadi "permainan pemasangan" pemain tunggal Dengan mencari sejumlah besar kombinasi arahan yang mungkin, ia menemui algoritma pengisihan yang lebih pantas daripada algoritma pengisihan dalam C++ yang dijalankan trilion kali Meningkatkan kelajuan sebanyak 70%. Kertas penyelidikan yang berkaitan telah diterbitkan dalam jurnal saintifik berwibawa Nature Hasil ini kini telah dimasukkan ke dalam perpustakaan C++ standard LLVM Abseil dan merupakan sumber terbuka.

Daniel J. Mankowitz, salah seorang pengarang utama AlphaDev, berkata: Teknologi ini mempunyai kesan penting pada pengaturcaraan dan masyarakat digital, akan menjimatkan masa dan tenaga berbilion orang, serta dijangka mengoptimumkan keseluruhan ekosistem pengkomputeran.

3 Suap mana-mana video dan dapatkan model 3D secara langsung. Karya Cina pertama akan disertakan dalam CVPR 2023

Teknologi yang dipanggil Neularangelo dari Nvidia dan Johns Hopkins University boleh menjana model 3D terperinci secara automatik daripada video biasa. Ia menggunakan pembinaan semula pemaparan saraf berasaskan SDF dan seni bina pengekodan cincang berbilang resolusi untuk menjana struktur 3D tanpa data kedalaman. Pada masa ini, kertas berkaitan telah dipilih untuk CVPR 2023.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Dalam makalah itu, Neularangelo telah diuji menggunakan set data DTU dan Tanks and Temples, dan keputusan menunjukkan bahawa ia berfungsi dengan tepat dalam penjanaan butiran 3D dan pemulihan imej. Berbanding dengan "model pra-SOTA" seperti NeuS dan NeuralWarp, Neularangelo menunjukkan hasil yang sangat baik pada kedua-dua set data DTU dan set data Tanks and Temples.

4. Tambahkan keupayaan audio-visual yang komprehensif pada model bahasa besar, DAMO Academy sumber terbuka Video-LLaMA

Untuk membolehkan model bahasa besar memahami dan berinteraksi dengan kandungan video, penyelidik dari DAMO Academy mencadangkan Video-LLaMA, model berskala besar dengan keupayaan audio-visual. Model ini boleh melihat dan memahami isyarat video dan audio, memahami arahan pengguna dan menyelesaikan tugas yang kompleks seperti penerangan audio dan video serta soal jawab.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Walau bagaimanapun, model ini masih mempunyai had seperti keupayaan persepsi yang terhad, kesukaran memproses video panjang dan halusinasi yang wujud dalam model bahasa. DAMO Academy berkata ia sedang membina set data teks audio-video berkualiti tinggi untuk meningkatkan keupayaan persepsi.

5 Cambridge, Tencent AI Lab dan lain-lain mencadangkan model PandaGPT: satu model menyatukan enam modaliti

Baru-baru ini, penyelidik dari Cambridge, NAIST dan Tencent AI Lab melancarkan model bahasa silang mod yang dipanggil PandaGPT. PandaGPT menggabungkan keupayaan penjajaran modal ImageBind dan keupayaan penjanaan Vicuna untuk mencapai pemahaman arahan dan keupayaan mengikut dalam enam modaliti. Model ini menunjukkan keupayaan untuk memahami modaliti yang berbeza, termasuk Soal Jawab berasaskan imej/video, penulisan kreatif dan penaakulan visual-auditori. Model ini boleh memproses imej, video, teks, audio, peta haba, peta kedalaman dan data IMU dan secara semula jadi menggabungkan semantik mereka.

6 Universiti Kebangsaan Singapura mengeluarkan Kambing, yang secara matematik membunuh GPT-4 dengan hanya 7 bilion parameter

Penyelidik dari Universiti Nasional Singapura membangunkan Kambing, model khusus untuk aritmetik dengan memperhalusi model LLaMA, dengan saiz parameter 7 bilion, yang jauh lebih baik daripada GPT-4 dari segi keupayaan aritmetik. Kambing berprestasi cemerlang pada subtugas aritmetik BIG-bench, dengan ketepatan melebihi Bloom, OPT, GPT-NeoX, dsb. Antaranya, ketepatan yang dicapai oleh sampel sifar Kambing-7B malah melebihi PaLM-540 selepas pembelajaran beberapa sampel.

Kambing mencapai ketepatan yang hampir sempurna pada operasi penambahan dan penolakan nombor besar dengan menala halus pada set data aritmetik sintetik, mengatasi model bahasa pra-latihan yang lain. Untuk tugasan pendaraban dan pembahagian yang lebih mencabar, para penyelidik mencadangkan kaedah pengelasan dan penguraian tugasan untuk meningkatkan prestasi aritmetik dengan menguraikannya kepada subtugasan yang boleh dipelajari. Penyelidikan ini menyediakan penerokaan dan inspirasi yang berguna untuk kemajuan model bahasa pada tugasan aritmetik.

7. iFlytek Spark Cognitive Large Model V1.5 dikeluarkan, dengan pelbagai pusingan dialog dan kebolehan matematik dinaik taraf

Pada 9 Jun, iFlytek Spark Cognitive Large Model V1.5 telah dikeluarkan. Versi ini telah membuat penemuan dalam soal jawab terbuka, dengan pelbagai pusingan dialog dan kebolehan matematik dinaik taraf, serta penjanaan teks, pemahaman bahasa dan kebolehan penaakulan logik. Selain itu, iFlytek juga akan membawa "Model Kognitif Spark" ke terminal mudah alih dan mengeluarkan APP Sparknya.

Mengikut rancangan, iFlytek akan menjalankan tiga pusingan peningkatan berulang tahun ini, dengan matlamat untuk menanda aras ChatGPT pada 24 Oktober. Sebagai tambahan kepada 9 Jun, nod naik taraf seterusnya ialah 15 Ogos, yang terutamanya untuk meningkatkan keupayaan kod dan interaksi berbilang modal.

8. Rangka kerja kejuruteraan perisian AI+ awam Google DIDACT: ujian dalaman oleh ribuan pembangun

Google baru-baru ini mengumumkan rangka kerja yang dipanggil DIDACT, yang menggunakan teknologi AI untuk meningkatkan kejuruteraan perisian dan membantu pembangun menulis dan mengubah suai kod dalam masa nyata.

Model rangka kerja DIDACT bersifat multi-modal dan boleh meramalkan operasi penyuntingan seterusnya berdasarkan operasi sejarah pembangun. Keupayaan ini membolehkan model memahami dengan lebih baik niat pembangun dan memberikan pengesyoran yang tepat. Model ini juga boleh menyelesaikan tugas yang lebih kompleks, seperti bermula dari fail kosong dan terus meramalkan operasi edit seterusnya sehingga fail kod lengkap dijana.

Alat DIDACT termasuk penghuraian anotasi, pembetulan binaan dan ramalan pembayang, setiap satu disepadukan pada peringkat aliran kerja pembangunan yang berbeza. Rekod interaksi alat ini dengan pembangun digunakan sebagai data latihan untuk membantu model meramalkan tindakan pembangun semasa tugasan kejuruteraan perisian.

9 Baidu melancarkan Comate, pembantu penulisan kod berdasarkan model besar, yang meningkatkan keupayaan penaakulan model berprestasi tinggi Wen Xinyiyan sebanyak 50 kali

Baru-baru ini, Baidu Smart Cloud melancarkan alat pengesyoran pintar pengekodan Comate dan membuka ujian jemputan secara rasmi. Comate adalah serupa dengan pembantu penulisan kod seperti GitHub Copilot, tetapi menggunakan lebih banyak ulasan bahasa Cina dan dokumen pembangunan sebagai data latihan. Semasa proses pengekodan, Comate boleh membuat alasan tentang kemungkinan pilihan input seterusnya berdasarkan perkara yang sedang ditulis oleh pembangun. Menurut Baidu, keupayaan Comate telah mula-mula disepadukan ke dalam semua barisan perniagaan Baidu dan telah mencapai keputusan yang baik: 50% daripada kod dalam jabatan R&D teras boleh dijana melalui Comate.

Selain itu, Baidu menyatakan bahawa prestasi penaakulan Wen Xinyiyan telah meningkat sebanyak 10 kali ganda. Pada masa yang sama, berdasarkan rangkaian alat lengkap yang disediakan oleh platform model besar Wenxin Qianfan, dalam senario frekuensi tinggi dan teras aplikasi perusahaan, mod prestasi tinggi Wenxinyiyan "Wenxinyiyan-Turbo" telah meningkatkan prestasi perkhidmatan inferens sebanyak 50 kali.

10. Pengklonan pemikiran! Bekas penyelidik OpenAI membenarkan AI meniru pemikiran manusia

Kajian yang diketuai oleh Jeff Clune, bekas ahli kanan pasukan penyelidikan OpenAI, mendapati bahawa prestasi dan keselamatan ejen kecerdasan buatan boleh dipertingkatkan dengan membiarkan mereka meniru pemikiran dan tindakan manusia. Penyelidikan menggunakan set data pemikiran yang dituturkan oleh manusia semasa mereka bertindak, membolehkan ejen mempelajari keupayaan untuk berfikir dan menggabungkannya dengan tingkah laku yang dimodelkan. Pendekatan ini, yang dikenali sebagai "pengklonan pemikiran," melibatkan komponen peringkat atas yang menjana idea dan komponen peringkat bawah yang melaksanakan tindakan.

Para penyelidik menggunakan berjuta-juta jam data pemikiran yang dikumpul daripada video YouTube dan rakaman teks untuk latihan. Keputusan eksperimen menunjukkan bahawa kaedah "pengklonan pemikiran" mengatasi kaedah pengklonan tingkah laku tradisional dan berprestasi lebih baik dalam tugas di luar pengedaran. Penyelidikan ini mempunyai kepentingan yang besar kepada pembangunan kecerdasan buatan, meningkatkan tahap kecerdasan dan keselamatan ejen dan menjadikannya lebih mudah untuk difahami dan dikawal.

11 Proses inferens sangat dioptimumkan, dan perpustakaan inferens Transformer berprestasi tinggi Byte memenangi Anugerah Kertas Terbaik IPDPS 2023

Kertas kerja "ByteTransformer: A High-Performance Transformer Boosted for Variable-Length" yang diterbitkan oleh ByteDance, NVIDIA dan University of California, Riverside memenangi kertas kerja terbaik dalam IPDPS 2023.

ByteTransformer ialah perpustakaan inferens Transformer berasaskan GPU yang dibangunkan oleh ByteDance. ByteTransformer ialah pelaksanaan Transformer yang cekap yang mencapai prestasi tinggi pada transformer BERT melalui satu siri kaedah pengoptimuman. Untuk input teks dengan panjang berubah-ubah, berbanding dengan pelaksanaan Transformer yang lain, ByteTransformer boleh mencapai purata pecutan lebih daripada 50% dalam eksperimen Ia sesuai untuk mempercepatkan tugas pemprosesan bahasa semula jadi dan meningkatkan kecekapan latihan dan inferens model.

12. Adakah "RL" dalam RLHF perlu? Gunakan entropi silang binari untuk memperhalusi LLM secara langsung, kesannya lebih baik

RLHF (Pembelajaran Pengukuhan dengan Maklum Balas Manusia) pada masa ini merupakan kaedah yang popular untuk menjajarkan model besar dengan manusia Ia memberikan model keupayaan dialog dan pengekodan yang mengagumkan, tetapi saluran paip RLHF jauh lebih kompleks daripada pembelajaran diselia dan melibatkan lebih banyak latihan model dan sampel daripada dasar model bahasa dalam gelung latihan, mengakibatkan kos pengiraan yang besar.

Baru-baru ini, Universiti Stanford dan institusi lain telah mencadangkan satu penyelidikan yang dipanggil Pengoptimuman Keutamaan Langsung (DPO) Penyelidikan menunjukkan bahawa objektif berasaskan RL yang digunakan oleh kaedah sedia ada boleh dioptimumkan dengan tepat dengan objektif rentas entropi binari yang mudah, dengan itu memudahkan. pembelajaran keutamaan. Iaitu, adalah mustahil untuk mengoptimumkan model bahasa secara langsung untuk mematuhi keutamaan manusia tanpa memerlukan model ganjaran yang jelas atau pembelajaran pengukuhan.

13 Gunakan data permainan sosial untuk melatih model penjajaran sosial, setanding dengan RLHF

Langkah penting dalam pembangunan model bahasa ialah menjadikan tingkah laku mereka selaras dengan nilai sosial manusia, juga dikenali sebagai penjajaran nilai. Kaedah arus perdana semasa ialah RLHF.

Walau bagaimanapun, terdapat beberapa masalah dengan pendekatan ini. Pertama, ganjaran yang dijana oleh model ejen mudah digodam, membawa kepada respons yang tidak memenuhi jangkaan. Kedua, model ejen dan model generatif perlu berinteraksi secara berterusan, menjadikan proses latihan memakan masa dan tidak cekap. Ketiga, model ganjaran itu sendiri tidak betul-betul sesuai dengan model pemikiran manusia.

Kajian terbaru dari Dartmouth, Stanford, Google DeepMind dan institusi lain menunjukkan bahawa menggunakan permainan sosial untuk membina data berkualiti tinggi digabungkan dengan algoritma penjajaran yang mudah dan cekap mungkin menjadi kunci untuk mencapai penjajaran nilai. Para penyelidik mencadangkan kaedah untuk latihan penjajaran pada data permainan berbilang agen. Mereka membangunkan model sosial maya yang dipanggil Sandbox, di mana individu sosial membuat kesan yang baik dengan bertindak balas terhadap norma sosial. Dengan belajar daripada data sejarah kotak pasir, mereka mencadangkan algoritma penjajaran yang stabil. Model terlatih penjajaran yang disahkan secara eksperimen dapat menghasilkan respons normatif sosial dengan lebih cepat. Algoritma penjajaran stabil adalah setanding dengan RLHF dari segi prestasi dan kestabilan latihan, dan mencadangkan kaedah penjajaran nilai yang lebih mudah dan berkesan.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Pembiayaan baharu untuk pemula AI

1 Poolside, yang diasaskan oleh bekas CTO GitHub, menerima AS$26 juta dalam pembiayaan pusingan benih

Baru-baru ini, Poolside menerima AS$26 juta dalam bentuk pembiayaan pusingan benih yang diketuai oleh Redpoint Ventures Matlamat Poolside adalah untuk melepaskan potensi manusia dengan mengejar AGI (Kecerdasan Am Buatan) yang dicipta oleh perisian dan berdasarkan konsep asas: ke arah manusia. Laluan ke peralihan AGI harus dicapai dengan membina keupayaan khusus dan bukannya kaedah umum.

Jason Warner, pengasas Poolside, sebelum ini berkhidmat sebagai pengarah urusan Redpoint Ventures dan sebelum ini berkhidmat sebagai CTO GitHub Pasukannya bertanggungjawab membangunkan GitHub Copilot. Beliau mengasaskan Poolside bersama usahawan bersiri Eiso Kant, secara langsung menyasarkan OpenAI.

Poolside sedang membina model dan infrastruktur asas generasi seterusnya yang berkuasa Ia mungkin model trilion parameter yang tertumpu pada perisian dan kod Menggunakan keupayaan model ini, artis, doktor, saintis dan pendidik boleh menjadi hebat Dengan halangan yang rendah. untuk kemasukan untuk membina perisian dan produk 1,000 kali lebih cepat daripada hari ini, mencipta perisian akan menjadi boleh dilaksanakan dan boleh didapati di mana-mana untuk semua orang.

2. UpdateAI, platform kejayaan pelanggan dikuasakan AI, menerima pelaburan awal $2.3 juta daripada IdealabX, Zoom Ventures dan a16z

UpdateAI ialah penyedia platform kejayaan pelanggan yang baru-baru ini menerima pembiayaan AS$2.3 juta yang diketuai oleh IdealabX.

UpdateAI memudahkan kerja panggilan pelanggan yang membosankan, membolehkan pengurus kejayaan pelanggan menumpukan pada menyampaikan cerapan pelanggan berskala. Platform ini disepadukan dengan Zoom Meetings dan memanfaatkan ChatGPT untuk menjana ringkasan mesyuarat pintar yang memberikan gambaran keseluruhan mesyuarat yang ringkas dan mengautomasikan tugas selepas panggilan seperti menghantar e-mel susulan kepada pelanggan.

Pengasas bersama UpdateAI dan Ketua Pegawai Eksekutif Josh Schachter ialah pengasas bersiri dengan latar belakang bercampur-campur Sebelum mengasaskan UpdateAI, beliau bukan sahaja mempunyai dua pengalaman keusahawanan dan pelbagai pengalaman profesional sebagai pengurus produk di syarikat besar, tetapi juga berkhidmat sebagai pengarah di. Boston Consulting Group Mempunyai pemahaman yang mendalam tentang keperluan perniagaan.

UpdateAI menerima pembiayaan sebanyak AS$2.3 juta ini diterajui oleh IdealabX, dengan penyertaan daripada Zoom Ventures dan a16z. UpdateAI sebelum ini telah menerima $1.7 juta dalam bentuk pembiayaan, dan pusingan ini menjadikan jumlah pembiayaannya kepada $4 juta.

3. CoreWeave, yang menumpukan pada menyediakan keupayaan pengkomputeran awan untuk AI generatif, menerima pembiayaan strategik AS$200 juta lagi dalam masa sebulan

CoreWeave ialah syarikat permulaan yang memfokuskan pada pengkomputeran awan AI Pelaburnya, Magnetar Capital telah menerajui pembiayaan strategiknya sebanyak AS$200 juta selepas sebelum ini menerajui pembiayaan Siri B sebanyak AS$221 juta.

CoreWeave menawarkan lebih daripada sedozen SKU perkhidmatan awan NVIDIA GPU, termasuk H100, A100, A40 dan RTX A6000, sesuai untuk pelbagai kes penggunaan seperti kecerdasan buatan dan pembelajaran mesin, kesan visual dan pemaparan, pemprosesan kelompok dan penstriman piksel.

CoreWeave diasaskan oleh Intrator, Brian Venturo, dan Brannin McBee, yang pada mulanya menumpukan pada aplikasi mata wang kripto dan sejak itu beralih kepada pengkomputeran am dan teknologi AI generatif seperti model AI penjanaan teks.

Dalam pembiayaan Siri B $221 juta CoreWeave sebelum ini, sebagai tambahan kepada pelabur utama Magnetar Capital, terdapat juga pelabur seperti NVIDIA, bekas Ketua Pegawai Eksekutif GitHub Nat Friedman dan bekas eksekutif Apple Daniel Gross.

4. Enjin automasi aliran kerja 8Flow.ai menerima AS$6.6 juta dalam pembiayaan pusingan benih

Baru-baru ini, 8Flow.ai menerima AS$6.6 juta dalam bentuk pembiayaan pusingan benih yang diketuai oleh Institusi Berkafein seperti BoxGroup, Liquid2, dan pelabur individu seperti bekas CEO GitHub Nat Friedman dan Howie Liu turut mengambil bahagian.

Syarikat itu melancarkan enjin automasi aliran kerja pembelajaran kendiri untuk perusahaan yang menyepadukan dengan alatan seperti Zendesk, ServiceNow dan Salesforce Service Cloud untuk membantu ejen menyelesaikan tugas harian. Pada masa hadapan, syarikat merancang untuk menggunakan semua data ini untuk melatih model pembelajaran mesin untuk menjana aliran kerja AI yang disesuaikan dengan keperluan setiap pengguna.

Produk 8Flow.ai kini wujud dalam bentuk sambungan penyemak imbas Chrome yang boleh menyalin dan menampal data yang berkaitan secara automatik dari satu program ke program yang lain. Alat ini secara automatik mempelajari langkah biasa untuk setiap ejen dan menjadikannya tindakan yang boleh dicetuskan dengan satu klik.

Boaz Hecht, pengasas 8Flow.ai, ialah pengasas bersama dan Ketua Pegawai Eksekutif SkyGiraffe, dan kemudiannya berkhidmat sebagai naib presiden platform ServiceNow, yang bertanggungjawab untuk produk chatbot mudah alih dan kecerdasan buatan.

5 Hyro, platform kecerdasan buatan perbualan dalam bidang perubatan, menerima AS$20 juta dalam pembiayaan Siri B yang diketuai oleh Macquarie Capital

Baru-baru ini, Hyro, platform kecerdasan buatan perbualan dalam bidang perubatan, menerima AS$20 juta dalam pembiayaan Siri B yang diketuai oleh Macquarie Capital.

Hyro diasaskan bersama oleh dua alumni Universiti Cornell, Israel Krush dan Rom Cohen Israel Krush ialah usahawan bersiri dengan pengalaman industri yang kaya.

Hyro menggunakan pemprosesan bahasa semula jadi yang unik dan teknologi graf pengetahuan untuk membina antara muka sembang dalaman plug-and-play untuk sistem perubatan untuk menampung 85% tugas harian di jabatan perubatan am. Hyro boleh melakukan kerja penyelenggaraan pelanggan tanpa data latihan dan mengemas kini maklumat dalaman dalam masa nyata. Pembantu AI terbina dalam platform boleh memadankan aliran kerja asal jabatan perubatan untuk membantu mereka memusatkan komunikasi, menambah baik perkhidmatan dan mengurangkan kos operasi.

Dilaporkan bahawa ARR Hyro telah meningkat lebih daripada 100% tahun ke tahun, dan pelanggan utama termasuk Mercy Health, Baptist Health, Intermountain Healthcare, dll.

6 Predibase, platform pembelajaran mesin kod rendah komersial, menyelesaikan pembiayaan Siri A sebanyak AS$12.2 juta

Predibase ialah platform pembelajaran mesin kod rendah komersial untuk pembangun. Ia membantu pengguna tanpa kemahiran pembelajaran mesin dengan cepat dan mudah membina, mengulang dan menggunakan aplikasi AI yang kompleks. Baru-baru ini, Predibase menerima $12.2 juta dalam pembiayaan Siri A yang diketuai oleh Felicis.

Menggunakan platform Predibase, pengguna yang tidak mempunyai kemahiran pembelajaran mesin boleh membina, mengulang dan menggunakan aplikasi AI yang kompleks dengan cepat dan mudah. Pengguna hanya perlu mentakrifkan kandungan yang diperlukan melalui model AI platform itu sendiri, dan operasi selebihnya diselesaikan secara automatik oleh platform. Pengguna baru boleh memilih seni bina model yang disyorkan, dan pengguna pakar boleh memperhalusi semua parameter model mengikut keperluan mereka sendiri, dengan sangat memendekkan masa penggunaan asal aplikasi AI.

Pengasas dan Ketua Pegawai Eksekutif Predibase Piero Molino mempunyai latar belakang di persimpangan industri dan akademik Beliau mempunyai pengalaman profesional di IBM dan Uber, dan juga pernah bekerja sebagai saintis penyelidikan di Universiti Stanford.

7. Beehive AI, platform analisis AI data pelanggan tidak berstruktur, menerima AS$5.1 juta dalam pembiayaan pusingan benih

Beehive AI ialah platform AI pertama di dunia yang direka khusus untuk menganalisis data pelanggan tidak berstruktur Ia baru-baru ini menerima pembiayaan pusingan benih AS$5.1 juta yang diketuai oleh Valley Capital Partners.

AI Beehive ialah platform AI perusahaan yang menyeluruh dan boleh disesuaikan untuk penyelidikan pengguna dengan ketepatan, perkaitan dan skala yang belum pernah terjadi sebelumnya. Dengan menganalisis data terbuka tidak berstruktur, digabungkan dengan data kuantitatif, Beehive AI membantu syarikat mengeluarkan cerapan baharu, membantu mereka memahami dan melayani pelanggan mereka dengan lebih baik.

Platform ini membolehkan pelanggan memuat naik data sedia ada mereka yang dikumpul pada mana-mana platform atau melancarkan tinjauan direka bentuk AI yang menanyakan soalan terbuka untuk mendapatkan maklum balas yang kaya dan bernuansa daripada pelanggan. Ia kemudian melakukan analisis tersuai pada data dan membolehkan pelanggan meneroka cerapan menggunakan papan pemuka boleh atur cara intuitif.

8. Etched.ai, reka bentuk cip dan pembangun khusus untuk inferens model bahasa besar, menerima AS$5.36 juta dalam pembiayaan pusingan benih

Etched.ai ialah pereka bentuk dan pembangun cip khusus untuk penaakulan model bahasa yang besar. Baru-baru ini, ia menerima pusingan awal pembiayaan AS$5.36 juta yang diketuai oleh Primary Venture Partners, dengan penyertaan daripada bekas Ketua Pegawai Eksekutif Ebay Devin Wenig dan lain-lain penilaian semasa syarikat itu adalah kira-kira AS$34 juta.

Etched.ai, yang diasaskan oleh Harvard yang tercicir, Gavin Uberti dan Chris Zhu, telah mereka bentuk cip berkuasa rendah yang lebih profesional untuk menjalankan model AI generatif. Mereka berharap untuk memperkenalkan cipnya ke pasaran pada suku ketiga 2024 , dan merancang untuk menjual kepada penyedia perkhidmatan awan utama.

Pengasas Etched.ai berkata simulasi menunjukkan cip mereka menawarkan peningkatan 140x ganda dalam prestasi setiap dolar berbanding GPU tradisional.

9 Menggunakan kecerdasan buatan untuk meningkatkan keberkesanan kos pengkomputeran awan, Antimetal menerima AS$4.3 juta dalam pembiayaan pusingan benih

Baru-baru ini, Antimetal, yang komited untuk membangunkan teknologi AI untuk meningkatkan keberkesanan kos pengkomputeran awan, menyelesaikan pusingan awal pembiayaan AS$4.3 juta yang diketuai oleh Framework Ventures.

Antimetal menggunakan model pembelajaran mesin proprietari untuk mengoptimumkan penggunaan pengkomputeran awan, memasuki perkhidmatan pengkomputeran awan AWS paling arus perdana dan akan berkembang ke platform pengkomputeran awan lain seperti Google dan Microsoft pada masa hadapan.

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Syarikat membangunkan algoritma dalam talian, menggunakan kecerdasan buatan untuk mengkaji dinamik pasaran, dan kemudian menyepadukan, menjadualkan dan menjual semula sumber pengkomputeran awan ini. Ia mengambil masa purata 90 hari untuk perniagaan menjual sumber AWS terbiar ini, tetapi dengan Antimetal, perjanjian itu diselesaikan kira-kira tiga kali lebih cepat.

Matthew Parkhurst, pengasas dan CEO syarikat, bekerja dalam syarikat SaaS untuk masa yang lama sebelum memulakan perniagaannya sendiri dan mempunyai pengalaman industri lebih daripada 7 tahun.

10. Pemula pengimejan perubatan AI Hypervision Surgical menerima £6.5 juta dalam pembiayaan pusingan benih

Hypervision Surgical baru-baru ini menerima £6.5 juta dalam bentuk pembiayaan pusingan benih daripada HERAN Partners, Redalpine dan ZEISS Ventures.

Hypervision Surgical ialah spin-out dari King's College London, yang diasaskan oleh pasukan doktor, pengimejan perubatan dan pakar kecerdasan buatan. Matlamatnya adalah untuk melengkapkan doktor dengan analisis tisu berbantukan komputer lanjutan untuk meningkatkan ketepatan pembedahan dan keselamatan pesakit, mengurangkan morbiditi pesakit dan kos penjagaan kesihatan dalam kepakaran pembedahan.

Pada masa ini, syarikat sedang membangunkan pengimejan perubatan untuk prosedur pembedahan dengan menggabungkan pengimejan hiperspektral AI dan pengkomputeran tepi. Dengan teknologi ini, pakar bedah boleh bergantung pada ukuran yang tepat dan maklumat harta tisu untuk membezakan antara tisu yang sihat dan tidak sihat semasa pembedahan onkologi yang kompleks.

Martin Frost, ahli teras pasukan syarikat, ialah pengasas dan bekas CEO CMR Surgical, sebuah syarikat robot pembedahan. Ketua Pegawai Eksekutif Syarikat Michael Ebner lulus dari King's College London dan dipilih ke Royal Academy of Engineering.

Artikel ini telah disusun oleh Alpha Commune daripada pelbagai sumber maklumat dan ditulis dengan bantuan ChatGPT.

Mengenai Alpha Commune

谷歌StyleDrop在可控性上卷翻MidJourney,前GitHub CTO用AI颠覆编程

Atas ialah kandungan terperinci Google StyleDrop mengatasi MidJourney dari segi kebolehkawalan, dan bekas CTO GitHub menggunakan AI untuk menumbangkan pengaturcaraan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:sohu.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam