首頁 >科技週邊 >人工智慧 >重新表述: 什麼是生成式人工智慧,以及人工智慧的演進過程?

重新表述: 什麼是生成式人工智慧,以及人工智慧的演進過程?

WBOY
WBOY轉載
2023-05-09 17:22:162274瀏覽

生成式人工智慧是使用演算法生成、操作或合成資料的任何自動化過程的總稱,通常以圖像或人類可讀文字的形式出現。之所以稱之為生成,是因為人工智慧創造了以前不存在的東西。這就是它與判別式人工智慧的不同之處,後者會區分不同類型的輸入。換句話說,辨別性人工智慧試圖回答這樣的問題:「這張圖片是一隻兔子還是一隻獅子?」而生成式人工智慧則會回應「給我畫一張獅子和一隻兔子坐在一起的圖片」這樣的提示。

重新表述:

什麼是生成式人工智慧,以及人工智慧的演進過程?

主要介紹生成式AI及其與ChatGPT和DALL-E等流行模型的使用。我們還將考慮這項技術的局限性,包括為什麼「太多的手指」已經成為人工生成藝術的死贈品。

生成式人工智慧的出現

自從1966年麻省理工學院(MIT)開發出模擬與治療師交談的聊天機器人ELIZA以來,生成式人工智慧已經存在多年。但是,隨著新的生成式人工智慧系統的發布,人工智慧和機器學習領域多年的工作最近取得了成果。人們肯定聽過ChatGPT,這是一種基於文字的人工智慧聊天機器人,可以產生非常像人類的散文。 DALL-E和StableDiffusion也因其基於文字提示創建充滿活力和逼真的圖像的能力而引起關注。我們經常將這些系統和其他類似的系統稱為模型,因為它們代表了基於一個子集(有時是一個非常大的子集)的資訊來模擬或建模現實世界的某些方面的嘗試。

這些系統的輸出是如此的不可思議,以至於許多人對意識的本質提出了哲學問題,並擔心生成式人工智慧對人類工作的經濟影響。但是,儘管所有這些人工智慧創造都是不可否認的大新聞,但表面之下的事情可能比一些人想像的要少。我們稍後會討論這些大問題。首先,讓我們看看像ChatGPT和DALL-E這樣的模型下面發生了什麼。

生成式人工智慧是如何運作的?

生成式人工智慧使用機器學習來處理大量的視覺或文字數據,其中大部分是從網路上抓取的,然後確定哪些東西最有可能出現在其他東西附近。生成式人工智慧的大部分程式設計工作都是為了創建演算法,這些演算法可以區分人工智慧創造者感興趣的「事物」——像是像ChatGPT這樣的聊天機器人的單字和句子,或是DALL-E的視覺元素。但從根本上說,生成式人工智慧是透過評估一個龐大的資料語料庫來創造它的輸出的,然後用語料庫確定的機率範圍內的東西來回應提示。

自動補全——當你的手機或Gmail提示你正在輸入的單字或句子的剩餘部分可能是什麼——是一種低階形式的生成式人工智慧。像ChatGPT和DALL-E這樣的模型只是把這個想法帶到了更先進的高度

訓練生成式人工智慧模型

開發模型以適應所有這些資料的過程稱為訓練。對於不同類型的模型,這裡使用了一些基礎技術。 ChatGPT使用所謂的轉換器(T就是這個意思)。轉換器從長文本序列中獲取意義,以理解不同的單字或語義組件之間的關係,然後確定它們彼此接近出現的可能性。這些變形器在一個被稱為預訓練(PinChatGPT)的過程中,在無人監督的情況下在大量自然語言文本的語料庫上運行,然後由人類與模型交互進行微調。

另一種用於訓練模型的技術稱為生成對抗網路(GAN)。在這種技術中,有兩種​​演算法相互競爭。一種是基於從大數據集獲得的機率生成文字或圖像;另一種是判別人工智慧,它經過人類的訓練,可以評估輸出是真實的還是人工智慧生成的。生成式AI會反覆嘗試「欺騙」具有辨別能力的AI,自動適應成功的結果。一旦生成式人工智慧持續「贏得」這場競爭,具有辨別能力的人工智慧就會被人類微調,這個過程就會重新開始。

這裡要記住的最重要的事情之一是,儘管在訓練過程中存在人工幹預,但大多數學習和適應都是自動發生的。為了使模型產生有趣的結果,需要進行許多迭代,因此自動化是必不可少的。這個過程需要大量的計算。

生成式人工智慧有感知能力嗎?

用於創建和訓練生成AI模型的數學和編碼相當複雜,遠遠超出了本文的範圍。但如果你與這個過程的最終結果模型互動,這種體驗肯定是不可思議的。你可以讓戴爾-e生產出看起來像真正的藝術品的東西。您可以與ChatGPT進行對話,就像與另一個人進行對話一樣。研究者真的創造了一台會思考的機器嗎?

Chris Phipps is the former director of natural language processing at IBM and participated in the development of Watson artificial intelligence products. He described ChatGPT as a "very good prediction machine."

It's very good at predicting what humans will find coherent. It's not always coherent (most of the time it is), but that's not because ChatGPT "understands" it. The opposite is true: the people consuming the output are really good at making whatever implicit assumptions we need to make the output meaningful.

Phipps, who is also a comedian, compared it to a common improv game called MindMeld.

Two people each think of a word and then say it out loud at the same time - you can say "boot", I say "tree". We came up with the words completely independently, and initially, they had no relationship to each other. The next two participants take the two words and try to find what they have in common while saying them out loud. The game continues until both participants say the same word.

Maybe both people said "lumberjack". This may seem magical, but it's actually us using the human brain to reason about the input ("boot" and "tree") and find connections. We are in the business of understanding, not machines. There's a lot more going on in ChatGPT and DALL-E than people admit. ChatGPT can write a story, but it takes a lot of work for us humans to make it meaningful.

Testing the Limits of Computer Intelligence

People can give these AI models some hints that will make Phipps' point quite obvious. For example, consider this puzzle: "Which is heavier, a pound of lead or a pound of feathers?" The answer is, of course, that they weigh the same (one pound), even though our instinct or common sense might tell us that feathers are lighter.

ChatGPT will answer this puzzle correctly, and you might think it does so because it's a cold, logical computer with no "common sense" tripping it up. But that's not what happens behind the scenes. ChatGPT does not logically reason out an answer; it simply produces output based on predictions from a question about a pound of feathers and a pound of lead. Because its training set contains a bunch of text explaining the puzzle, it assembles a version of the correct answer. However, if you ask ChatGPT if two pounds of feathers weigh more than one pound of lead, it will confidently tell you that they weigh the same because, based on its training set, this is still the most likely result to output to a prompt about feathers and lead. .

以上是重新表述: 什麼是生成式人工智慧,以及人工智慧的演進過程?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除