搜尋
首頁科技週邊人工智慧只要模型夠大、樣本夠多,AI就可以變得更聰明!
只要模型夠大、樣本夠多,AI就可以變得更聰明!Apr 29, 2023 pm 03:25 PM
程式設計語言模型

AI模型與人腦在數學機制上並沒有什麼不同。

只要模型夠大、樣本夠多,AI就可以變得更聰明!

chatGPT的出現,其實已經證明了這一點。

1,AI和人腦的底層細節都是基於if else語句

邏輯運算,是產生智慧的基礎運算。

程式語言的基本邏輯是if else,它會根據條件運算式把程式碼分成兩個分支。

在這個基礎上,程式設計師可以寫出非常複雜的程式碼,實現各種各樣的業務邏輯。

人腦的基本邏輯也是if else,if else這兩個字就來自英語,對應的中文詞彙是如果...否則...

人腦在思考問題時也是這麼一個邏輯思路,這點上跟電腦沒有差別。

只要模型夠大、樣本夠多,AI就可以變得更聰明!

if else語句,邏輯的核心

#AI模型的「if else語句」就是啟動函數!

AI模型的一個運算節點,我們也可以叫它「神經元」。

它有一個輸入向量X,一個權值矩陣W,一個偏移向量b,還有一個激活函數。

激活函數的作用實際上就是if else語句,而WX b這個線性運算就是條件式。

在啟動之後,AI模型的程式碼相當於在 if分支,而不啟動時相當於執行在else分支。

多層神經網路的不同活化狀態,其實也是對樣本資訊的二元編碼。

只要模型夠大、樣本夠多,AI就可以變得更聰明!

深度學習也是對樣本資訊的二進位編碼

AI模型對樣本資訊的編碼是動態的、平行的,而不是和CPU程式碼一樣是靜態的、串列的,但它們的底層基礎都是if else。

在電路層面要實現if else並不難,一個三極管就可以實現。

2,人腦比電腦聰明,是因為人類獲得的資訊更多

人腦每時每刻都在獲取外界的信息,每時每刻都在更新自己的“樣本資料庫”,但程式碼無法自我更新,這是很多人能做到的事而電腦做不到的原因。

人腦的程式碼是活的,電腦的程式碼是死的。

「死程式碼」當然不可能比「活碼」更聰明,因為「活碼」可以主動找「死碼」的BUG。

而根據實數的連續性,只要「死代碼」編碼的資訊是可數的,那麼它就總存在編碼不到的BUG點。

這在數學上可以用康托三分集來佐證。

不管我們用多少位的三進位小數去編碼[0, 1]區間上的實數,總有至少1個點是沒法編碼進去的。

所以當兩個人抬槓的時候,總是能找到可抬槓的點

但是電腦的程式碼一旦寫好就沒辦法主動更新了,所以程式設計師可以想出各種辦法欺騙CPU。

例如,intel的CPU本來要求在進程切換時要切換任務門的,但Linux就想出了一個辦法只切換頁目錄和RSP寄存器

在intel CPU看來,Linux系統一直在運行同一個進程,但實際上不是。這就是所謂的進程軟切換。

所以,只要CPU的電路固定了,那麼CPU編碼的資訊也就固定了。

CPU編碼的資訊固定了,那麼它編碼不到的資訊就是無限的,就是可以被程式設計師利用的。

而程式設計師之所以可以利用這種訊息,是因為程式設計師的大腦是活的,可以動態的更新樣本。

3,神經網路的出現改變了這種情況

神經網路真是一個偉大的發明,它在固定的電路上實現了動態的資訊更新。

所有寫好的程式能處理的資訊都是固定的,包括CPU電路,也包含各種系統的程式碼。

但神經網路不是這樣,它的程式碼雖然是寫好的,但它只需要更新權值數據,就可以改變模型的邏輯脈絡。

實際上只要不斷地輸入新樣本,AI模型就可以不斷地用BP演算法(梯度下降演算法)更新權值數據,從而適應新的業務場景。

AI模型的更新不需要修改程式碼,而只需要修改數據,所以同樣的CNN模型用不同的樣本訓練,它就可以辨識不同的物體。

在這個過程中,不管是tensorflow框架的程式碼,或是AI模型的網路結構都是不變的,變的是每個節點的權值資料。

理論上來說,只要AI模型可以透過網路抓取數據,它就可以變得更聰明。

這跟人們透過瀏覽器看東西(從而變得更聰明),有本質的區別嗎?好像也沒有。

4,只要模型夠大、樣本夠多,或許ChatGPT真可以挑戰人腦

人腦有150億個神經元,而且人的眼睛和耳朵每時每刻都在給它新的數據,AI模型當然也可以做到這一點。

或許比起AI來,人類的優勢在於「產業鏈」更短

一個嬰兒的出生只需要Ta父母,但一個AI模型的誕生顯然不是一兩個程序員可以做到的。

光是GPU的製造業就不只幾萬人。

GPU上的CUDA程式並不難寫,但GPU製造的產業鏈太長了,遠不如人類的出生和成長。

這或許是AI相對於人的真正劣勢。

以上是只要模型夠大、樣本夠多,AI就可以變得更聰明!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
从VAE到扩散模型:一文解读以文生图新范式从VAE到扩散模型:一文解读以文生图新范式Apr 08, 2023 pm 08:41 PM

1 前言在发布DALL·E的15个月后,OpenAI在今年春天带了续作DALL·E 2,以其更加惊艳的效果和丰富的可玩性迅速占领了各大AI社区的头条。近年来,随着生成对抗网络(GAN)、变分自编码器(VAE)、扩散模型(Diffusion models)的出现,深度学习已向世人展现其强大的图像生成能力;加上GPT-3、BERT等NLP模型的成功,人类正逐步打破文本和图像的信息界限。在DALL·E 2中,只需输入简单的文本(prompt),它就可以生成多张1024*1024的高清图像。这些图像甚至

普林斯顿陈丹琦:如何让「大模型」变小普林斯顿陈丹琦:如何让「大模型」变小Apr 08, 2023 pm 04:01 PM

“Making large models smaller”这是很多语言模型研究人员的学术追求,针对大模型昂贵的环境和训练成本,陈丹琦在智源大会青源学术年会上做了题为“Making large models smaller”的特邀报告。报告中重点提及了基于记忆增强的TRIME算法和基于粗细粒度联合剪枝和逐层蒸馏的CofiPruning算法。前者能够在不改变模型结构的基础上兼顾语言模型困惑度和检索速度方面的优势;而后者可以在保证下游任务准确度的同时实现更快的处理速度,具有更小的模型结构。陈丹琦 普

找不到中文语音预训练模型?中文版 Wav2vec 2.0和HuBERT来了找不到中文语音预训练模型?中文版 Wav2vec 2.0和HuBERT来了Apr 08, 2023 pm 06:21 PM

Wav2vec 2.0 [1],HuBERT [2] 和 WavLM [3] 等语音预训练模型,通过在多达上万小时的无标注语音数据(如 Libri-light )上的自监督学习,显著提升了自动语音识别(Automatic Speech Recognition, ASR),语音合成(Text-to-speech, TTS)和语音转换(Voice Conversation,VC)等语音下游任务的性能。然而这些模型都没有公开的中文版本,不便于应用在中文语音研究场景。 WenetSpeech [4] 是

解锁CNN和Transformer正确结合方法,字节跳动提出有效的下一代视觉Transformer解锁CNN和Transformer正确结合方法,字节跳动提出有效的下一代视觉TransformerApr 09, 2023 pm 02:01 PM

由于复杂的注意力机制和模型设计,大多数现有的视觉 Transformer(ViT)在现实的工业部署场景中不能像卷积神经网络(CNN)那样高效地执行。这就带来了一个问题:视觉神经网络能否像 CNN 一样快速推断并像 ViT 一样强大?近期一些工作试图设计 CNN-Transformer 混合架构来解决这个问题,但这些工作的整体性能远不能令人满意。基于此,来自字节跳动的研究者提出了一种能在现实工业场景中有效部署的下一代视觉 Transformer——Next-ViT。从延迟 / 准确性权衡的角度看,

Stable Diffusion XL 现已推出—有什么新功能,你知道吗?Stable Diffusion XL 现已推出—有什么新功能,你知道吗?Apr 07, 2023 pm 11:21 PM

3月27号,Stability AI的创始人兼首席执行官Emad Mostaque在一条推文中宣布,Stable Diffusion XL 现已可用于公开测试。以下是一些事项:“XL”不是这个新的AI模型的官方名称。一旦发布稳定性AI公司的官方公告,名称将会更改。与先前版本相比,图像质量有所提高与先前版本相比,图像生成速度大大加快。示例图像让我们看看新旧AI模型在结果上的差异。Prompt: Luxury sports car with aerodynamic curves, shot in a

五年后AI所需算力超100万倍!十二家机构联合发表88页长文:「智能计算」是解药五年后AI所需算力超100万倍!十二家机构联合发表88页长文:「智能计算」是解药Apr 09, 2023 pm 07:01 PM

人工智能就是一个「拼财力」的行业,如果没有高性能计算设备,别说开发基础模型,就连微调模型都做不到。但如果只靠拼硬件,单靠当前计算性能的发展速度,迟早有一天无法满足日益膨胀的需求,所以还需要配套的软件来协调统筹计算能力,这时候就需要用到「智能计算」技术。最近,来自之江实验室、中国工程院、国防科技大学、浙江大学等多达十二个国内外研究机构共同发表了一篇论文,首次对智能计算领域进行了全面的调研,涵盖了理论基础、智能与计算的技术融合、重要应用、挑战和未来前景。论文链接:​https://spj.scien

​什么是Transformer机器学习模型?​什么是Transformer机器学习模型?Apr 08, 2023 pm 06:31 PM

译者 | 李睿审校 | 孙淑娟​近年来, Transformer 机器学习模型已经成为深度学习和深度神经网络技术进步的主要亮点之一。它主要用于自然语言处理中的高级应用。谷歌正在使用它来增强其搜索引擎结果。OpenAI 使用 Transformer 创建了著名的 GPT-2和 GPT-3模型。自从2017年首次亮相以来,Transformer 架构不断发展并扩展到多种不同的变体,从语言任务扩展到其他领域。它们已被用于时间序列预测。它们是 DeepMind 的蛋白质结构预测模型 AlphaFold

AI模型告诉你,为啥巴西最可能在今年夺冠!曾精准预测前两届冠军AI模型告诉你,为啥巴西最可能在今年夺冠!曾精准预测前两届冠军Apr 09, 2023 pm 01:51 PM

说起2010年南非世界杯的最大网红,一定非「章鱼保罗」莫属!这只位于德国海洋生物中心的神奇章鱼,不仅成功预测了德国队全部七场比赛的结果,还顺利地选出了最终的总冠军西班牙队。不幸的是,保罗已经永远地离开了我们,但它的「遗产」却在人们预测足球比赛结果的尝试中持续存在。在艾伦图灵研究所(The Alan Turing Institute),随着2022年卡塔尔世界杯的持续进行,三位研究员Nick Barlow、Jack Roberts和Ryan Chan决定用一种AI算法预测今年的冠军归属。预测模型图

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
2 週前By尊渡假赌尊渡假赌尊渡假赌
倉庫:如何復興隊友
1 個月前By尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island冒險:如何獲得巨型種子
4 週前By尊渡假赌尊渡假赌尊渡假赌

熱工具

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

MantisBT

MantisBT

Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)