这是有关 ML 进化算法课程的第一篇文章。
当你知道神经网络的参数,但不知道输出应该是什么时,就需要遗传算法,例如,这个算法可以用来玩 Google Dinosaur 或 Flappy Bird,因为你不知道输出应该是什么,但您有能力对最可行的选项进行排序,例如按时间,这称为适应度函数。
我一直没能找到这样一个有效、简单且可用的算法,所以我开始创建自己的轻量级、简单、完美运行的遗传算法。
我的目的不是拖拖拉拉地写这篇文章,也不是用它的篇幅来折磨读者,所以我们直接上代码吧。正如已经提到的,代码很简单,所以大部分内容不需要在整篇文章中描述。
首先我们需要导入模块:
import numpy as np import random
然后我们添加Dataset及其答案,但不使用反向传播算法,而只是简单地统计正确答案的数量。然后你可以在其他变体上进行测试,这些变体现在已被注释掉
x = np.array([[1, 1, 0], [0, 0, 1], [1, 0, 1], [0, 0, 0], [1, 0, 0], [0, 1, 0], [1, 1, 0], [0, 1, 1], [1, 1, 1]]) y = np.array([[0],[1],[1], [0], [0], [0], [0], [1], [1]]) #x = np.array([[0, 1, 1], [0, 0, 1], [1, 0, 1], [0, 1, 0], [1, 0, 0], [1, 1, 0], [0, 0, 0], [1, 1, 0], [1, 1, 1]]) #y = np.array([[1],[0], [0], [1], [0], [1], [0], [1], [1]]) #x = np.array([[1, 1, 0], [0, 0, 1], [1, 0, 1], [0, 1, 0], [1, 0, 0], [0, 0, 0], [1, 1, 0], [0, 1, 1], [1, 1, 1]]) #y = np.array([[1],[0],[1], [0], [1], [0], [1], [0], [1]])
添加列表和激活函数。这些列表的含义稍后将会变得清晰。第一个激活函数是 sigmoid,第二个是阈值。
listNet = [] NewNet = [] goodNET = [] GoodNet0 = [] GoodNet1 = [] GoodNet2 = [] GoodNet3 = [] GoodNet4 = [] GoodNet5 = [] GoodNet6 = [] good = 0 epoch = 0 good = 0 epoch = 0 def sigmoid(x): return 1/(1 + np.exp(-x)) def finfunc(x): if x[0] >= 0.5: x[0] = 1 return x[0] else: x[0] = 0 return x[0]
接下来,我们需要创建两个类,第一个类用于创建初始群体,第二个类用于所有后续群体,因为第一次我们需要随机创建权重,然后仅交叉和使它们变异。 init() 函数用于创建或添加权重,predict() 是算法本身和计算最佳选项所必需的,Fredict() 函数的不同之处在于它返回答案和适应度函数来显示数字在屏幕上查看训练阶段。在输出层,首先使用 sigmoid 函数使答案更接近其中一个选项,然后才使用阈值函数。
class Network(): def __init__(self): self.H1 = np.random.randn(3, 6) self.O1 = np.random.randn(6, 1) def predict(self, x, y): t1 = x @ self.H1 t1 = sigmoid(t1) t2 = t1 @ self.O1 t2 = sigmoid(t2) t2 = finfunc(t2) if t2 == y[0]: global good good += 1 def Fpredict(self, x, y): t1 = x @ self.H1 t1 = sigmoid(t1) t2 = t1 @ self.O1 t2 = sigmoid(t2) t2 = finfunc(t2) if t2 == y[0]: global good good += 1 return t2, good class Network1(): def __init__(self, H1, O1): self.H1 = H1 self.O1 = O1 def predict(self, x, y): t1 = x @ self.H1 t1 = sigmoid(t1) t2 = t1 @ self.O1 t2 = sigmoid(t2) t2 = finfunc(t2) if t2 == y[0]: global good good += 1 def Fpredict(self, x, y): t1 = x @ self.H1 t1 = sigmoid(t1) t2 = t1 @ self.O1 t2 = sigmoid(t2) t2 = finfunc(t2) if t2 == y[0]: global good good += 1 return t2, good
我们输出第一个答案和变量good,这是这里的适应度函数,然后我们为下一个神经网络重置它,打印“wait0”(你可以在这里写任何你想要的东西)是必要的,以免对不同神经网络的答案从哪里开始感到困惑。
import numpy as np import random
第一个周期过去了,在这里以及随后的所有周期中,我们只给出了六个问题来检查它如何处理任务,而它还没有满足,也就是说,我们检查它是否临时抱佛脚,这种情况有时会发生。现在让我们更详细地讨论一下:根据它正确回答了多少个答案,我们将其分配给其中一个类,如果大量答案是正确的,那么我们必须支持这样的神经网络并增加其数量,以便随着随后的变异将会出现更多更聪明的人,要理解这一点,你可以想象100个人中有一个天才,但这对于每个人来说是不够的,这意味着他的天才将在下一代中消失,这意味着神经网络要么学习速度非常慢,要么根本不存在,为了避免这种情况,我们增加了循环中具有大量正确答案的神经网络的数量。最后,我们清空主 listNet 列表,按照从最好到最差的顺序为其分配 GoodNet 列表的新值,筛选出 100 个最佳个体,用于后续突变。
x = np.array([[1, 1, 0], [0, 0, 1], [1, 0, 1], [0, 0, 0], [1, 0, 0], [0, 1, 0], [1, 1, 0], [0, 1, 1], [1, 1, 1]]) y = np.array([[0],[1],[1], [0], [0], [0], [0], [1], [1]]) #x = np.array([[0, 1, 1], [0, 0, 1], [1, 0, 1], [0, 1, 0], [1, 0, 0], [1, 1, 0], [0, 0, 0], [1, 1, 0], [1, 1, 1]]) #y = np.array([[1],[0], [0], [1], [0], [1], [0], [1], [1]]) #x = np.array([[1, 1, 0], [0, 0, 1], [1, 0, 1], [0, 1, 0], [1, 0, 0], [0, 0, 0], [1, 1, 0], [0, 1, 1], [1, 1, 1]]) #y = np.array([[1],[0],[1], [0], [1], [0], [1], [0], [1]])
交叉和变异本身:我们从第一个亲本中取出一部分,从第二个中取出第二部分,进行变异,然后我们在 NewNet 列表中得到一个孩子,所以 1000 次。
listNet = [] NewNet = [] goodNET = [] GoodNet0 = [] GoodNet1 = [] GoodNet2 = [] GoodNet3 = [] GoodNet4 = [] GoodNet5 = [] GoodNet6 = [] good = 0 epoch = 0 good = 0 epoch = 0 def sigmoid(x): return 1/(1 + np.exp(-x)) def finfunc(x): if x[0] >= 0.5: x[0] = 1 return x[0] else: x[0] = 0 return x[0]
从代码的前一部分开始,我们使用 Network1(),因为我们现在是交叉和变异,而不是随机创建。所以我们需要重复 1000 次(这是一个超参数,所以你可以自己选择 epoch 的数量,15 对我来说就足够了),我们在第一个 epoch 上显示答案,第 1000 个是最终版本(如果你有,例如,20,然后指定 20)。这里代码是重复的,所以我就不描述了,一切都很清楚了。
import numpy as np import random
这就是神经网络应该找到的模式,这就是最终版本所依赖的数字(第一,第二,第三)并忽略其余的。例如,您可以执行逻辑运算(XOR、NOT、AND ...),仅在这种情况下,在网络类中将输入数据更改为 2,我还遵循隐藏层中的神经元等于输入的规则数据乘以二,它起作用了,但是你可以尝试你的选择,向神经网络提供相同数量的一些答案和其他答案也很重要,以便正确答案的数量,例如“a”,将等于“b”,否则神经网络将回答所有答案同样的方式,也就是说,如果有更多的 a,那么它会回答所有问题,但不会有任何结果,也在训练样本中给它完全不同的选项,以便它理解模式,例如,如果你一个XOR块,那么你必须添加一个带有两个1的选项,但是在逻辑运算的情况下,你必须给出所有选项,因为它们太少了,它不会理解任何东西。
就是这样!!!下一篇文章(必读!):很快……
代码:https://github.com/LanskoyKirill/GenNumPy.git
我的网站(可能正在重新设计):selfrobotics.space
以上是使用 Python 和 NumPy 为神经网络创建简单高效的遗传算法的详细内容。更多信息请关注PHP中文网其他相关文章!

本文解释了如何使用美丽的汤库来解析html。 它详细介绍了常见方法,例如find(),find_all(),select()和get_text(),以用于数据提取,处理不同的HTML结构和错误以及替代方案(SEL)

Python的statistics模块提供强大的数据统计分析功能,帮助我们快速理解数据整体特征,例如生物统计学和商业分析等领域。无需逐个查看数据点,只需查看均值或方差等统计量,即可发现原始数据中可能被忽略的趋势和特征,并更轻松、有效地比较大型数据集。 本教程将介绍如何计算平均值和衡量数据集的离散程度。除非另有说明,本模块中的所有函数都支持使用mean()函数计算平均值,而非简单的求和平均。 也可使用浮点数。 import random import statistics from fracti

Linux终端中查看Python版本时遇到权限问题的解决方法当你在Linux终端中尝试查看Python的版本时,输入python...

本文比较了Tensorflow和Pytorch的深度学习。 它详细介绍了所涉及的步骤:数据准备,模型构建,培训,评估和部署。 框架之间的关键差异,特别是关于计算刻度的

Python 对象的序列化和反序列化是任何非平凡程序的关键方面。如果您将某些内容保存到 Python 文件中,如果您读取配置文件,或者如果您响应 HTTP 请求,您都会进行对象序列化和反序列化。 从某种意义上说,序列化和反序列化是世界上最无聊的事情。谁会在乎所有这些格式和协议?您想持久化或流式传输一些 Python 对象,并在以后完整地取回它们。 这是一种在概念层面上看待世界的好方法。但是,在实际层面上,您选择的序列化方案、格式或协议可能会决定程序运行的速度、安全性、维护状态的自由度以及与其他系

本文讨论了诸如Numpy,Pandas,Matplotlib,Scikit-Learn,Tensorflow,Tensorflow,Django,Blask和请求等流行的Python库,并详细介绍了它们在科学计算,数据分析,可视化,机器学习,网络开发和H中的用途

该教程建立在先前对美丽汤的介绍基础上,重点是简单的树导航之外的DOM操纵。 我们将探索有效的搜索方法和技术,以修改HTML结构。 一种常见的DOM搜索方法是EX

本文指导Python开发人员构建命令行界面(CLIS)。 它使用Typer,Click和ArgParse等库详细介绍,强调输入/输出处理,并促进用户友好的设计模式,以提高CLI可用性。


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

ZendStudio 13.5.1 Mac
功能强大的PHP集成开发环境

WebStorm Mac版
好用的JavaScript开发工具

记事本++7.3.1
好用且免费的代码编辑器

mPDF
mPDF是一个PHP库,可以从UTF-8编码的HTML生成PDF文件。原作者Ian Back编写mPDF以从他的网站上“即时”输出PDF文件,并处理不同的语言。与原始脚本如HTML2FPDF相比,它的速度较慢,并且在使用Unicode字体时生成的文件较大,但支持CSS样式等,并进行了大量增强。支持几乎所有语言,包括RTL(阿拉伯语和希伯来语)和CJK(中日韩)。支持嵌套的块级元素(如P、DIV),

MinGW - 适用于 Windows 的极简 GNU
这个项目正在迁移到osdn.net/projects/mingw的过程中,你可以继续在那里关注我们。MinGW:GNU编译器集合(GCC)的本地Windows移植版本,可自由分发的导入库和用于构建本地Windows应用程序的头文件;包括对MSVC运行时的扩展,以支持C99功能。MinGW的所有软件都可以在64位Windows平台上运行。