在当前信息量爆炸的时代,语言模型的训练日益变得复杂和困难。为了培训一个高效的语言模型,我们需要大量的计算资源和时间,这对很多人来说是不切实际的。同时,我们也面临着如何在有限的内存和计算资源下运用大型语言模型的挑战,尤其是在边缘设备上。
今天要给大家推荐一个 GitHub 开源项目 jzhang38/TinyLlama,该项目在 GitHub 有超过 4.3k Star,用一句话介绍该项目就是:“The TinyLlama project is an open endeavor to pretrain a 1.1B Llama model on 3 trillion tokens.”。
TinyLlama的目标是在3万亿个token上预训练一个1.1B Llama模型。通过适当的优化,我们可以在短短90天内使用16个A100-40G GPUs来实现这一目标。该项目采用了与Llama 2完全相同的架构和tokenizer,这意味着TinyLlama可以轻松嵌入并在许多基于Llama的开源项目中使用。此外,TinyLlama非常紧凑,只有1.1B个参数。这种紧凑性使其能够满足许多需要限制计算和内存占用的应用场景。
直接下载模型就可以使用,或者通过 huggingface 使用 demo。
如果你想自己训练的话,参考如下训练详情。
TinyLlama 是一个令人兴奋的开源项目,它正在积极解决一些关键问题,并在开源社区中得到了广泛的关注。
以下是该项目 Star 趋势图(代表项目的活跃程度):
更多项目详情请查看如下链接。
开源项目地址:https://github.com/jzhang38/TinyLlama
开源项目作者:jzhang38
以下是参与项目建设的所有成员:
以上是只需少量计算和内存资源即可运行的小型 Llama 大模型的详细内容。更多信息请关注PHP中文网其他相关文章!