主要是数据传输,造成很大比例的能源消耗。对于人工智能算法处理的海量数据来说更是如此。
省略这一步,也被认为是内存和逻辑进程之间的瓶颈,因此影响巨大。这正是 2003 年明尼苏达大学当时提出的一个想法发挥作用的地方。
这促成了从物理学到工程学和计算机科学等众多学科之间的合作。其结果是形成了当今智能手表和存储元件中使用的许多电路。
还涉及计算随机存取存储器(CRAM)。这允许直接在主存储器及其中的任何位置实际计算和执行并行进程。
此外,这些不是传统电路,而是可以使用电子自旋而不是电荷在0和1之间切换。
在基于人工智能的应用中,这会导致功耗千分之一,才能最终达到与经典方法相同的结果。全球神经网络当前和预测的电力消耗表明了这一电量有多么巨大。根据国际能源署的数据,2022 年使用了 460 太瓦时。最迟到 2026 年,预计将达到 1,000 太瓦时。
由于节省了 99.9% 的巨大潜力,这将留下 999 太瓦时不再需要。这相当于拥有 1.26 亿居民的第四大经济体日本的年用电量。
根据该论文,这甚至不是最好的结果。进一步的测试可以将能耗降低 1,700 或 2,500 倍。通过将 CRAM 有针对性地适应各个算法,可以进一步提高效率,计算速度更快,因此更经济。
以上是20年前的创意让AI效率提升1000倍的详细内容。更多信息请关注PHP中文网其他相关文章!