●在算法过程中频繁的数据混洗使得NTT难以在计算集群中分布,无法并行计算,并且由于需要从大型数据集中加载和卸载数据,在硬件上运行时需要大量带宽。即使硬件操作很快,这可能也会导致速度变慢。例如,如果硬件芯片的内存为16GB或更少,那么在100GB的数据集上运行NTT将需要通过网络加载和卸载数据,这可能会大大降低操作速度。
按照官方的设想和规划未来在Aleo上每天的交易量都是上亿美金的规模,在这样大数据量的要求下,每时每刻都有证明需要被委托出去在极短的时间内完成证明的生产,不可能指望显卡能解决这个问题。就像AI大模型训练一样,早期数据量和参数少的情况下可以用消费级显卡,但是现在更多的都是为AI训练设计的专用芯片和机器。
在分析之前,我们先看一下ASIC(Application Specific Integrated Circuit),中文全称是“专用集成电路”。这里特别强调“专用”,“专用”意味着针对单一项目来说会更加有竞争力。相对比,GPU(显卡)是通用计算处理芯片,所以在单一项目上来说“专用”肯定比“通用”更有竞争力。
早在2021年,英伟达就曾公开表示过“禁止使用转换层在其他硬件平台上运行基于CUDA的软件”,2024年3月,英伟达更是将其升级为“CUDA禁令”,直接添加在了CUDA的终用户许可协议中,已禁止用转译层在其他GPU上运行CUDA软件