推理大模型(LLM)是AI服务提供商面临的巨大经济挑战之一,因为运营这些模型的成本非常高。FlashDecoding++ 是一种新的技术,旨在解决这一问题,它通过提高LLM推理速度和降低成本,为使用大模型赚钱提供了新的可能性。
论文地址:https://arxiv.org/pdf/2311.01282.pdf
FlashDecoding++的核心思想包括异步方法实现注意力计算的真正并行以及优化"矮胖"矩阵乘计算。这些技术可以将GPU推理提速2-4倍,同时支持NVIDIA和AMD的GPU。这意味着LLM的推理任务将更加高效,可以在更短的时间内完成。
无问芯穹是FlashDecoding++的背后力量,他们是一家创立于2023年5月的公司,旨在打造大模型软硬件一体化解决方案。他们已经将FlashDecoding++集成到其大模型计算引擎"Infini-ACC"中,实现了256K上下文的处理能力,这是目前全球最长的文本长度。
FlashDecoding++的出现为使用大模型赚钱提供了更好的机会,因为它可以降低运营成本,提高效率,同时支持多种GPU后端。这对AI服务提供商和大模型创业公司都是一个重要的突破。