LoRA,英文全称Low-Rank Adaptation of Large Language Models,直译为大语言模型的低阶适应,这是微软的研究人员为了解决大语言模型微调而开发的一项技术。 比如,GPT-3有1750亿参数,为了让它能干特定领域的活儿…
(来了来了,虽迟但到,序列建模的新宠儿mamba终于杀入了时空预测!) 论文标题:STG-Mamba: Spatial-Temporal Graph Learning via Selective State Space Model
作者:Lincan Li, Hanchen Wang&…