导读:多模态大语言模型(MLLMs)在视觉问答、视觉理解与推理等任务中展现出卓越的性能,但多模态大语言模型庞大的模型规模和高昂的训练、推理成本限制了其在学术界和工业界的广泛应用。因此,研究高效且轻量化的多模态大语言模型,特别是在边缘计算场景中,潜力巨大。本文将全面介绍当前多模态大语言模型轻量化的方法及研究现状,并探讨其局限性及未来潜在的发展方向。
免责声明:
来源: 中移智库,数智观察推荐阅读,版权归作者所有。文章内容仅代表作者独立观点,不代表数知观察立场,转载目的在于传递更多信息。如涉及作品版权问题,请联系我们删除或做相关处理!