科技行业前瞻系列专题:科技公司的端侧AI布局.pdf

2024-06-17 10:54
西南证券
科技行业前瞻系列专题:科技公司的端侧AI布局.pdf

科技前瞻系列专题科技公司的端侧AI布局西南证券研究发展中心海外研究团队2024年6月目录1苹果AI布局12高通AI布局3三星AI布局4相关标的5风险提示21.1.1苹果AI:模型侧:MM13月苹果正式公布自家的多模态大模型MM1,MM1是一个具有最高300亿参数的多模态LLM系列。MM1由密集模型和混合专家(MoE)变体组成,具有300亿、70亿、30亿参数等多个版本。MM1不仅在预训练指标中实现最优性能SOTA,在一系列已有多模态基准上监督微调后也能保持有竞争力的性能。得益于大规模多模态预训练,MM1模型在上下文预测、多图像和思维链推理等方面表现不错。MM1模型在指令调优后展现出强大的少样本学习能力。在几乎所有基准测试中,苹果的MoE模型比密集模型取得更好的性能,显示MoE进一步扩展的巨大潜力。数据来源:《MM1:Methods,Analysis&InsightsfromMultimodalLLMPre-training》,西南证券整理由于其大规模多模态预训练,MM1可进行上下文预测。这使得MM1能够:a)计数对象并遵循自定义格式;b)引用图像的部分并执行OCR;c)展示关于日常物品的常识和词汇知识;d)执行基本的数学函数。MM1模型可以遵循指令进行跨图像推理。示例和图像来自VILA;当使用思维链提示时,VILA能够正确回答。31.1.2苹果AI:模型侧:OpenELM4月26日,苹果宣布了更大的端侧AI推进,推出全新的开源大语言模型OpenELM。OpenELM包含2.7亿、4.5亿、11亿和30亿个参数的四种版本,定位于超小规模模型,运行成本更低,可在手机和笔记本电脑等设备上运行文本生成任务。同时,公司开源了OpenELM模型权重和推理代码、数据集、训练日志、神经网络库CoreNet。OpenELM使用了“分层缩放”策略,来有效分配Transformer模型每一层参数,从而提升准确率。在约10亿参数规模下,OpenELM与OLMo相比,准确率提高了2.36%,同时需要的预训练token数量减少了50%。OpenELM的基准测试(数据类型BFloat16)在工作站(配备英特尔i9-13900KFCPU、RTX4090GPU,24GBDDR5内存),以及M2MaxMacBookPro(64GB内存)运行。数据来源:《OpenELM:AnEfficientLanguageModelFamilywithOpenTrainingandInferenceFramework》,新智元,西南证券整理OpenELM与公开LLM对比常见的小模型性能对比41.1.3苹果AI:模型侧:Ferret-UI4月8日,苹果展示了多模态模型Ferret-UI。Ferret-UI系统可以理解手机屏幕上的应用程序内容,专为增强对移动端UI屏幕的理解而定制,其配备了引用(referring)、定位(grounding)和推理(reasoning)功能。Ferret-UI具备了解决现有大部分通用多模态大模型所缺乏的理解用户界面(UI)屏幕并与其有效交互的能力。Ferret-UI与OpenAI近期发布的GPT-4o、谷歌近期发布的Gemini1.5Pro在功能上异曲同工。Ferret-UI可执行从基本到复杂任务等11种任务。它能在移动UI屏幕上使用灵活的输入格式(点、框、涂鸦)执行指代任务(例如控件分类、图标识别、OCR)和定位任务(例如查找控件、查找图标、查找文本、控件列表)。这些基本任务为模型提供了丰富的视觉和空间知识,使其能在粗略和精细级别(例如各种图标或文本元素之间)区分UI类型。这些基础知识对于执行更高级的任务至关重要。具体来说,Ferret-UI不仅能在详细描述和感知对话中讨论视觉元素,还可在交互对话中提出面向目标的动作,并通过功能推理推断出屏幕的整体功能。数据来源:《Ferret-UI:GroundedMobileUIUnderstandingwithMultimodalLLMs》,西南证券整理5Ferret-UI建立在Ferret的基础上。Ferret是一个MLLM,在不同形状和细节水平的自然图像中实现空间参考和基础。无论是点、框还是任何自由形式的形状,它都可以解释相应区域或对象并与之交互。Ferret包含一个预训练的视觉编码器(例如CLIP-ViT-L/14)和一个DecoderOnly的语言模型(例如Vicuna)。此外,Ferret还采用了一种独特的混合表示技术,该技术将指定区域转换为适合LLM处理的格式。本质上,空间感知视觉采样器旨在熟练地管理不同稀疏度级别的区域形状的连续特征。虽然Ferret-UI-base是基于Ferret的架构,但Ferret-UI-anyres包含额外的细粒度图像功能。特别是,预训练的图像编码器和投影层为整个屏幕生成图像特征。对于基于原始图像长宽比获得的每个子图像,都会生成额外的图像特征。对于具有区域参考的文本,视觉采样器会生成相应的区域连续要素。LLM使用全图像表示、子图像表示、区域特征和文本嵌入来生成响应。数据来源:《Ferret-UI:GroundedMobileUIUnderstandingwithMultimodalLLMs》,西南证券整理Ferret-UI-anyres(“任意分辨率”)架构1.1.3苹果AI:模型侧:Ferret-UI6Ferret-UI对基本任务的处理流程:UI检测器输出所有检测到的元素,以及每个元素的类型、文本和边界框。这些检测用于为基本任务创建训练样本。对于定位任务,使用所有元素检测来创建一个用于控件列表的样本,而其余任务一次专注于一个元素。将元素分为图标、文本和非图标/文本控件。对于每种类型,创建一个指代样本和一个定位样本。数据来源:《Ferret-UI:GroundedMobileUIUnderstandingwithMultimodalLLMs》,西南证券整理Ferret-UI对复杂任务的处理流程:首先从检测输出中归一化边界框坐标,然后将检测、提示和可选的单次示例发送到GPT-4。对于详细的描述和函数推理,将生成的响应与预先选择的提示配对,以训练Ferret-UI。对于对话任务,直接将GPT-4输出转换为多回合对话。1.1.3苹果AI:模型侧:Ferret-UI7Ferret-UI在简单任务处理上击败了GPT-4V。但在复杂任务处理上还是不如GPT-4V。通过精心设计“任意分辨率”(anyres)以适应各种屏幕宽高比,以及策划包含广泛的基本和高级UI任务的训练样本,Ferret-UI在引用、定位和推理方面表现出显著的熟练程度。这些增强能力的引入预示着在众多下游UI应用中或将取得重大进步,从而扩大Ferret-UI在这一领域所能提供的潜在益处。数据来源:《Ferret-UI:GroundedMobileUIUnderstandingwithMultimodalLLMs》,西南证券整理1.1.3苹果AI:模型侧:Ferret-UI8苹果是较早介入AI计算单元的厂商,早在2017年就在SoC中引入了NPU计算单元,并搭载于iPhone8、iPhone8Plus及iPhoneX上。苹果A17芯片虽然算力为35TO

点击免费阅读完整报告
© 2017-2023 上海俟德教育科技有限公司
沪ICP备17027418号-1 | 增值电信业务经营许可证:沪B2-20210551
回顶部
报告群
公众号
小程序
APP
在线客服
收起