当前位置:首页 > 财经 > 正文

英伟达(NVDA.US)新的增长点来了:重磅推出印地语AI模型

  • 财经
  • 2024-10-24 16:24:04
  • 74
摘要: 全球AI芯片霸主英伟达周四为印度广泛使用的当地语言——印地语,针对性地推出了一款轻量级的人工智能模型,此举凸显出英伟达在整个...

  全球AI芯片霸主英伟达周四为印度广泛使用的当地语言——印地语,针对性地推出了一款轻量级的人工智能模型,此举凸显出英伟达在整个印度市场的AI野心不仅限于英伟达堪称处于垄断地位的AI基础设施领域——即为印度发展人工智能技术提供AI GPU这一最核心基础设施,还希望借印度当地语言AI模型进入印度这一不断增长的人工智能软件市场。

  在这一消息出炉前一天,英伟达CEO黄仁勋在访问丹麦时透露,在台积电提供的重大帮助下,其最新款的AI GPU——Blackwell架构AI GPU的一个影响芯片制造的重要设计缺陷已得到全面修复。黄仁勋周三表示,该公司最新的Blackwell架构AI GPU曾存在设计缺陷,“它的功能非常强大,但设计缺陷导致良率刚开始很低。”他表示,这一缺陷“100%是英伟达的错”,后来全靠台积电协助才得以从这一挫折中恢复过来,并“以惊人的速度”恢复芯片制造工作。

  华尔街大行摩根士丹利预计,英伟达2024年第四季度Blackwell架构AI GPU有望批量出货,预计Blackwell Q4贡献的营收将达到100亿美元,且利润率将非常高。

  这家总部位于加利福尼亚的芯片巨头在周四表示,其首席执行官黄仁勋将在印度商业之都孟买与印度信实工业集团的主席、亚洲首富穆克什·安巴尼进行面对面会谈。

  英伟达表示,该公司正在向印度全面推出一款全新的轻量级语言模型,名为“Nemotron-4-Mini-Hindi-4B”,拥有40亿级别参数,供印度国内各大公司用于开发自己的类似ChatGPT的人工智能应用程序,或者在该轻量级基础上用于打造能力更强大或者专业性更精确的人工智能模型。

  英伟达周四在一份声明中表示:“该人工智能模型经过修剪、蒸馏以及预训练,充分结合了现实世界的印地语大数据体系、合成化的印地语数据以及基本上等量的英语数据。”

  英伟达在声明中透露,来自印度的IT服务和咨询公司Tech Mahindra是第一个使用英伟达AI模型产品开发名为Indus 2.0的定制化人工智能模型的印度公司,经过该公司调整后的这一款定制化AI模型专注于印地语及该国的数十种方言。

  据了解,印度宪法承认高达22种语言,虽然印度乃英联邦成员国,但是印度高达14亿人口中仅仅有十分之一的人会用英语进行日常交流与表达。

  从大型公司到初创科技公司,印度的企业当前都专注于基于其多种本国语言来构建人工智能模型,以增强对于印度庞大消费者群体的吸引力,并推动高质量客户服务以及本国语言的内容翻译等诸多企业经营活动与生成式人工智能全面融合,力争能够借助AI不断提升企业盈利水平以及企业经营效率。

  与应用于为 ChatGPT等具备强大推理能力的AI聊天机器人提供支持的大型语言模型(比如 OpenAI推出的GPT-4/GPT-4o)截然不同的是,轻量级的小型语言模型参数级别较低,通常是在更小、但是更加具体的数据集上进行预训练,它们通常价格更便宜,且易于根据公司本身的需求进行定制化调整,能够打造出在某些领域精准度更高的生成式AI应用程序,这些都使得它们对AI算力资源较少的公司更具吸引力。相比于通用级别的AI大模型,轻量级AI模型通常被用于特定任务或应用中,比如针对于特定客户群体的AI智能客服、特定语言的文本生成、翻译等。

  包括英伟达、美光以及应用材料在内的全球顶级芯片公司正在印度投资并加速建立工厂,以扩大在经济快速增长的印度市场的业务,并且该国在莫迪政府提供的巨额资金支持下,正在努力建立其半导体产业链,给予国外芯片大厂,尤其是芯片制造类大厂丰厚补贴,以便能够与韩国、中国台湾等全球主要半导体中心进行竞争。

  但是分析师们普遍表示,印度建立起最基本的半导体产业链可能需要数年时间,预计2030年之前可能难以达成。据了解,近二十年前首次在印度开设实体店面的英伟达在印度设有工程与设计中心,并在印度南部的科技中心班加罗尔和邻近的海德拉巴等主要城市设有英伟达办事处。

  软件业务,或将助推英伟达股价触及200美元

  华尔街知名投资机构Rosenblatt表示,相比于英伟达AI GPU创收,更加看好以CUDA为核心的软件业务带来的创收规模。Rosenblatt芯片行业分析师Hans Mosesmann在一份研报中将该机构对英伟达的12个月内目标股价从140美元大幅上调至每股200美元的惊人水平,位列华尔街对于英伟达的最高目标价。

  根据知名研究机构IDC《全球人工智能和生成人工智能支出指南》的一项最新预测,该机构预计到 2028 年,全球人工智能 (AI)相关的支出(重点包括人工智能支持的应用程序、AI 芯片等人工智能基础设施以及相关的 IT 和商业服务)较当前将至少翻番,预计将达到约 6320 亿美元。人工智能,特别是生成人工智能(GenAI)快速融入各种终端设备与产品,IDC预计全球人工智能支出将在2024-2028年的预测期内实现29.0%的复合年增长率(CAGR)。

  IDC指出,软件或应用程序将是最大规模的人工智能技术支出类别,在大多数预测中占整个人工智能市场的一半以上。IDC预计人工智能软件的五年期(2024-2028)复合年增长率将达到33.9%。这也是为什么英伟达不仅聚焦于在AI基础设施领域堪称垄断的AI GPU的营收规模,近期更加聚焦于AI大语言模型、轻量级模型以及推动全球企业在基于英伟达高性能AI GPU的云端推理算力以及基于CUDA平台提供的加速基础上部署AI应用。

  CUDA生态壁垒,可谓是英伟达的“最强大护城河”。英伟达在全球高性能计算领域已深耕多年,尤其是其一手打造的CUDA运算平台风靡全球,可谓AI训练/推理等高性能计算领域首选的软硬件协同系统。CUDA加速运算生态是英伟达独家开发的一种并行化计算加速平台和编程辅助软件,允许软件开发者和软件工程师使用英伟达GPU加速并行通用计算(仅支持英伟达GPU,无法兼容AMD以及英特尔等主流GPU)。

  关于如何微调AI模型,以及如何以低技术门槛且无需购置任何昂贵AI GPU的方式进行AI模型定制化调整,英伟达也为企业或个人用户们提供了一套完整的云端解决方案。基于无比强大且渗透率极高的CUDA平台和性能强大的AI GPU,英伟达近期在软硬件全栈生态方面的布局可谓不断加码。英伟达在3月GTC正式推出名为“NVIDIA NIM”的微服务,按每GPU使用时间收费,它是专注于优化的云原生微服务,旨在缩短基于各类型AI模型的生成式AI应用上市时间并简化它们在云端、数据中心和 GPU 加速工作站上的部署工作负载,使得企业能够在英伟达AI GPU云推理算力以及基于CUDA平台提供的加速基础上部署AI应用,寻求建立专属英伟达GPU体系的AI应用全栈开发生态。

发表评论