AIGC热潮涌动 HashData如何降低大模型应用门槛?

2023-08-13 10:06   来源: 潮品新闻网

      当前,以ChatGPT为代表的LLM应用正在掀起新一轮的AI 浪潮,数字产业生态也迎来前所未有的变局。随着LLM应用的兴起,如何低成本地实现大模型的构建和应用,成为企业关注的重点。

      近日,国内领先的云原生数据仓库厂商酷克数据宣布将推出自主研发的AI开发工具HashML,通过机器学习、深度学习及预训练大模型等技术,为开发者提供简单易用、算法先进、性能卓越的AI开发体验。

      HashML是酷克数据核心产品HashData云数仓的扩展实现工具,随数仓的部署提供开箱即用的AI能力,让数据科学家、数据工程师、应用开发者无门槛地使用大模型,大幅降低大模型系统部署的成本和复杂度,推动大模型走向规模化应用。


      大模型热潮涌来 成本问题备受关注

      目前,在大模型领域,国内外科技巨头的竞争已经白热化。亚马逊、谷歌、百度、华为、阿里等企业竞相涌入,相继推出各自的大模型服务。

      中国科学技术信息研究发布的《中国人工智能大模型地图研究报告》显示,截至今年5月,国内已公开披露的大模型数量达到79个。

      然而,对于企业而言,当前要部署和使用大模型,仍面临着高昂的成本负担。

      据了解,大模型在企业落地的成本主要包括模型前期微调与训练的成本以及模型后期与业务结合的运行成本,涉及计算资源、存储费用、网络传输、数据标注等费用。

      从训练成本来看,以ChatGPT为例,其训练成本一次大概需要数百万美元。华为公布的数据显示,大模型开发和训练一次所需的费用大约1200万美元。在高度迭代和反复训练过程中,再加上供不应求的算力成本,大模型入门门槛将高达上亿级别,这对于众多企业来说是很难承受的压力。

      可以说,高昂的成本已经成为大模型规模化应用巨大阻碍。与此同时,各大科技企业也在积极探索利用创新技术降低大模型应用的成本。


      降低AI开发门槛 云原生数仓助力大模型普惠化

      值得关注的是,云计算平台在大模型训练方面具备与生俱来的成本优势。企业可以基于云平台自动伸缩、按需计费的特性,对大模型训练成本进行合理规划和控制。

      大模型的核心逻辑是对海量数据的收集、加工、处理和运算结果的输出。如果将大模型比作“烹饪”,数据就好比是“食材”,数据仓库则是必不可少的“厨具”。伴随大模型热潮的兴起,对于支撑AI的底层数据仓库也提出了更高的要求。

      大模型庞大的数据量带来了存储和计算资源的压力,这要求数据库能够提供可以横向的并发访问能力、多范式的数据处理分析能力和海量异构数据的存储管理能力。在这种趋势下,基于云原生架构的数据仓库将成为未来数据库行业发展的重要方向。

      作为国内最早专注于云原生数仓研发的企业之一,酷克数据从成立之初,就致力于降低大数据分析和应用的门槛,其核心产品HashData云数仓基于云原生架构设计,通过元数据、计算和存储层解耦,从而最大限度发挥云平台的弹性和扩展能力。

      酷克数据即将推出的AI开发工具HashML,是一款基于HashData云数仓打造的新一代高级分析和数据科学工具箱,能够为开发者提供丰富的AI算法和模型能力,仅需几行代码就能开启模型训练、推理预测,在统一的框架下支持各种经典的机器学习、深度学习算法以及预训练大模型。

      HashML与HashData云数仓共享统一的存储和计算资源,随数仓的部署提供开箱即用的AI能力,大幅降低了系统部署的成本和复杂度,为开发者提供了统一的数据查询、分析、建模环境。

      借助HashML,基于HashData的AI应用开发将会变得非常简单。HashML提供了从数据查询处理、高级分析到ML/DL模型的训练、推理和服务部署的全套工具,包括对大语言模型微调和推理的支持,另外提供了Python和SQL两种编程语言接口。

      同时,HashData正在开发增强数据仓库支持向量数据存储和处理检索能力的功能组件,结合云数仓的高扩展性、高可用和高弹性,实现更好地支撑和扩展大模型的应用场景。

      未来,大模型将成为新型基础设施的关键底座之一。酷克数据将通过领先的技术和完善的生态,推动人工智能技术普惠化,让更多企业“用得起、用得上、用得好”大模型,助力企业成长。


责任编辑:prsky
分享到:
0
【慎重声明】凡本站未注明来源为"潮品新闻网"的所有作品,均转载、编译或摘编自其它媒体,转载、编译或摘编的目的在于传递更多信息,并不代表本站赞同其观点和对其真实性负责。如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行!