绝大多数的客户并不需要自己从零开始来训练模型。我们认为不能依赖一个万能的、单一的大型语言模型来应对各种任务,我们认为正确的做法应该是,客户可以访问多个模型,然后根据自己的需求和数据来定制自己的模型。”在2023世界人工智能大会(WAIC)期间,亚马逊云科技生成式AI产品研究院院长Sherry Marcus发表上述观点称,她认为,合理的做法是,应该在大模型的基础之上,确保以私密和安全的方式让用户能够定制自己的模型。”
Sherry Marcus称,自己训练大语言模型或大型多模态模型的话消耗时间和金钱巨大。AWS账号购买可行的降低成本的方案是基于一些基础模型进行构建自有模型,“客户可以根据自身需求,在大语言模型的基础之上,进行专业化或者专门化模型的构建,并且使用自己的数据。这样的话,一方面客户可以有大模型的丰富度,同时也可以有小模型能够带来的快速迭代。”她同意,中国拥有丰富的数据资源,同时在许多垂直领域都存在进行大型语言模型训练的潜力。
本公司提供阿里云国际版,华为云国际版账号 腾迅云国际版账户 AWS亚马逊云 GCP谷歌云 Azure微软云购买渠道和免手续费代充值服务,免实名购买海外云服务器!购买大陆地方服务可提供实名。业务合作请联系客服TG:阿里云国际 提供腾讯云国际 云服务器 CDN 数据库 存储等产品。提供直播业务 ,阿里云直播转码推流路数提升最高值,阿里云&华为云短信签名定制开通,聊天im定制话部署 !更多业务 @smhao
Sherry Marcus介绍,亚马逊云科技当前针对生成式AI的各层面均有布局:在底算力层,其推出了Amazon EC2 Inf2实例,以亚马逊云科技 Inferentia2芯片算力支持,使生成式人工智能具有成本效益的最佳基础设施。Inf2实例在亚马逊云科技上规模化运行要求高的生成式人工智能推理工作负载时,提供最高性能、最高能效和最低成本。
与前一代相比,Inf2实例的吞吐量高达4倍,延迟低至10倍。这些功能可以带来比任何其他EC2实例高达40%的推理价格性能。此外,由亚马逊云科技 Trainium提供支持的Amazon EC2 Trn1n实例将很快面向客户正式提供。Trn1n实例提供1600 Gbps的网络带宽,为大型、网络密集型模型提供高达20%的性能提升。
在中间层,亚马逊云科技发布了新服务Amazon Bedrock的预览版,使生成式人工智能应用程序开发更加简便。Amazon Bedrock是一项托管服务,通过API轻松访问预训练的基础模型(FM)。亚马逊云科技同时发布了自研大模型Titan,包括了Text和Embeddings两个大语言模型(LLM),分别负责文字处理和用于机器学习的表征向量转化,亚马逊云科技并未公布这两个大语言模型参数规模。而AI云服务Amazon Bedrock使得用户可以通过API来调用Titan和第三方模型,包括了创业公司AI21 Labs、Anthropic、Stability Ai的基础模型。
此外,亚马逊云科技还宣布全面开放AI代码辅助工具CodeWhisperer,作为生成式人工智能栈的顶层,对个人开发者免费,AI可以帮助程序员生成大量的无差异代码,从而提高开发效率。亚马逊云科技称,使用该服务的开发者效率提高了57%,成功完成任务的可能性高了27%。该服务目前支持包括了Python、Java和C+等10种以上计算机语言。
目前,亚马逊云科技的AIGC解决方案已经有多种应用案例,Sherry Marcus告诉界面新闻,德勤就利用亚马逊云科技的Amazon Bedrock发展生成式人工智能(AI)能力,借助该服务,德勤可以为帮助查验大量数据并定制模型,并将自然语言应用于各种用例。
AWS账号购买谈到在云端训练部署AI模型的安全问题,Sherry Marcus称,如果客户使用第三方的模型,这些数据是存储在亚马逊云科技的EC2的服务器上面的,因此数据是比较安全的。而关于责任划分的问题,第三方的模型提供商所负责确保准确性和训练结果的质量,而亚马逊云科技所负责的是基础架构和模型相关的数据方面,因此,我们与第三方共同承担模型的责任,即安全责任共担模型。
在AI行业中,一个受到热议的话题即参数多少,被认为是简单评价大语言模型质量好坏的简单标准,部分厂商的大语言模型追求大规模参数指标,并以此宣传。对此,Sherry Marcus分析称,当使用大语言模型对这些数据进行训练时,更关键的要素在于数据质量,“如果只是使用了网络上的一些数据,那么即便是使用了非常大的模型,可能最后的准确度并不会很理想。相比来说,如果使用的是相对比较小的模型,但使用的是高质量数据,可能结果未必会输给前者。”她举例称,一些高质量数据,如课本数据、科学数据等,以此训练的小模型也能够获得比较高的准确度。AWS账号购买
事实上,针对生成式AI发展相关能力和业务,已经是主要云厂商无法回避的竞争热点。自ChatGPT爆火出圈后,百度、阿里、微软、亚马逊云科技将大模型用在企业端,开辟了云计算新战场。阿里云则在2022年11月提出MaaS(模型即服务)。在5月28日中关村论坛上,周靖人称,阿里云已形成IaaS(基础设施即服务)、PaaS(平台即服务)、MaaS三层架构,为企业的大模型训练及推理提供算力资源和机器学习服务。腾讯也在6月19日公布腾讯云MaaS解决方案,宣布将推出行业精选模型商店,AWS账号购买面向金融、文旅、政务、传媒、教育等十大行业提供超过50个解决方案。在WAIC期间,腾讯云宣布对MaaS服务进行升级,在基础架构层面提升GPU利用率、通信性能等。