用360云盘做网站,上海网站络公司,娄底本地做寄生虫网站,策划专业网站7月27日#xff0c;亚马逊云科技在纽约峰会上一连发布了七项生成式AI创新#xff0c;涵盖了从底层硬件到工具、软件、再到生态的全方位更新#xff0c;成为它在该领域迄今最全面的一次升级展示#xff0c;同时也进一步降低了生成式AI的使用门槛。
亚马逊云科技凭借自身端到…7月27日亚马逊云科技在纽约峰会上一连发布了七项生成式AI创新涵盖了从底层硬件到工具、软件、再到生态的全方位更新成为它在该领域迄今最全面的一次升级展示同时也进一步降低了生成式AI的使用门槛。
亚马逊云科技凭借自身端到端的实力向业界给出了一个独特的视角——源于亚马逊云科技丰富的终端业务场景如电商零售、影音娱乐、云计算、以用户为出发点考虑问题这些生成式AI更新都是紧贴行业、为解决实际应用中的难题并经过用户实际测试可行性后才推广的。
那么生成式AI在实际应用层面存在哪些痛点呢 数据的滞后性问题 在这次纽约峰会上亚马逊云科技在AI平台上一项令人瞩目的更新Amazon Bedrock Agents可以解决开发中的复杂度难题。作为一项全托管的功能这个代理可以自动分解任务并创建编排计划无需手动编码。
它通过简单的API接口安全地连接企业内部数据自动将最新数据转换为机器可读的格式以生成最准确的回答同时云服务的特性也让用户省去了开发者的系统集成管理和基础设施配置工作整个过程中私有数据不会暴露给对外大模型。
这个设计理念和OpenAI发布的插件Plugin类似可以让ChatGPT访问最新信息或者接入第三方服务来运行计算比如赛事比分、股票实时交易价格、航班价格信息等。这也相当于给一部iPhone开发了App Store商店社区极大丰富了它深入互联网的“触手”以收集终端用户的反馈再反哺给模型。 该选择哪个模型
现在大模型发展如雨后春笋企业开发者在面临选择时要考虑的因素越来越多比如模型本身的算力、通用性、稳定性、模型的企业服务能力、全栈技术布局程度、与企业自身业务的匹配度等最直接的是如何低成本、高效率地使用大模型。
不是一个模型就能完成所有的业务但客户也没有必要了解所有模型后再选择合适自己的。亚马逊云科技就承担了精选模型这一环节。
今年4月份上线的全托管基础模型服务Amazon Bedrock反响良好本次纽约峰会上这一服务也进行了重量级的扩展和更新包括新增Cohere英伟达领投的AI公司作为基础模型供应商并引入Anthropic从OpenAI拆分出去的AI初创公司和Stability AI目前“文生图”领域一哥的最新基础模型。
具体包括Cohere公司的旗舰级文本生成模型Command可以更直观地生成、检索和汇总信息Anthropic公司把最新的语言模型Claude 2接入到Amazon BedrockClaude 2可以在每个对话任务提示中最多标记10万个tokens意味着它能处理数百页的文本Stability AI公司在Amazon Bedrock上发布了最新版的文生图模型套件Stable Diffusion XL 1.0比前一代具备更精细化的图像和构图细节。
这样Amazon Bedrock这个开发平台上既提供了亚马逊云科技自研的模型Amazon Titan包括Titan Text和Titan Embeddings也汇集了越来越多的第三方模型这个逐渐搭建起来的生态结合亚马逊云科技的底层稳定性增强了开发者的使用黏性。
与此同时开发者无需分心基础设施层面的事通过API接口就可以访问这些行业领先的基础模型以构建和扩展自己的AI应用程序增加了客户选择模型的灵活度。 英伟达依赖
这可以归结为一个成本考量问题。OpenAI目前最重要的一项任务是降低大模型训练成本可见大模型是一个成本持续消耗的昂贵的生意这传导给下游的模型调用者和应用企业也会面临成本压力。
这在一定程度上受限于“英伟达依赖”。英伟达的GPU明星产品是全球公认的性能强大但也是公认的贵最近在eBay上最新H100芯片单价已经被炒到4万美元。据业内观察英伟达A100、H100芯片供不应求大多数被全球云计算大厂、有实力金主支持的AI创业公司比如马斯克成立的AI公司以及技术模型公司等买走了。
亚马逊云科技在本次纽约峰会上宣布Amazon EC2 P5实例正式可用背后就是使用的英伟达最新H100 Tensor Core GPU芯片。与上一代基于GPU的实例相比其训练时间最多可缩短6倍直观印象是训练时间从几天缩短至几小时。这一性能提升可以帮助客户降低40%左右的训练成本。
在“一卡难求”的竞争局面下亚马逊云科技与英伟达之间的战略合作关系可以保证后者芯片供应的稳定性和迭代及时性。对于那些性能和稳定性较敏感的客户增加了一个选择亚马逊云科技的筹码。
而更具有未来战略意义的是自研芯片。由于英伟达GPU是通用型结构在处理一些任务时并没做针对性的优化亚马逊云科技坚持了自研芯片的道路这是在云计算时代就已选择的策略最早可追溯到2013年比如它的Nitro芯片和通用处理器芯片Graviton。其他如谷歌、百度、阿里巴巴等云厂商也在走这条路深入到底层去做定制化研发。
目前亚马逊云科技可以用来跑大模型任务的两款自研芯片分别是训练芯片Trainium和新一代推理芯片Inferentia 2。前者与通用型GPU实例相比可以为客户实现最高50%的训练成本节省后者可以实现最高40%的性价比提升。亚马逊云科技一直以来是云服务降价的推动者自提供云服务以来它已经实现了129次降价。如今在生成式AI时代亚马逊云科技似乎也想延续这一策略以价格传导机制给下游客户带来更多实惠。
通过最新发布可以看到亚马逊云科技并未一味追求模型的大而全而是从客户实际需求出发持续降低客户使用大模型的门槛和成本。一方面源于亚马逊云科技常年来在电商、云计算等多元场景中深入理解了C端和B端用户以及各行业的规律才有了这种实用性的客户视角另一方面这一目标的实现十分考验背后积累的端到端全栈技术能力从底层芯片、框架、到工具软件、应用生态亚马逊云科技在云时代端到端的积累正让它继续受益成为这一轮生成式AI竞赛中的领导者。