日前在微软 Inspire 大会上,Meta 和微软宣布将在 Azure 和 Windows 上支持 Llama 2 大型语言模型(LLM)系列。
据微软科技官方公众号透露,Llama 2 旨在帮助开发者和组织构建生成式人工智能工具和体验。Meta 和微软共同致力于实现“让人工智能惠及更多人”的愿景, 对于 Meta 对 Llama 2 的开源路径微软尤为兴奋。在 Meta 首次向商业客户发布新版 Llama 2 时,微软很高兴能成为 Meta 的首选合作伙伴。
现在,Azure 客户可以在 Azure 上更轻松、更安全地微调和部署7B、13B和70B参数的 Llama 2 模型。此外,Llama 还将进行优化以便在 Windows 上本地运行。
Windows 开发人员将能够通过 ONNX Runtime 瞄准 DirectML 执行提供商来使用 Llama,从而实现无缝工作流,为其应用程序带来生成式人工智能体验。
Meta 和微软是人工智能领域的长期合作伙伴,双方曾合作将 ONNX Runtime 与 PyTorch 集成,在 Azure 上为 PyTorch 创造良好的开发者体验,Meta 还选择了 Azure 作为战略云提供商。
本次合作,是基于双方加速人工智能时代创新的合作关系的演进,将进一步巩固微软作为开放模型生态系统与全球人工智能超级计算平台的地位。
zure 专为人工智能打造的超级计算平台,从设施、硬件和软件方面进行了独特的设计,以支持世界领先的人工智能组织构建、训练和部署一些要求苛刻的人工智能工作负载。
Llama 2 模型与 Azure AI 的结合,使开发人员能够利用 Azure AI 的强大工具进行模型训练、微调、推理,特别是 Azure 确保 AI 安全的功能。
在 Windows 中加入 Llama 2 模型有助于推动 Windows 成为开发人员根据客户需求构建人工智能体验的优选场所,并释放开发者使用 Windows Subsystem for Linux (WSL)、Windows 终端、Microsoft Visual Studio 和 VS Code 等世界级工具进行构建的能力。
Llama 2 是微软不断增长的 Azure 人工智能模型目录的最新成员。该模型目录目前处于公开预览阶段,是基础模型的中心,使开发人员和机器学习(ML)专业人员能够轻松地发现、评估、定制和大规模部署预构建的大型人工智能模型。
该目录消除了用户在运行 Llama 2 时管理所有基础设施依赖的需要,为模型微调和评估提供交钥匙支持,包括强大的优化技术,如 DeepSpeed 和 ONNX Runtime,可显著提高模型微调的速度。
Windows 开发人员将能够通过 GitHub Repo 轻松使用 Llama 2 构建新的体验。借助 Windows Subsystem for Linux 和高性能 GPU,开发人员可以在 Windows PC 上对 LLM 进行微调,以满足他们的特定需求。
负责任的人工智能是微软人工智能路径和我们合作方式的核心。多年来,无论客户是构建自己的模型,还是使用来自微软、Meta、OpenAI 组织和开源生态系统的预构建和可定制模型,我们都以巨大的投入使 Azure 成为负责任的尖端人工智能创新的场所。
在微软,我们通过包括实验和测量在内的迭代、分层方法来降低使用大型语言模型带来的潜在风险。Azure AI 客户可以使用自己的样本数据测试 Llama 2,以了解其在特定用例中的表现。
之后,客户可以使用提示工程和检索增强生成(RAG)技术,为其应用程序开发、评估和优化元数据,并为最终用户提供更安全、更可靠的体验。
zure AI 内容安全等服务在此基础上增加了另一层保护,从而确保使用 AI 应用程序获得更安全的在线体验。我们与 Meta 合作的部分成果是将 Meta 的安全技术与 Azure AI 内容安全相结合。因此在 Azure AI 中部署的 Llama 2 模型就会默认采用分层安全方法。
微软通过 Llama 2 扩展 Azure 的模型目录并与 Meta 建立合作伙伴关系,这是在实现负责任、开放的人工智能方法方面迈出的一大步。
来源:金融界
世界智能大会 WORLD INTELLIGENCE CONGRESS
津ICP备17008349号-3津公网安备 12010302002098号 官方声明