时 间:2024 年 6 月 25 日,星期二,20:00 - 21:00
在当前高速发展的人工智能领域,如何高效地部署和优化 SLM (小语言模型) 成为关键。随着微软 Phi-3 系列模型的发布,让 SLM 在 NVIDIA Jetson 边缘计算平台上的部署成为可能。同时 Phi-3 系列模型已在 NVIDIA NIM 平台提供加速的推理服务。
NVIDIA NIMTM 是一套用于部署 AI 模型的推理微服务,是一套易于使用的预构建容器工具。帮助企业客户加速在云、数据中心和工作站中部署生成式 AI 模型。让各类生成式 AI 模型的使用更为便捷和高效,为 AI 技术带来了新的突破和无限可能。
通过参加本次在线研讨会,您将了解到如何利用这些先进的模型和平台实现生成式 AI 的最佳实践,推动您的 AI 项目更上一层楼。
内容安排
主题一:Phi-3 SLM 在 Jetson 边缘计算设备上的部署
> Phi-3 系列模型介绍
> Phi-3 与 Ollma 的结合使用
> Phi-3 模型在 Jetson 边缘计算设备上的部署实战
主题二:Phi-3 SLM +NIM实现对话式 AI 场景中的应用
> NVIDIA NIM 介绍
> 基于 NIM 使用 Phi-3 对话模型的方法
> 代码实践:Langchain 结合 NIM 实现 Phi-3 对话模型的推理
主题三:Phi-3 - Vision 在 NIM 平台上实现多模态应用
> Phi-3 - Vision 简介
> Phi-3 - Vision 基于 NIM 的调用方式
> 代码实践:基于 NIM 接口实现 Phi-3 - Vision 的推理实践
演讲嘉宾
卢建晖 (Kinfey Lo)
微软高级云技术布道师,专注在人工智能及大数据领域,具备 15 年以上的电信、教育、金融服务行业经验。是微软 Build / Ignite / Teched 大会讲师、GitHub Copilot Workshop 讲师、Qcon 讲师,现负责生成式人工智能应用架构及 Microsoft Phi-3 小语言模型在行业中的应用落地工作。
李奕澎
NVIDIA 企业开发者社区经理,拥有多年数据分析建模、人工智能自然语言处理开发经验。在自动语音识别、自然语言处理、语音合成等对话式 AI 技术领域有丰富的实战经验与见解。曾开发法律、金融、保险文档中基于实体抽取的智能问答系统,曾开发基于 NLP 知识抽取、KG 知识图谱的建立的科研文档智能检索系统。
何琨
NVIDIA 企业开发者社区高级经理,拥有多年的 GPU 和人工智能开发经验。自 2017 年加入 NVIDIA 开发者社区以来,完成过上百场培训,帮助上万个开发者了解人工智能和 GPU 编程开发。在计算机视觉、高性能计算领域完成过多个独立项目。并且,在机器人和无人机领域,有过丰富的研发经验。对于图像识别、目标的检测与跟踪完成过多种解决方案。
>>> 微信识别二维码注册本次在线研讨会 <<<