
NVIDIA针对台湾、日本推出符合在地语言与文化的NIM微服务加速部署各类主权AI应用项目

NVIDIA在今年GTC 2024活动公布的NIM微服务,目前已经在台湾 与日本 地区推出可用于自动生成式人工智慧的四款全新微服务,借此加速布署各类主权人工智慧应用项目。
此次推出的四款全新NVIDIA NIM微服务,将让开发者能更容易建置、部署高效能的自动生成式人工智慧应用服务,并且可依照在地需求量身订做,借此符合在地语言、文化,同时透过准确理解和改善的回应,借此强化与使用者的互动。
而全新NVIDIA NIM微服务分别整合使用日文资料训练出的Llama-3-Swallow-70B,以及使用台湾在地中文资料训练出的Llama-3-Taiwan-70B,两者均以Llama 3 70B模型为基础打造,另外也包含建立在Mistral-7B模型基础上的Rakuten AI 7B系列模型,分别以英文及日文资料集进行训练,主要应用在日本乐天旗下服务。
与Meta开源提供的Llama 3等大型自然语言模型相比,此类模型在理解日语、台湾在地中文,以及处理当地法律任务、回答问题,并且进行语言翻译与总结方面的表现更为优异。
借由导入在地语言模型,开发者将能利用NIM微服务建立更符合在地互动体验的应用功能,并且透过API形式使用全新的NIM微服务,并且广泛应用在医疗保健、金融、制造业、教育与法律相关领域。
目前包含东京工业大学全球科学资讯与运算中心(Global Scientific Information and Computing Center)、台湾长庚纪念医院、和硕联合科技、长春集团、欣兴电子、科技报橘、律果科技,以及自动生成式人工智慧新创APMIC均以NVIDIA NIM微服务打造各类应用项目。
另一方面,借由NVIDIA AI Foundry平台,企业亦可针对需求量身打造客制化人工智慧模型,透过各类基础模型结合NVIDIA NeMo服务进行微调,配合NVIDIA DGX Cloud与各类技术堆叠,即可借由NVIDIA NIM微服务客制化各类模型。

Orby与Databricks合作推动企业生成式AI自动化
加利福尼亚州山景城,2024年8月29日—— 企业生成式AI解决方案的技术开拓者奥比AI(Orby)宣布已与数据和AI公司Databricks合作,由 Orby 推出的首个大型行动模型 (LAM) 推动了企业自动化新时代。

Orby 现在加入 Databricks 的基于合作伙伴计划,并利用 Databricks Mosaic AI 预先训练、构建、部署和监控其创新的大型动作模型 ActIO,这是一种能够解释动作并根据用户输入执行复杂任务的深度学习模型。
Databricks生成式AI副总裁Naveen Rao表示:“随着对数据智能的需求不断增长,Orby的AI创新真正改变了需要真正认知推理的企业自动化格局。”
Rao 总结道:“Orby 独特的 LAM 方法使组织能够完成极其复杂和多变的任务,轻松实现目前不可能或无法实现实际复杂任务的自动化。”
大型动作模型托管中心位置
与重点解释语言和生成响应的传统大型语言模型(LLM)方法不同,Orby独特的大型动作模型(LAM)通过观察动作来自动执行任务并做出决策。
Orby 的 LAM 只是观察用户的工作情况,了解哪些可以实现自动化,并创建操作来实现自动化。然后,批准用户流程并可以随时修改操作,这样 Orby 就可以随着学习的深入而不断改进。
要使生成式人工智能真正对企业有用,需要大量的可变输入来快速实现的威胁推理。前期的开源和母校LLM都是基于大量数据进行训练的,但只有一种模式:语言。其他多模式模型可能允许可变输入,但缺乏将这些输入转化为企业级行动(推理、调整、持续学习和改进)所必需的提高复杂规划和视觉基础能力。大型行动模型非常适合企业效率,但首先必须基于多种模式的大量数据进行训练。
Orby 联合创始人兼首席技术官 Will Lu 表示:“Databricks Mosaic AI 可以构建大规模多模式训练流程,这可以提供无与伦比的性能、准确性和稳定性关键。”
来源:Orby AI

智谱AI震撼发布GLM-4-Plus:媲美GPT-4,首创C端视频通话功能
智谱AI近日重磅发布了其最新基座大模型GLM-4-Plus,展示了堪比OpenAI GPT-4的强大视觉能力,并宣布将于8月30日开放使用。这一突破性进展不仅标志着国产AI技术的飞跃,更为用户带来了前所未有的智能体验。
主要更新亮点:
语言基础模型GLM-4-Plus:在语言解析、指令执行和长文本处理能力上实现了质的飞跃,持续保持在国际竞争中的领先地位。
文生图模型CogView-3-Plus:性能与业界顶尖的MJ-V6和FLUX模型相媲美。
图像/视频理解模型GLM-4V-Plus:不仅在图像理解方面表现出色,还具备基于时间序列分析的视频理解能力。该模型即将在开放平台bigmodel.cn上线,并成为国内首个通用的视频理解模型API。
视频生成模型CogVideoX:继2B版本发布并开源后,5B版本也正式对外开源,性能得到显著提升,成为目前开源视频生成模型中的佼佼者。
智谱开源模型的累计下载量已超过2000万次,为开源社区的繁荣发展做出了显著贡献。

GLM-4-Plus在多个关键领域均表现出色。在语言能力方面,该模型在理解、指令遵循和长文本处理等方面已达到国际领先水平,其表现与GPT-4和拥有405B参数的Llama3.1不相上下。特别值得一提的是,GLM-4-Plus通过精准的长短文本数据混合策略,显著提升了长文本推理效果。

在视觉智能领域,GLM-4V-Plus展现出卓越的图像和视频理解能力。它不仅具备时间感知能力,还能处理和理解复杂的视频内容。值得注意的是,该模型将在智谱开放平台上线,成为国内首个通用视频理解模型API,为开发者和研究人员提供强大的工具。

比如,你给它一段这样的视频,并询问它穿绿色衣服的球员在整个视频都做了什么?它可以精准地描述球员的球员所做的动作,还能准确地告诉你视频的精彩时刻在第几秒:

截图自官方
智谱AI在生成领域同样取得了突破性进展。CogView-3-Plus在文生图性能上已接近目前最优的MJ-V6和FLUX等模型。同时,视频生成模型CogVideoX推出了性能更强的5B版本,被认为是当前开源视频生成模型中的最佳选择。

最令人期待的是,智谱的清言APP即将推出"视频通话"功能,这是国内首个面向C端开放的AI视频通话功能。该功能跨越了文本、音频和视频三大模态,具备实时推理能力。用户可以与AI进行流畅对话,即便频繁打断也能迅速反应。
更令人惊叹的是,只要打开摄像头,AI就能看到并理解用户所看到的画面,同时准确执行语音指令。
这项革命性的视频通话功能将于8月30日上线,首批面向清言部分用户开放,同时接受外部申请。这一创新不仅展示了智谱AI的技术实力,也为人工智能与日常生活的深度融合开辟了新的可能性。

