Title
产品服务
工业感知助手

以光技术创新为基础,围绕机器视觉与光纤光学开展业务,致力于成为视觉人工智能与光电信息领域的全球领导者。

应用
文生图

面向AIGC时代的高效易用、安全可靠、企业级的文生图服务,为用户提供即时可用、所想即所见、创意无限的文本生成图像能力。基于燧原科技邃思®系列芯片,通过软硬一体方案降低大规模AIGC应用的工程难度与算力成本,开启AIGC规模化落地时代。

应用
法务助手

"翠湖法律"专注于为园区企业提供全方位法律服务,包括经济实用型法律支持和合规建设,覆盖法律业务和AI产品开发。利用人工智能等技术,为企业提供精准的法律服务,使其能够高效解决日常法律问题,助力企业在园区内实现高质量发展。

应用
智慧办公助理

采用网页爬虫/文档解析等技术,生成专属您的个人知识库!读、查、问、写一站实现。为您提供快速、精准、高效的文档处理与知识管理体验。

应用
编程助手

CodeGeeX 是一款基于大模型的全能的智能编程助手,它可以实现代码的生成与补全、自动添加注释、代码翻译以及智能问答等功能,帮助开发者显著提高工作效率。CodeGeeX支持主流的编程语言,并适配多种主流IDE。

应用
天垓150

天垓150加速卡是基于天数智芯自研通用GPU的训推一体加速卡,具备广通用性、强灵活性、高性价比的显著优势,支持市场主流生态,可广泛应用于主流大模型的训练、微调以及推理任务,以及通用计算、新算法研究等场景,赋能AI智能社会。

算力
智铠100

智铠100加速卡是基于天数智芯自研通用GPU的推理加速卡,具备广通用性、强灵活性、高性价比的显著优势,支持市场主流生态,广泛支持主流大模型、传统AI模型及通用计算的推理任务,可实现一键部署,为业界提供强大的高效算力底座。

算力
云燧T20

云燧T20是基于邃思®2.0芯片打造的面向数据中心的第二代人工智能训练加速卡,具有模型覆盖面广、性能强、软件生态开放等特点,可支持多种人工智能训练场景。同时具备灵活的可扩展性,提供业界领先的人工智能算力集群方案。

算力
云燧i20

云燧i20是基于邃思®2.5芯片打造的面向数据中心的第二代人工智能推理加速卡,具有高能效、模型覆盖面广、易部署易运维等特点,可广泛应用于计算机视觉、语音识别与合成、自然语言处理、搜索与推荐等推理场景。

算力
ChatGLM2-6B

ChatGLM2-6B 是一个大型语言模型,它基于 GLM-4 训练,拥有超过 60 亿个参数。这个模型可以用于处理各种自然语言处理任务,如文本生成、文本分类、机器翻译等。

开源大模型
ChatGLM3-6B

ChatGLM3-6B 是一个基于 GLM-4 开发的对话机器人模型,拥有超过 60 亿个参数,能够针对用户的问题和要求提供适当的答复和支持。

开源大模型
ChatGLM4-9B

ChatGLM4-9B是智谱AI推出的最新一代预训练模型GLM-4系列中的开源版本,具备多轮对话、网页浏览、代码执行、自定义工具调用(Function Call)以及长文本推理(支持最大128K上下文)等高级功能。

Baichuan2-13B

Baichuan2-13B 是百川智能推出的新一代开源大型语言模型,拥有130亿参数。该模型展现出在多个中文、英文和多语言的通用以及领域上的优异性能。

开源大模型
Qwen-7B

Qwen-7B是阿里云研发的通义千问大模型系列中的一个70亿参数规模的模型。它基于Transformer架构进行训练,预训练数据类型多样,包括大量网络文本、专业书籍和代码等。

开源大模型
Qwen-14B

Qwen-14B 是阿里云研发的通义千问大模型系列中的一款,拥有140亿参数。Qwen-14B 在多种数据类型上进行了训练,覆盖了广泛的主题和领域。

开源大模型
Qwen-72B

Qwen-72B 是阿里云研发的通义千问大模型系列中的一款,拥有720亿参数。Qwen-72B 在多种数据类型上进行了训练,覆盖了广泛的主题和领域。

开源大模型
Aquila2-7B

Aquila2-7B 是智源研究院开发的大型语言模型,优化了 GPT-3 和 LLaMA 架构,提升了训练效率,支持中英双语,适应多种自然语言处理任务。

开源大模型
Aquila2-70B-Expr

Aquila2-70B-Expr 是北京智源人工智能研究院开源的最新700亿参数规模的大语言模型,属于悟道·天鹰系列。作为基座模型,表现出优秀的泛化和学习能力。

开源大模型
Yi-34B

Yi-34B 是一款基于Transformer架构的大型语言模型,拥有高达340亿个参数。它在文本分类、问答、摘要生成等多个自然语言处理任务中表现出色。

开源大模型
Ziya2-13B

ziya2-13B是IDEA研究院开发的130亿参数大型语言模型,基于LLaMA架构,优化了中文处理能力。模型经过中英文增量预训练,提升了语言理解和生成能力,适用于多种自然语言处理任务,且支持在消费级显卡上部署。

开源大模型
RWKV-LM7B

RWKV-LM7B 是一个结合了 RNN 和 Transformer 优点的语言模型,具有 70 亿参数。它由香港大学物理系毕业生彭博提出,特点是高效训练和推理,同时节省显存。

开源大模型
大模型推理引擎

中科加禾聚焦编译技术,公司着力打造通用化、低成本、高性能的基础软件工具链,为用户提供AI应用跨多种CPU、GPU、NPU执行的统一软件平台,实现大模型应用在国产算力平台上的0成本适配、0损耗执行、0延迟部署。

PerfXAPI异构计算软件栈

PerfXAPI是统一的异构计算软件栈解决方案,能够快速地支持各类异构计算硬件。支持AI推理、工业软件以及信号处理应用等,在NVIDIA CUDA GPU、OpenCL GPU以及国产NPU等异构计算硬件平滑迁移和兼容。

AI加速