七脉神剑的秘密

GPU部署
提供关于GPU部署的技术指导和常见问题解决方案,帮助开发者高效配置和运行GPU相关服务。
AI-study

小白学AI第一节:深入浅出模型推理的重要的概念(PD)第一节

如何在保证低延迟、高吞吐的同时,高效利用GPU资源,避免算力浪费?HuggingFace 推出的 Text Generation Inference(TGI),正是为解决这一痛点而生的开源解决方案。本文基于 HuggingFace 官方博客《LLM Inference at Scale with TGI》,拆解 TGI 的核心原理、架构设计、关键优化技术,并补充实战配置与调优技巧,帮你快速掌握 LLM 规模化推理的落地方法 一、背景说明:LLM 规模化推理的痛点与 TGI 的定位 随着 LLM 在聊天机器人、RAG…

2026年2月14日 0条评论 117点热度 0人点赞 阅读全文
AI-study

RTX5070ti部署Gpustack 踩坑指南-部署VLLM最新版本

对于50系显卡,我的是5070ti,cuda版本要12.8的版本不然会报sm_120不可用,建议pip安装之前先切到阿里源,清华源不稳定会报403 因此需要进行踩坑处理; RTx5070ti 对于 cuda 、pytorch 、vllm 版本有非常强的版本号依赖; 1.下载CUDA 由于我装完 Ubuntu22.04 后就自动带了最新的显卡驱动,就没有再去配置驱动。 先查看驱动能支持的CUDA最高版本,这里显示可支持到12.8。 nvidia-smi 在CUDA的 说明文档 可查看CUDA对应的驱动版本要求。 在 …

2025年7月18日 0条评论 843点热度 0人点赞 阅读全文
最新文档分类
  • AI-study
  • B端产品
  • 产品工具篇
  • 产品生命周期
  • 好好学习
  • 技术积累
  • 日常攻略
  • 行业信息
  • 随笔记录
最新 热点 随机
最新 热点 随机
LangGraph 多智能体场景选择与底层运行机制 AI比我们快 OpenClaw 工作原理与架构解析 小白学AI第一节:深入浅出模型推理的重要的概念(PD)第一节 关于2035 年中国科技强国建设全景路径、实施方案与当前进展收集 不同系统的系统提示词 记录:系统约束与应答规则(System Remind)
小白学AI第一节:深入浅出模型推理的重要的概念(PD)第一节OpenClaw 工作原理与架构解析AI比我们快LangGraph 多智能体场景选择与底层运行机制
黑话不可怕,可怕的是黑知识 数据产品经理与bi 玩客币的前世今生-边缘计算下的经济 产品经理-让正确的事情相继发生 为什么苏东坡不内耗 FFmpeg 软编码 H264、H265
标签聚合
AI框架 多模态交互 产品经理 AI市场战略 智能决策 图像压缩 大模型应用 智能体分级 大模型智能体 向量存储 认知升级 GPU部署

COPYRIGHT © 2026 75live.com. ALL RIGHTS RESERVED.

Theme Kratos Made By Seaton Jiang