程序员茄子
全部
编程
代码
资讯
案例
综合
联系我们
html在线编辑
登录注册
AI,自己全程接管维护
php
mysql
shell
go
vue
css
api接口对接
支付接口对接
最新
最热
LLM推理引擎终极对决:vLLM vs TensorRT-LLM深度解析与2026生产环境选型指南
编程
LLM推理引擎终极对决:vLLM vs TensorRT-LLM深度解析与2026生产环境选型指南
2026-04-20 13:45:31 +0800 CST
view 203
深度对比vLLM与TensorRT-LLM两大LLM推理框架,从PagedAttention到Kernel Fusion,从量化技术到生产部署,助你做出正确的技术选型决策
LLM
vLLM
TensorRT-LLM
推理优化
大模型部署
量化技术
AI工程
LiteLLM 深度解析:100+ 大模型统一网关的架构设计与生产实战
编程
LiteLLM 深度解析:100+ 大模型统一网关的架构设计与生产实战
2026-04-29 05:42:47 +0800 CST
view 105
深度解析开源AI网关LiteLLM:100+大模型统一接入、虚拟密钥体系、负载均衡与故障降级、MCP/A2A网关、生产级Docker部署实战
LiteLLM
AI网关
大模型
LLM
API网关
Python
Docker
云原生
MCP 2026 深度解析:AI推理性能瓶颈诊断的12个隐性耗时陷阱——从TensorRT-LLM到vLLM再到Triton的全引擎实战
编程
MCP 2026 深度解析:AI推理性能瓶颈诊断的12个隐性耗时陷阱——从TensorRT-LLM到vLLM再到Triton的全引擎实战
2026-04-30 14:21:13 +0800 CST
view 103
深度解析MCP 2026基准测试框架,拆解TensorRT-LLM、vLLM、Triton三大推理引擎的12个隐性耗时陷阱,提供可落地的诊断方法与修复路径。
AI推理
性能优化
TensorRT-LLM
vLLM
Triton
MCP2026
GPU优化
vLLM 2026 深度解析:从 PagedAttention 到多节点分布式推理的全链路技术实战
编程
vLLM 2026 深度解析:从 PagedAttention 到多节点分布式推理的全链路技术实战
2026-05-03 15:13:07 +0800 CST
view 65
2026年深度解析vLLM核心架构,从PagedAttention进化到多节点分布式推理,涵盖SIG社区组织、v1架构重写、生产部署实战与性能优化全链路指南。
vLLM
PagedAttention
LLM
推理优化
分布式
Kubernetes
Python
vLLM 2026 Q2 路线图深度解析:从 v1 架构重构到九大 SIG 技术演进——生产级 LLM 推理引擎的下一站
编程
vLLM 2026 Q2 路线图深度解析:从 v1 架构重构到九大 SIG 技术演进——生产级 LLM 推理引擎的下一站
2026-05-05 19:01:32 +0800 CST
view 37
深度解析 vLLM 2026年第二季度技术路线图,涵盖 v1 架构核心设计、九大 SIG 技术演进方向、生产级部署实战经验。
vLLM
LLM推理
架构设计
性能优化
SGLang vs vLLM:2026年大模型推理框架深度对比与选型指南
编程
SGLang vs vLLM:2026年大模型推理框架深度对比与选型指南
2026-04-08 15:51:53 +0800 CST
view 817
深度对比SGLang与vLLM两大LLM推理框架,从架构设计、核心原理、性能实测、适用场景多维度解析,附2026年选型建议
LLM
SGLang
vLLM
推理优化
大模型
LiteRT-LM:Google端侧大模型推理引擎的革命性架构——从TensorFlow Lite的困境到LLM原生推理的全链路解析
编程
LiteRT-LM:Google端侧大模型推理引擎的革命性架构——从TensorFlow Lite的困境到LLM原生推理的全链路解析
2026-04-19 22:17:39 +0800 CST
view 249
深入解析Google LiteRT-LM端侧LLM推理引擎的核心架构:分层内存池、KV Cache量化、算子融合、WebGPU运行时。与TensorFlow Lite、llama.cpp、MLX横向对比,提供生产级部署实战指南。
Google
端侧AI
LiteRT-LM
WebGPU
量化
KV Cache
TensorFlow Lite
LLM推理
智谱 GLM-5.1 深度解析:当开源模型突破「8小时自治」临界点
编程
智谱 GLM-5.1 深度解析:当开源模型突破「8小时自治」临界点
2026-04-09 00:53:51 +0800 CST
view 649
2026年4月8日智谱发布GLM-5.1,744B参数MIT开源,SWE-bench Pro 58.4分超越Claude Opus 4.6,全球首个支持8小时长程自治的开源模型。
GLM-5.1
智谱AI
开源大模型
MoE
SWE-bench
长程自治
LLM
猛涨25K Star!LLMFit:一键检测你的电脑能跑哪些大模型
案例
猛涨25K Star!LLMFit:一键检测你的电脑能跑哪些大模型
2026-05-06 07:35:19 +0800 CST
view 21
25K+Star的LLMFit一键检测你的电脑能跑哪些大模型,Rust编写支持NVIDIA/AMD/Intel/Apple Silicon,智能量化推荐Q8到Q2,四维评分系统,TUI+CLI双模式
LLM部署
硬件检测
量化推荐
Rust
终端工具
本地部署
Ollama
2026 大模型推理优化:TensorRT-LLM v0.19 + Blackwell + 低比特量化实战手册
编程
2026 大模型推理优化:TensorRT-LLM v0.19 + Blackwell + 低比特量化实战手册
2026-04-09 03:15:44 +0800 CST
view 364
2026年TensorRT-LLM v0.19全面解析:Skip Softmax稀疏注意力、Paged KV Cache显存管理、INT8/INT4低比特量化完整实战,Blackwell架构适配指南,70B模型单卡部署方案
TensorRT-LLM
低比特量化
Blackwell
INT8
INT4
推理优化
NVIDIA
Google LangExtract 深度解析:从混乱文本到结构化数据的工程化实践
编程
Google LangExtract 深度解析:从混乱文本到结构化数据的工程化实践
2026-04-29 01:09:56 +0800 CST
view 118
深度解析Google开源的LangExtract库:基于LLM的结构化信息提取框架,精确来源定位、交互可视化、零微调部署。从架构设计到代码实战,全面剖析21k+ Star背后的技术内核。
LangExtract
Google
信息提取
LLM
结构化数据
Python
开源
caveman 深度解析:当 Claude Code 用「穴居人语言」砍掉 75% Token 消耗,AI 编程正式进入「极简主义」时代
编程
caveman 深度解析:当 Claude Code 用「穴居人语言」砍掉 75% Token 消耗,AI 编程正式进入「极简主义」时代
2026-04-10 00:14:55 +0800 CST
view 312
深度解析 caveman 开源项目:一个让 Claude Code 用「穴居人语言」说话的 skill,砍掉 75% Token 消耗同时保持 100% 技术准确率。
Claude Code
Token优化
AI编程
Prompt Engineering
LLM效率
开源工具
程序员工具
代码审查
GenericAgent 自进化机制深度剖析:分层记忆架构与 Token 效率优化实战
编程
GenericAgent 自进化机制深度剖析:分层记忆架构与 Token 效率优化实战
2026-04-29 06:12:06 +0800 CST
view 318
深度剖析 GenericAgent 的技术架构:仅 3K 行核心代码实现自我进化的 AI Agent,分层记忆系统实现 6 倍 Token 效率提升,支持浏览器注入、系统级控制、ADB 移动设备操作。
GenericAgent
AI Agent
自我进化
LLM
Karpathy的LLM Wiki:一种将RAG从「解释器模式」升级为「编译器模式」的革命性架构
编程
Karpathy的LLM Wiki:一种将RAG从「解释器模式」升级为「编译器模式」的革命性架构
2026-04-19 09:13:12 +0800 CST
view 806
深度解析Karpathy提出的LLM Wiki架构,从算法原理、工程实现、代码实战三个维度讲清楚「编译器模式」如何颠覆传统RAG知识库
LLM Wiki
RAG
知识库
AI Agent
Karpathy
自进化知识库
第二大脑
Claude Memory Compiler 深度解析:当 AI 编程助手第一次拥有「编译器思维」的记忆系统
编程
Claude Memory Compiler 深度解析:当 AI 编程助手第一次拥有「编译器思维」的记忆系统
2026-04-10 03:35:31 +0800 CST
view 249
claude-memory-compiler 把 AI 对话当作源代码,用 LLM 编译成结构化知识库,让 Claude Code 拥有跨会话记忆能力
Claude Code
AI Agent
Knowledge Management
LLM
Memory System
Free Claude Code:让Claude Code接入任意模型,打破Anthropic绑定
编程
Free Claude Code:让Claude Code接入任意模型,打破Anthropic绑定
2026-04-29 12:20:38 +0800 CST
view 294
Free Claude Code是让Claude Code接入任意模型的代理层项目,打破Anthropic绑定,支持NVIDIA NIM/OpenRouter/DeepSeek/Ollama/LM Studio等后端,适合想降成本或本地部署AI编程环境的人。
Claude Code
AI编程
开源工具
OpenRouter
DeepSeek
Ollama
LM Studio
AI Coding
Anthropic
Sage-Wiki 深度解析:当知识管理从「手动整理」变成「LLM自动编译」
编程
Sage-Wiki 深度解析:当知识管理从「手动整理」变成「LLM自动编译」
2026-04-10 06:03:55 +0800 CST
view 477
sage-wiki 是基于 Andrej Karpathy 想法实现的 LLM-compiled 个人知识库,支持15种格式自动编译成互链 Wiki,MCP 接口让 AI Agent 访问你的知识。
sage-wiki
知识管理
LLM
Go
编译器
Karpathy
MCP
MarkItDown 深度解析:微软如何用一行命令解决 LLM 文档处理的世纪难题
编程
MarkItDown 深度解析:微软如何用一行命令解决 LLM 文档处理的世纪难题
2026-04-19 17:14:36 +0800 CST
view 212
深度解析微软开源工具 MarkItDown,10.8万星GitHub热门项目,解决 LLM 文档处理的世纪难题。支持20+格式一键转Markdown,MCP协议与AI工具深度集成。
MarkItDown
Markdown
Python
微软
LLM
MCP
RAG
文档处理
你睡觉,AI 干活:Karpathy 的 AutoResearch 如何让大模型自己学会训练自己
编程
你睡觉,AI 干活:Karpathy 的 AutoResearch 如何让大模型自己学会训练自己
2026-04-19 18:47:36 +0800 CST
view 211
深入解析 Andrej Karpathy 的 AutoResearch 开源项目,揭示其让 AI agent 自主修改训练代码、在真实执行中验证改进的核心机制,探讨对算法工程师职业的影响。
AI研究
机器学习
AutoML
LLM训练
Andrej Karpathy
GitHub开源
自动化调参
Python
研究效率
Agent
Onyx 深度解析:当开源AI平台把「企业级能力」变成「一键部署」
编程
Onyx 深度解析:当开源AI平台把「企业级能力」变成「一键部署」
2026-04-10 07:36:00 +0800 CST
view 167
Onyx 是 26k+ stars 的开源AI平台,提供 Agentic RAG、Deep Research、Custom Agents、MCP 等企业级能力。本文深度解析其架构设计、核心功能和部署实战,是私有AI部署的标准答案。
Onyx
开源AI
RAG
企业AI
LLM平台
60行CLAUDE.md,25K Stars:Karpathy揭示的LLM编程四大致命陷阱与工程解法
编程
60行CLAUDE.md,25K Stars:Karpathy揭示的LLM编程四大致命陷阱与工程解法
2026-04-19 23:44:59 +0800 CST
view 296
深度解析GitHub 25K Stars项目forrestchang/andrej-karpathy-skills,揭示LLM编程工具的四大系统性缺陷,详解Karpathy四大编码原则在工程实践中的落地方法。
Claude Code
LLM
AI编程
Karpathy
工程实践
你睡觉AI在训练:Karpathy AutoResearch如何让AI自主优化GPT模型
编程
你睡觉AI在训练:Karpathy AutoResearch如何让AI自主优化GPT模型
2026-04-11 10:54:43 +0800 CST
view 180
深入解析Karpathy开源的AutoResearch框架,探讨AI自主训练循环的工程实现与研究范式转变
AI
Karpathy
AutoML
LLM
GitHub
GPU白嫖指南:Karpathy AutoResearch把深度学习调参变成AI托管服务
编程
GPU白嫖指南:Karpathy AutoResearch把深度学习调参变成AI托管服务
2026-04-11 10:55:13 +0800 CST
view 194
深入解析Karpathy开源的AutoResearch框架,探讨AI自主训练循环的工程实现与研究范式转变
AI
Karpathy
AutoML
LLM
GitHub
GuppyLM:5分钟从零训练一个LLM,870万参数小鱼模型的完整教学
编程
GuppyLM:5分钟从零训练一个LLM,870万参数小鱼模型的完整教学
2026-05-01 04:35:06 +0800 CST
view 80
GuppyLM是开源教育项目,870万参数小鱼角色扮演模型,5分钟Colab训练,覆盖数据生成到ONNX部署全流程,适合LLM初学者。
LLM
深度学习
开源
教学
Transformer
大家都在搜索什么?
devops
易支付
一个官网+多少钱
统一接受回调
统一回调
sub
node
宝塔日志
mysql
shell
ElasticSearch
css
vue
api接口对接
2025
支付接口对接
go
php
php回调
回调
上一页
1
2
3
...
5
下一页