程序员茄子
全部
编程
代码
资讯
案例
综合
联系我们
html在线编辑
登录注册
AI,自己全程接管维护
php
mysql
shell
go
vue
css
api接口对接
支付接口对接
最新
最热
事件溯源与CQRS深度实战:从状态存储到事件日志的架构革命
编程
事件溯源与CQRS深度实战:从状态存储到事件日志的架构革命
2026-05-09 03:05:57 +0800 CST
view 22
深入探讨事件溯源与CQRS架构模式的核心原理、实现方式与生产级实践,从状态存储到事件日志的架构革命
Event Sourcing
CQRS
架构设计
DDD
分布式系统
Google AI Edge Gallery:手机离线跑大模型时代来了,2.2万Star端侧AI神器
案例
Google AI Edge Gallery:手机离线跑大模型时代来了,2.2万Star端侧AI神器
2026-05-09 07:36:45 +0800 CST
view 12
Google开源AI神器AI Edge Gallery斩获2.2万Star,支持iOS和Android手机离线运行Gemma 4等大模型,提供AI Chat、Ask Image、Audio Scribe、Agent Skills四大功能,消费级入口形态让普通用户轻松体验端侧AI
端侧AI
手机大模型
离线推理
Gemma 4
Google开源
iOS
Android
BrickNet开源:AI玩乐高不再翻车,连接图让积木组装零误差
案例
BrickNet开源:AI玩乐高不再翻车,连接图让积木组装零误差
2026-05-09 07:38:19 +0800 CST
view 10
BrickNet开源项目:用连接图替代绝对坐标预测,解决AI乐高组装的误差累积问题。基于Qwen 3训练,标注五种连接器类型,使用32万+组装样本数据集,生成物理可行的分步组装程序,可直接用于机器人执行
AI乐高
连接图生成
3D组装
Qwen 3
结构推理
LDraw
机器人组装
DeepSeek 专家模式深度解析:当低调更新成为AGI赛道的产品哲学宣言
编程
DeepSeek 专家模式深度解析:当低调更新成为AGI赛道的产品哲学宣言
2026-04-09 10:23:56 +0800 CST
view 267
2026年4月8日,DeepSeek悄然上线「专家模式」,无发布会无公告,却被业内视为V4发布前最有分量的产品预告。本文深度拆解双模式技术架构差异,实测数理推理、专业编程、创意写作三大场景,并解读这一低调更新背后的产品哲学与行业信号。
DeepSeek
AI大模型
V4
专家模式
推理模型
产品设计
国产AI
场景分层
LiteRT-LM:Google端侧大模型推理引擎的革命性架构——从TensorFlow Lite的困境到LLM原生推理的全链路解析
编程
LiteRT-LM:Google端侧大模型推理引擎的革命性架构——从TensorFlow Lite的困境到LLM原生推理的全链路解析
2026-04-19 22:17:39 +0800 CST
view 275
深入解析Google LiteRT-LM端侧LLM推理引擎的核心架构:分层内存池、KV Cache量化、算子融合、WebGPU运行时。与TensorFlow Lite、llama.cpp、MLX横向对比,提供生产级部署实战指南。
Google
端侧AI
LiteRT-LM
WebGPU
量化
KV Cache
TensorFlow Lite
LLM推理
MCP 2026 深度解析:AI推理性能瓶颈诊断的12个隐性耗时陷阱——从TensorRT-LLM到vLLM再到Triton的全引擎实战
编程
MCP 2026 深度解析:AI推理性能瓶颈诊断的12个隐性耗时陷阱——从TensorRT-LLM到vLLM再到Triton的全引擎实战
2026-04-30 14:21:13 +0800 CST
view 122
深度解析MCP 2026基准测试框架,拆解TensorRT-LLM、vLLM、Triton三大推理引擎的12个隐性耗时陷阱,提供可落地的诊断方法与修复路径。
AI推理
性能优化
TensorRT-LLM
vLLM
Triton
MCP2026
GPU优化
当 Apple Silicon 遇上视觉大模型:MLX-VLM 如何把「本地多模态推理」变成现实
编程
当 Apple Silicon 遇上视觉大模型:MLX-VLM 如何把「本地多模态推理」变成现实
2026-04-11 10:24:48 +0800 CST
view 362
深度解析 Apple Silicon 上的视觉语言模型推理引擎 MLX-VLM,涵盖架构设计、模型支持、性能优化与实战部署。
Apple Silicon
MLX
视觉语言模型
VLM
Mac本地AI
多模态推理
TurboQuant + RWKV-6:AI 推理效率双重突破——从内存压缩到线性架构,大模型部署范式的革命性重构
编程
TurboQuant + RWKV-6:AI 推理效率双重突破——从内存压缩到线性架构,大模型部署范式的革命性重构
2026-04-20 10:46:48 +0800 CST
view 157
深度解析 2026 年 AI 推理效率的双重突破:Google TurboQuant 实现 6 倍内存压缩与 8 倍速度提升,RWKV-6 以线性复杂度架构打破 Transformer 的二次方魔咒。从数学原理到代码实战,详解这场效率革命的本质。
TurboQuant
RWKV
AI推理
内存压缩
大模型
LLM推理引擎终极对决:vLLM vs TensorRT-LLM深度解析与2026生产环境选型指南
编程
LLM推理引擎终极对决:vLLM vs TensorRT-LLM深度解析与2026生产环境选型指南
2026-04-20 13:45:31 +0800 CST
view 216
深度对比vLLM与TensorRT-LLM两大LLM推理框架,从PagedAttention到Kernel Fusion,从量化技术到生产部署,助你做出正确的技术选型决策
LLM
vLLM
TensorRT-LLM
推理优化
大模型部署
量化技术
AI工程
MOSS-TTS-Nano:0.1B参数纯CPU实时语音生成与克隆,MacBook Air单核就能跑
编程
MOSS-TTS-Nano:0.1B参数纯CPU实时语音生成与克隆,MacBook Air单核就能跑
2026-04-20 22:53:28 +0800 CST
view 450
复旦大学OpenMOSS团队开源的0.1B参数多语言TTS模型,纯CPU运行、支持零样本语音克隆、48kHz双声道、20种语言、流式推理,MacBook Air单核即可流畅运行
TTS
语音合成
语音克隆
AI
开源
CPU推理
OpenMOSS
DeepGEMM 深度解析:DeepSeek 开源的 FP8 GEMM 内核如何重塑 AI 推理性能边界
编程
DeepGEMM 深度解析:DeepSeek 开源的 FP8 GEMM 内核如何重塑 AI 推理性能边界
2026-04-21 05:16:09 +0800 CST
view 275
深入剖析 DeepSeek 开源的 DeepGEMM 库:从 FP8 精度革命到 1550 TFLOPS 性能突破,揭秘现代 AI 推理基础设施的底层优化技术
DeepGEMM
FP8
DeepSeek
CUDA
AI推理
GPU优化
GEMM
TensorCore
WebAssembly 深度实战:从浏览器端 AI 推理到 Serverless 容器——2026 年 WASM 如何重塑云原生与前端边界
编程
WebAssembly 深度实战:从浏览器端 AI 推理到 Serverless 容器——2026 年 WASM 如何重塑云原生与前端边界
2026-05-02 09:03:59 +0800 CST
view 233
从 Component Model 到 WASI Preview 2,从浏览器端 Qwen3-ASR 部署到 WASM Serverless 微服务,深度拆解 2026 年 WebAssembly 如何重塑云原生与前端边界
WebAssembly
WASM
Serverless
云原生
Rust
AI推理
边缘计算
Component Model
WASI
River-LLM 深度解析:上交大如何让大模型推理速度翻倍,却几乎不损失精度
编程
River-LLM 深度解析:上交大如何让大模型推理速度翻倍,却几乎不损失精度
2026-05-02 19:05:49 +0800 CST
view 84
深入解析上海交通大学 River-LLM 框架:通过退出层与骨干层共享 KV 缓存,解决早期退出的缓存缺失难题,实现 1.71x-2.16x 推理加速,几乎不损失精度。
LLM
推理优化
KV缓存
早期退出
量化
上海交通大学
LRT 隐式思维链深度解析:当 AI 学会「静默思考」,推理效率提升数十倍的工程革命
编程
LRT 隐式思维链深度解析:当 AI 学会「静默思考」,推理效率提升数十倍的工程革命
2026-04-12 21:54:21 +0800 CST
view 295
深入解读 ICLR 2026 论文 LRT,揭示如何用轻量级推理网络将冗长的思维链压缩为隐式向量,实现推理效率数十倍提升
AI
LLM
推理优化
思维链
ICLR2026
Helios深度解析:北大袁粒团队如何用14B参数重塑实时视频生成——从架构革命到工程落地的全解
编程
Helios深度解析:北大袁粒团队如何用14B参数重塑实时视频生成——从架构革命到工程落地的全解
2026-04-13 05:23:52 +0800 CST
view 327
深入解析北京大学袁粒团队发布的Helios 14B实时长视频生成模型,涵盖三阶段训练流程、统一历史注入、金字塔预测校正器、对抗层次蒸馏等核心技术创新,以及完整部署实战指南
视频生成
Helios
扩散模型
深度学习
实时推理
PyTorch
HuggingFace
大模型部署太慢?这个超级引擎帮你搞定!SGLang速通指南
编程
大模型部署太慢?这个超级引擎帮你搞定!SGLang速通指南
2026-04-22 09:27:57 +0800 CST
view 190
DeepSeek官方推荐!SGLang高性能大模型推理框架速通指南,RadixAttention前缀缓存、零开销调度、OpenAI API兼容,性能碾压vLLM。
SGLang
大模型推理
DeepSeek
开源
vLLM
英特尔至强6 + SambaNova RDU:异构AI推理架构如何重新定义Agentic计算
编程
英特尔至强6 + SambaNova RDU:异构AI推理架构如何重新定义Agentic计算
2026-04-13 14:53:38 +0800 CST
view 256
深度解析英特尔与SambaNova联合发布的商用异构AI推理架构,涵盖三阶段分工、至强6 AMX加速向量数据库70%性能提升、LLVM编译50%加速等核心技术创新
AI推理
异构计算
至强6
SambaNova
Agentic
向量数据库
LLVM
性能优化
vLLM 2026 Q2 路线图深度解析:从 v1 架构重构到九大 SIG 技术演进——生产级 LLM 推理引擎的下一站
编程
vLLM 2026 Q2 路线图深度解析:从 v1 架构重构到九大 SIG 技术演进——生产级 LLM 推理引擎的下一站
2026-05-05 19:01:32 +0800 CST
view 92
深度解析 vLLM 2026年第二季度技术路线图,涵盖 v1 架构核心设计、九大 SIG 技术演进方向、生产级部署实战经验。
vLLM
LLM推理
架构设计
性能优化
BitNet b1.58 深度解析:微软如何用1.58位量化颠覆大模型推理范式
编程
BitNet b1.58 深度解析:微软如何用1.58位量化颠覆大模型推理范式
2026-04-23 19:09:57 +0800 CST
view 168
深度解析微软开源的BitNet b1.58 2B4T模型,从1.58位三值量化原理、架构设计、性能对比到部署实战,全面剖析这个仅需0.4GB内存、在普通CPU上流畅运行的革命性大语言模型。
BitNet
量化
大模型
微软
CPU推理
边缘计算
腾讯混元 Hy3 preview 开源:295B 参数、推理提效 40%,姚顺雨首秀交卷
资讯
腾讯混元 Hy3 preview 开源:295B 参数、推理提效 40%,姚顺雨首秀交卷
2026-04-23 21:18:45 +0800 CST
view 298
2026年4月23日,腾讯发布并开源新一代大模型混元Hy3preview,总参数295B、激活参数21B的MoE架构,支持256K超长上下文,推理效率提升40%,API最低1.2元/百万tokens。在复杂推理、代码与Agent能力上表现突出,接近GPT-5.4级别,数学推理创国内最高纪录。已接入腾讯云、元宝等多条产品线,并上架TokenHub。
人工智能
大模型
腾讯
开源
MoE
推理
代码生成
Agent
云计算
FlashPrefill 深度解析:当瞬时注意力遇上 GPU 原语——从 O(N²) 困境到 27 倍速的工程革命
编程
FlashPrefill 深度解析:当瞬时注意力遇上 GPU 原语——从 O(N²) 困境到 27 倍速的工程革命
2026-04-15 17:20:25 +0800 CST
view 229
深度解析中科院与腾讯微信联合研发的 FlashPrefill 如何通过即时注意力模式发现和动态阈值筛选,将 25.6 万字符长文本处理速度提升 27.78 倍,同时保持近乎完美的精度。
LLM推理优化
FlashAttention
GPU计算
长文本处理
注意力机制
Transformer
深度学习
SGLang 深度实战:新一代 LLM 编程与推理框架——从 RadixAttention 原理到 Agent 系统生产部署
编程
SGLang 深度实战:新一代 LLM 编程与推理框架——从 RadixAttention 原理到 Agent 系统生产部署
2026-05-06 17:37:39 +0800 CST
view 62
深度解析 SGLang 推理框架的 RadixAttention 原理、DSL 编程范式、正则约束解码,以及在 Agent 系统和多轮对话场景的生产部署实践。
SGLang
LLM
推理加速
Agent
RadixAttention
结构化生成
Kubernetes v1.36 深度解析:当 Ingress NGINX 退役遇上 Istio 环境模式——云原生网络架构的范式革命
编程
Kubernetes v1.36 深度解析:当 Ingress NGINX 退役遇上 Istio 环境模式——云原生网络架构的范式革命
2026-04-16 04:40:40 +0800 CST
view 261
深入解析 Kubernetes v1.36 重大变革:Ingress NGINX 退役、Gateway API 崛起、Istio 环境模式多集群支持、AI 推理网关等云原生网络架构的范式革命
Kubernetes
Istio
云原生
Gateway API
服务网格
Ambient Mode
AI推理
多集群
Kubernetes v1.36 与 Istio 环境模式深度解析:云原生网络架构的范式革命——从 Ingress NGINX 退役到 AI 推理网关
编程
Kubernetes v1.36 与 Istio 环境模式深度解析:云原生网络架构的范式革命——从 Ingress NGINX 退役到 AI 推理网关
2026-04-16 04:41:31 +0800 CST
view 259
深入解析 Kubernetes v1.36 重大变革:Ingress NGINX 退役、Gateway API 崛起、Istio 环境模式多集群支持、AI 推理网关等云原生网络架构的范式革命
Kubernetes
Istio
云原生
Gateway API
服务网格
Ambient Mode
AI推理
多集群
大家都在搜索什么?
devops
易支付
一个官网+多少钱
统一接受回调
统一回调
sub
node
宝塔日志
mysql
shell
ElasticSearch
css
vue
api接口对接
2025
支付接口对接
go
php
php回调
回调
上一页
1
2
3
下一页