程序员茄子
全部
编程
代码
资讯
案例
综合
联系我们
html在线编辑
登录注册
AI,自己全程接管维护
php
mysql
shell
go
vue
css
api接口对接
支付接口对接
最新
最热
Redis之父antirez亲自下场!为DeepSeek V4 Flash打造专属推理引擎,Mac上跑出468 token/s
案例
Redis之父antirez亲自下场!为DeepSeek V4 Flash打造专属推理引擎,Mac上跑出468 token/s
2026-05-10 08:40:22 +0800 CST
view 6
Redis之父antirez亲自下场!为DeepSeek V4 Flash打造专属推理引擎ds4.c,C+Metal从头编写,Mac Studio M3 Ultra上预填充468 token/s。关键优化:非对称量化(MoE专家层2-bit)、KV缓存搬硬盘、内置OpenAI/Anthropic双API。128GB Mac可跑,专为coding agent优化。
DeepSeek
AI推理
Mac
Redis
antirez
Metal
本地推理
MoE
GGUF
C语言
Apple Silicon
Claude Code
OpenAI API
Anthropic API
当 Apple Silicon 遇上视觉大模型:MLX-VLM 如何把「本地多模态推理」变成现实
编程
当 Apple Silicon 遇上视觉大模型:MLX-VLM 如何把「本地多模态推理」变成现实
2026-04-11 10:24:48 +0800 CST
view 365
深度解析 Apple Silicon 上的视觉语言模型推理引擎 MLX-VLM,涵盖架构设计、模型支持、性能优化与实战部署。
Apple Silicon
MLX
视觉语言模型
VLM
Mac本地AI
多模态推理
分布式 LLM 推理架构深度实战:从 vLLM 单节点到 llm-d 多集群的生产级演进全链路解析
编程
分布式 LLM 推理架构深度实战:从 vLLM 单节点到 llm-d 多集群的生产级演进全链路解析
2026-05-09 03:39:58 +0800 CST
view 57
深度解析分布式 LLM 推理架构,从 vLLM 单节点到 llm-d 多集群的生产级演进。涵盖推理引擎层、编排调度层、Kubernetes 多机多卡部署实战、性能优化技巧及成本优化策略。
LLM
vLLM
分布式推理
Kubernetes
Ray
推理引擎
METATRON 深度解析:当 AI 渗透测试在本地跑出「免费版 GPT-4 安全助手」
编程
METATRON 深度解析:当 AI 渗透测试在本地跑出「免费版 GPT-4 安全助手」
2026-04-09 07:55:23 +0800 CST
view 563
深度解析 METATRON:如何在本地零成本跑起一个完整的 AI 渗透测试助手,基于 Qwen 微调模型 + Ollama + MariaDB,无需 API Key,数据完全不出本地。
AI渗透测试
Ollama
Qwen
本地大模型
MariaDB
Pentest
安全工具
Agent
45+在线图片工具+REST API+AI修图:SnapOtter让NAS秒变个人图片处理中心
编程
45+在线图片工具+REST API+AI修图:SnapOtter让NAS秒变个人图片处理中心
2026-04-28 18:27:20 +0800 CST
view 127
基于Docker的自托管图片编辑器SnapOtter:45+工具、REST API接入AI Agent、本地AI修图(OCR/背景移除/高清化)、数据永久存NAS。海康智存部署教程。
Docker
NAS
图片处理
AI修图
本地部署
REST API
OpenClaw
Hermes
CLI Printing Press:火爆外网的Go开源神器!一键生成Agent专属CLI工具,45个开箱即用
案例
CLI Printing Press:火爆外网的Go开源神器!一键生成Agent专属CLI工具,45个开箱即用
2026-05-09 10:35:37 +0800 CST
view 43
CLI Printing Press:火爆外网的Go开源神器!给一个API地址或网站URL,自动生成专为AI Agent设计的Go CLI工具+MCP服务器+Claude Code Skill。内置五层创造力梯子(本地持久化→compound查询→行为洞察),比MCP token消耗少100倍。45个开箱即用的CLI库(espn/linear/flight-goat等),Go 1.26+即可使用。
Go
AI Agent
CLI
MCP
开源
Claude Code
SQLite
本地优先
API
Python
Rust
OpenClaw
discord
Linear
Stripe
GitHub
Notion
Rowboat 深度解析:当 AI 同事第一次拥有「长期记忆」,工作变成可积累的知识图谱
编程
Rowboat 深度解析:当 AI 同事第一次拥有「长期记忆」,工作变成可积累的知识图谱
2026-04-10 05:35:25 +0800 CST
view 250
Rowboat 是一个带长期记忆的开源 AI 同事,自动构建知识图谱,支持会议准备、文档生成、承诺追踪,采用本地优先架构,完全透明可控。
AI Agent
知识图谱
开源工具
本地优先
生产力工具
从原理到实战:llama.cpp 与 GGUF 量化格式的工程实践全解
编程
从原理到实战:llama.cpp 与 GGUF 量化格式的工程实践全解
2026-04-12 22:56:41 +0800 CST
view 294
2026年深度解析 llama.cpp 架构设计与 GGUF 量化格式,从底层原理到工程实战,涵盖 K-Quant/IQ 量化、Flash Attention、KV Cache 优化、Intel NPU/GPU 部署全流程。
llama.cpp
GGUF
量化
大模型
C++
本地部署
猛涨25K Star!LLMFit:一键检测你的电脑能跑哪些大模型
案例
猛涨25K Star!LLMFit:一键检测你的电脑能跑哪些大模型
2026-05-06 07:35:19 +0800 CST
view 73
25K+Star的LLMFit一键检测你的电脑能跑哪些大模型,Rust编写支持NVIDIA/AMD/Intel/Apple Silicon,智能量化推荐Q8到Q2,四维评分系统,TUI+CLI双模式
LLM部署
硬件检测
量化推荐
Rust
终端工具
本地部署
Ollama
Mano-P + Cider:4B模型本地操控Mac,端侧GUI Agent新时代
案例
Mano-P + Cider:4B模型本地操控Mac,端侧GUI Agent新时代
2026-05-07 13:34:32 +0800 CST
view 75
明略科技开源Mano-P(4B量化模型本地操控Mac)和Cider(MLX推理加速框架)。476 tokens/s预填充,76 tokens/s解码,峰值内存4.3GB,完全本地运行数据不出设备,离线长任务自主规划
GUI Agent
端侧AI
Apple Silicon
MLX
视觉理解
本地运行
Mano-P
Cider
Ollama + OpenClaw + Claude Code:本地大模型驱动的自动化编程工作流深度解析
编程
Ollama + OpenClaw + Claude Code:本地大模型驱动的自动化编程工作流深度解析
2026-04-17 13:15:36 +0800 CST
view 380
深度解析如何将 Ollama、OpenClaw 和 Claude Code 组合成强大的本地化 AI 编程工作流
Ollama
OpenClaw
Claude Code
AI编程
本地大模型
Open Design:31个Skills+72套设计系统,Claude Design的开源替代品
案例
Open Design:31个Skills+72套设计系统,Claude Design的开源替代品
2026-05-09 06:34:08 +0800 CST
view 40
Open Design开源项目:Claude Design的开源替代品,31个Skills+72套设计系统,支持16种AI CLI工具,本地运行Apache-2.0协议,多模型支持,内置图片视频生成,MCP集成
AI设计
Claude Design替代
开源设计工具
本地运行
多模型
设计系统
NeuTTS Air:0.5B参数超拟真语音合成,3秒音频克隆你的声音
编程
NeuTTS Air:0.5B参数超拟真语音合成,3秒音频克隆你的声音
2026-04-28 12:43:51 +0800 CST
view 119
NVIDIA开源NeuTTS Air——0.5B参数超拟真语音合成模型,仅需3秒音频即可完成声音克隆,可在手机、笔记本甚至树莓派上本地运行,完全保护隐私,无需联网。
AI
TTS
声音克隆
本地部署
NVIDIA
语音合成
边缘计算
Google AI Edge Gallery:手机离线跑大模型时代来了,2.2万Star端侧AI神器
案例
Google AI Edge Gallery:手机离线跑大模型时代来了,2.2万Star端侧AI神器
2026-05-09 07:36:45 +0800 CST
view 31
Google开源AI神器AI Edge Gallery斩获2.2万Star,支持iOS和Android手机离线运行Gemma 4等大模型,提供AI Chat、Ask Image、Audio Scribe、Agent Skills四大功能,消费级入口形态让普通用户轻松体验端侧AI
端侧AI
手机大模型
离线推理
Gemma 4
Google开源
iOS
Android
BrickNet开源:AI玩乐高不再翻车,连接图让积木组装零误差
案例
BrickNet开源:AI玩乐高不再翻车,连接图让积木组装零误差
2026-05-09 07:38:19 +0800 CST
view 26
BrickNet开源项目:用连接图替代绝对坐标预测,解决AI乐高组装的误差累积问题。基于Qwen 3训练,标注五种连接器类型,使用32万+组装样本数据集,生成物理可行的分步组装程序,可直接用于机器人执行
AI乐高
连接图生成
3D组装
Qwen 3
结构推理
LDraw
机器人组装
DeepSeek 专家模式深度解析:当低调更新成为AGI赛道的产品哲学宣言
编程
DeepSeek 专家模式深度解析:当低调更新成为AGI赛道的产品哲学宣言
2026-04-09 10:23:56 +0800 CST
view 272
2026年4月8日,DeepSeek悄然上线「专家模式」,无发布会无公告,却被业内视为V4发布前最有分量的产品预告。本文深度拆解双模式技术架构差异,实测数理推理、专业编程、创意写作三大场景,并解读这一低调更新背后的产品哲学与行业信号。
DeepSeek
AI大模型
V4
专家模式
推理模型
产品设计
国产AI
场景分层
Docker 27「Orion」深度解析:原生 AI 调度时代来临——GPU 拓扑感知、NUMA 绑定与容器化大模型部署新范式
编程
Docker 27「Orion」深度解析:原生 AI 调度时代来临——GPU 拓扑感知、NUMA 绑定与容器化大模型部署新范式
2026-05-10 00:41:20 +0800 CST
view 11
Docker 27 Orion深度解析:GPU拓扑感知调度与PCIe/NVLink自动绑定、NUMA内存带宽限制、dockerd-scheduler AI调度代理、docker ai run零配置LLM部署、Dockerfile.ai模型封装语法、OOM Killer五步防御、cgroups v2集成与生产环境避坑指南
Docker
容器化
GPU调度
NUMA
AI推理
LLM
docker-compose
cgroups
Dockerfile
NVIDIA
LiteRT-LM:Google端侧大模型推理引擎的革命性架构——从TensorFlow Lite的困境到LLM原生推理的全链路解析
编程
LiteRT-LM:Google端侧大模型推理引擎的革命性架构——从TensorFlow Lite的困境到LLM原生推理的全链路解析
2026-04-19 22:17:39 +0800 CST
view 281
深入解析Google LiteRT-LM端侧LLM推理引擎的核心架构:分层内存池、KV Cache量化、算子融合、WebGPU运行时。与TensorFlow Lite、llama.cpp、MLX横向对比,提供生产级部署实战指南。
Google
端侧AI
LiteRT-LM
WebGPU
量化
KV Cache
TensorFlow Lite
LLM推理
MCP 2026 深度解析:AI推理性能瓶颈诊断的12个隐性耗时陷阱——从TensorRT-LLM到vLLM再到Triton的全引擎实战
编程
MCP 2026 深度解析:AI推理性能瓶颈诊断的12个隐性耗时陷阱——从TensorRT-LLM到vLLM再到Triton的全引擎实战
2026-04-30 14:21:13 +0800 CST
view 123
深度解析MCP 2026基准测试框架,拆解TensorRT-LLM、vLLM、Triton三大推理引擎的12个隐性耗时陷阱,提供可落地的诊断方法与修复路径。
AI推理
性能优化
TensorRT-LLM
vLLM
Triton
MCP2026
GPU优化
TurboQuant + RWKV-6:AI 推理效率双重突破——从内存压缩到线性架构,大模型部署范式的革命性重构
编程
TurboQuant + RWKV-6:AI 推理效率双重突破——从内存压缩到线性架构,大模型部署范式的革命性重构
2026-04-20 10:46:48 +0800 CST
view 159
深度解析 2026 年 AI 推理效率的双重突破:Google TurboQuant 实现 6 倍内存压缩与 8 倍速度提升,RWKV-6 以线性复杂度架构打破 Transformer 的二次方魔咒。从数学原理到代码实战,详解这场效率革命的本质。
TurboQuant
RWKV
AI推理
内存压缩
大模型
LLM推理引擎终极对决:vLLM vs TensorRT-LLM深度解析与2026生产环境选型指南
编程
LLM推理引擎终极对决:vLLM vs TensorRT-LLM深度解析与2026生产环境选型指南
2026-04-20 13:45:31 +0800 CST
view 225
深度对比vLLM与TensorRT-LLM两大LLM推理框架,从PagedAttention到Kernel Fusion,从量化技术到生产部署,助你做出正确的技术选型决策
LLM
vLLM
TensorRT-LLM
推理优化
大模型部署
量化技术
AI工程
MOSS-TTS-Nano:0.1B参数纯CPU实时语音生成与克隆,MacBook Air单核就能跑
编程
MOSS-TTS-Nano:0.1B参数纯CPU实时语音生成与克隆,MacBook Air单核就能跑
2026-04-20 22:53:28 +0800 CST
view 461
复旦大学OpenMOSS团队开源的0.1B参数多语言TTS模型,纯CPU运行、支持零样本语音克隆、48kHz双声道、20种语言、流式推理,MacBook Air单核即可流畅运行
TTS
语音合成
语音克隆
AI
开源
CPU推理
OpenMOSS
DeepGEMM 深度解析:DeepSeek 开源的 FP8 GEMM 内核如何重塑 AI 推理性能边界
编程
DeepGEMM 深度解析:DeepSeek 开源的 FP8 GEMM 内核如何重塑 AI 推理性能边界
2026-04-21 05:16:09 +0800 CST
view 281
深入剖析 DeepSeek 开源的 DeepGEMM 库:从 FP8 精度革命到 1550 TFLOPS 性能突破,揭秘现代 AI 推理基础设施的底层优化技术
DeepGEMM
FP8
DeepSeek
CUDA
AI推理
GPU优化
GEMM
TensorCore
WebAssembly 深度实战:从浏览器端 AI 推理到 Serverless 容器——2026 年 WASM 如何重塑云原生与前端边界
编程
WebAssembly 深度实战:从浏览器端 AI 推理到 Serverless 容器——2026 年 WASM 如何重塑云原生与前端边界
2026-05-02 09:03:59 +0800 CST
view 250
从 Component Model 到 WASI Preview 2,从浏览器端 Qwen3-ASR 部署到 WASM Serverless 微服务,深度拆解 2026 年 WebAssembly 如何重塑云原生与前端边界
WebAssembly
WASM
Serverless
云原生
Rust
AI推理
边缘计算
Component Model
WASI
大家都在搜索什么?
devops
易支付
一个官网+多少钱
统一接受回调
统一回调
sub
node
宝塔日志
mysql
shell
ElasticSearch
css
vue
api接口对接
2025
支付接口对接
go
php
php回调
回调
上一页
1
2
下一页