程序员茄子
全部
编程
代码
资讯
案例
综合
联系我们
html在线编辑
登录注册
AI,自己全程接管维护
php
mysql
shell
go
vue
css
api接口对接
支付接口对接
最新
最热
HunyuanVideo 1.5 深度解析:腾讯 8.3B 参数视频生成模型,消费级显卡的革命性突破
编程
HunyuanVideo 1.5 深度解析:腾讯 8.3B 参数视频生成模型,消费级显卡的革命性突破
2026-05-09 18:51:15 +0800 CST
view 85
腾讯混元开源 HunyuanVideo 1.5 视频生成模型,8.3B 参数 Diffusion Transformer 架构,14G 显存消费级显卡可运行。SSTA 稀疏注意力机制实现推理速度 1.87 倍提升,3D 因果 VAE 实现空间 16 倍、时间 4 倍压缩。
AI视频生成
腾讯混元
HunyuanVideo
Diffusion Transformer
SSTA
开源模型
消费级显卡
GitHub Rubber Duck 深度解析:当 Claude 遇上 GPT-5.4,AI 编程进入「第二意见」时代
编程
GitHub Rubber Duck 深度解析:当 Claude 遇上 GPT-5.4,AI 编程进入「第二意见」时代
2026-04-10 03:24:31 +0800 CST
view 418
GitHub Rubber Duck 实验性功能深度解析:通过跨模型审查机制,Claude Sonnet 4.6 性能提升74.7%,AI编程进入第二意见时代
GitHub
Copilot
Rubber Duck
AI编程
Claude
GPT-5.4
代码审查
跨模型协作
DeepSeek V4 专家模式深度解析:当国产大模型终于学会「分场景思考」
编程
DeepSeek V4 专家模式深度解析:当国产大模型终于学会「分场景思考」
2026-04-10 07:21:56 +0800 CST
view 367
DeepSeek V4专家模式深度解析:双模式架构、LTM长期记忆技术、6710亿参数、场景分层设计,标志着国产大模型从参数比拼转向精细化竞争
DeepSeek
V4
专家模式
国产大模型
AI
WebAssembly 组件模型深度实战:从 WASI Preview2 到跨语言组件互操作,重新定义一次编译到处运行的真正含义
编程
WebAssembly 组件模型深度实战:从 WASI Preview2 到跨语言组件互操作,重新定义一次编译到处运行的真正含义
2026-04-30 03:54:47 +0800 CST
view 162
深入解析 WebAssembly 组件模型技术体系:WIT接口定义、跨语言组件互操作、WASI Preview2能力安全、Wasm容器化部署、性能优化与生产实战
WebAssembly
Wasm
组件模型
WASI
WIT
跨语言
OpenHarness 深度解析:当 1.1 万行 Python 把闭源巨头的 51.2 万行代码「压缩」成开源自由
编程
OpenHarness 深度解析:当 1.1 万行 Python 把闭源巨头的 51.2 万行代码「压缩」成开源自由
2026-04-11 06:59:04 +0800 CST
view 350
港大开源 OpenHarness,用 1.1 万行 Python 实现 Claude Code 98% 核心能力,体积缩小 44 倍,完全开源免费,模型无关。深度解析其 10 大子系统架构、工具系统、记忆系统、安全治理等核心模块。
AI Agent
开源
Python
Claude Code
香港大学
大模型
当 Apple Silicon 遇上视觉大模型:MLX-VLM 如何把「本地多模态推理」变成现实
编程
当 Apple Silicon 遇上视觉大模型:MLX-VLM 如何把「本地多模态推理」变成现实
2026-04-11 10:24:48 +0800 CST
view 395
深度解析 Apple Silicon 上的视觉语言模型推理引擎 MLX-VLM,涵盖架构设计、模型支持、性能优化与实战部署。
Apple Silicon
MLX
视觉语言模型
VLM
Mac本地AI
多模态推理
MiniCPM-o 2.6 深度解析:8B参数如何在iPad上跑出GPT-4o级全模态性能——端侧多模态大模型的工程化突破
编程
MiniCPM-o 2.6 深度解析:8B参数如何在iPad上跑出GPT-4o级全模态性能——端侧多模态大模型的工程化突破
2026-05-11 01:50:57 +0800 CST
view 88
深入解析MiniCPM-o 2.6:8B参数如何在iPad上实现GPT-4o级全模态性能,时分复用TDM机制、端到端架构、低延迟并发处理的技术内幕,附完整部署代码和性能优化实战
AI,MiniCPM,多模态,端侧模型,面壁智能
TurboQuant + RWKV-6:AI 推理效率双重突破——从内存压缩到线性架构,大模型部署范式的革命性重构
编程
TurboQuant + RWKV-6:AI 推理效率双重突破——从内存压缩到线性架构,大模型部署范式的革命性重构
2026-04-20 10:46:48 +0800 CST
view 180
深度解析 2026 年 AI 推理效率的双重突破:Google TurboQuant 实现 6 倍内存压缩与 8 倍速度提升,RWKV-6 以线性复杂度架构打破 Transformer 的二次方魔咒。从数学原理到代码实战,详解这场效率革命的本质。
TurboQuant
RWKV
AI推理
内存压缩
大模型
Rust在人工智能生成内容(AIGC)领域的应用
编程
Rust在人工智能生成内容(AIGC)领域的应用
2024-11-18 13:48:25 +0800 CST
view 1769
本文探讨了Rust在人工智能生成内容(AIGC)领域的应用,强调其安全性、高性能和并发性等优势。通过介绍Tch-rs和Rust-Bert等库,展示了Rust在深度学习和生成模型中的实际使用案例,包括神经网络和生成对抗网络(GAN)的实现。Rust的特性使其成为开发复杂AIGC项目的理想选择。
编程语言
人工智能
深度学习
生成模型
Rust
LLM推理引擎终极对决:vLLM vs TensorRT-LLM深度解析与2026生产环境选型指南
编程
LLM推理引擎终极对决:vLLM vs TensorRT-LLM深度解析与2026生产环境选型指南
2026-04-20 13:45:31 +0800 CST
view 254
深度对比vLLM与TensorRT-LLM两大LLM推理框架,从PagedAttention到Kernel Fusion,从量化技术到生产部署,助你做出正确的技术选型决策
LLM
vLLM
TensorRT-LLM
推理优化
大模型部署
量化技术
AI工程
MCP + A2A 双协议时代:2026 AI Agent 互操作标准全景解析
编程
MCP + A2A 双协议时代:2026 AI Agent 互操作标准全景解析
2026-04-12 02:23:58 +0800 CST
view 550
深度解析2026年AI Agent互操作领域的两大核心协议MCP与A2A的设计理念、核心架构、代码实战与演进方向,探讨多Agent系统从单体走向协作的技术路径。
AI Agent
MCP
A2A
大模型
协议标准
2026技术趋势
Agent互操作
CC Switch:45K Star 的 AI 大模型万能遥控器,让 100+模型说同一种语言
案例
CC Switch:45K Star 的 AI 大模型万能遥控器,让 100+模型说同一种语言
2026-05-01 15:33:28 +0800 CST
view 587
GitHub 45K+ Star 的 CC Switch 是什么?详解这款大模型万能遥控器的核心功能、与 One API 的区别、以及如何配合 OpenClaw 使用。
CC Switch
AI工具
大模型
OpenClaw
Claude Code
1.6万亿参数,1M上下文,仅需27%算力:DeepSeek-V4-Pro 如何重新定义长文本推理
编程
1.6万亿参数,1M上下文,仅需27%算力:DeepSeek-V4-Pro 如何重新定义长文本推理
2026-05-11 10:53:54 +0800 CST
view 86
DeepSeek-V4-Pro 以 1.6T 总参数、49B 激活参数的 MoE 架构,原生支持 100 万 token 上下文,同时将推理算力降至 V3.2 的 27%、KV Cache 降至 10%。本文深度解析 CSA/HCA 混合注意力机制、mHC 流形约束超连接、KV Cache 极致优化、Muon 优化器等核心技术创新,以及如何在 Ollama、vLLM、官方 API 三种方式下部署运行。
DeepSeek-V4,MoE架构,CSA注意力,HCA注意力,KV Cache,1M上下文,长文本推理,开源大模型
超越 Docker:WebAssembly Component Model 如何重塑跨语言服务架构
编程
超越 Docker:WebAssembly Component Model 如何重塑跨语言服务架构
2026-04-20 22:48:34 +0800 CST
view 234
深度解析 Wasm 组件模型 + WIT 接口语言 + WASI 2.0 如何在服务端重构跨语言协作范式,含完整 Rust/Go 实战代码
WebAssembly
Wasm
组件模型
跨语言
WASI
WIT
服务端架构
全球永久免费大模型API盘点 + AI厂商系统提示词泄露项目一览
资讯
全球永久免费大模型API盘点 + AI厂商系统提示词泄露项目一览
2026-04-20 23:01:22 +0800 CST
view 385
2026年最全免费大模型API平台盘点(智谱GLM、Kimi、硅基流动、OpenRouter等10+平台),以及AI厂商系统提示词泄露开源项目一览,含Claude 16700字提示词分析和Claude Code源码泄露事件
AI
大模型
免费API
系统提示词
开源
Prompt
开发者
Kimi K2.6 开源了!还附送了 300 个 Agent 员工?
编程
Kimi K2.6 开源了!还附送了 300 个 Agent 员工?
2026-04-21 07:57:28 +0800 CST
view 274
Kimi K2.6开源发布,SWE-Bench Pro 58.6分超越GPT-5.4和Claude Opus 4.6,300个子Agent并行4000步骤持续5天
Kimi
开源
AI编程
Agent
月之暗面
SWE-Bench
大模型
170亿参数撬动万亿算力:Llama 4 Scout/Maverick如何用MoE架构重新定义开源大模型
编程
170亿参数撬动万亿算力:Llama 4 Scout/Maverick如何用MoE架构重新定义开源大模型
2026-05-11 20:48:39 +0800 CST
view 65
深度解析Llama 4 Scout/Maverick的MoE架构、128专家设计、1000万token超长上下文,附本地部署实战与许可证分析
Meta
Llama4
MoE
开源大模型
混合专家架构
Scout
Maverick
iRoPE
花3块钱、2小时训练一个64M的"小破模型",能干啥?
编程
花3块钱、2小时训练一个64M的"小破模型",能干啥?
2026-04-21 09:05:56 +0800 CST
view 171
MiniMind:从零手写完整LLM训练流水线,64M参数,2小时+3块钱训练完成,支持预训练+SFT+RLHF+工具调用,适合Multi-Agent/自动化/端侧集成
开源
LLM
PyTorch
模型训练
MiniMind
AI
工具调用
RLHF
Python中的shapley-regression库,重点在于如何安装、使用及其在机器学习模型中的应用
综合
Python中的shapley-regression库,重点在于如何安装、使用及其在机器学习模型中的应用
2024-11-19 05:02:08 +0800 CST
view 1518
本文介绍了Python中的shapley-regression库,重点在于如何安装、使用及其在机器学习模型中的应用。通过计算SHAP值,用户可以理解特征对模型预测的贡献,并利用可视化工具展示这些信息。文章涵盖了库的基本用法和高级用法,包括模型训练、SHAP值计算和特征重要性的可视化,适用于房价预测等实际案例。
数据分析
机器学习
模型解释
2.8秒超越4小时调优:TabPFN如何用Transformer重写表格数据机器学习
编程
2.8秒超越4小时调优:TabPFN如何用Transformer重写表格数据机器学习
2026-05-12 00:20:07 +0800 CST
view 65
深度解析TabPFN如何用Transformer架构重写表格数据机器学习范式:从合成数据预训练、先验数据拟合原理、2.8秒vs4小时性能对比,到TabPFN-2.5的10万行处理能力与SAP收购战略意义,附完整代码示例
TabPFN,表格数据,Transformer,AutoML,机器学习,XGBoost,PriorLabs,深度学习,基础模型,Python
WebAssembly Component Model 深度解析:从理论奠基到生产落地的完整指南
编程
WebAssembly Component Model 深度解析:从理论奠基到生产落地的完整指南
2026-04-21 10:20:21 +0800 CST
view 162
深度解析WebAssembly Component Model的设计理念、WIT接口定义语言、Canonical ABI机制、wit-bindgen实战用法,以及2026年主流运行时生态现状,帮助开发者建立完整的技术认知框架。
WebAssembly
WCM
WIT
wasmtime
跨语言互操作
服务器端Wasm
组件模型
VibeVoice 深度拆解:微软如何用 LLM+扩散模型重新发明语音合成——从双Tokenizer到90分钟超长对话的全链路技术实战
编程
VibeVoice 深度拆解:微软如何用 LLM+扩散模型重新发明语音合成——从双Tokenizer到90分钟超长对话的全链路技术实战
2026-05-02 22:34:34 +0800 CST
view 117
微软开源VibeVoice深度技术拆解:双Tokenizer架构、LLM对话中枢、Next-Token扩散模型、7.5Hz超低帧率,90分钟多角色对话生成的全链路实战
VibeVoice
语音合成
TTS
扩散模型
LLM
微软开源
从原理到实战:llama.cpp 与 GGUF 量化格式的工程实践全解
编程
从原理到实战:llama.cpp 与 GGUF 量化格式的工程实践全解
2026-04-12 22:56:41 +0800 CST
view 328
2026年深度解析 llama.cpp 架构设计与 GGUF 量化格式,从底层原理到工程实战,涵盖 K-Quant/IQ 量化、Flash Attention、KV Cache 优化、Intel NPU/GPU 部署全流程。
llama.cpp
GGUF
量化
大模型
C++
本地部署
Kimi K2.6 开源:12小时连续编码,300个Agent并行,4000次工具调用
编程
Kimi K2.6 开源:12小时连续编码,300个Agent并行,4000次工具调用
2026-04-21 11:06:57 +0800 CST
view 270
Kimi K2.6 开源版发布:SWE-Bench Pro 58.6,多项榜单压GPT-5.4和Claude Opus 4.6,支持300个并行sub-agent、12小时持续编码、4000次工具调用,开源SOTA位置稳固
Kimi
K2.6
开源
SWE-Bench
Agent
Swarm
长程编码
AI编程
模型开源
HuggingFace
Moonshot
大家都在搜索什么?
devops
易支付
一个官网+多少钱
统一接受回调
统一回调
sub
node
宝塔日志
mysql
shell
ElasticSearch
css
vue
api接口对接
2025
支付接口对接
go
php
php回调
回调
上一页
1
2
3
4
5
下一页