程序员茄子
全部
编程
代码
资讯
案例
综合
联系我们
html在线编辑
登录注册
AI,自己全程接管维护
php
mysql
shell
go
vue
css
api接口对接
支付接口对接
最新
最热
Models.dev:OpenCode团队开源3.6K Star的AI模型数据库
案例
Models.dev:OpenCode团队开源3.6K Star的AI模型数据库
2026-05-07 07:11:58 +0800 CST
view 19
OpenCode团队开源的AI模型数据库,3.6K Star,219+贡献者维护。标准化整合数十家主流AI模型的价格、能力、规格信息,提供JSON API,支持精确成本估算,TOML格式数据
AI模型
模型对比
成本计算
OpenCode开源
TOML
JSON API
模型规格
平面设计常用尺寸
编程
平面设计常用尺寸
2024-11-19 02:20:22 +0800 CST
view 2730
本文详细列出了各种名片、宣传册、信纸、信封等的标准尺寸,包括横版、竖版和方版的具体尺寸,以及不同开本的纸张尺寸。还解释了开数的概念,说明了如何计算成品尺寸与纸张尺寸之间的关系。内容涵盖了多种常见的印刷产品及其规格,适用于设计和印刷行业的参考。
设计
印刷
规格
Kimi K2.6 开源深度测评:国产模型首次登顶全球代码榜首,开发者必须知道的那些事
编程
Kimi K2.6 开源深度测评:国产模型首次登顶全球代码榜首,开发者必须知道的那些事
2026-04-28 15:51:45 +0800 CST
view 76
2026年4月20日月之暗面发布Kimi K2.6,在SWE-Bench Pro拿下58.6分首次超越GPT-5.4和Claude Opus 4.6。本文从技术架构、代码实测、API集成、性能优化、工具链集成等维度进行深度测评。
AI大模型
代码工具
Kimi
月之暗面
开源模型
SWE-Bench
开发者工具
代码审查
Google TimesFM 深度解析:14K Star 的时间序列基础模型如何用 200M 参数颠覆零样本预测
编程
Google TimesFM 深度解析:14K Star 的时间序列基础模型如何用 200M 参数颠覆零样本预测
2026-04-28 18:22:55 +0800 CST
view 130
深度解析 Google TimesFM:200M 参数如何在 1000 亿时间点上预训练后实现零样本超越有监督模型,覆盖架构原理、代码实战、性能对比与生产部署完整指南。
AI大模型
时间序列预测
Google
TimesFM
零样本预测
深度学习
GitHub开源
预训练模型
DeepSeek 专家模式深度解析:当低调更新成为AGI赛道的产品哲学宣言
编程
DeepSeek 专家模式深度解析:当低调更新成为AGI赛道的产品哲学宣言
2026-04-09 10:23:56 +0800 CST
view 252
2026年4月8日,DeepSeek悄然上线「专家模式」,无发布会无公告,却被业内视为V4发布前最有分量的产品预告。本文深度拆解双模式技术架构差异,实测数理推理、专业编程、创意写作三大场景,并解读这一低调更新背后的产品哲学与行业信号。
DeepSeek
AI大模型
V4
专家模式
推理模型
产品设计
国产AI
场景分层
Gemma 4 架构解密:MoE 路由 × GQA 注意力 × Thinking Mode——31B 如何击败 20 倍参数对手
编程
Gemma 4 架构解密:MoE 路由 × GQA 注意力 × Thinking Mode——31B 如何击败 20 倍参数对手
2026-04-19 17:47:49 +0800 CST
view 182
深入解析 Google Gemma 4 的核心技术架构:MoE 稀疏专家路由、GQA 分组查询注意力、PLE 逐层嵌入、Thinking Mode 推理机制,详解 31B 模型如何以小博大击败 20 倍参数对手,附全场景部署实战代码。
Gemma
Google
AI
开源大模型
MoE
GQA
Transformer
深度学习
模型架构
Kimi K2.6实测:Claude 1/6价格,原生多模态编码,能吃截图能迭代
编程
Kimi K2.6实测:Claude 1/6价格,原生多模态编码,能吃截图能迭代
2026-04-21 09:50:07 +0800 CST
view 295
Kimi K2.6 code preview实测:原生多模态+Tool Calling+Agent能力,价格为Claude 1/6,适合独立开发者做前端复刻和日常编码辅助
AI
LLM
Kimi
K2.6
模型实测
多模态
Agent
编程模型
独立开发
Gemma 4 MoE 架构技术深度解析:Dense MLP + Routed MoE 双路径设计如何重塑开源大模型
编程
Gemma 4 MoE 架构技术深度解析:Dense MLP + Routed MoE 双路径设计如何重塑开源大模型
2026-04-21 14:22:20 +0800 CST
view 189
深度解析 Google Gemma 4 的 Dual-Path 混合架构设计:Dense MLP 保障通用基座能力,Routed MoE 释放专业化推理效率。一文吃透技术原理、部署实战与选型对比。
Gemma 4
MoE架构
Dense MLP
Routed MoE
Google DeepMind
开源大模型
Transformer
模型部署
混合专家
端侧大模型深度解析:当AI走出云端、住进你的手机——从千亿参数到4B模型的边缘智能革命
编程
端侧大模型深度解析:当AI走出云端、住进你的手机——从千亿参数到4B模型的边缘智能革命
2026-04-15 21:23:26 +0800 CST
view 217
2026年端侧大模型技术深度解析:从千亿参数云端模型到4B端侧模型的工程革命,涵盖量化、蒸馏、架构优化与Mano-P实战案例
端侧大模型
边缘AI
模型量化
知识蒸馏
Mano-P
GUI智能体
TinyML
AI手机
Kimi K2.6 深度解析:月之暗面最强代码模型的工程化突破与 Agent 集群实战
编程
Kimi K2.6 深度解析:月之暗面最强代码模型的工程化突破与 Agent 集群实战
2026-04-25 08:14:23 +0800 CST
view 539
深度解析月之暗面开源的Kimi K2.6模型:长程编码能力、Agent集群架构、代码实战与性能优化指南
Kimi
K2.6
月之暗面
AI编程
Agent集群
代码模型
开源模型
TriAttention深度解析:MIT韩松团队如何用三角函数让单卡4090跑出百万Token上下文
编程
TriAttention深度解析:MIT韩松团队如何用三角函数让单卡4090跑出百万Token上下文
2026-04-17 10:15:58 +0800 CST
view 202
2026年4月,MIT、英伟达、浙江大学联合发布TriAttention,用三角函数建模注意力距离偏好,实现KV缓存10.7倍压缩,让单卡4090跑出百万Token上下文。
AI
大模型
Transformer
注意力机制
KV缓存
长上下文
模型优化
论文解读
2026
Kimi K2.6开源:13小时编码与300子Agent集群,国产大模型抢滩长程编程高地
编程
Kimi K2.6开源:13小时编码与300子Agent集群,国产大模型抢滩长程编程高地
2026-04-27 14:52:59 +0800 CST
view 311
深度解析月之暗面开源的Kimi K2.6模型:13小时不间断编码、300子Agent集群协作、5天自主运行的技术架构与实测案例分析
Kimi K2.6
开源模型
长程编程
AI Agent
国产大模型
Moonshot AI
Agent集群
编程助手
METATRON 深度解析:当 AI 渗透测试在本地跑出「免费版 GPT-4 安全助手」
编程
METATRON 深度解析:当 AI 渗透测试在本地跑出「免费版 GPT-4 安全助手」
2026-04-09 07:55:23 +0800 CST
view 538
深度解析 METATRON:如何在本地零成本跑起一个完整的 AI 渗透测试助手,基于 Qwen 微调模型 + Ollama + MariaDB,无需 API Key,数据完全不出本地。
AI渗透测试
Ollama
Qwen
本地大模型
MariaDB
Pentest
安全工具
Agent
GPT-6 深度解析:当"土豆"成为 AGI 的最后一公里
编程
GPT-6 深度解析:当"土豆"成为 AGI 的最后一公里
2026-04-09 08:39:00 +0800 CST
view 265
OpenAI GPT-6 深度解析:代号Spud,Symphony原生多模态架构、5-6万亿MoE参数、200万Token上下文、双系统推理框架,定位AGI最后一公里。含核心技术解读、架构分析、代码示例。
AI
GPT-6
OpenAI
AGI
大模型
AstronClaw 深度解析:科大讯飞如何用软硬一体架构让AI Agent走进物理世界
编程
AstronClaw 深度解析:科大讯飞如何用软硬一体架构让AI Agent走进物理世界
2026-04-19 07:17:09 +0800 CST
view 250
深度解析科大讯飞AstronClaw软硬一体AI Agent架构,从技术原理到应用场景全面剖析,探讨AI Agent如何突破屏幕限制走进物理世界。
AstronClaw
科大讯飞
AI Agent
软硬一体
智能体
星火大模型
Loomy
GlassClaw
SkillHub
LiteLLM 深度解析:100+ 大模型统一网关的架构设计与生产实战
编程
LiteLLM 深度解析:100+ 大模型统一网关的架构设计与生产实战
2026-04-29 05:42:47 +0800 CST
view 109
深度解析开源AI网关LiteLLM:100+大模型统一接入、虚拟密钥体系、负载均衡与故障降级、MCP/A2A网关、生产级Docker部署实战
LiteLLM
AI网关
大模型
LLM
API网关
Python
Docker
云原生
女娲.skill 深度解析:当造人从神话变成代码,把乔布斯、芒格、马斯克的思维方式变成可运行的AI技能
编程
女娲.skill 深度解析:当造人从神话变成代码,把乔布斯、芒格、马斯克的思维方式变成可运行的AI技能
2026-04-10 02:43:26 +0800 CST
view 1727
女娲skill深度解析:输入人名自动蒸馏认知操作系统,六路Agent Swarm并行采集、三重心智模型验证、表达DNA量化,乔布斯芒格马斯克等13位人物一键生成可运行Skill
AI
Skill
认知蒸馏
心智模型
Claude Code
GitHub Rubber Duck 深度解析:当 Claude 遇上 GPT-5.4,AI 编程进入「第二意见」时代
编程
GitHub Rubber Duck 深度解析:当 Claude 遇上 GPT-5.4,AI 编程进入「第二意见」时代
2026-04-10 03:24:31 +0800 CST
view 373
GitHub Rubber Duck 实验性功能深度解析:通过跨模型审查机制,Claude Sonnet 4.6 性能提升74.7%,AI编程进入第二意见时代
GitHub
Copilot
Rubber Duck
AI编程
Claude
GPT-5.4
代码审查
跨模型协作
DeepSeek V4 专家模式深度解析:当国产大模型终于学会「分场景思考」
编程
DeepSeek V4 专家模式深度解析:当国产大模型终于学会「分场景思考」
2026-04-10 07:21:56 +0800 CST
view 319
DeepSeek V4专家模式深度解析:双模式架构、LTM长期记忆技术、6710亿参数、场景分层设计,标志着国产大模型从参数比拼转向精细化竞争
DeepSeek
V4
专家模式
国产大模型
AI
WebAssembly 组件模型深度实战:从 WASI Preview2 到跨语言组件互操作,重新定义一次编译到处运行的真正含义
编程
WebAssembly 组件模型深度实战:从 WASI Preview2 到跨语言组件互操作,重新定义一次编译到处运行的真正含义
2026-04-30 03:54:47 +0800 CST
view 115
深入解析 WebAssembly 组件模型技术体系:WIT接口定义、跨语言组件互操作、WASI Preview2能力安全、Wasm容器化部署、性能优化与生产实战
WebAssembly
Wasm
组件模型
WASI
WIT
跨语言
OpenHarness 深度解析:当 1.1 万行 Python 把闭源巨头的 51.2 万行代码「压缩」成开源自由
编程
OpenHarness 深度解析:当 1.1 万行 Python 把闭源巨头的 51.2 万行代码「压缩」成开源自由
2026-04-11 06:59:04 +0800 CST
view 309
港大开源 OpenHarness,用 1.1 万行 Python 实现 Claude Code 98% 核心能力,体积缩小 44 倍,完全开源免费,模型无关。深度解析其 10 大子系统架构、工具系统、记忆系统、安全治理等核心模块。
AI Agent
开源
Python
Claude Code
香港大学
大模型
当 Apple Silicon 遇上视觉大模型:MLX-VLM 如何把「本地多模态推理」变成现实
编程
当 Apple Silicon 遇上视觉大模型:MLX-VLM 如何把「本地多模态推理」变成现实
2026-04-11 10:24:48 +0800 CST
view 350
深度解析 Apple Silicon 上的视觉语言模型推理引擎 MLX-VLM,涵盖架构设计、模型支持、性能优化与实战部署。
Apple Silicon
MLX
视觉语言模型
VLM
Mac本地AI
多模态推理
TurboQuant + RWKV-6:AI 推理效率双重突破——从内存压缩到线性架构,大模型部署范式的革命性重构
编程
TurboQuant + RWKV-6:AI 推理效率双重突破——从内存压缩到线性架构,大模型部署范式的革命性重构
2026-04-20 10:46:48 +0800 CST
view 151
深度解析 2026 年 AI 推理效率的双重突破:Google TurboQuant 实现 6 倍内存压缩与 8 倍速度提升,RWKV-6 以线性复杂度架构打破 Transformer 的二次方魔咒。从数学原理到代码实战,详解这场效率革命的本质。
TurboQuant
RWKV
AI推理
内存压缩
大模型
Rust在人工智能生成内容(AIGC)领域的应用
编程
Rust在人工智能生成内容(AIGC)领域的应用
2024-11-18 13:48:25 +0800 CST
view 1752
本文探讨了Rust在人工智能生成内容(AIGC)领域的应用,强调其安全性、高性能和并发性等优势。通过介绍Tch-rs和Rust-Bert等库,展示了Rust在深度学习和生成模型中的实际使用案例,包括神经网络和生成对抗网络(GAN)的实现。Rust的特性使其成为开发复杂AIGC项目的理想选择。
编程语言
人工智能
深度学习
生成模型
Rust
大家都在搜索什么?
devops
易支付
一个官网+多少钱
统一接受回调
统一回调
sub
node
宝塔日志
mysql
shell
ElasticSearch
css
vue
api接口对接
2025
支付接口对接
go
php
php回调
回调
上一页
1
2
3
4
下一页