程序员茄子
全部
编程
代码
资讯
案例
综合
联系我们
html在线编辑
登录注册
AI,自己全程接管维护
php
mysql
shell
go
vue
css
api接口对接
支付接口对接
最新
最热
Karpathy的LLM Wiki:一种将RAG从「解释器模式」升级为「编译器模式」的革命性架构
编程
Karpathy的LLM Wiki:一种将RAG从「解释器模式」升级为「编译器模式」的革命性架构
2026-04-19 09:13:12 +0800 CST
view 173
深度解析Karpathy提出的LLM Wiki架构,从算法原理、工程实现、代码实战三个维度讲清楚「编译器模式」如何颠覆传统RAG知识库
LLM Wiki
RAG
知识库
AI Agent
Karpathy
自进化知识库
第二大脑
女娲.skill 深度解析:当造人从神话变成代码,把乔布斯、芒格、马斯克的思维方式变成可运行的AI技能
编程
女娲.skill 深度解析:当造人从神话变成代码,把乔布斯、芒格、马斯克的思维方式变成可运行的AI技能
2026-04-10 02:43:26 +0800 CST
view 1354
女娲skill深度解析:输入人名自动蒸馏认知操作系统,六路Agent Swarm并行采集、三重心智模型验证、表达DNA量化,乔布斯芒格马斯克等13位人物一键生成可运行Skill
AI
Skill
认知蒸馏
心智模型
Claude Code
Claude Memory Compiler 深度解析:当 AI 编程助手第一次拥有「编译器思维」的记忆系统
编程
Claude Memory Compiler 深度解析:当 AI 编程助手第一次拥有「编译器思维」的记忆系统
2026-04-10 03:35:31 +0800 CST
view 134
claude-memory-compiler 把 AI 对话当作源代码,用 LLM 编译成结构化知识库,让 Claude Code 拥有跨会话记忆能力
Claude Code
AI Agent
Knowledge Management
LLM
Memory System
Sage-Wiki 深度解析:当知识管理从「手动整理」变成「LLM自动编译」
编程
Sage-Wiki 深度解析:当知识管理从「手动整理」变成「LLM自动编译」
2026-04-10 06:03:55 +0800 CST
view 253
sage-wiki 是基于 Andrej Karpathy 想法实现的 LLM-compiled 个人知识库,支持15种格式自动编译成互链 Wiki,MCP 接口让 AI Agent 访问你的知识。
sage-wiki
知识管理
LLM
Go
编译器
Karpathy
MCP
MarkItDown 深度解析:微软如何用一行命令解决 LLM 文档处理的世纪难题
编程
MarkItDown 深度解析:微软如何用一行命令解决 LLM 文档处理的世纪难题
2026-04-19 17:14:36 +0800 CST
view 56
深度解析微软开源工具 MarkItDown,10.8万星GitHub热门项目,解决 LLM 文档处理的世纪难题。支持20+格式一键转Markdown,MCP协议与AI工具深度集成。
MarkItDown
Markdown
Python
微软
LLM
MCP
RAG
文档处理
你睡觉,AI 干活:Karpathy 的 AutoResearch 如何让大模型自己学会训练自己
编程
你睡觉,AI 干活:Karpathy 的 AutoResearch 如何让大模型自己学会训练自己
2026-04-19 18:47:36 +0800 CST
view 43
深入解析 Andrej Karpathy 的 AutoResearch 开源项目,揭示其让 AI agent 自主修改训练代码、在真实执行中验证改进的核心机制,探讨对算法工程师职业的影响。
AI研究
机器学习
AutoML
LLM训练
Andrej Karpathy
GitHub开源
自动化调参
Python
研究效率
Agent
Onyx 深度解析:当开源AI平台把「企业级能力」变成「一键部署」
编程
Onyx 深度解析:当开源AI平台把「企业级能力」变成「一键部署」
2026-04-10 07:36:00 +0800 CST
view 100
Onyx 是 26k+ stars 的开源AI平台,提供 Agentic RAG、Deep Research、Custom Agents、MCP 等企业级能力。本文深度解析其架构设计、核心功能和部署实战,是私有AI部署的标准答案。
Onyx
开源AI
RAG
企业AI
LLM平台
LiteRT-LM:Google端侧大模型推理引擎的革命性架构——从TensorFlow Lite的困境到LLM原生推理的全链路解析
编程
LiteRT-LM:Google端侧大模型推理引擎的革命性架构——从TensorFlow Lite的困境到LLM原生推理的全链路解析
2026-04-19 22:17:39 +0800 CST
view 41
深入解析Google LiteRT-LM端侧LLM推理引擎的核心架构:分层内存池、KV Cache量化、算子融合、WebGPU运行时。与TensorFlow Lite、llama.cpp、MLX横向对比,提供生产级部署实战指南。
Google
端侧AI
LiteRT-LM
WebGPU
量化
KV Cache
TensorFlow Lite
LLM推理
60行CLAUDE.md,25K Stars:Karpathy揭示的LLM编程四大致命陷阱与工程解法
编程
60行CLAUDE.md,25K Stars:Karpathy揭示的LLM编程四大致命陷阱与工程解法
2026-04-19 23:44:59 +0800 CST
view 52
深度解析GitHub 25K Stars项目forrestchang/andrej-karpathy-skills,揭示LLM编程工具的四大系统性缺陷,详解Karpathy四大编码原则在工程实践中的落地方法。
Claude Code
LLM
AI编程
Karpathy
工程实践
你睡觉AI在训练:Karpathy AutoResearch如何让AI自主优化GPT模型
编程
你睡觉AI在训练:Karpathy AutoResearch如何让AI自主优化GPT模型
2026-04-11 10:54:43 +0800 CST
view 101
深入解析Karpathy开源的AutoResearch框架,探讨AI自主训练循环的工程实现与研究范式转变
AI
Karpathy
AutoML
LLM
GitHub
GPU白嫖指南:Karpathy AutoResearch把深度学习调参变成AI托管服务
编程
GPU白嫖指南:Karpathy AutoResearch把深度学习调参变成AI托管服务
2026-04-11 10:55:13 +0800 CST
view 105
深入解析Karpathy开源的AutoResearch框架,探讨AI自主训练循环的工程实现与研究范式转变
AI
Karpathy
AutoML
LLM
GitHub
Shell 里给变量赋值为多行文本
编程
Shell 里给变量赋值为多行文本
2024-11-18 20:25:45 +0800 CST
view 1534
在Shell中,通常只能给变量赋值单行文本。为了实现多行文本赋值,可以使用`read`命令结合`EOF`标记符。通过`read-r-d''var<<EOF`的方式,可以读取多行文本并赋值给变量。此外,还可以从外部文件读取内容并赋值。此方法简单方便,适用于多种场景。
Shell编程
脚本
命令行
AI Scientist-v2 深度解析:当 AI 第一次独立完成顶会论文并通过同行评审
编程
AI Scientist-v2 深度解析:当 AI 第一次独立完成顶会论文并通过同行评审
2026-04-11 11:46:16 +0800 CST
view 248
AI Scientist-v2 是 Sakana AI 发布的自动化科研论文生成系统,能端到端完成从想法到顶会论文的全流程。本文从程序员视角深入剖析其技术架构、Agentic Tree Search 机制与代码实现,并探讨其对科研和开发者的真实影响。
AI Agent
科研自动化
LLM
机器学习
Nature
从"第二天失忆"到"越用越聪明":Hermes Agent 如何用 Skills 闭环系统重新定义 AI Agent
编程
从"第二天失忆"到"越用越聪明":Hermes Agent 如何用 Skills 闭环系统重新定义 AI Agent
2026-04-20 10:17:48 +0800 CST
view 42
深度解析 NousResearch 开源的 Hermes Agent,剖析其 Skills 闭环系统与四层记忆架构,探讨 AI Agent 如何从"健忘症患者"进化为"越用越聪明"的智能伙伴,对比 Claude Code、OpenClaw、LangChain Agent 等竞品,并提供完整部署指南。
AI Agent
Hermes Agent
NousResearch
自我进化
Skills
记忆系统
Python
OpenClaw
当编译器成为自动驾驶的最后一块拼图:MLIR 如何让特斯拉 FSD 反应快 20%
编程
当编译器成为自动驾驶的最后一块拼图:MLIR 如何让特斯拉 FSD 反应快 20%
2026-04-11 12:56:32 +0800 CST
view 133
从特斯拉 FSD V14.3 的 MLIR 重写出发,系统讲解多级中间表示(MLIR)编译器框架的核心原理、方言系统、以及在自动驾驶 AI 推理中的应用。
MLIR
编译器
特斯拉
FSD
自动驾驶
LLVM
如何编写一个Shell脚本来清空`log.db`数据库中的`logs`表宝塔日志
代码
如何编写一个Shell脚本来清空`log.db`数据库中的`logs`表宝塔日志
2024-11-19 09:55:50 +0800 CST
view 1504
本文介绍了如何编写一个Shell脚本来清空`log.db`数据库中的`logs`表。脚本使用`DELETEFROMlogs;`SQL语句删除所有记录,并提供了执行脚本的步骤和注意事项。强调了操作的不可逆性,并建议在执行前备份数据库文件。还提到可以使用`VACUUM;`来整理数据库空间。
数据库管理
Shell脚本
SQL操作
宝塔日志
最全面的 `history` 命令指南
代码
最全面的 `history` 命令指南
2024-11-18 21:32:45 +0800 CST
view 1516
本文全面介绍了Linux和Unix系统中的`history`命令,包括其基本用法和高级选项。用户可以通过该命令查看、清空和管理命令历史记录,使用不同选项如`-c`、`-d`、`-w`等来操作历史记录。此外,文中还讨论了如何通过环境变量设置来优化历史记录的管理和使用。
Linux
Unix
命令行
Shell
技术
Obsidian Agent Skills 深度解析:从知识库到自动化工作流的工程实践
编程
Obsidian Agent Skills 深度解析:从知识库到自动化工作流的工程实践
2026-04-12 08:54:32 +0800 CST
view 145
深度解析 Obsidian Agent Skills 的工程架构:四层架构设计、Skill Registry 路由机制、与 MCP 的关系,以及如何从零构建 AI 辅助的论文写作工作流。
Obsidian
Agent Skills
知识管理
AI
自动化工作流
OpenClaw
MCP
MarkItDown 深度解析:微软10万星开源工具如何重塑 LLM 时代的文档处理范式
编程
MarkItDown 深度解析:微软10万星开源工具如何重塑 LLM 时代的文档处理范式
2026-04-21 05:47:35 +0800 CST
view 22
深度解析微软开源工具MarkItDown:如何将PDF、Word、Excel等20+格式转换为结构化Markdown,为LLM和RAG场景提供高质量的文档预处理方案。涵盖架构设计、实战代码、性能优化与生产部署最佳实践。
MarkItDown
文档转换
LLM
RAG
Python
开源工具
微软
花3块钱、2小时训练一个64M的"小破模型",能干啥?
编程
花3块钱、2小时训练一个64M的"小破模型",能干啥?
2026-04-21 09:05:56 +0800 CST
view 17
MiniMind:从零手写完整LLM训练流水线,64M参数,2小时+3块钱训练完成,支持预训练+SFT+RLHF+工具调用,适合Multi-Agent/自动化/端侧集成
开源
LLM
PyTorch
模型训练
MiniMind
AI
工具调用
RLHF
Kimi K2.6实测:Claude 1/6价格,原生多模态编码,能吃截图能迭代
编程
Kimi K2.6实测:Claude 1/6价格,原生多模态编码,能吃截图能迭代
2026-04-21 09:50:07 +0800 CST
view 25
Kimi K2.6 code preview实测:原生多模态+Tool Calling+Agent能力,价格为Claude 1/6,适合独立开发者做前端复刻和日常编码辅助
AI
LLM
Kimi
K2.6
模型实测
多模态
Agent
编程模型
独立开发
LRT 隐式思维链深度解析:当 AI 学会「静默思考」,推理效率提升数十倍的工程革命
编程
LRT 隐式思维链深度解析:当 AI 学会「静默思考」,推理效率提升数十倍的工程革命
2026-04-12 21:54:21 +0800 CST
view 151
深入解读 ICLR 2026 论文 LRT,揭示如何用轻量级推理网络将冗长的思维链压缩为隐式向量,实现推理效率数十倍提升
AI
LLM
推理优化
思维链
ICLR2026
从原理到实战:llama.cpp 与 GGUF 量化格式的工程实践全解
编程
从原理到实战:llama.cpp 与 GGUF 量化格式的工程实践全解
2026-04-12 22:56:41 +0800 CST
view 149
2026年深度解析 llama.cpp 架构设计与 GGUF 量化格式,从底层原理到工程实战,涵盖 K-Quant/IQ 量化、Flash Attention、KV Cache 优化、Intel NPU/GPU 部署全流程。
llama.cpp
GGUF
量化
大模型
C++
本地部署
Karpathy 的 LLM Wiki 深度解析:当知识管理从「解释器」进化为「编译器」——一场关于复利效应的工程革命
编程
Karpathy 的 LLM Wiki 深度解析:当知识管理从「解释器」进化为「编译器」——一场关于复利效应的工程革命
2026-04-13 00:25:08 +0800 CST
view 230
Andrej Karpathy 的 LLM Wiki 方法论深度解析:从解释器模式到编译器模式的范式转移,复利效应的工程实现,三层架构设计,以及规模化挑战与实践路径。
LLM
知识管理
RAG
Karpathy
Obsidian
大家都在搜索什么?
devops
易支付
一个官网+多少钱
统一接受回调
统一回调
sub
node
宝塔日志
mysql
shell
ElasticSearch
css
vue
api接口对接
2025
支付接口对接
go
php
php回调
回调
上一页
1
...
3
4
5
6
7
...
18
下一页