人工智能知识 - 编程(二)
这一篇承接人工智能知识 - 编程(一)。前一篇已经梳理 AI 训练与推理编程的横向工程栈;本篇进入重点框架详解与代码精读,集中处理 PyTorch、Transformers、PEFT、语言模型强化学习、OpenRLHF、verl、DeepSpeed、vLL…
阅读全文人工智能知识 - 编程(一)
这一篇专门处理 AI 训练、微调、推理与部署中的编程栈问题。前几篇分别讲了机器学习基础、任务版图、Transformer 与上下文工程;这一篇转向“代码层面的真实系统”:从 NumPy、数据管线、训练框架、分布式组件,到推理引擎、向量检索、服务化接口与工程…
阅读全文人工智能知识 - 智能体
这一篇处理模型之外的系统层问题,包括上下文工程、Harness Engineering、检索增强生成(RAG)与智能体。前一篇讲的是模型本体及其训练和推理,这一篇转向“模型如何被放进真实系统里工作”:上下文如何组织,工具与知识库如何接入,验证闭环如何建立,…
阅读全文人工智能知识 - Transformers和大模型
这一篇聚焦现代大模型主线,内容从 Transformer 架构出发,延伸到语言模型、多模态模型、预训练与微调,以及推理阶段优化。前一篇已经建立了神经网络与训练机制,这一篇继续回答现代基础模型是如何堆叠出来、如何适配任务、又如何在部署侧提升吞吐、延迟与显存效…
阅读全文人工智能知识 - 主要应用领域
这一篇从任务视角进入现代 AI 的几个核心应用方向,重点讨论自然语言处理、计算机视觉、语音和音频处理、搜索/推荐/广告预估,以及时序建模和时间序列。前一篇已经建立了机器学习、神经网络与深度学习的基本方法,这一篇继续回答这些方法究竟被拿来解决哪些真实任务、每…
阅读全文人工智能知识 - 算法和机器学习
这一篇从常用算法进入机器学习基础概念、经典机器学习与神经网络,重点讨论“模型如何被构造、训练、评估与正则化”。前一篇给出了数学语言,这一篇开始进入真正的建模问题:数据怎样表示,损失怎样定义,优化怎样推进,不同模型家族各自擅长什么;再往后才会过渡到 Tran…
阅读全文人工智能知识 - 数学基础
这一篇整理 AI 所需的数学基础,包括基础数学、线性代数、微积分与概率论统计。它回答的核心问题是:模型里的向量、矩阵、导数、积分、概率分布、期望与信息量分别是什么意思,以及它们为什么会成为后续机器学习与深度学习的共同语言;后续篇章将在这些数学工具之上进入算…
阅读全文人工智能知识 - 简介
这一篇作为整套 AI 总纲的导论,先回答更根本的问题,不急于进入公式和具体模型细节:什么叫智能,人工智能究竟在试图做什么,机器为什么能从数据中学会某些能力,为什么这个方向在近十几年才真正爆发,以及机器学习、深度学习与大语言模型之间到底是什么关系。整套 qu…
阅读全文多语言敏感信息检测模型训练日志
这篇文章记录一个多语言敏感信息识别项目的完整训练日志。它关注的是工程路径本身:原始 AI 合成语料如何被清洗成可训练数据,哪些增强真正提升了监督质量。哪些架构在日志和代码块场景下看起来合理却反复失效。以及最终为什么是分层架构加数据侧 hard sample…
阅读全文DevPod on Kubernetes: turning devcontainer.json into a persistent remote workspace
DevPod is an open source workspace manager for reproducible development environments across Docker, Kubernetes, SSH hosts, and s…
阅读全文