随笔

晓舟笔记

  1. 能用AI搞定的事儿,就不要自己做!
  2. 所有不懂的都问AI,是什么?为什么?怎么做?或者和AI核实自己的想法对不对?
  3. 以前的软件开发是,程序员一边思考一边写代码,以后用AI开发,写代码这部分工作交给AI,但是思考还是得人来思考。
  4. 思考的是需求分析,技术选型,架构设计,模块拆分。AI可以提供方案,人来决策。
  5. 软件开发有很多现成的工具,如果自己不知道可以问AI,很多工作不需要自己从头做。(除非为了好玩,否则不要造轮子)
  6. 老程序员都要转变思维,以前代码考虑的是每行代码如何实现,AI编程最多考虑都每个模块或者函数如何实现。
  7. 前期规划要比立刻开始更重要,架构设计和功能拆分如果做得不好,后期项目会非常难以维护。这也是为什么很多程序员不用AI的原因。(开发习惯仍然是写到哪算到哪。)
  8. 让AI修改代码,一次只修改一个模块,不要让AI一次改多个功能。
  9. 为了保持代码的高度可维护性,代码需要让AI做阶段性重构。
  10. 为了更清楚AI生成的项目,需要让AI生成项目架构说明书,并阶段性更新说明书。
  11. 重构项目:删除没有用的模块和文件,对于项目架构说明书中不清楚的内容,需要让AI补充说明。
  12. 一个功能反复修改都改不对,可以选择任务拆分和重新开始。不要在一坨屎上雕花。
  13. 为了防止AI乱改代码,所以不仅说让AI改什么,也要说让AI不改什么。
  14. 有些工具或者框架,有官方资料,可以把官方资料喂给AI作为参考,有助于提升代码准确率。
  15. 如果有可以参考的示例代码,可以喂给AI让AI参考,有助于提升代码准确性。
  16. AI编程不可能达到100%正确,所有技巧都是为了提升AI编程的正确率。
  17. AI编程可以不懂代码。(但是需要懂软件工程。)
  18. 用AI编程不要着急实现最小可行产品,而是要先做好软件架构设计。
  19. 新手用opencode+deepseek
  20. 如果自己不知道如何编写提示词,可以把自己的想法说给AI,让AI生成找准提示词。
  21. 项目必须要有单元测试。
  22. 项目必须要有需求说明文档,架构说明文档,接口文档,当项目遇到问题时,AI可以自主查阅文档,以便明确目标,解决问题。
  23. 项目中可以编写一个不让AI做的事项列表。
  24. 可以让多个窗口同时工作,一个前端,一个后端,一个测试,一个待命。
  25. 开发人员做什么:可以把自己想象成是一个管理三个实习生的项目主管,三个实习生负责前端,后端和测试,我们负责下达命令和解决问题。有的时候虽然实习生没有我们自己效率高,但是综合来说,一定比自己什么都干省时间。
  26. 如果AI不能做好项目,那就是自己指挥有问题。
  27. 2026年以后,不再需要人来写代码。
  28. AI编程并不是说一个功能,AI就能写出来,AI编程也是一个系统工程,只不过和以前的开发流程有区别。
  29. 软件工程会重新成为重点。er图,uml图,架构,需求,会重新提上工作重点。因为只要有这些工具,软件可以自动生成。
  30. AI生成的代码乱,其实是自己对架构设计和业务模块不够了解。从前的项目大量时间用在编码,以后的项目更多的时间用在指定方案,包括:页面设计、架构设计、模块拆分、数据库设计。前期方案指定越细致,后期越节省时间。
  31. 要让代码在自己设计的架构中运行,而不是让AI自行发挥去运行,跑起来不重要,按照自己的思路跑起来才重要。要知道它为什么能跑起来,也要知道它为什么不能跑起来。如果不知道代码的运行逻辑,那么一直让AI在不清晰的逻辑上打补丁,代码会越来越难维护。
  32. 要想办法设计可扩展的程序,而不是一直在原模块的基础上修改。
  33. 如果自己没有架构能力,先与AI商量方案,方案聊清楚了再执行。AI有遗忘问题,可以将方案保存为文件。
  34. 在项目中创建代码规范文档,让代码保持规范。细节包括:技术选型、代码规范、注释规范。规范可以让AI来写。
  35. 让AI审核代码。
  36. AI编程是有一套标准流程的,只需要按照标准流程,就能用AI生成项目代码。AI编程的技术体现在对软件工程的理解。以前的程序员需要处理细节,有了AI,细节交给AI,人真正考虑工程化的事宜,码农会彻底消失。
  37. AI编程的终极形态应该是直接用0和1生成二进制文件。但是AI现在对世界并不理解,只是根据概率生成内容。
  38. AGI并没有一个明确的标准,什么是AGI,如果十年前,2016年问我们什么是AGI,我们可能会说,通过图灵测试,和人类对话,人类不知道他是计算机,并且能回答人类所有问题的系统就是AGI。但是现在很显然已经达到了。那现在说的AIG是什么呢?

AI现状报告(2025)-1-研究领域

2025 AI 现状报告(2025 年)

《AI 现状报告》已连续发布第八年,是目前关注度最高、最受信任的开源出版物,专门追踪人工智能领域的进展。它汇集了过去 12 个月中最重要、最具启发性的研究成果与行业动态。我们的目标是为 “AI 现状、领域发展方向及技术突破对未来的意义” 这一持续讨论提供信息支持,并推动讨论深化。

本年度报告将围绕 AI 生态系统的六大核心维度展开分析:

  • 研究:技术突破及其能力边界
  • 产业:AI 的商业应用领域及商业影响
  • 政策:AI 监管措施、经济影响及地缘政治演变
  • 安全:识别并缓解 “未来高能力 AI 系统可能带来的灾难性风险” 的相关努力
  • 调研:基于 1200 名 AI 从业者的大规模开源调研,分析其 AI 使用模式
  • 预测:未来 12 个月的发展展望,同时回顾 2024 年预测以确保报告的可信度

研究领域

  • 2025 年的核心主题是 “推理能力”:OpenAI、谷歌、Anthropic、深度求索(DeepSeek)等机构竞相引领,将 “先思考、后回答” 的可见方法推向实际产品。
  • 开源模型进步迅速,中国开源权重模型生态崛起,但顶级模型仍以闭源为主,且 “单位成本能力优势” 持续扩大。
  • 基准测试受 “数据污染” 和 “结果波动” 影响失效,而智能体(Agents)、世界模型及领域工具(代码、科学、医疗)开始具备实际实用性。

Read More

AI现状报告(2025)-2-产业领域

第二部分:产业领域

AGI 落幕,超级智能崛起

主流 AGI 竞争者的高管(以马克・扎克伯格为代表)已将 “AGI 努力” 重新包装为 “超级智能(Superintelligence)”。目前无人能明确其定义,但该概念 “具煽动性,能吸引关注”。

“开发超级智能的目标已近在眼前…… 我相信这将是人类新纪元的开端。”

—— 马克・扎克伯格,2025 年 Meta 超级智能实验室备忘录

前沿超级智能的真实成本:万亿美元

前沿超级智能的研发成本极高,已进入 “万亿美元级别”:

  • 山姆・奥特曼(Sam Altman)公开提及 “AI 领域万亿美元投入”;
  • 马斯克的 XAI “月烧钱 10 亿美元”,成本持续攀升;

从特例到典范:最优企业是 “AI 优先”

AI 已从 “小众领域” 转向 “创业与投资主流”。Specter 对 “5500 多万家私有企业” 的排名(追踪 “团队增长、产品智能、融资、财务、关注度” 等 200 + 实时信号)显示:

  • AI 企业占 “Top 100 最优企业” 的 41%(2022 年仅 16%);
  • 3 万名投资者与创始人的 “实时互动数据” 显示,ChatGPT 发布后 “关注度激增”,2024 年底达峰值,较 2020 年(仅核心信徒关注)增长 40 倍。

Read More

AI现状报告(2025)-3-政策领域

第三部分:政策领域

特朗普(第 47 任总统):强势回归

特朗普第二任期 “推出了第一任期曾暗示但未完全实施的强化政策”:

  1. 白宫 AI 领导层:纳入 “硅谷名人”,包括大卫・萨克斯(David Sacks,AI 与加密货币主管)、斯里拉姆・克里斯南(Sriram Krishnan,高级 AI 政策顾问)、迈克尔・克拉齐奥斯(Michael Kratsios,科学技术政策办公室主任);
  2. 核心议程
    • 激进废除 “拜登时代的安全规则(第 14179 号行政令)”;
    • 将 “AI 安全研究所(AI Safety Institute)” 更名为 “AI 标准与创新中心(CAISI)”,淡化 “安全” 定位;
    • 启动 “5000 亿美元‘星门’AI 基础设施计划”;
  3. 政策波折:2025 年 7 月发布的 “AI 行动计划” 阐述了 “美国主导全球 AI 的国家战略”;“‘大一统法案(One Big, Beautiful Bill)’中‘10 年禁止州 / 地方 AI 立法’的条款,因两党反对被删除”,但 “推动废除州级监管的努力仍在继续”。

《AI 行动计划》:美国的宏大 AI 战略

美国政府 “提出超 100 项政策,以确保 AI 创新与全球领导地位”,但 “美国官僚体系能否执行仍存疑”。23 页计划的核心要点包括:

  1. 美国技术栈出口:第 14320 号行政令 “设立‘美国 AI 出口计划’”,向 “盟友及其他国家提供‘AI 栈包(含硬件、模型、软件、应用、标准)’”;
  2. AI 基建扩建:计划 “简化审批流程、升级国家电网、开放联邦土地”,支持 “数据中心与 AI 工厂建设”;
  3. 开源模型领导地位:将 “美国开源领导力” 视为 “国家安全利益关键”;
  4. AI 监管废除:联邦机构 “可能削减对‘实施严格 AI 监管的州’的自主 AI 支出”;
  5. 模型言论自由保护:更新联邦采购政策 —— 美国 “仅采购‘无自上而下意识形态偏见’的前沿 LLM”。

从管制到出口:美国的 “AI 栈” 战略

美国政策 “从‘广泛扩散管制’转向‘出口主导战略’”。“美国 AI 出口计划” 将 “算力、模型、云服务、合规” 打包为 “美国政府认可的‘美国 AI 栈’”,提供给 “选定合作伙伴”。

核心目标是 “制定标准、建立依赖、对抗中国‘数字丝绸之路’策略”。

Read More

AI现状报告(2025)-4-安全领域

第四部分:安全领域

GDPval:就业市场的警示信号

OpenAI 新推出的 “经济价值任务基准 GDPval” 显示,AI 在 “44 个职业类别、1320 项任务” 中,“多个领域已接近人类专家水平”,预示知识工作者或将面临职场变革。

关键发现

  1. 推理模型表现领先:推理模型 “在 44 类专业工作任务胜率上,平均比 GPT-4o 高出 20.7%”;
  2. Claude 优势显著:此前在其他基准中未占主导的 Claude,“在 44 个职业中的 32 个获得最高胜率(或并列最高)”,论文认为部分原因是 “Claude 在格式处理上的优势”;
  3. 通用模型能力成熟:通用模型 “已展现出作为专业助手的强大能力”,前沿实验室与新入局者(General Reasoning、Mechanize)“正快速在‘真实工作场景’构建强化学习(RL)环境”;
  4. 就业影响显现:汉莎航空集团(Lufthansa Group)表示 “预计到 2030 年削减 4000 个行政岗位”,印证 AI 对特定岗位的替代压力。

GDPval:会计师暂保安全!

下方追踪图表 “基于 GDPval 结果,对不同职业的‘受 AI 干扰程度’进行排名”。

Read More

AI现状报告(2025)-5-现状与预测

第五部分:AI 现状调研

1183 名受访者调研:AI 使用率高,生产力提升显著

我们于 “2025 年 7 月 2 日至 9 月 27 日” 开展 “AI 使用习惯在线调研”,受访者共 1183 人。

受访者背景

  • 90% 以上为 “25-64 岁高学历成年专业人士”,就职于 “早期 / 成长期初创公司、上市公司及学术界”;
  • 80% 受访者 “均匀分布于美国、英国与欧洲”。

Read More

黄仁勋播客采访

主持人:黄仁勋(Jensen),很高兴再次与你和我的搭档邓克拉克(Clark Tang)相聚。真不敢相信,欢迎来到英伟达(Nvidia)!哦,你的眼镜真不错,戴在你脸上特别合适。但问题是,现在大家可能会让你一直戴着这副眼镜了,他们会说 “戴上那副红色眼镜”。我敢保证会这样。

距离我们上次播客已经过去一年多了。现在你们超过 40% 的收入来自推理业务,但推理技术正迎来新的突破,这要归功于 “推理链”(Chain of Reasoning)技术,对吧?它的效率预计会提升十亿倍,甚至百万倍、十亿倍,没错吧?

黄仁勋:没错。但大多数人还没有完全意识到这一点。我们现在讨论的这个行业,本质上正处于一场工业革命之中。说实话,自上次播客后,我感觉我们每天都在延续当时的对话 —— 在 AI 领域的时间维度里,这一年多差不多相当于 100 年。

我最近重温了上次的播客,当时我们聊到的很多内容都很突出,其中最让我印象深刻的,是我当时拍着桌子强调的一个观点。记得那时候,预训练领域正处于低谷,人们都在说 “预训练的时代结束了”“我们建得太多了”—— 那大概是一年半以前的事。而我当时说,推理效率的提升不会止步于 100 倍、1000 倍,而是会达到 10 亿倍。现在,我们正朝着这个方向发展。

Read More

强化学习之父播客采访

主持人:今天,我邀请到的嘉宾是理查德・萨顿(Richard Sutton)。他是强化学习(Reinforcement Learning,RL)领域的奠基人之一,也是该领域众多核心技术的发明者,比如时序差分学习(TD Learning)和策略梯度方法(Policy Gradient Methods)。凭借这些贡献,他获得了今年的图灵奖(Turing Award)—— 如果你不了解的话,这个奖项基本上相当于计算机科学领域的诺贝尔奖。理查德,恭喜你!

萨顿:谢谢你,德拉克(Dracus),也感谢你邀请我来参加这个播客。

Read More