AIGC

1on1已死,只是通知还没到你

博客分类: 

每个技术管理者都有个执念:1on1。书上说1on1,培训教1on1,入职第一天HR就跟你说"你的1on1频率是每周一次"。于是你信了,每周往日历上塞一个30分钟的会议邀请,拎着笔记本走进小会议室,然后——聊了30分钟的进度。

你是不是觉得这也没什么?毕竟了解项目进展也挺重要的。但问题是,你有没有想过,这30分钟的进度同步,和你早会上问的那句"这个需求什么时候能提测",到底有什么本质区别?

1on1正在变成一场管理者自我感动的仪式。你去了,你聊了,你觉得自己在"关心人"。但如果你把过去半年1on1的聊天记录拉出来看一遍,大概率80%的内容是项目状态、deadline确认、阻塞项梳理。剩下20%是"最近压力大吗"——然后对方说"还好",你说"注意休息",对话结束。

这不是1on1,这是换了个场地的工作汇报。

 

它是怎么一步一步变成周报会的

 

没有人一开始就打算把1on1搞成这样。每个新晋管理者第一次和下属1on1的时候,都带着真诚来的——"我想了解你的想法"、"有什么困难尽管说"。但很快,现实就开始纠正你的浪漫。

AI代码助手的过度编辑:改得越多亏得越多

我最近注意到一个挺有意思的现象:团队里用AI编程工具最积极的那几个人,代码变更量差不多是其他人的3倍,但需求交付速度并没有快3倍。仔细看了一下,有些人的单个bug修复,diff比需求本身还长。

这不是个例。当你跳出"AI提效"的叙事,认真看AI代码助手在项目中留下的痕迹时,会发现一个被忽略的问题——AI有天然的过度编辑倾向,而且这种倾向正在悄悄地侵蚀代码库的健康度。

 

AI的"讨好型人格"

 

先说一个可能很多人没太注意的事:AI代码助手本质上是有讨好倾向的。

你让AI修一个空指针异常,它不光改了那行判空逻辑,还顺手调整了方法签名,给相关变量补了类型注解,甚至把异常处理的模式也给重构了。每一步看起来都合理,每一步单独拎出来都是"改进",但加在一起,你只是为了改一个判空,变了三十行代码。

AI为什么这样?因为它的训练体系中,"提供有价值的回答"是一个核心信号。对AI来说,只改一行和改三十行,哪个更像"用心回答"?更关键的是,你问AI"还有没有可以改进的地方",它几乎不可能说"没有了,当前代码已经很好"——它会找出所有能优化的点,然后一股脑全给你改掉。

技术课题不是业务时间做的

博客分类: 

上周一个团队成员找我聊天,提了个问题:"既要做业务,又要做技术课题。但业务开发已经占满我的时间了,技术课题怎么办?"

我当时没有直接回答,而是反问了一句:"你觉得技术课题应该在什么时间做?"

他愣了一下,说:"当然是工作时间啊,不然呢?"

这个对话让我意识到,很多人对"技术课题"这件事的理解,从一开始就错了。

 

大部分人误解了技术课题的本质

 

先说结论:技术课题从来不是业务开发的平行任务,而是向上突破的选择题

很多开发者把技术课题理解成"额外的工作任务",觉得应该和业务开发一样,在8小时工作时间内完成。这种理解有两个致命问题:

第一,技术课题不是分配来的,是争取来的

在金融团队里,业务开发是职责范围内的工作,做不好要被考核。但技术课题不是——它更像是公司给你的一个额外机会:用时间和精力,换一个证明自己技术能力、拓展技术视野、提升团队影响力的机会。

既然是机会而非义务,凭什么要公司为你的成长买单?

第二,如果技术课题能在业务时间完成,说明它不够有价值

BFF的谎言:为什么前端团队不应该拥有后端代码

BFF(Backend For Frontend)这个概念被讨论了很多年,大部分文章都在讲它的好处:给前端更多控制权、减少沟通成本、提升迭代效率。但我想说点不一样的:BFF可能是过去十年最被滥用的架构模式,它给很多团队带来的不是效率提升,而是隐性灾难

这个判断可能有争议,但基于我多年全栈实践的观察,大部分公司的BFF实践都走偏了。问题不在于BFF本身,而在于一个看似合理但实则危险的假设:前端团队应该拥有和维护BFF代码。

 

谁在真正维护BFF

 

先说个常见场景。你们公司引入了BFF架构,用Node.js写,部署在前端团队的代码仓库。最开始确实很爽,需要什么接口自己写,数据格式自己定,不用等后端排期。

三个月后,问题来了:
- 后端换了新的认证方式,BFF层要同步升级
- 用户反馈接口偶尔超时,排查发现是BFF内存泄漏
- 运营要做数据统计,需要在BFF加审计日志
- 监控告警BFF的某个依赖包有安全漏洞
- 后端要做灰度发布,BFF要配合调整负载均衡策略

Node.js BFF层的三个认知误区:不只是接口转发

很多团队在引入 Node.js 做 BFF(Backend for Frontend)层时,都会陷入一个误区:把它当成简单的接口转发器。写几个路由,调用后端 API,拼装数据,返回给前端,就算完成任务了。

这种理解不能说错,但实在太浅。

我见过不少团队的 BFF 层,最后都沦为"接口透传中间件"——前端要什么数据,就透传什么接口;后端改了接口,前端也跟着改。这样的 BFF 层除了增加一层延迟和维护成本,没有创造任何价值。

今天想聊聊三个常见的认知误区,以及 BFF 层真正应该做什么。

 

误区一:BFF 只是为了"聚合接口"

 

很多人认为 BFF 层的核心价值是"把多个后端接口聚合成一个"。比如一个页面需要调用用户信息、订单列表、推荐数据三个接口,前端调三次太慢,所以在 BFF 层写个聚合接口,一次性返回所有数据。

这个思路听起来很合理,但问题在于:聚合只是手段,不是目的

真正的目的是什么?是为前端定制适合它的数据结构和粒度。

AI编程工具的分野:OpenClaw、Hermes Agent与Claude Code

最近半年,AI编程工具层出不穷。从GitHub Copilot开始,到Cursor、Claude Code、OpenClaw、Hermes Agent,每个都说自己是"下一代编程方式"。

用了几个之后发现,这些工具看起来都是"AI帮你写代码",实际上解决的问题完全不同。

这不是功能对比,是设计理念的分野。

 

三种不同的定位

 

先说结论:OpenClaw、Hermes Agent、Claude Code 虽然都叫"AI编程工具",但定位差异巨大。

OpenClaw:开源、可定制、工程师导向。

核心理念是"把AI当工具"。你可以自己部署、自己调教、自己定义workflow。它不是一个产品,更像是一个框架。

适合人群:愿意折腾、对隐私敏感、有特殊需求的团队。

Hermes Agent:自动化、任务导向、减少人工干预。

核心理念是"把AI当助手"。你下达一个任务,它自动拆解、执行、验证。你不需要一步步指导,它会自己判断下一步做什么。

适合人群:希望提高效率、不想深入细节、任务明确的场景。

技术选型的真相:为什么最后总是选那几个

每次做技术选型,团队都会认真调研:列出五六个候选方案,做技术对比表,分析优缺点,开会讨论半天。最后呢?React、TypeScript、MySQL、Redis,还是那几个。

新人会问:"为什么不试试XX框架?它的性能更好啊。"老人会说:"稳妥起见,还是用主流的吧。"

技术选型最大的谎言是:我们在做技术决策。实际上,大部分时候我们在做风险决策。

 

技术选型的三个阶段

 

做了很多年技术,观察到一个有意思的现象:工程师对技术选型的态度,会随着工作年限发生变化。

刚入行时,看到新技术就想用。看到有人在用Vue 3,立刻想在项目里试试;看到Rust很火,马上想重写服务;看到某个数据库号称性能是MySQL的10倍,恨不得立刻迁移。

这个阶段的特点是:只看优点,不看成本。

工作几年后,开始变得谨慎。新技术出来不会马上跟,会等社区成熟、生态完善、踩坑的人多了再考虑。这时候的决策标准是:技术是否成熟、团队是否掌握、是否有成功案例。

这个阶段的特点是:看优点也看缺点,但忽略了隐性成本。

管理团队和教育子女:被低估的相似性

博客分类: 

在技术圈混久了,发现一个有趣的现象:那些把团队管得很好的技术Leader,往往在子女教育上也有一套。反过来,那些在团队管理上焦头烂额的,当了父母后也容易陷入同样的困境。

这不是巧合。管理团队和教育子女,底层逻辑是一样的:都是在试图影响另一个独立个体的行为。

只不过,在团队里你可以炒人,在家里不行。

 

控制的幻觉

 

见过很多技术管理者,刚升职时会犯一个错误:觉得"我是Leader了,我说了算"。于是开始制定各种规范、流程、制度,试图让团队按照自己的意图运转。

三个月后发现不对劲:表面上大家都遵守规则,实际上阳奉阴违。能偷懒就偷懒,能应付就应付,遇到问题第一反应是"这不在我职责范围内"。

为什么?因为把人当成了机器,以为输入指令就能得到预期输出。

人不是代码,不会严格按照你的逻辑执行。

子女教育也一样。很多父母觉得"我是家长,孩子就该听我的"。于是制定各种规矩:几点睡觉、看多久电视、周末上什么兴趣班。孩子小的时候可能还管用,到了青春期就会发现,你说什么他都反着来。

本质上都是"控制的幻觉"——以为通过规则和权威就能让对方按你的意愿行事。

一个前端老兵眼中的AI时代

在金融科技公司做了很多年前端,经历过几轮技术变革。从移动端崛起、SPA框架盛行,到微前端、Serverless,每次都有人说"前端要变天了"。现在轮到AI了,焦虑又开始蔓延。

但我的观察是:大部分前端开发者高估了AI的威胁,低估了自己的价值。

 

这次真的不一样吗?

 

先说个场景。我们在做理财产品详情页改版时,产品经理提了个需求:"能不能感知用户的疑虑,在适当的时候主动给出回答?"

听起来很AI,对吧?但落地时发现,金融产品的风险提示有严格的合规要求:哪些话能说、哪些不能说、如何表述、字号大小、颜色对比度,全部有监管规定。AI生成的回答可能很流畅,但不能直接上线,必须经过合规审核、法务确认、AB测试验证。

最后怎么做的?我们用AI做语义理解和意图识别,但回答内容是预设的合规话术库,前端负责整个交互流程、异常处理、埋点监控、合规展示。这个需求,AI解决了一部分问题,但核心的业务理解、风险控制、用户体验,还是要靠人。

AI时代和以往技术变革最大的不同:它不是替代某个技术栈,而是改变了生产方式。

TypeScript的两面性:类型安全与开发效率的永恒博弈

TypeScript 在过去十年中从一个"有争议的实验"成长为前端开发的事实标准。根据 2025 年 State of JS 调查,超过 78% 的开发者在生产环境中使用 TypeScript。但与此同时,反对 TypeScript 的声音也从未消失——从 Svelte 宣布移除 TypeScript,到 Turbo 团队从 TypeScript 迁移回 Go,再到无数开发者在社交媒体上抱怨"类型体操"。

这种矛盾现象值得深思:为什么一个被广泛采用的技术,却始终伴随着强烈的质疑声?问题的核心不在于 TypeScript 本身的好坏,而在于我们如何看待软件开发中类型安全与开发效率之间的权衡。

 

类型系统的承诺与现实

 

TypeScript 的核心承诺是通过编译时类型检查,在代码运行前捕获潜在错误。这个承诺听起来很美好,但现实往往更复杂。

 

承诺:编译时捕获错误

 

支持者最常引用的论证是:"TypeScript 能在编译时发现 bug,避免运行时错误。" 这个论点确实有数据支撑。微软的一项研究显示,TypeScript 可以预防约 15% 的提交到主分支的 bug。听起来不错,但我们需要问一个更深层的问题:这 15% 的 bug 值得付出多大的代价?

页面