分类: AI

通过WPeMatico自动添加.

  • 当 AI 剥夺了「手艺人」的快感,我们还剩下什么?

    当AI助手10分钟生成完美HTML原型时,传统产品经理的生存危机感骤然降临。这篇文章赤裸展现了一个资深PM面对AI碾压级生产力时的身份焦虑,揭示了工具革命下职业价值的本质拷问:当执行层技能被AI降维打击,我们究竟该守护什么核心竞争力?

    前几天,我做了一件事。

    面对一个B端需求,我没有像往常一样打开 Axure 画线框图,也没有打开 Word 写 PRD。我只是在一个对话框里敲了几行字,把需求告诉了我的「AI数字员工」。

    10 分钟后,它给了我一个可以直接交互的 HTML 高保真原型,甚至还顺便帮我列出了 10 个我都没想到的逻辑漏洞。

    看着屏幕上那个近乎完美的代码运行界面,项目组的同事在群里发了一排大拇指,夸我「效率爆炸」。

    但我坐在工位上,没有一丝成就感。相反,我感到了一阵前所未有的心慌和空虚。

    这种感觉,就像是一个练了 10 年刀法的武林高手,突然有一天手里被塞了一把加特林机关枪。敌人是被扫平了,但你看着手里那把练得包浆的刀,突然不知道自己存在的意义是什么了。

    如果你也在高强度使用 AI,我相信你一定懂这种感觉。

    我们引以为傲的「手艺」,正在贬值

    我是 93 年的,从程序员到产品有些年头了。

    在这个行业里,我们这一代 PM 建立自信的方式很传统:靠硬技能。

    谁的 Axure 交互做得更顺滑?谁的逻辑文档写得滴水不漏?谁能手写 SQL 跑出那个该死的数据?这些是我们赖以生存的护城河,也是我们加班熬夜换来的安全感。

    但最近这段时间,这种安全感正在崩塌。

    当我发现,我引以为傲的逻辑推演,AI 可以在几秒钟内完成;我费劲心思画的界面,AI 可以直接生成代码……我开始忍不住问自己一个致命的问题:

    如果去掉了这些「执行层」的工作,我还是谁?

    如果任何一个刚毕业的实习生,只要会写 Prompt,就能产出跟我一样(甚至更好)的文档和代码,那我这十年的经验,到底算什么?

    「心流」消失了,只剩下冷冰冰的决策

    还有一种失落,来自「创造感」的剥离。

    以前,虽然写文档很累,但在梳理业务逻辑、把一个复杂的混乱系统一点点理顺的过程中,我是有心流的。那是工匠雕琢作品时的快乐。

    现在,这种过程被跳过了。

    我变成了单纯的「甲方」。我下指令,AI 出结果。虽然结果很好,但它不属于我。那种「这是我亲手做出来的」自豪感消失了,取而代之的是一种不劳而获的焦虑。

    我像是一个流水线上的质检员,看着传送带上源源不断送来的半成品,这让我感到极度不安。

    我们到底该进化成什么?

    这份迷茫困扰了我好几天。直到昨天,我和一位朋友聊天,他说了一句话,让我稍微释怀了一些。

    他说:「工具越强,判断力就越昂贵」

    我突然意识到,我可能把「手段」当成了「目的」。

    画原型、写文档、写 SQL,这些从来都不是产品经理的目的。我们的目的,是解决问题,是创造价值。

    以前,因为工具落后,我们被迫花了 80% 的时间在「砌砖」。现在,AI 把砖砌好了,我们终于被迫要去面对那个更难、也更核心的角色「建筑师」。

    • AI 可以生成一万种方案,但它不知道哪一种方案能搞定那个挑剔的客户。
    • AI 可以写出完美的逻辑,但它听不出老板和客户话里的弦外之音。
    • AI 可以不知疲倦地工作,但它无法理解项目一线同事在深夜加班时,看到一个报错弹窗时的那种崩溃和无奈。

    那些关于「人」的部分,那些需要同理心、需要权衡利弊、需要背锅担责的决策,才是我们真正的护城河。

    写在最后

    承认迷茫并不丢人。这或许是每一个从「手艺人」向「指挥官」进阶时,必须要跨越的「恐怖谷」。

    我现在依然会焦虑,但我开始尝试换一种活法。

    不再执着于和 AI 比拼谁画图快,而是试着把省下来的时间,去沟通、去实践、去思考那些 AI 无法触及的商业本质。

    AI 再强,也只是副驾驶。

    握着方向盘的,始终是有血有肉的我们。

    作者:PM超进化 公众号:PM超进化

    本文由 @PM超进化 原创发布于人人都是产品经理,未经授权,禁止转载

    题图来自Unsplash,基于CC0协议

  • 当模型开始“思考”:CoT 到底在训练什么?

    RAG 项目上线后,开发者们往往会陷入一个误区:只要答案正确,模型就算成功。但当模型开始展露思考过程(CoT),你会发现真相远非如此——推理中的逻辑漏洞、无效信息与错误前提瞬间暴露无遗。本文深度拆解 Chain of Thought 的本质不是让 AI 更聪明,而是教会它如何用人类认可的思维方式「正确地犯错」,揭示从 Prompting 到 RM 的多重约束如何共同塑造可信赖的 AI 推理能力。

    如果你已经做过一段时间 RAG 项目,心里大概率会产生一种错觉:只要资料找得准、答案写得好,模型就算“可用了”。

    但当模型真正进入推理阶段(Reasoning / DeepThink),你会很快意识到:事情远没有这么简单。

    因为这时,模型不再只给你一个“看起来对的结果”,它开始把自己的思考过程也摊在你面前

    而你第一次看到那些 think 内容时,往往会愣一下——“原来它是这么想的?”

    一、模型会“想”,并不一定是好事

    直觉上,我们总会觉得:

    能展示思考过程,一定比直接给答案更高级、更可信。

    但在真实项目中,情况恰恰相反。一旦模型开始显式推理,它的问题反而更容易暴露。

    你会看到很多熟悉又危险的场景:

    • 推理过程写得很长,看起来很努力,但中间偷偷跳过关键步骤
    • 前提一开始就错了,后面却一路“自洽”地推到一个错误结论
    • 思考内容和最终回答高度重复,信息效率极低

    如果没有 think,这些问题可能会被一个“还凑合的答案”掩盖;但一旦把思考过程亮出来,模型到底靠不靠谱,一眼就能看出来

    二、CoT 不是让模型“想更多”,而是“想对一点”

    很多人第一次接触 CoT(Chain of Thought),都会产生一个误解:

    是不是让模型把脑内过程全写出来就行?

    但在训练和标注层面,CoT 从来不是“放飞思路”。相反,它追求的是一种被约束、被整理过的思考方式

    一个真正合格的 CoT,不是看起来“聪明”,而是:

    • 每一步推理都有必要性
    • 前后逻辑能对得上
    • 没有为了展示能力而炫技
    • 最终服务的是回答,而不是思考本身

    换句话说,CoT 训练的不是“会不会想”,而是“怎么想才不出事”。

    三、为什么模型也需要“快思考 / 慢思考”?

    在 CoT 项目里,经常会用一个非常人类的类比来解释它的意义。

    人其实一直在两种模式之间切换:

    • 快思考:靠经验、直觉、惯性,反应快,但容易犯错
    • 慢思考:一步步分析,消耗注意力,但结果更稳

    而大模型在默认状态下,几乎就是一个极端放大的快思考系统。它的优势是反应快、表达流畅,但代价是——它很少停下来检查自己是不是走偏了。

    CoT 的作用,本质上就是给模型强行踩一脚刹车。哪怕只是一个简单的提示词:

    “让我们一步步思考。”

    你都会明显感觉到,模型的输出结构开始发生变化。

    四、Prompting CoT、SFT、RM,其实各司其职

    在项目里,CoT 往往不会单独出现,而是和 SFT、RM 一起被讨论。如果从“模型在学什么”这个角度来看,它们的分工其实非常清楚。

    • Prompting CoT不改模型,只改提示。像是在跟模型说:“这次你别急,按我给的节奏想。”
    • SFT(监督微调)把“好的思考路径 + 好的回答”变成训练数据,让模型逐渐内化这种结构。
    • RM(奖励模型)不直接参与回答,而是在背后判断:哪种推理更合理,哪种更符合人类偏好。

    在成熟项目里,这三者更像是一个组合拳,而不是谁“更高级”、谁“可以被替代”。

    五、CoT 标注,标的不是“聪明”,而是“靠谱”

    很多第一次参与 CoT 项目的人,都会把注意力放在:

    答案对不对?

    但很快就会被纠正一个认知:在 CoT 项目里,答案对了,思考错了,一样不行。

    标注时,真正被反复检查的往往是:

    • 模型是否准确理解了用户需求
    • 推理中是否存在明显逻辑错误
    • 是否有大量无意义、重复的思考内容
    • think 和 response 是否真正对齐

    你会遇到大量这样的数据:答案勉强能用,但思考过程完全不合格。

    而在 CoT 项目里,这类数据通常必须被改写。

    六、一个很容易被忽略的关键点:信息效率

    CoT 项目真正难的地方,往往不在“推理能力”,而在信息控制能力

    一个好的 CoT:

    • 不会为了显得聪明而写太多
    • 不会把 response 又在 think 里复述一遍
    • 不会暴露与任务无关的思路
    • 每一步都能说清“为什么要走到这里”

    从这个角度看,CoT 训练的,其实是模型的表达纪律,而不只是逻辑能力。

    写在最后

    如果说 RAG 解决的是:

    模型该不该说、该说什么

    那 CoT 解决的,其实是:

    模型是怎么想的,这个想法值不值得信

    到这里,这一整天的内容已经形成了一条非常清晰的主线:从查资料 → 用资料 → 做判断 → 结构化思考。

    而这条主线,正是大模型从“能用”,走向“可信”的必经之路。

    共勉!棒棒,你最棒!

    本文由 @青蓝色的海 原创发布于人人都是产品经理。未经作者许可,禁止转载

    题图来自unsplash,基于CC0协议

  • YouTube bans two popular channels that created fake AI movie trailers

    Google is generally happy to see people using generative AI tools to create content, and it’s doubly happy when they publish it on its platforms. But there are limits to everything. Two YouTube channels that attracted millions of subscribers with AI-generated movie trailers have been shuttered.

    Screen Culture and KH Studio flooded the site with fake but often believable trailers. The channels, which had a combined audience of more than 2 million subscribers, became a thorn in Google’s side in early 2025 when other YouTubers began griping about their sudden popularity in the age of AI. The channels produced videos with titles like “GTA: San Andreas (2025) Teaser Trailer” and “Malcom In The Middle Reboot (2025) First Trailer.” Of course, neither of those projects exist, but that didn’t stop them from appearing in user feeds.

    Google demonetized the channels in early 2025, forcing them to adopt language that made it clear they were not official trailers. The channels were able to monetize again, but the disclaimers were not consistently used. Indeed, many of the most popular videos from those channels in recent months included no “parody” or “concept trailer” disclosures. Now, visiting either channel’s page on YouTube produces an error reading, “This page isn’t available. Sorry about that. Try searching for something else.”

    Read full article

    Comments

  • OpenAI and Anthropic will start predicting when users are underage

    OpenAI and Anthropic are rolling out new ways to detect underage users. As OpenAI has updated its guidelines on how ChatGPT should interact with users between the ages of 13 and 17, Anthropic is working on a new way to identify and boot users who are under 18.

    On Thursday, OpenAI announced that ChatGPT’s Model Spec – the guidelines for how its chatbot should behave – will include four new principles for users under 18. Now, it aims to have ChatGPT “put teen safety first, even when it may conflict with other goals.” That means guiding teens toward safer options when other user interests, like “maximum intellectual freedom,” conflict with saf …

    Read the full story at The Verge.

  • Google’s Gemini app can check videos to see if they were made with Google AI

    Google expanded Gemini’s AI verification feature to videos made or edited with the company’s own AI models. Users can now ask Gemini to determine if an uploaded video is AI-generated by asking, “Was this generated using Google AI?”

    Gemini will scan the video’s visuals and audio for Google’s proprietary watermark called SynthID. The response will be more than a yes or no, Google says. Gemini will point out specific times when the watermark appears in the video or audio. The company rolled out this capability for images in November, also limited to images made or edited with Google AI.

    Some watermarks can be easily scrubbed, as OpenAI lear …

    Read the full story at The Verge.

  • ChatGPT launches an app store, lets developers know it’s open for business

    OpenAI is looking to populate its flagship chatbot with a host of new user experiences.
  • Pickle Robot adds Tesla veteran as first CFO

    Jeff Evanson recently joined Pickle Robot as the company’s first CFO as the startup has allegedly expanded its partnership with UPS.
  • Why British politicians are flocking to American tech giants

    Former British Chancellor of the Exchequer George Osborne has joined OpenAI as managing director and head of OpenAI for Countries. He also will run Coinbase’s internal advisory council.
  • ChatGPT’s mobile app hits new milestone of $3B in consumer spending

    ChatGPT has reached $3B in lifetime mobile consumer spending in just 31 months, faster than TikTok and major streaming apps.
  • “A Band-Aid on a giant gash”: Trump’s attacks on science may ruin his AI moonshot

    By executive order last month, Donald Trump launched his so-called “Genesis Mission.”

    Described as a “historic national effort” to “invest in AI-enabled science to accelerate scientific advancement,” Trump claimed his mission would address key challenges to American energy dominance, innovation, and national security.

    This mission, Trump boasted, would be a game-changer to science akin to putting a man on the moon or firing the first nuclear weapons. By building “an integrated AI platform” trained on “the world’s largest collection” of federal scientific data sets, he promised, the government could set off cascades of scientific breakthroughs.

    Read full article

    Comments