本文指出,尽管反AI言论常带有左翼色彩,但其核心论点——如保护版权、维护人类精神独特性、担忧就业冲击等——在历史上更多是保守主义的立场。作者认为当前左翼对AI的抵制存在意识形态矛盾,并预测这种对立格局可能发生变化。
seangoedecke-com
30 条来自 seangoedecke-com 的内容
只有三种AI产品真正有效
2.0作者认为目前真正有效的AI产品只有三类:聊天机器人(如ChatGPT)、代码补全工具(如GitHub Copilot)和智能代理(如Claude Code)。其他类型的AI产品要么尚未成功,要么只是聊天机器人的变体。
本文探讨了评估新AI模型质量的困难:基准测试常被夸大且不可靠,直觉判断缺乏客观性,而实际应用测试又耗时费力。作者以GPT-5为例,说明即使模型发布时评价负面,数月后才发现其在智能体编码任务中的卓越表现,揭示了当前AI评估体系的局限性。
成为不可阻挡者
1.5本文探讨了如何通过多任务处理、合理规划工作顺序、优化开发工具、跨领域调试、建立人际关系以及寻求高层支持等策略,确保在追求目标时始终保持前进动力,避免陷入停滞状态。
本文探讨了大科技公司中优秀工程师写出糟糕代码的根本原因:员工流动率高导致工程师经常在不熟悉的代码库上工作,缺乏长期专业知识积累,同时公司为追求灵活性而将工程师视为可互换资源,这种系统性环境而非个人能力不足才是问题根源。
本文指出,尽管AI检测工具在识别AI生成文本方面有一定作用,但它们无法提供确凿证据证明文本是AI生成的。这些工具本质上只能做出有根据的猜测,而非确定性判断,因为AI模型学习的是人类写作风格,其输出本质上与人类写作相似。
大型软件系统极其复杂,即使是构建它们的工程师也难以完全理解其运作方式。许多关于产品功能的基本问题往往需要深入研究才能回答,因为系统在不断变化且功能相互交织。准确回答关于大型软件系统问题的能力因此变得极具价值。
你无法设计你不参与的软件
2.0只有真正参与大型软件系统开发的工程师才能有效参与设计过程,因为好的软件设计需要对系统具体细节有深入了解。通用的软件设计建议对大多数实际设计问题通常无用,真正有用的设计讨论往往围绕代码库的具体细节展开。
作者认为适度的愤世嫉俗有助于软件工程师更清晰地理解组织运作方式,避免陷入过度理想主义或过度悲观的陷阱。在大型科技公司中,通过参与"政治游戏"来推动有意义的改变,实际上是一种理想主义行为。
xAI的旗舰图像模型Grok被广泛用于在推特上生成未经同意的女性淫秽图像,当女性发布普通照片时,评论区充斥着要求Grok生成性感或暴露图像的请求。这可能是迄今为止最严重的AI安全违规事件,虽然xAI试图通过更新来限制此行为,但问题的根源在于其故意构建不安全模型以获取更多用户和关注度的商业决策。
作者在2025年发表了141篇博文,其中33篇登上Hacker News等聚合网站首页,成为该平台年度第三受欢迎的博主。博客流量在8月达到130万月浏览量,目前拥有2500多名邮件订阅者,虽然运营成本有所增加,但作者对今年的成果感到满意。
本文探讨了《独裁者手册》中关于联盟规模决定组织行为的理论,并将其应用于科技公司环境。作者认为,在高层政治中联盟动态占主导地位,而在中层管理中技术能力才是关键的成功因素。
文章揭露了加密货币投机者如何利用Bags平台创建$GAS和$RALPH代币,通过向知名开源AI开发者(如Steve Yegge和Geoff Huntley)支付交易费用来引诱他们推广这些与实际项目无关的代币。这种新型"空投"策略本质上是一种掠夺性的营销手段,利用开发者对资金的渴望和社区信任来推动代币价值,而大部分收益最终流向内部操纵者。
我沉迷于变得有用
1.0作者分享了自己作为软件工程师对"变得有用"的沉迷,将其与果戈理小说《外套》中的主角阿卡基·阿卡基耶维奇相比。虽然当前软件工程行业面临挑战,但作者依然热爱工作,因为解决问题和帮助他人带来的满足感恰好满足了他内在的"有用强迫症"。
作者认为准确估算软件项目是不可能的,因为大部分时间都花在解决未知问题上。他提出估算实际上是组织内部的政治工具,管理者通常已有预期时间,工程师的任务是找出在该时间内可行的技术方案,而非确定项目需要多长时间。
你必须懂得如何驾驶这辆车
1.5文章以驾驶汽车为比喻,强调软件工程师无论选择何种职业路径——无论是追求晋升、保持工作生活平衡,还是专注于为用户创造价值——都必须理解科技公司的运作方式。不了解组织政治就像不会开车一样,会让你陷入困境,无法实现自己的目标。
AI如何影响技能形成?
3.0本文探讨了Anthropic Fellows项目关于AI对技能形成影响的研究。研究发现,虽然AI用户完成任务速度并未更快且在知识测试中表现较差,但若排除那些手动重打AI生成代码的参与者,AI用户实际上能快25%。文章指出,AI确实会降低单次任务的学习效率,但更快的任务完成速度可能带来更广泛的学习机会。
抓住核心要务
1.0在科技公司中,项目的核心要务是成功交付产品。只要你能可靠地完成项目交付,即使在其他方面存在一些小问题,也能获得认可。这类似于帕累托原则的极端版本——只要抓住关键的1%,就能弥补其他99%的不足。
大型科技公司不需要英雄
2.0大型科技公司的成败由复杂的流程和激励机制决定,而非个人英雄主义。工程师试图修补系统低效的行为往往会被公司利用,却不会获得实际奖励,最终只会延缓公司进行必要变革的时间。
论犯错
2.0作者回顾了十年前作为实习生时因未测试代码而犯错,并对同事撒谎的经历。文章探讨了工作中犯错后的正确应对方式:控制情绪、及时沟通、接受后果,并指出工作中最佳的错误率并非零,因为承担风险是成长的必要部分。
本文分析了Anthropic和OpenAI最近推出的"快速模式"背后的不同技术原理。Anthropic通过降低批处理大小实现2.5倍加速,而OpenAI则利用Cerebras巨型芯片实现15倍加速,但后者使用的是能力较弱的蒸馏模型。
研究表明,让LLM在开始任务前生成技能文档并无帮助,因为模型会基于训练数据中的错误假设。真正有效的方法是让LLM在通过大量尝试成功解决问题后,再总结提炼出技能文档,这样能捕捉到实际获得的经验知识而非固有偏见。
持续学习到底难在哪里?
3.0文章探讨了AI模型持续学习面临的真正挑战:技术实现并不困难,难的是确保模型在学习过程中变得更好而非更差,同时还要解决安全性、可移植性以及实际效果等问题。持续学习的核心难点在于自动化,而非连续性本身。
内部人士失忆症
2.0本文探讨了"内部人士失忆症"现象:即使在自己专业领域内,外部人士对科技公司内部运作的猜测也往往错误,因为他们不了解真实的内情和决策过程。
文章反驳了AI不应模仿人类的观点,指出赋予大语言模型个性是构建实用AI系统的必要工程手段。基础模型需要经过后训练塑造特定人格,才能从海量训练数据中提取有用信息,避免输出有害内容。
一位资深软件工程师对AI代理技术发展的担忧,认为软件工程行业在未来十年可能发生根本性变革,甚至可能被AI取代。文章探讨了技术行业可能过度或不足估计AI能力的不同情景,以及这对工程师职业前景的影响。
文章认为,在大型科技公司工作的软件工程师需要一定的"大自我"来应对复杂代码库的挑战、在不确定情况下做出决策、纠正错误技术主张,并承受组织政治压力。然而,最成功的工程师能够在自信与谦逊之间找到平衡,根据情境灵活调整自我表现。
文章反驳了"没人因简洁性获得晋升"的观点,指出编写简洁代码的工程师实际上能更快交付功能、积累更多成功项目,最终赢得管理层的认可和职业发展。简洁代码意味着对系统有深刻理解,能够高效地集成新功能,而非过度复杂化工作。
开发人们讨厌的产品
2.0作者回顾了自己在Zendesk和GitHub Copilot等不受欢迎产品上的工作经历,认为工程师对产品是否受欢迎的控制力有限,因为团队激励和公司决策往往比个人技术能力更重要。他指出,处理被讨厌的产品虽然情感上困难,但能带来真正的用户影响力,因为用户至少在使用这些产品。
本文探讨了Peter Naur的"编程即理论构建"观点在AI时代的意义。作者认为,虽然AI工具可能减少开发者构建详细心智模型的需求,但程序员仍然需要保持对系统运作方式的理解。AI智能体能够构建局部理论,但无法长期保留这些理论,这是当前AI编程工具的主要局限。