体育博彩,在线体育博彩,线上体育投注,最佳体育赔率,体育,体育博彩平台推荐,正规博彩平台,体育投注平台,体育投注app,体育博彩平台网址大全,体育博彩平台,体育投注平台推荐,靠谱的体育投注平台,体育投注靠谱吗,线上体育投注平台推荐,线上体育投注平台,体育博彩加密货币网站,体育赛马投注,体育投注平台

吴恩达表示,到2025年底,Claude Code、谷歌 Gemini CLI和OpenAI Codex等工具已能通过智能体工作流处理复杂的软件开发任务。在SWE-Bench基准测试中,基于最新大模型的编码智能体能够完成超过80%的任务。虽然苹果和Anthropic的研究指出推理模型在某些复杂逻辑上仍存在局限性,且推理过程增加了推理成本(Inference Cost),但这并未阻挡企业利用AI自动生成代码、降低开发成本的趋势。
例如,在面试求职者时,我遇到过这样的开发者:他们重新发明了标准的RAG文档分块策略,复制了现有的智能体AI评估技术,或者最终写出了混乱的LLM上下文管理代码。如果他们学过几门相关课程,就会更好地理解已经存在的构建模块。他们仍然可以从头重建这些模块,或者甚至发明出比现有解决方案更优秀的东西,但他们本可以避免数周的不必要工作。所以结构化学习很重要!而且,我发现上课真的很有趣。比起看Netflix,我更喜欢观看知识渊博的AI讲师的课程!
同时,仅仅上课是不够的。有许多经验教训只能通过实践获得。学习飞机运作背后的理论对成为飞行员非常重要,但从来没有人仅仅通过上课就学会成为飞行员。在某个时刻,跳进飞行员座位是至关重要的!好消息是,通过学习使用高度智能化的编码工具,构建过程比以往任何时候都要容易。而且了解AI构建模块可能会激发你对要构建什么的新想法。如果我对要做什么项目感到缺乏灵感,我通常会上课或阅读研究论文,这样做一段时间后,我总会产生许多新想法。此外,我发现构建真的很有趣,希望你也会这样认为!
最后,不是每个人都必须这样做,但我发现当今就业市场上许多最强的候选人至少偶尔会阅读研究论文。虽然我发现研究论文比课程更难理解,但它们包含了许多尚未转化为更易理解格式的知识。我把这个优先级排在上课或练习构建之后,但如果你有机会加强阅读论文的能力,我也敦促你这样做。(你也可以观看我之前关于阅读论文建议的旧视频。)我发现上课和构建很有趣,阅读论文可能更像是一种苦差事,但我从阅读论文中获得的洞察力闪光时刻令人愉悦。
最初几个推理模型通过RL专门训练来正确解决数学问题、准确回答科学问题和/或生成通过单元测试的代码。这使得o1-preview能够在AIME 2024(竞赛数学问题)上比其非推理前身GPT-4o高出43个百分点,在GPQA Diamond(博士级科学问题)上高出22个百分点,而它完成Codeforces编码问题的水平相对于竞争性人类编码者处于第62百分位,而GPT-4o为第11百分位。当推理模型学会使用计算器、搜索引擎或bash终端等工具时,性能甚至更好。例如,在对100个领域的多模态理解和技术专业知识的挑战性测试中,带有工具的OpenAI o4-mini达到了17.7%的准确率,比没有工具时高出3个百分点以上。机器人动作模型已通过RL训练进行推理。例如,奖励ThinkAct达到目标位置,与OpenVLA等非思考模型相比,在机器人任务上产生了大约8%的性能提升。推理模型还帮助智能体处理困难问题。例如,AlphaEvolve使用Google Gemini反复生成、评估和更改代码,最终为现实世界问题产生更快的算法。类似地,AI Co-Scientist使用Gemini生成科学研究提案,然后审查、排名和改进它们。在其他成果中,它提出了一个假设来回答关于微生物抗生素耐药性的长期问题。人类科学家几乎在同一时间独立提出并验证了相同的假设。但是:推理模型可能不像它们看起来那么理性。
在一篇有争议的论文中,苹果公司得出结论,推理模型无法解决超出一定复杂程度的谜题,即使给模型提供了解决它们的算法。模型无法应用算法,这对机器和人类推理之间的明显相似性提出了质疑。Anthropic发现,虽然模型的推理步骤可以帮助解释它如何得出结论,但它们也可能遗漏对结论有贡献的关键信息。例如,在提示中包含一个提示可以引导推理模型产生特定输出,但它们的推理步骤可能无法提及该提示。现状:推理显著提高了LLM性能。然而,更好的输出是有代价的。启用推理的Gemini 3 Flash在运行Artificial Analysis智能指数的基准测试时使用了1.6亿个token(获得71分),而没有推理的Gemini 3 Flash使用了740万个token(获得的分数低得多,为55分)。此外,生成推理token可能会延迟输出,增加了LLM推理提供商更快服务token的压力。但研究人员正在寻找使过程更高效的方法。Claude Opus 4.5和设置为高推理的GPT-5.1达到相同的智能指数分数,但前者使用4800万个token,而后者使用8100万个。
扎克伯格亲自登门拜访说服人们跳槽,有时还带着自制的汤。这项努力获得了包括OpenAI的Jason Wei和Hyung Won Chung在内的人才,他们是两位从事推理模型工作的研究人员。曾与OpenAI前首席技术官Mira Murati共同创立Thinking Machines Lab的Andrew Tulloch最初拒绝了meta包括价值15亿美元奖金的方案,《华尔街日报》报道。几个月后,他改变了主意并加入了meta。meta聘请了在苹果公司监督AI模型的Ruoming Pang。据彭博社报道,薪酬方案在几年内价值数亿美元。meta的offer超过了苹果公司除首席执行官外的高层领导者的薪酬方案,苹果公司拒绝还价。在人员流动中,微软AI首席执行官Mustafa Suleyman从Google挖走了20多名研究人员和工程师,包括工程副总裁Amar Subramanya。埃隆·马斯克的xAI从meta聘请了十几名AI研究人员和工程师。马斯克谴责竞争对手的疯狂offer,并吹捧他公司的超级精英制文化和更大的股权增长潜力。新闻背后:AI工程师薪资轨迹反映了AI从学术好奇心到革命性技术的演变。
2011年,当Google Brain在吴恩达的指导下启动时,AI人才集中在学术界。随着神经网络进入搜索引擎和AI助手等商业产品,机器学习工程师角色成为标准的企业层级。2014年,当Google收购DeepMind时,AI薪资显著超过了一般软件工程的薪资。据《》估计,DeepMind的人员成本约为每位员工34.5万美元。到2017年,当Google引入transformer架构时,顶级薪酬已上升至50万美元。大约2023年,随着ChatGPT的兴起,薪酬又一次跃升。根据一份报告,顶级软件工程师的薪酬方案超过70万美元。现状:随着2026年开始,AI招聘格局发生了很大变化。为了抵御招聘人员,据《华尔街日报》报道,OpenAI提供了比竞争对手更多的股票薪酬,加快了授予新员工的股票期权的兑现时间表,并发放了高达150万美元的留任奖金。尽管2025年有关AI泡沫的讨论,但对于计划花费数百亿美元建设AI数据中心的公司来说,高薪是合理的:如果你在硬件上花费这么多,为什么不在薪资上花费一小部分支出呢?
1月份,OpenAI启动了星门项目,这是一个价值5000亿美元的项目,合作伙伴包括甲骨文、软银和阿联酋投资公司MGX。该公司最终宣布计划在全球建设20千兆瓦的数据中心容量,并预测需求可能高达这一数字的5倍。OpenAI首席执行官山姆·奥特曼表示,他希望最终能够每周增加1千兆瓦的容量。meta在2025年在基础设施项目上花费了约720亿美元,主要在美国,高管们表示这一数字在2026年将大幅上升。该公司的Hyperion项目包括在路易斯安那州农村地区建设的一个价值270亿美元、5千兆瓦的数据中心。该项目的融资协议将使资产和债务不计入meta的账面。微软在2025年在全球数据中心项目上花费了800亿美元,包括威斯康星州和亚特兰大的设施,这些设施将通过专用光纤网络连接,作为一个庞大的超级计算机运行。为了供电,该公司签署了一项为期20年的协议,重启宾夕法尼亚州三里岛核反应堆,该反应堆将从2028年开始提供835兆瓦电力。该公司还承诺将其欧洲云和AI容量扩展到欧洲各地的200个数据中心。亚马逊预计2025年在基础设施上花费1250亿美元,2026年会更多。其价值110亿美元的雨神项目是印第安纳州的一个2.2千兆瓦数据中心,运行50万颗亚马逊Trainium 2芯片。此外,亚马逊计划花费约140亿美元扩建澳大利亚的数据中心,并在2025年至2029年间在德国投资约210亿美元。Alphabet预计2025年在基础设施上的支出将达到930亿美元,高于此前预测的750亿美元。该公司宣布了一个400亿美元的项目,将在2027年前在德克萨斯州增加3个数据中心。它还承诺在印度投资150亿美元,宣布在德国投资约60亿美元,并在澳大利亚、马来西亚和乌拉圭推出新项目或扩建项目。但是:美国经济和基础设施能否支撑如此巨大的投资?有理由对此存疑。
根据贝恩公司顾问的说法,数据中心建设的费用到2030年将需要每年约2万亿美元的AI收入。这将超过亚马逊、苹果、Alphabet、微软、meta和英伟达2024年收益的总和。现有电网可能不足以为这些数据中心供电。据彭博社报道,硅谷的两个设施处于闲置状态,因为当地公用事业公司没有能力将它们接入电网。12月中旬,据《金融时报》报道,一直在洽谈为甲骨文和OpenAI提供100亿美元数据中心融资的蓝猫头鹰资本退出了这笔交易。报道称,这是出于对甲骨文在数据中心建设中不断增长的债务的担忧。蓝猫头鹰继续为其他甲骨文-OpenAI数据中心项目提供融资。现状:尽管存在对AI泡沫的担忧,但基础设施建设热潮正在疲软的经济中创造真实的就业机会和销售额。哈佛大学经济学家杰森·弗曼表示,2025年上半年,数据中心和AI投资几乎占美国国内生产总值增长的全部。在这个阶段,有证据支持这样的观点:2025年拉开了一个新工业时代的序幕。
当推理模型在2024年底问世时,它们立即提升了编码能力并降低了成本,因为推理使智能体能够规划由成本较低的模型完成的任务。可变推理预算的加入使智能体更容易使用单一模型,将更多令牌用于规划,更少令牌用于简单编辑。到2025年底,Gemini 3 Pro、Claude Opus 4.5和GPT-5.2成为编码和智能体工作流的顶级模型。开放权重模型紧随其后。Z.ai GLM-4.5和Moonshot Kimi K2成为开放权重的热门选择,使自动化编码初创公司能够大幅削减成本。7月发布的Qwen3-Coder提供了一个庞大的4800亿参数模型,使用超过5万亿个代码令牌进行训练,性能几乎与Claude Sonnet 4相当。Anthropic围绕Claude构建了一个智能体框架,创建了一个应用程序:Claude Code。2月推出的Claude Code立即大受欢迎,并为智能体编码系统应该做什么设定了期望。OpenAI推出了基于其GPT-5系列编码专用版本的Codex应用程序作为回应。Claude Code最初在本地运行,而Codex应用在浏览器中运行,帮助普及了在云端运行的编码智能体。到年底,这些智能体能够使用多个子智能体管理长期运行的问题——通常是一个初始化器来启动任务和跟踪进度,以及各种编码智能体来完成不同的任务——每个都有自己的上下文窗口。模型制造商和集成开发环境(IDE)开发者之间的拉锯战导致流行的IDE提供商,如Anysphere(Cursor)和Cognition AI(Windsurf)构建自己的模型。相反,谷歌构建了自己的IDE Antigravity,于11月首次亮相。背景:智能体系统在流行的SWE-Bench编码基准测试上稳步提升技术水平,研究人员寻找替代方法来评估其性能。
现状:在短时间内,代理编码将氛围编程(vibe-coding)从令人困惑的流行语推向了新兴产业。像Loveable、Replit和Vercel这样的初创公司使几乎没有或完全没有编码经验的用户能够从头开始构建网络应用程序。虽然一些观察者担心AI会取代初级开发人员,但事实证明,擅长使用AI的开发人员能够更好、更快地构建应用程序原型。很快,AI辅助编码可能会被简单地视为编码,就像拼写检查和自动完成是写作的一部分一样。返回搜狐,查看更多