人工智能大势-第285期

敬请点击上面“真正的人工智能”关注本公众号,看AI独家观点

一、相信人工智能大模型终将是利大于弊

大模型非常实用现在估计是没有多少人会否认了,不过又有不少人说大模型会做坏事,比如这篇文章,《现在的大学生,不用大模型才是异类》,看标题大家也能猜到说的是什么了,自然是说大学生们用大模型帮助写论文和作业等,导致不好好学习还能取得高分,那也就不会有多少学生会去认真学习了,大学生的水平也就越来越差,就如文章所说:

作弊并不是什么新鲜事。但现在,正如一位学生所说的,「天花板被掀翻了」。谁能抗拒一种能让所有作业都变得更容易、而且似乎没有任何后果的工具呢?过去两年大部分时间一直在批改 AI 生成论文的加州州立大学奇科分校伦理学教授 Troy Jollimore 对此感到担忧。

文章还说:

「大量学生将从大学毕业,获得学位,进入职场,但他们本质上是文盲,」他表示。「既是字面意义上的文盲,也是历史上的文盲,他们对自己的文化一无所知,更不用说其他人的文化了。」考虑到大学教育的短期性,这样的未来可能比预期更快到来。目前,大约一半的本科生在大学期间还没有接触过生成式 AI。「我们谈论的是整整一代人的学习方式可能都受到了严重破坏,」Green 表示。「它正在缩短学习过程,而且这种情况正在迅速发生。」

以笔者的亲身体验,使用大模型并不一定会造成学生的水平下降,这要看你怎么使用。

笔者也经常使用大模型帮助完成工作,比如这个《人工智能大势》电子期刊的编辑,主要是用大模型对下面文章制作摘要,早期是笔者人工做,那真的是很花时间和精力,后来用大模型来做,让这项工作变得非常轻松、愉快,且常常感叹大模型真是了不起!

但是笔者并不是完全把这项工作交给大模型便什么都不管了,就只等着复制、粘贴完事er,大模型生成的每一条摘要笔者都要认真阅读,因为大模型始终还是会有幻觉,也就是生成的内容会有错误,需要进行修改。有时也不一定是错误,只是写得不太符合笔者的要求,比如摘要中有些口水话,类似“这项成果将推动该领域的研究不断向前发展”,这不废话吗?谁不知道呀?作为一篇完整的文章,有这样的话也无可厚非,但作为讲究精练的摘要,只需要讲核心重点,这样的废话就没必要了,因此笔者看到这样的内容就会将其删去。

如果你这样去使用大模型,肯定不会让你水平下降,而是通过不断的独立思考、改正大模型的错误,从而提高你的水平。

文章也提到有的学生会用大模型帮助其学习,而不是用来偷懒、作弊:

Wendy 使用 AI 写论文时(也就是说,每当她写论文时),她都会遵循三个步骤。第一步:「我会对大模型说,『我是一名大学一年级学生,我正在上这门英语课』,」Wendy 说道。「它会教给你一种非常高级、非常复杂的写作风格,而你肯定不想要那样。」 第二步:Wendy 会介绍一下她所学课程的背景,然后将教授的指示复制粘贴到聊天机器人中。第三步:「然后我会问,『根据提示,你能否给我一个提纲或组织结构,以便我能够按照提纲写作?』然后,它会给我一个提纲、引言、主题句、第一段、第二段、第三段。」有时,Wendy 会要求 AI 列出支持或反驳某个论点的观点:「我不太擅长组织文章,而这个提纲让我很容易理解。」

大模型聊天机器人勾勒出 Wendy 的论文大纲,提供主题句和观点要点后,她只需填写其他内容即可。温迪在上午 10:17 提交了一份工整的五页论文,迟到的时间尚可接受。当我问她作业完成得如何时,她说她得了个好成绩。「我真的很喜欢写作,」她说道,语气中带着一丝奇特的怀旧之情 —— 那是她最后一次独自写作文。

然而我们都当过学生,知道大部分学生纯粹就是不想做作业,因此他们肯定是把大模型生成的内容直接复制、粘贴,就像文章说的:

去年甚至有教师发现学生论文开篇赫然写着「作为 AI,我被编程设定......」,不过更多时候迹象更为隐蔽,这使得指认 AI 抄袭比认定传统剽窃困难得多。

这让笔者想起小学时有同学写作文抄报纸,然后把“新华社x日电”也抄上去了。

很显然,这样抄袭大模型生成的内容肯定是作弊,学生也根本学不到东西,所以学校、老师都是非常反对的,中国教育部也禁止这样做,《教育部:禁止学生直接复制AI生成内容作为作业答案》

可是正如文章所说,多数时候要确定学生是用AI写的论文或作业还是比较困难的,甚至用检测软件也不管用,主要是现在的检测软件准确率太低,而学生们又有很多办法来规避软件的检测,比如文章提到的用多个大模型进行洗稿,使得检测软件很难发现是大模型生成的。

如果是论文还好办,因为论文是要答辩的,如果你只是复制、粘贴大模型生成的内容,没有对论文真正的理解,那么你肯定无法在答辩时很好回答提出的问题,因而只能得低分。如果你深刻理解了论文的内容,能够在答辩时很好地回答问题,那么说明你是真正学到了东西,至于这论文是不是你自己写的也就不那么重要了。

至于平时的作业就比较难办,因为老师不可能每次作业都对每个学生来一次答辩。不过可以考虑抽查,对于那些看上去像大模型生成的作业进行抽查答辩,但即便这样老师可能也会太累。

或许最终还是要用人工智能大模型来解决这个问题,用魔法打败魔法,这方面谷歌的NotebookLM大模型可以给我们启示。(参阅:《谷歌NotebookLM终于说中文了!这可是最火的大模型播客产品》

这个产品的主要功能就是能够根据一篇文章生成两个人的一段较长时间的对话,对话内容都是关于这篇文章的,有时也有类似提问和回答,相关性、逻辑性都非常好,而且对话非常口语化,语气相当自然,你几乎会以为是两个真人在对话。

那么可以考虑用大模型来对学生进行日常作业的答辩,即用类似NotebookLM的大模型根据学生的文章生成问题和相应答案,然后对学生只提出问题,看其回答是否与答案相近,这个判断大模型应该也是基本可以做到的,如果发现学生的回答差距比较大,那么就可以提交给老师再人工答辩,以防大模型幻觉和误判。

当然,大模型答辩需要有人监督,防止学生用电脑、手机和大模型来作弊,可以是助教、工作人员,甚至是信得过的学生(干部)等。

二、资讯

1、「ChatGPT+GitHub」,OpenAI搞了个大联合

ChatGPT 推出了与 GitHub 联合的 Deep Research 功能,用户点击 “Deep Research→GitHub” 后,向 ChatGPT 提问,Deep Research 便会搜索代码库源代码和 PR,返回含引用的详细报告,还能总结代码结构与模式,助力开发者了解用真实代码示例实现新 API。此功能将率先对 ChatGPT Plus、Pro 及 Team 用户开放,后续企业版和教育版也会支持。OpenAI 称该功能旨在帮用户节省时间,并非取代人类,且尊重组织设置,用户只能看已获准的 GitHub 内容及共享代码库。

OpenAI 还在辅助编程工具领域动作不断,推出开源终端编程工具 Codex CLI,升级 ChatGPT 桌面应用使其支持多款开发者编程软件的代码读取,还计划斥资约 30 亿美元收购 AI 编程助手初创公司 Windsurf。此外,开发者现可通过强化微调技术优化 o4-mini 推理模型,GPT-4.1 nano 模型同步开放微调功能,经验证的组织可微调 o4-mini,GPT-4.1 nano 微调功能面向所有付费开发者开放。

2、美国AI现状:“领先但不稳固” ——解读Sam Altman等科技领袖在参议院听证会的关键见解

2025年5月8日,美国参议院举行了一场名为“赢得AI竞赛:强化美国计算和创新能力”的听证会,OpenAI首席执行官Sam Altman、AMD首席执行官Lisa Su、CoreWeave首席执行官Michael Intrator以及微软副董事长兼总裁Brad Smith等科技界重量级人物出席。听证会聚焦美国在全球AI竞赛中如何保持领导地位这一核心问题,揭示了美国AI领域的现状与挑战。

图片

Sam Altman指出,AI革命是互联网革命的延续,未来十年将围绕智能和能源展开,美国需在这两方面保持领先。ChatGPT已有超5亿周活跃用户,成为全球第五大网站,改变了人们的工作和学习方式。他强调美国必须投资基础设施,特别是在能源和计算能力方面,反对严格的前置监管评估制度,认为这将阻碍竞争力,同时要吸引高技能人才,美国独特的创新模式是AI革命的关键推动力。

Lisa Su强调半导体行业在AI竞赛中的关键作用,维持美国在AI领域的领先需要在技术栈的每一层都保持卓越。AMD通过与能源部的公私合作伙伴关系,为世界上两台最快的超级计算机提供动力。她提出五大行动建议:持续加速、开放生态系统、强大的国内供应链、投资人才以及平衡出口管制。

Michael Intrator指出,现代AI工作负载需要前所未有的计算能力、先进的冷却系统、尖端芯片技术、超高速网络和加速存储。CoreWeave的惊人成长数据表明了对先进AI基础设施的全球需求激增。他提出四大政策要素:战略投资稳定性、能源基础设施发展、全球市场准入以及公私合作与劳动力发展。

Brad Smith从整体角度审视了AI生态系统,强调美国要在AI领域取得成功需要各个层面的协作。他提出美国需要三个关键要素来保持AI领先地位:创新、更快的采用以及出口。他还强调投资教育和为美国公众提供必要技能的重要性。

听证会的一个核心主题是美中AI竞赛。Altman和Su都强调了美国技术的核心价值观和开放社会的优势,以及确保美国技术在全球广泛采用的重要性。

3、OpenAI迎来新帅,Instacart CEO 空降执掌应用部门,奥特曼将专注三大支柱

2025年5月8日,OpenAI首席执行官Sam Altman宣布重大人事变动,Instacart首席执行官Fidji Simo将加入OpenAI,担任应用部门首席执行官,直接向Sam Altman汇报。Fidji Simo此前已在OpenAI董事会任职,对公司的运作和战略方向十分熟悉。

OpenAI从一个研究实验室发展为拥有全球产品、基础设施和大规模非营利组织三大核心业务板块的公司,需要卓越的领导力来推进各板块协同发展。Fidji Simo将负责领导新整合的应用部门,推动研究成果的落地和商业化,以及公司职能的规模化扩张。

Sam Altman则将更多精力聚焦于研究、计算和安全系统,确保超智能的安全构建和基础设施支持。

Fidji Simo计划在未来几个月完成工作交接,于今年晚些时候正式加入OpenAI。此次人事任命旨在加速OpenAI技术的产品化、规模化和商业化进程,同时让Sam Altman能够更专注于通用人工智能研发和安全等核心目标。

4、碾压Cursor?谷歌突发Gemini 2.5 Pro 预览版,编码能力全网第一

谷歌在I/O大会前夕发布了Gemini 2.5 Pro预览版,这是其旗舰AI模型Gemini 2.5 Pro的升级版本。该版本在多项基准测试中表现卓越,尤其在LMArena编程类别和WebDev Arena排行榜上均位列第一,展现出强大的编程能力。Gemini 2.5 Pro预览版可通过Gemini API、Vertex AI和AI Studio平台获取,价格与前一版本相同,并已集成到谷歌的Gemini聊天机器人应用中,适用于Web和移动设备端。

谷歌DeepMind CEO Demis Hassabis表示,Gemini 2.5 Pro预览版的编程能力大幅提升,尤其在编码、构建交互式Web应用、代码转换和编辑等方面表现出色。该版本在Web Arena排行榜上比上一版本高出147个Elo积分,进一步巩固了其在原生多模态和长上下文方面的优势。此外,Gemini 2.5 Pro预览版在视频理解方面也表现出色,在VideoMME基准测试中得分高达84.8%。

Gemini 2.5 Pro预览版在前端Web开发方面表现出色,能够显著提升开发效率。例如,它可以为听写应用智能设计麦克风UI动画并自动生成相应代码。

AI编码工具Cursor的CEO Michael Truell称赞其编程能力的提升,而其他用户则认为尽管Gemini 2.5系列比其他模型更可靠,但在抽象思维和系统架构方面仍无法与人类开发者相媲美。

5、AI逼疯七巨头,马斯克们深陷中年危机!

人工智能浪潮正冲击着科技巨头们,使其陷入前所未有的“中年危机”。谷歌面临搜索流量下滑的困境,其股票在5月7日暴跌7%,尽管谷歌澄清搜索量仍在增长,但AI对其广告业务的冲击已成现实。

苹果在AI领域进展缓慢,库克在财报电话会上呼吁投资者保持耐心,而Siri功能的滞后以及iPhone利润可能被关税蚕食等问题,让苹果的AI之路荆棘丛生。

Meta的扎克伯格试图将AI融入社交,但其Llama 4模型表现不佳,排名跌出前十。

马斯克回归特斯拉后,面临销量和净收入的双重下滑,他寄希望于无人驾驶汽车来扭转局面。

这些巨头们虽市值庞大,但面对AI的颠覆性挑战,他们的应对方式各异,却都站在了十字路口。AI的发展尚处于早期,其应用、主导者和未来走向都充满不确定性,而新兴的AI初创公司正试图在巨头的阴影下寻找突破,科技巨头们若不能摆脱路径依赖,可能成为AI时代的“诺基亚”。

6、NYU教授开炮:美国大学ML课太离谱!学生炮轰课程垃圾,全靠自学

纽约大学(NYU)教授Kyunghyun Cho对当前美国大学机器学习(ML)课程提出批评,认为许多课程忽视了机器学习和深度学习的基础概念,这种趋势令人担忧。

Cho教授强调,在大规模计算力和大型语言模型(LLM)普及的当下,机器学习课程应重新审视教学内容,他建议专注于可以用随机梯度下降(SGD)解决的问题,并引导学生阅读早期经典论文。

Cho教授的课程大纲涵盖了从基础的感知机、Softmax函数到复杂的神经网络模块、概率机器学习和无监督学习等内容,强调基础概念的重要性。

他的这种教学方式得到了哈佛大学助理教授的赞同,后者表示保留深度学习前期基础概念在当今课程中已不多见。学生也对当前机器学习课程的不满情绪高涨,认为课程内容过于表面化,缺乏深度,导致他们不得不通过自学来弥补知识缺口。

7、突发!特朗普拟废除AI芯片出口三级限制

2025年5月7日,美国商务部证实特朗普政府将撤销拜登任期末敲定的《人工智能扩散框架》(FAID),并计划提出简版规则。原定5月15日生效的该框架将全球分为“三档”,严格限制先进AI芯片流向,但特朗普团队批评其“过于繁琐、阻碍创新”,拟用“更简单的全球许可体系”取代,通过政府间协议执行。

受此消息影响,英伟达股价一度上涨3%,AMD也小幅走高。拜登版规则曾遭英伟达和半导体行业协会强烈反对,而特朗普政府的新计划虽为部分国家和地区提供暂时喘息机会,但未来管控措施仍https://weibo.cn/sin...可能接踵而至。

8、一个「always」站在大模型技术C位的传奇男子

Noam Shazeer(沙哥)是Transformer八位作者中贡献最大的一位,他凭借卓越的技术洞察力和前瞻性,始终站在大模型技术的核心位置。

图片

2017年,沙哥加入谷歌的Transformer项目团队,凭借其强大的技术实力,对项目代码进行重构,推动了Transformer架构的诞生,其论文《Attention Is All You Need》成为AI领域的经典之作,引用量超17万次。

此外,沙哥还参与了多项开创性研究,如《Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer》,为MoE架构的发展奠定了基础。

他提出的Adafactor优化器、Multi Query Attention(MQA)以及Gated Linear Layer(GLU)等技术,都极大地推动了大语言模型的发展。

沙哥的成长经历同样传奇,3岁自学算术,1994年在国际数学奥林匹克竞赛中获得满分。他于1994年进入杜克大学学习数学和计算机科学,并在多项数学竞赛中获奖。

2001年加入谷歌后,参与改进了谷歌搜索拼写纠正功能,并开发了谷歌广告系统PHIL等重要项目。2012年回归谷歌加入Google Brain后,他转向深度学习与神经网络研究,推动了神经机器翻译的落地。

2021年,沙哥离开谷歌创业Character.AI,开发了具有个性化AI角色的产品,积累了2000多万用户。2023年,Character.AI被谷歌以27亿美元收购,沙哥也重返谷歌担任工程副总裁、Gemini联合技术主管。

三、研发

1、哈佛新论文揭示 Transformer 模型与人脑“同步纠结”全过程!AI也会犹豫、反悔?

哈佛大学、布朗大学和图宾根大学的研究者们发表了一篇论文,探讨了Transformer模型与人类大脑在认知处理上的相似性。

研究发现,Transformer模型在处理信息时,会经历类似于人类的“纠结”过程,包括犹豫、反悔等现象。研究者们记录了Transformer模型每一层的输出和变化,提出了“处理负载”指标,如不确定性、信心、相对信心和boosting等,来衡量模型在每一层的“思考”状态。

通过多个实验,研究者们发现,无论是面对“首都杀手题”“鲸鱼归属”“逻辑陷阱”还是“图片辨认”任务,Transformer模型的“思考路径”与人类的认知过程高度相似。这表明,AI模型在训练过程中自然形成了类似人类的思考方式,而不仅仅是输出结果与人类相似。

2、全球首个,最接近原版DeepSeek开源复现来了!R1四个月狂飙26倍

来自SGLang、英伟达等机构的联合团队在短短4个月内,借助SGLang推理优化,使DeepSeek-R1在H100上的性能提升了26倍,吞吐量接近DeepSeek官方数据。

团队对SGLang进行全面升级,支持PD分离、大规模EP等功能,成功在96块GPU集群上复现DeepSeek推理系统。在处理2000个token的输入序列时,每个节点每秒可处理52.3k输入token和22.3k输出token。

本地部署成本可降至0.20美元/1M输出token,约为DeepSeek Chat API官方定价的五分之一。团队还深入探讨了并行设计、优化方法,包括注意力层、稠密FFN、稀疏FFN及LM头的优化策略,以及预填充和解码分离、大规模专家并行性等技术,显著提升了系统性能和效率。

3、一个LoRA实现GPT-4o级图像编辑!浙大哈佛新模型冲上Hugging Face榜二

浙江大学与哈佛大学联合团队提出了一种名为ICEdit的新型图像编辑方法,仅用极少量数据和参数,实现了高质量的图像编辑效果,性能媲美甚至超越一些商业大模型。ICEdit基于Diffusion Transformer(DiT)多模态大模型,通过巧妙设计上下文提示词,让模型理解并执行图像编辑指令。研究人员发现,将编辑指令融入特定上下文提示词中,模型能正确理解并生成符合要求的结果,同时注意力图显示模型聚焦于需编辑区域。

图片

为解决模型虽理解指令但无法直接完成图像编辑的问题,作者尝试了两种免训练架构。一种是基于文生图DiT模型,先对图像进行反演保留特征,再通过去噪过程接收融入编辑指令的上下文提示词完成编辑;另一种基于Inpainting DiT,更简洁,只需将待编辑图像置于双联图左侧,右侧设为inpainting区域,输入上下文提示词即可输出编辑图像。尽管这两种框架展现出一定编辑效果,但成片率仍有待提高。

为提升性能,作者在inpainting框架基础上,使用公共编辑数据集进行LoRA微调,将编辑指令改为统一上下文形式。微调后模型编辑成功率大幅提高,且能泛化到多种图像类型。但普通LoRA在不同编辑任务上效果仍不理想,作者借鉴LLM领域的MoE方法,将LoRA设置为不同专家进行混合训练,最终得到ICEdit模型,训练参数远少于SOTA模型。

在推理阶段,为解决不同初始噪声导致编辑效果不一的问题,作者提出早筛推理时拓展策略。利用模型前几步推理结果判断初始噪声是否满足编辑要求,不符合的直接略过,节省推理步数。测试表明,采用该策略后,模型VIE-score大幅提升,编辑效果更符合人类偏好,且在指令遵循、背景保持、人物ID保持等方面表现更佳。

4、DeepSeek精度效率双提升,华为&信工所提出思维链“提前退出”机制

华为联合中科院信工所提出了一种名为DEER(动态提前退出推理)的机制,旨在提升大模型的精度和效率。该机制通过在推理过程中找到信息质量下降前的临界点,提前终止推理,避免过度思考带来的负担。

在多个推理基准测试中,DEER显著减少了思维链生成长度(平均减少31%到43%),同时提高了准确率(提升1.7%到5.7%)。DEER的核心在于动态规划推理过程,通过监控推理转换点、诱导试验性答案并评估其置信度来决定是否提前退出。此外,DEER还引入了分支并行加速策略,进一步优化了推理效率。

实验结果表明,DEER在不同规模的DeepSeek模型和多种评测集上均表现出色,尤其在推理能力与问题难度匹配时效果更显著。

5、Bye,英伟达!华为NPU,跑出了准万亿参数大模型

华为盘古团队成功在国产昇腾NPU集群上完成了7180亿参数的MoE模型训练,实现了准万亿参数大模型的突破,无需依赖英伟达硬件。

该团队攻克了架构参数优化、动态负载均衡、分布式通信瓶颈及硬件适配等难题,通过模型架构优化、系统优化等技术,显著提升了训练效率。在6000多块昇腾NPU组成的集群上,模型算力利用率达到了30.0%,较优化前提升58.7%。

此外,团队还开发了模型仿真工具,准确率超85%,并采用了多项创新技术,如全新的EP组负载均衡损失算法、分级EP通信和自适应前反向掩盖策略等,大幅提高训练效率和模型性能。

实验结果表明,盘古Ultra MoE在多领域展现出卓越竞争力,推理与非推理样本比例为3:1,推理性能显著提升。

6、OpenAI神秘项目曝光:cderGPT,用AI加速药物评估

据Wired消息,OpenAI高层已与美国食品药品监督管理局(FDA)及马斯克的效率部门多次讨论。FDA局长Marty Makary曾质疑新药上市时间过长且未实现AI等技术的现代化,而FDA的首个AI辅助科学产品评审完成,可能与cderGPT有关。

目前,cderGPT细节未公开,由FDA首位AI官员Jeremy Walsh主导相关会议,他还与卫生与公众服务部临时人工智能负责人Peter Bowman-Davis讨论了FDA在人工智能方面的计划。前FDA局长Robert Califf表示FDA审查团队已使用AI多年,缩短审查时间是目标之一。

精准肿瘤学公司Genialis的CEO Rafael Rosengarten支持自动化药物审查部分任务,但强调需政策指导AI模型训练数据和可接受表现。有人担心AI模型编造信息的倾向,前FDA员工质疑其可靠性。

7、大模型集体“挂科”!全新中文网页检索测试:GPT-4o准确率仅6.2%

由港科大(广州)、北大、浙大、阿里、字节跳动、NIO等机构联合发布的全新基准测试集BrowseComp-ZH,让20多个中外主流大模型在中文网页检索测试中集体“挂科”,GPT-4o准确率仅6.2%,多数模型准确率跌破10%,表现最好的OpenAI DeepResearch也仅得42.9%。

该测试集采用“逆向设计法”,构建了289道高难度中文多跳检索题目,覆盖11大领域,从中文语境原生设计,以真正衡量大模型在中文网页上的检索能力。测试结果显示,模型不仅需要会“查资料”,更要会“多跳推理”与“信息整合”,才能在中文互联网中找到答案。

研究还发现,纯靠参数记忆的模型准确率低,有推理能力的模型表现更好,多轮检索能力的AI搜索产品胜出,而部分模型接入搜索功能后准确率反而下降。

四、视频

1、Runway教程:用参考功能创建一致性的角色和场景。

https://weibo.com/1887300801/PrCTW5EVY

2、《能否成为你的备胎》(suno v4.5版)——像突然的急刹车,没有安全气囊的感情,世间又多了一个离合故事……

词  GPT/Crops/Suno;曲/唱  Suno;图  通义万相/DeepSeek

(关注视频号“真正的人工智能”,听更多歌曲)

- END -
加入粉丝群,请关注公众号后发消息“进群”。
感谢kimi大模型生成文章摘要!
感谢通义万相大模型生成封面图片!
类比和推理,哪个才是智能的核心? | 不应一味追求前沿而轻视对主流大模型的发展 | 大模型如何看特朗普的全球对等贸易关税? | 专家不如算命先生 | DeepSeek将如何影响未来算力格局的发展变化? | 智能体究竟是指什么? | 如何理解马斯克暴论“2029年AI将超越人类智慧总和”? | 大模型越强大,专家越容易变蠢 | 建议人工智能的会议不要在欧洲开 | DeepSeek有逻辑推理能力吗? | 人工智能发展得确实有点太快了 | 幻觉 or 创造力? | 2025年世界全方位局势分析报告 | 人工智能生成的就是垃圾吗? | 预训练模式已经走到尽头?Ilya到底错了没有?
2024年终总结 | 2023年终总结 | 2022年终总结 | 2021年终总结 | 2020 | 2019 | 更多文章