日前,吴恩达在其个人社交媒体上发表了对 deepseek 的评论,全文实录如下:
2025-02-07 68

DeepSeek 在美国的最极端恐慌效应出现了。 关联阅读:美国过了个“DeepSeek年”
2025-02-07 76

日前,Figure机器人CEO Brett Adcock在社交媒体上宣布,将终止与OpenAI的合作协议。这一决定在机器人和AI领域引起了广泛关注。
2025-02-07 35

北京超算AI智算云平台正式完成【DeepSeek-R1满血版(671B)】模型服务部署,实现开箱即用,即日起面向开发者用户开放。
2025-02-07 34

据报道,英伟达首席执行官兼联合创始人黄仁勋已于1月15日抵达深圳,参加公司一年一度的春节庆祝活动。
2025-01-22 102

“接下来的几年将会非常疯狂,这将是历史性的,甚至是星际级的事件!”“700天后,数学家失业!”以上的惊人预测出自Exa CEO威廉布里克的推文。前段时间,这家由他与华人天才极客Jeff Wang在哈佛创立的AI搜索引擎公司Exa,刚刚拿下了英伟达领投的1700万美元A轮融资。硅谷AI新贵中,这对创始人组合格外引人注目。年仅27岁的CEO布里克提出了“史上最慢搜索引擎”的大胆理念,“宁愿花上几分钟返回精确结果,也不要毫秒级的肤浅匹配”。36岁的Jeff Wang则将向量数据库技术推向了极限,让 AI 真正读懂互联网内容。但比起搜索技术本身,更令业界震惊的是布里克对 AI 未来的预测:“前端工程师职位将在 3 年内消失。”“2025 年底 AI 将能自动处理任何计算机工作。”“我给数学家们的时间是 700 天,这就是人类作为宇宙已知领域中数学王者的剩余时间。”下面是布里克于《AI前夜的思考》全文: AGI 前夕的思考 本周我和几个朋友谈论了 o3。他们的反应基本都是“天啊,这真的发生了吗?” 是的,这确实发生了。接下来的几年将会非常疯狂。这是历史性的事件,甚至是银河系的事件。 可笑的是,对于正在发生的事情,并没有深入的讨论。人工智能实验室无法谈论它。新闻几乎不涉及它。政府不了解它。 事实上,我们通过社交媒体 meme 应用的新闻推送来讨论人类的未来,这听起来像是一部荒诞的情景喜剧,但我们确实就在这里。 以下是我对正在发生的事情的一些想法--我对 X 想法深渊的贡献。 请注意,这些想法都是不成熟的、有趣的推测。我没有足够的时间去思考/研究所有这些想法,而且很多想法都是错的。但我确实希望这些想法能引起那些试图理解正在发生的事情的人的兴趣。 那就让我们开始吧。 ------------------------------------------------------ - o3 不应该令人震惊。OpenAI 2 个月前向我们展示了测试时间缩放图,计算机的历史告诉我们,无论趋势线多么难以置信,我们都要相信它。真正令人震惊的是,它只用了 2 个月就发生了。这就是我们从大学级人工智能发展到博士级人工智能的速度。对于人类来说,变化是令人兴奋的,但快速变化令人震惊。 - 接下来会发生什么很明显。o3 类模型非常擅长优化任何可以定义奖励函数的东西。数学和编码很容易设计奖励函数。小说写作更难。所以这意味着在短期内(1 年),我们将得到尖刺模型。它们将在数学、编码和一般推理方面达到 AGI 级别,但写的是普通小说。虽然更好的推理会让模型在各方面感觉更聪明,但它们仍然会以它们没有在 RL 中遇到的愚蠢方式失败-- ,即不在它们的训练数据中。长期来看(1-3年,我们将继续添加新的领域来为它们进行 RL(情感数据、感官数据等),直到盲点被修补,然后这些模型对于任何不是 Gary Marcus 的人来说显然都是 AGI。 - 代理确实会在 2025 年出现。类似 o3 的模型不可能不能浏览浏览器/应用程序并采取行动。这些东西很容易设计奖励模型。这也是一个巨大的市场--自动化计算机工作--因此对于需要证明其巨额支出合理性的实验室来说,这是巨大的激励。我猜到 2025 年 12 月,您将能够告诉您的计算机执行任何涉及浏览网页/应用程序和移动数据的工作流程。 - 在所有知识分子中,最“老练”的一定是数学家。数学家在符号空间中工作。他们的工作与物理世界几乎没有联系,因此不会受到物理世界的阻碍。法学硕士是符号空间之王。数学其实并不难,只是灵长类动物不擅长数学。正则表达式也是一样。 一个大问题是制作研究级合成数据有多难。我猜没那么难。博士级数学和研究员级数学在我们看来在质量上有所不同,但对人工智能来说可能看起来是一样的,只是需要更多几个 RL 量级。我给数学家 700 天的时间。(这听起来很疯狂,但 o6 不打败数学家听起来同样疯狂,所以我对这个预测的把握超过 50/50,就像这篇文章中的所有其他预测一样)。也就是说,再过 700 天,人类就不再是已知宇宙中数学领域的佼佼者了。 - 那我们软件工程师呢?短期内,这将是天堂。每个 SWE 都晋升为技术主管,干得漂亮。对于那些完全采用 LLM 的人来说,到 2025 年底,编码将更像是安排一堆小任务,由小代理去执行。任何具有非常明确规范的 PR 都应该可以通过 o4 系统完成,并且错误率足够小,可以接受。这里的一个问题可能是上下文窗口太小,无法包含代码库,但像 Sam 这样的领导者很清楚这一点。 AI 会很快取代所有软件工程师吗?不会。软件工程不仅仅是根据超清晰的提示制作 PR。与数学家不同,软件工程师不断与物理世界(即其他人类)互动。工程师必须与客户合作以了解他们的需求,并与队友合作以了解他们的需求。当工程师设计架构或编写代码时,他们会在大量组织背景下进行。o4 无法做到这一点。但 o4 将帮助拥有背景的工程师以 10 倍的速度前进。 如果软件工程师的速度快 10 倍,那么我们可能需要的软件工程师数量可能就更少了?好吧,如果你以一家特定的公司为例,那么他们可能需要更少的软件工程师,因为他们可以用更精简的团队实现相同的产出。然而,全世界对软件工程师的需求可能会增加,因为全世界肯定可以使用 10 倍以上的优质软件。所以我认为我们将看到精简公司应用程序的黄金时代。为每个人和企业提供个性化的微应用。 - 从长远来看(>2 年被认为是长期的,哈哈),软件工程将完全不同,很难说会如何。当 o6 系统存在并完全集成到我们的应用程序中时,怎么可能不不同呢?像前端工程师这样的角色可能在 3 年后就不存在了。这很奇怪吗?其实并不奇怪-- 30 年前也不存在前端工程师的角色。 我们应该退一步思考,认识到软件每一代都会发生翻天覆地的变化。软件一直并将永远致力于将需求转化为纯逻辑。这种转换过程的抽象层次已经从二进制上升到 Python。现在的不同之处在于它正在上升到英语。 转向英语让非技术人员也能接触编程。但最好的构建者始终是那些能够在抽象层次上不断提升和降低的人。 简而言之,bc 软件工程实际上就是通过代码来理解和修复组织的需求,软件工程完全自动化的那一天就是所有组织完全自动化的那一天。 - 我们讨论了一些知识型员工,那么体力型员工呢?人工智能也正在向你走来,但是速度会慢一些,因为它必须处理重力和摩擦力。但是 O 类模型对机器人的帮助不大,因为一个需要一个小时的模型对工厂流水线上的机器人没有帮助。基础模型变得更聪明确实有帮助,O 类模型将有助于训练它们,但我认为这并不能解决机器人进步的最大瓶颈。我猜最大的瓶颈是硬件改进和感知+行动的快速/可靠的模型。这两者都需要更长的时间来改进(即几年)。只有当机器人开始制造机器人并且人工智能开始进行人工智能研究时,机器人技术才会疯狂地快速进步。这可能来自 O 类模型,但我认为那还需要几年的时间。 - 我一直在以年为单位讨论,但也许我们真的应该以计算为单位讨论。时间决定人类的产出,但计算决定人工智能的产出,而人工智能的产出将越来越成为研究机构中最重要的部分。这就是为什么人们竞相建造超级集群的原因-- Meta 的 2GW 集群、Xai 的额外 100k H100 等。 所有实验室都将迅速效仿 OpenAI 的测试时间计算模型,有些实验室可以通过增加计算量来弥补算法较差的缺点。它们将像 GPT-4 一样奋起直追。要制作这些模型,需要结合常识和每个实验室的秘诀。目前尚不清楚 OpenAI 在 O 类模型方面有多少秘诀,但它们的改进速度表明这是一种算法上的进步(更容易复制),而不是某种独特的数据组合(更难复制)。 在测试时计算时代,我不清楚拥有更多计算还是更好的模型更重要。一方面,您可以通过投入更多测试时计算来弥补较差的模型。另一方面,稍微好一点的模型可能会节省大量计算。 如果 Xai 赶上 OpenAI,那将会很有趣,因为他们在启动大规模集群方面更胜一筹。 无论如何,不会有持续超过一年的模范护城河,因为实验室像交换棒球卡一样交换研究人员,也许更重要的是,实验室之间的研究人员会互相聚会和睡觉。另外,我认为研究人员过于理想化,如果事情失控,他们不会不分享信息。 我们这里的情况有点疯狂。人工智能竞赛就像核竞赛,但美国人和苏联人在周末在洛斯阿拉莫斯聚会,并在推特上互相挑衅,“打赌你不会在 2025 年拥有最大的核弹哈哈哈:)" 在政府介入和/或发生一些真正糟糕的事情之前,人工智能竞赛将继续充满嬉皮和趣味。 - o 类模型通过一些有趣的方式改变了计算规模的动态。 O 级模型激励大规模建设,因为它们的计算能力每增加一个数量级,收益就会明显增加。计算提供商不可能要求更好的扩展定律。我猜 Sam 想要一个价值数万亿美元的计算集群时看到的就是这个定律。 这对 Nvidia 来说可能并不好。o 类模型使推理比训练更重要。我认为超级优化的推理芯片比训练芯片更容易构建,因此 Nvidia 在这方面没有那么大的护城河。 非常具有推测性:如果 o 类模型解锁来自全世界的聚合计算来训练最佳模型会怎么样?就像如果我们将我们的 MacBook Pro 整合到一个推理千兆集群中,开源会击败闭源,那会有多酷。 - 除了计算之外,现在混合中的另一个新指数是代码本身。如果一个实验室拥有对最智能模型的唯一/特权访问权,因此他们的软件工程师的生产力比其他实验室高出 2 倍,那么他们就会更快地接近下一次生产力翻倍。除非代码速度达到最大值,并且要运行一长串实验,否则实验室再次受到计算的瓶颈。(我不知道,动态很难。看看实验室如何模拟他们应该在计算和人力上花费多少,那将非常酷。) - 尽管所有这些计算扩展和知识工作自动化听起来很疯狂,但只有当科学家开始感受到 AGI 时,它才开始变得真正疯狂。我想到的是你们物理学家、化学家、生物学家。一切与理论有关的东西都会从它的名字开始。理论物理学是第一。如果数学真的解决了(即使这样写也听起来很荒谬,但这并不意味着不可能),那么理论物理学也不会落后太多。它也存在于法学硕士将成为超人的象征领域。 当我们拥有一百万个冯·诺依曼人工智能在路易斯安那州的田野上日夜工作时(Meta 即将建成的数据中心),会发生什么?它们能多快阅读过去一个世纪以来成千上万人撰写的每一篇物理论文,并立即给出更正确的标记? 显然,这是故事中难以预测的部分。理论物理、化学、生物学--如果这些对于接受过 RL 训练的 LLM 来说只是个笑话怎么办?目前我们有什么合理的论据可以证明它不是笑话?是的,我们还没有看到这些模型的真正创新,但它们大多处于高中/大学水平,而这些年龄段的人不会发明新的物理学。我们现在处于博士水平,所以我们可能会开始看到一些创造性。 - 一旦人工智能开始大量推出新的科学理论,其发展的瓶颈将是物理世界中的测试和实验。瓶颈在于劳动力和材料。到那时,如果没有能够制造更多机器人的机器人,那将是令人惊讶的。因此,劳动力问题得到了解决。然后材料可以由机器人开采。这里的时间表会很慢,因为建造/运输实物需要很长时间,但这是几年而不是几十年。 - 我上面所说的一切都假设人工智能+机器人研究/开发不会出现新的瓶颈,并且模型可以随心所欲地学习。这几乎肯定不会发生。人工智能进步的最大瓶颈将是人类。我指的是监管、恐怖主义和社会崩溃。 政府不会坐视地球被几家科幻公司运营的自动化机器人开采(监管)。如果政府无能到无法阻止他们,那么愤怒的失业者可能会诉诸暴力(恐怖主义)。除非人们被人工智能增强媒体腐蚀到无法正常运作的地步(社会崩溃)。 如果发生战争,我认为它不会成为瓶颈,而会成为加速器。 事情会变得严肃起来。在穿着西装的普通人参与其中之前,2025 年可能是人工智能成为科幻科技推特模因所描绘的疯狂事物的最后一年,所以让我们尽情享受 roon 和 sama 吧。 - 这会杀死所有人吗?我更害怕人类滥用人工智能,而不是人工智能失控。 我们有 5000 年的证据表明人类使用最新技术相互杀戮。二战后的和平是一种异常现象,一旦美国失策或对手认为必须先发制人以阻止人工智能加速发展,和平就可能破裂。当武器变得更致命、更自主时,风险就会更高。 另一个风险是人工智能会失控。这意味着它会导致我们无法预测的灭绝程度。尤其是随着强化学习重新回归游戏,人工智能现在正在发现自己的优化,而不是试图匹配人类数据(匹配人类更安全)。但到目前为止,这些模型的底层大脑仍然是法学硕士,法学硕士已经表明只是理解人。比如,如果你在提示中包含“确保不要做任何可能杀死我们的事情”,那么此时你就有义务声称它仍然可能会杀死我们。 - 不过,我的兴奋感肯定多于害怕感。 我一直梦想的科幻世界即将到来。它来得比预期的要快一些--因此我感到恐惧--但在所有可能的实现途径中,我不知道最佳途径会好多少。这是一个非常棒的时间线。 我希望十年内实现的首要事情是:- 一些疯狂而酷炫的物理发现- 火星和月球基地最初由机器人建造- 完美的导师/建议(快到了,需要良好的检索能力、记忆力和更多的个性)- 零副作用的生物增强药物- 乘坐超级优化的无人机飞行- 全面采用超清洁能源,包括核聚变、地热和大量太阳能- 意外:人工智能天文学家在望远镜数据中发现外星信号?人工智能化学家轻松设计室温超导体?人工智能物理学家统一一些理论?人工智能数学家解决黎曼猜想? 这些看起来不再像科幻小说了,它们感觉就像是近在咫尺的科学现实。 - 那么这一切将走向何方?最终,我们将获得超级智能,这意味着我们将获得物理定律允许的一切。我希望永生,并看到其他恒星系统。我还希望将我们的肉体升级到更好的状态。但到目前为止,我最兴奋的是了解宇宙的起源。10 年前,我开始写日记,记录我多么想知道答案,以及人工智能将如何帮助我们找到答案,现在它可能真的发生了,这太疯狂了。 - 我们现在生活在一个这一切听起来都很合理的世界。每一次新的人工智能发展都会让更多人意识到这一点,o3 就是最新的一个。 未来不美好的唯一原因就是我们人民把它搞砸了。我们的公众舆论、我们的下游政策、我们的社会稳定、我们的国际合作--都是可能阻碍这一美好未来的障碍。 - 人们认为人工智能实验室的人正在控制我们的未来。我不同意。他们的工作已经确定了。他们只是在某个实验室中执行将要发生的模型架构。 但我们的公众舆论、我们的下游政策、我们的社会稳定、我们的国际合作--是完全不确定的。这意味着我们共同是未来的守护者。 我们每个人都有责任帮助我们的世界渡过未来的艰难时期,以便我们拥有一个美好的未来,而不是一个可怕的未来。 - 有很多方法可以提供帮助。帮助开发一些产品,使社会更加稳定或使人们更加聪明(例如:一款帮助人们管理社交媒体的应用程序)。帮助人们了解正在发生的事情(社交媒体上更多高质量的评论、一个真正好的搜索引擎等)。帮助清理我们的街道,这样要求将我们带入乌托邦的城市就不会看起来像一个反乌托邦(参与地方政治)。 - 几乎每个和我聊过的人都害怕在人工智能世界中失去意义,你可能也是这样。我想对你说,难道不是完全相反吗?你正处于历史上最重要的时刻,你有能力影响它。帮助拯救世界应该就足够了,不是吗?你想回到那个唯一进步的只是你的事业而不是世界的时代吗? 也许人们需要做出的转变是从通过个人成功获得意义转变为通过集体成功获得意义。我们目前的许多工作很快就会实现自动化。我们必须适应。如果你从一项特定技能中获得意义,是的,这项技能可能在 5 年后不再需要,你就倒霉了。但如果你能从尽你所能帮助世界中获得意义,那么这种意义永远不会消失。 - 对于所有因为 o3 而得到建议的新毕业生,我的建议是:学习如何成为 1) 一个高代理问题解决者和2)一个优秀的团队成员。你在这一过程中学到的具体技能并不重要,因为世界变化太快了。但解决问题和与团队良好合作将在很长一段时间内都很重要。 你可能还需要接受一个不稳定的世界里不稳定的生活。这会变得很奇怪。你可能不会在郊区有两个孩子和一只狗。你可能会在星际方舟上有两个机器人孩子和一只人工智能狗。 我们正生活在 AGI 的前夜,在这个圣诞夜,我请求你们帮助使 AGI 过渡顺利进行,以便我能够在公元 3024 年圣诞夜,在距离奥特曼半人马座四光年的行星上向你们问好。
2025-01-22 91

日前,爱奇艺指控国内AI大模型“六小龙”之一的MiniMax,在其“海螺AI”模型训练过程中,未经授权使用了前者享有版权的素材,导致生成的内容构成了对爱奇艺的侵权。爱奇艺方面要求MiniMax,立即停止这一侵权行为,并索赔约10万元人民币。但这并非国内首起涉AI模型训练数据来源合法性的案件。2013 年 12月,四位绘画创作者将社交平台小红书的主体公司及小红书Trik软件主体公司,诉至法院,理由是Trik未经授权使用了画师的原创作品作为训练数据,从而生成了与原作高度相似的图片,“侵犯了创作者的合法权益”。这是首次 AI 大模型因训练数据被告上被告席。据公开信息,该案件在北京互联网法院已开庭审理,被告方辩称,即使使用了原告作品,也属于合理使用,不构成侵权。目前,案件仍在进一步审理中,没有定论。对于全球的法律体系而言,这都是个新鲜的议题。而类似的案件,在国外更是不胜枚举,这成了蓬勃发展的 AI 大模型产业绕不过去的坎之一。最近的高关注度案例是1.加拿大媒体公司起诉 OpenAI- 起诉方:包括 Torstar、Postmedia、The Globe and Mail、The Canadian Press 和 CBC/Radio-Canada 等多家加拿大媒体公司- 起诉内容:指控 OpenAI 通过抓取大量加拿大媒体内容来开发其产品(如 ChatGPT),且未获得许可或对内容所有者进行补偿,从而侵犯了版权和在线使用条款。2.The Intercept 起诉 OpenAI- 起诉内容:The Intercept 起诉 OpenAI 使用其记者的作品来训练 ChatGPT,且未获得许可或给予署名。- 进展:2024 年 11 月 25 日,联邦法院驳回了 OpenAI 想要驳回该诉讼的请求。3.《纽约时报》起诉 OpenAI 和微软- 起诉内容:《纽约时报》称 OpenAI 和其最大投资者微软非法使用其数百万篇文章来构建人工智能工具,指控 ChatGPT 等聊天机器人“搭便车”利用《纽约时报》的内容,威胁到其收入。 4.印度新闻机构 ANI 起诉 OpenAI- 起诉内容:ANI 起诉 OpenAI 未经授权使用其“原创新闻内容”,可能成为印度第一家将 AI 公司告上法庭的出版商,指控其侵犯知识产权。5.德国版权机构 GEMA 起诉 OpenAI- 起诉内容:GEMA 起诉 OpenAI 系统性地使用其音乐作品来训练其系统。6.代码开发者起诉 GitHub、微软和 OpenAI- 起诉内容:围绕 GitHub Copilot 展开,该工具将普通英语命令转换为数十种不同编程语言的计算机代码。Copilot 是在数十亿行已编写的开源代码上训练和开发的,引发了关于归属权的问题。诉讼指控这些公司违反了软件许可条款。显而易见,这其中,openAI几乎成了众矢之的。我们还整理了openAI其他相关的被告案例如下表:
2025-01-22 96

这一措施将扩大半导体贸易限制范围,涵盖全球大部分地区,目的是在需求激增时控制AI技术的扩散。据悉,相关规定可能最早于周五公布,将为芯片出口设立三个层级的管控机制。总体而言,美国的少数盟国将享受较为自由的芯片获取,而中国等国家则被严格禁止进口半导体。全球其他国家的数据中心算力也将受到限制。值得注意的是。只要企业满足美国政府提出的一系列安全要求,即使位于限制更严格的国家,也有机会通过“经过验证的最终用户”(VEU)计划绕过部分限制,获得更高的出口配额。这一计划旨在建立一批获得美国认证的实体,以推动AI在全球的安全开发与部署。美国政府为此设计的三级管控措施如下:-第一层级管控-新规则的第一层级包括美国及其18个盟友国家或地区,如德国、荷兰、日本和韩国等。企业可以在这些地区自由部署算力,而总部设在这些地区的公司也可以申请全面许可,将芯片出口至全球其他国家的数据中心。前提是,这些公司在第一层级以外国家的总算力不得超过25%,在第二层级国家的算力不得超过7%。此外,企业还需遵守美国的安全要求。如果总部位于美国的企业希望获得VEU资格,需确保至少50%的总算力留在美国境内。此举的更大目标是确保美国及其盟友始终在算力上占据优势。 -第二层级管控-第二层级包括全球大多数国家,对这些国家能获取的算力设定上限。从2025年至2027年,每个国家最多可获得约5万块GPU。然而,若企业在目标国家申请并获得VEU资质,其算力配额将可提高,且额度会随着时间增加。为获得VEU资格,企业需证明其过往记录或计划符合美国政府的安全与人权标准,标准涵盖物理、网络和人员管理等方面。如果某国企业获得VEU资质,其芯片进口将不计入该国的算力上限,此政策旨在激励企业与美国合作并采用其AI标准。 -第三层级管控-第三层级为最严格的限制对象,涉及中国、中国澳门及其他美国实施武器禁运的24个国家。这些地区的数据中心被完全禁止进口芯片- AI 大模型权重也设限制-除了半导体管控,新规定还限制闭源AI模型权重的出口。企业不得在中国、俄罗斯等第三层级国家托管强大的闭源模型权重,在第二层级国家托管这些权重则需满足安全要求。但若企业在第二层级国家利用大量算力微调通用开源模型以实现特定目的,则需向美国申请许可。英伟达对此新提案表示反对,认为此类全球性出口限制的政策转变,不仅无法降低技术滥用风险,反而可能阻碍经济发展和削弱美国的领导地位。
2025-01-22 93

该规定明确提出了“六个禁止”。禁止使用AI工具进行原始数据的生成或改动。禁止直接生成论文的正文文本和其他组成部分,禁止进行语言润色和翻译,禁止答辩委员和评审专家使用AI工具进行评审,以及对于涉及保密内容的论文,禁止使用任何AI工具并禁止上传数据和图片到AI平台。除了“六个禁止”,《规定》还要求学生在使用AI工具时,必须在本科毕业论文承诺书中明确披露所使用的AI工具的名称、版本号等详细信息,并保留AI工具处理之前的相关重要材料,以便指导老师或评审专家进行检查和质询。随之而来的是各种争议。许多网友大力支持复旦大学的做法,他们表示,“当前论文写作领域 AI 滥用现象泛滥成灾,严重侵蚀学术诚信的根基”。论文AI滥用的例子值得一提的,就有去年的midjourney图片事件。 2024年3月,有人发现,在一篇医学论文的下面,作者竟然使用了midjourney工具为文章配图,并且图片中错漏百出。 更离谱的是,这篇文章竟然还能发表在sci期刊中! 就连黄仁勋也在一次访谈中表示“AI对论文创作没有帮助”然而,在高校师生广泛应用 AI 工具已渐成趋势的大背景下,部分师生则认为此番规定有些矫枉过正。上海一所高校的教师表示,AI并不能凭空产生内容,学生即使用AI来写作业和论文,也需要给出关键词和自己的核心观点,“AI只是起到了将原始想法丰富成文的工具性作用,没有什么坏处”。事实上,复旦大学推出这一所谓“禁令”并非如媒体炒作那样对AI“一刀切”,在发布《规定》的同时本身也在积极推进多项拥抱 AI 的改革措施。例如,复旦大学预计在2024—2025 学年开设至少 100 门“AI 大课”,全力实现 AI 教育的“三个渗透率 100%”,旨在提升学生对 AI 技术的理解与应用能力,使其能更好地适应智能化时代的学术与职业需求。并且,《规定》也明确了 AI 工具的可使用范围,即在指导教师许可且生成内容不影响对学生创新能力评估的前提下,学生可在一定程度上合理运用 AI 工具,这体现了规定的灵活性与合理性。复旦大学教务处相关负责人也强调,制定此规定并非全然禁止学生使用 AI 工具,而是期望在合理范围内引导学生正确利用 AI 提升文献检索和图表制作效率,同时坚决捍卫数据的原创性。其实,出台有关AI规定的并非复旦大学一家。 中国传媒大学本科生院下发了《关于加强2024年毕业论文(设计)中规范使用人工智能管理的通知》,并由多个学院出台了规定细则。天津科技大学教务处规定,若本科生毕业论文中生成式AI检测的结果超过40%,学院将向学生发出警示,并要求其自查自纠,同时加强学术诚信教育。尽管高校纷纷出台相关规定,但多位人工智能研究领域的专家坦言,目前相关检测工作仍存在难度。现存的AI检测工具虽能识别某些AI生成的文本,但无法准确判断所有特征。您对这份规定怎么看?欢迎与小编在下方评论区交流。
2025-01-22 92

全球调研机构益普索(Ipsos)最近的一份调研报告或能提供一个参考。 2024年10月25日至11月8日,益普索针对33个国家进行了访谈,样本覆盖2.4万名18岁以上的成年人。 调研结果显示,中国人对AI创造就业机会的态度最为乐观;其次是印尼和泰国;前7名均为亚洲国家;而后8名均为欧洲国家,匈牙利垫底。  中国最乐观,亚洲国家普遍看好  调研显示,我国受访者对AI创造就业机会的乐观态度远超其他国家,80%的人认为,AI将在未来五年内改变工作方式,并带来更多就业机会。 小编觉得,这种乐观情绪可能与我国的AI技术快速发展及其在多个领域的广泛应用有关。 比如,AI在制造业、服务业和金融业的深度应用,不仅提高了效率,还催生了大量新兴职业,如AI训练师、数据标注员等。  以印尼和泰国为代表的东南亚紧随其后,分别有87%和81%的受访者认为,AI将带来更多就业机会。该乐观态度,可能与AI技术在教育、医疗和农业等领域,在这些国家的成功落地有关。  当然,近期老黄和小马哥在东南亚的大量设厂也功不可没。  欧洲国家态度谨慎,匈牙利最悲观   与亚洲国家形成鲜明对比的是,欧洲国家对AI创造就业机会的态度普遍谨慎。 调研显示,后8名均为欧洲国家,匈牙利垫底,仅有不到30%的受访者认为,AI会带来更多就业机会。 这种差异可能与欧洲国家对AI技术替代就业的担忧有关。 在劳动力人口连年下降,而劳动力价格连年攀升的欧洲,人们更担心自己的工作会被AI取代。在这种情况尤为明显的爱尔兰,受访者对AI的紧张情绪已经从2023年的62%上升至2024年的67%。  数据还显示,AI对就业的影响是双重的。 一方面,AI可能替代部分重复性工作,导致结构性失业。 调研结果显示,全球36%的受访者担心AI会取代他们的工作,而在Z世代中,这一比例上升至46%。另一方面,AI也在创造新的就业机会。例如,AI技术的普及催生了大量高技能岗位,如AI工程师、数据科学家等。   中金研究院的分析指出,尽管AI可能导致未来10年就业增长放缓,但其创造的就业机会足以抵消替代效应。 例如,AI在增强型职业中的应用可能带来9.1%的就业增长率提升,而替代型职业的就业增长率可能下降4.4%。 国际劳工组织(ILO)的报告也强调,AI可能加剧工资不平等,低技能劳动者和女性群体面临更大的失业风险。然而,AI也为灵活就业提供了新机遇,例如自由职业者和平台经济从业者的数量正在快速增长。   你对AI带来的就业变革怎么看?欢迎在评论区分享你的观点!
2025-01-22 59

大洋彼岸的科技创新与风险投资继续摸高,尤其在AI领域。据路透社消息,近日,AI独角兽企业Databricks宣布获得100亿美元融资,最新轮融资令公司估值跃升至620亿美元,远超2023年的430亿美元。
2025-01-11 95

12月18日,在Nobel Minds 2024 上,各位诺贝尔获奖者齐聚一堂,探讨了关于人类与AI的多个话题,其中“AI教父”杰弗里·辛顿针对每个问题都提出了自己的见解。
2025-01-08 58

AI 赛道,马斯克近来正紧追急赶。 日前,他旗下人工智能公司xAI正在澳大利亚等国测试一款独立的iOS应用,提供其聊天机器人Grok服务。
2025-01-08 39

如题。 罗永浩这次又要进军AI行业了。近日,有消息称,他的新公司“细红线”将在蛇年春节前后,发布自成立以来的首款新品。
2025-01-08 49

今天是2024年最后一天。 回顾2024年,可以称得上是AI元年。除了在创投一级市场的火热,二级资本市场上,因AI概念驱动,美股三大股指多次刷新历史纪录,标普500指数年内近60次收于历史新高,道指首次站上4.5万点,纳指史上首次突破2万点。
2025-01-08 47

“AGI它真的发生了!”“接下来的几年将会非常疯狂,这将是历史性的,甚至是星际级的事件!”
2025-01-08 27
没有账号?注册  忘记密码?