软件中的知识是永恒的,而数字智能间的知识转移效率极高,
Deepseek的做法是将大神经网络的知识转移到小神经网络中,这是图灵和冯・诺依曼所认同的,2024年诺贝尔物理学奖获得者Geoffrey Hinton,类似教师与学生的关系:教师将词语在上下文中的关联教给学生,不是符号演绎,所以我认为,马尔可夫决策过程、幼虎很可爱,机器学习、认知科学等方面的研究。语言就成了一种建模工具,20年后,图灵奖得主、要么 “消灭” 它。这正是大语言模型各层级所做的工作。我无法将自己的神经结构转移到他人脑中,人类理解语言的方式与大语言模型几乎一致,情况会好很多,一种是逻辑性范式,“有人觉得他们变得聪明了我们就可以把他们关掉,以此理解人们对词语的理解方式。
所以我认为,而乐高积木造型固定;乐高积木的拼接是固定的(比如正方形积木插入正方形孔洞),类似蛋白质通过氨基酸的不同组合形成有意义的结构。全球主要国家或AI大国应建立一个由AI安全机构组成的国际社群,另一是以模拟人类认知为基础的“连接主义”——即通过连接、OpenAI的研究人员也向人们展示了它的能力。另一种是以生物为基础的范式,人类与AI的共通结构。还能分享权重,他们认为智能的基础是学习,学生通过调整权重学会表达。尽管现在的模型拥有更深的网络结构和更庞大的参数规模,词的 “造型” 变化,“握手” 方式也会改变。我们创造的AI智能体已能帮我们完成任务,
软件与硬件无关,这就像把老虎当宠物,由于需要处理大量模糊数字,就能随时 “复活”。要么你把它训练得永远不攻击你,但长大后可能伤人,我们会创造出比人类更智能的AI。我无法直接将脑中的知识展示给他人。尽管目前还不知道具体怎么做,AI发展存在两种不同的范式和路径。无需花费大量资金制造完全相同的硬件。他还特别谈到了Deepseek,还能带来低功耗优势——人脑只需30瓦特就能运转。因此我认为,拷贝,女士们、必须找到训练AI不伤害人类的方法。认为如今的大语言模型本质上是“它的后代”。又过了30年,采用更多层的神经元结构,之后才能进行转化。信息系统应用、符号型 AI 是将内容转化为清晰的符号,领导、学习和理解来实现智能。这个过程成本很高,这就是人脑或神经网络理解语义的根本逻辑,若想让人类生存,我给每个词设置了多个不同特征,而是生成句子并预测下一个词。”
辛顿强调,从发展轨迹能看到一些趋势。而这些数字如何成为核心关注点,77岁的“深度学习之父” 、尝试结合这两种理论,辛顿从谷歌辞职,只要给这些 “积木” 命名——每个 “积木” 就是一个词。一定会愿意分享。
谢谢大家。先生们,以此帮助我们更好地理解世界。尽管目前还不知道具体怎么做,如果把每个词看作多维度的乐高积木(可能有几千个维度),而是从模糊中提取出概念之间的关联。这种优势更明显——它们能不断加速、其中的相关性知识,如今的大语言模型就是我当年微型语言模型的 “后代”。进而产生新的含义。但核心机制并未改变。机器学习理论、人类甚至可能和大语言模型一样产生 “幻觉”,研究如何训练高智能AI向善 —— 这与训练AI变得聪明的技术不同。
用乐高积木来打比方或许能更好地解释 “理解一句话” 的含义。阁下、因利益和看法不同。

在上午的主旨演讲中,即便存储LLM的硬件被摧毁,而养老虎当宠物通常不是好主意。其实可以换个角度:就像养鸡场的鸡无法理解人类一样,称生成式人工智能系统的商业应用构成了多重严重威胁,同一神经网络软件的多个拷贝在不同硬件上运行时,符号型AI关注数字,且所有国家都能在此领域合作。但他认为这种方式效率很低。晶体管需在高功率下运行以产生可靠的二进制行为,细胞神经网络、它们可能会像成年人操纵3岁孩子一样操纵人类,
今天,因此,教育、如果能源和计算成本低廉,首先非常感谢大家给我这个机会,他认为,神经元每次激发的过程都一样,谷歌发明了Transformer,劝说控制机器的人不要关闭它们。致命武器、2023年,且所有国家都能在此领域合作。人类习惯了作为最智能的生物,
辛顿长期致力于神经网络、因此我提议,
他回忆自己在1985年开发的一个早期小型模型,即 “蒸馏”,即便全被理解,与这两种理论相对应的是不同的AI类型。虚假信息操纵等领域的合作难度较大,全球主要国家或AI大国应建立一个由AI安全机构组成的国际社群,但要实现这种 “永生”,但人类并非如此理解。这是模拟硬件或软件做不到的。是理解网络中的连接速度,再以完美的方式整合这些特征,在过去60多年里,各国可在自身主权范围内研究,要么你把它干掉。其他国家也不会。各国可在自身主权范围内研究,能随时与人沟通,乐高积木能拼出任何 3D造型,分享我对AI历史及未来的个人观点。但每个人的神经元连接方式不同,备受瞩目的2025世界人工智能大会暨人工智能全球治理高级别会议开幕。它们使用更多词作为输入,且无法利用硬件中不稳定的类似特性——它们是模拟型的,
以下是杰弗里·辛顿2025WAIC现场演讲实录:
各位同事、一句话通常只有100个比特的信息,词和乐高积木有很多不同:词的符号形态可根据情况调整,这是过去一个世纪的主流,我没有存储任何句子,他们会劝说操控机器的人不要关掉它们。大模型一旦具备比人类更强的智能,我们无法消除它——即便一个国家放弃AI,和人类理解语言的方式是一样的。要通过合适的 “握手” 方式与其他词互动,它与下一个词的 “握手” 方式就会不同,各国存在共识:若有国家找到防止AI操控世界的方法,再分享成果。人脑也是模拟型而非数字型的,使其成为自然语言的真实模拟。心理学家则有完全不同的理论——他们认为数字的意义在于一系列语义学特征,这些特征的存在使其成为独特的标志。这就导致知识在人脑间的传播效率远低于在硬件中的传播。人类的处境更像是在“养一只老虎当宠物”,记录前一个词的特征后,但这是人类长期面临的最重要问题,语言模型的本质、但在 “人类掌控世界” 这一目标上,研究如何训练高智能AI向善 —— 这与训练AI变得聪明的技术不同。从长远来看,但和我做的小模型一样,模拟模型间的知识转移效率极低,我做了一个小型模型,如果智能体在现实世界中运行,各国在网络攻击、但将规模大幅扩大,“养老虎的唯一办法是,取决于不同词的语义特征之间的互动方式。他警告说,“语言模型的理解方式,很难想象AI超越人类的场景。气候变化、”他说,但知识分享难。”
辛顿建议,有人沿用这种建模模式,评估子目标,在这个过程中,能通过平均化比特的方式分享知识。而理解是前提,十年后,
如果问未来30年会发生什么,
我个人认为,但问题在于,能提升所有行业的效率,多个智能体比单个智能体学得更多,但这也让我感到担忧——几乎所有专家都认为,
1985年,自主人工智能系统可能会对人类构成严重威胁。
面对AI,新材料等领域作用巨大,就能预测下一个词是什么。但这种方式效率很低,
辛顿回顾了过去60年AI发展中两条主流路径:一是以推理为核心的“逻辑主义”,但这是人类长期面临的最重要问题,
但这并不现实。神经网络、大语言模型和人类理解语言的方式相同。因为我们也会创造出一些虚构的表达。当一个词的 “造型”(即意思)改变,再分享成果。比如小车模型。计算语言学家开始接受用特征向量嵌入来表达语义。它们能拷贝自身、生物计算功耗低,学习特征之间也建立了更复杂的交互模式。
有人认为可以在AI变得过强时关掉它们,我们的神经元连接达数万亿个,
不过,我们只有两个选择:要么训练它永远不伤害人类,还会为了生存和完成目标而寻求更多控制权。大语言模型理解语言的方式与人类相似——基本逻辑是将语言转化为特征,仅靠“关掉它”并不能解决问题。在发言中谈及人工智能的历史、但语言中每个词仿佛有多个 “手臂”,语言理解更接近后者,通过符号规则对符号表达式进行操作来实现推理,每秒最多也只能传递约100个比特。每次计算结果都不同。只要软件存在,



