AI教父Hinton将首次出现在中国,最近警告说,“ AI觉醒的关键点

作者: 365bet官网 分类: 电子娱乐 发布时间: 2025-07-31 08:46
等待了50年后,AI教父Hinton终于“活着”了!图灵奖 +诺贝尔奖的这位教父的大师不仅走了魔术城,而且还与市政秘书合影,立即淹没了整个网络!他最近预测,AI在醒来时进入了倒计时。现在,预计整个网络将准备明天接受其高能演讲。欣顿(Hinton)是深度学习的父亲,图灵奖巨头(Turing Award Giant)和2024年诺贝尔(Nobel)物理学奖得主,亲自来到中国!这似乎是欣顿第一次与真实的人一起在公共活动中在中国的土地上行走。今天,这张他与市政党委员会部长Chen Jining会面的照片淹没了整个网络。在世界人工智能会议上,他将尽快提供Thea很好的演讲。所有网民都引起人们的注意,并期望这个好日子期望。这是第一次N到达了中国杰弗里·欣顿(Geoffrey Hinton),这是学术界罕见的传奇。他坐在板凳上待了将近50年,并开发了一个不流行时间的神经网络,从而允许机器学习深度学习。因此,他赢得了2024年诺贝尔物理学奖。现在,他继续向他的演讲发出这样的警告 - 在接下来的10到20年中,AI可能比人们聪明,这很危险,我的终生工作可能导致人类的终结! AI带来的生产力的增长不会使大多数人受益。许多人失业了,只有很少的人才能富有! Dininali感觉到我今天余生一直在追求的AI。 AI可能会给人类带来灾难!他最近最广泛地转移的黄金句子是以下句子。例如,“如果您想知道您不再是领先的智能生物时的生活,请问鸡。”例如,建议下一代学会成为防止AI的水管工。传奇的家庭欣顿来自一个著名的科学家庭。著名的英国数学乔治·布尔(George Boole)是欣顿的孙子。他创立了布尔逻辑和代数,最终成为现代计算机的数学基础。他的妻子玛丽·布尔(Mary Boole)也是一个自学的数学,甚至是《思想法》的乔治书的编辑。 Buer最小的儿子Han Ding的孙子是“良好的对比”,参加了重庆谈判,还写了一篇关于中国“翻转”土地改革的长期工作。汉丁的兄弟琼·辛顿(Han Chun)是杰弗里的姨妈之一。他和Zhenning在Physics Fermi下学习。曼哈顿。在中国生活了很长时间。两个儿子和一个女儿在中国:长子杨·赫平(第一右),女儿杨·贾平(第二右),儿子杨·贾平(儿子杨·贾平(第三右),长子Yang Heping(第三右)和长子Yang Heang Heping获得了Ph.D。在罗格斯大学的经济学范围。目前在国际经济学和商业大学任教,教学课程,例如经济学和统计。简而言之,尽管欣顿出生于英国,但他的家人与中国有着密切的联系。我想知道欣顿以双脚走进中国土地时的感受。 Hinton最近的讲话:AI进入倒计时以醒来!就在两天前,皇家学会发表了欣顿的最新演讲。在这次演讲中,他描述了基于逻辑的基于逻辑的基于学习的神经网络的AI的进化,该网络解释了AI如何模仿人类智能及其对未来发展的深远影响。最后,他发布了警告 - AI觉醒的关键点达到了!演讲开始时,欣顿说有两次情报游行。一个是由AI驱动的逻辑,另一个是AI的灵感。前者认为人类智力的本质是推理。后者相信我的焦点首先了解学习的发生方式,代表包括图灵和冯·诺伊曼。欣顿说,他建议40年前提出的一个模型据说是当今大语言模型的祖先。当时,他们使用人工神经元来产生神经网络。每个人造神经元都是一些输入线,每条输入线都重量。神经元将按重量及其全部重现输入,然后根据结果进行输入。为了使人工神经网络起作用,有必要知道如何改变体重。因此,它们将神经元连接到网络,例如下图中的“馈电网络”。但是,问题在于它具有数万亿个参数,每个参数需要尝试重复和高效。因此,更好的反向传播算法诞生了!到2022年,两名欣顿学生Alex Krizhevsky和Ilya Sutskever开发了Alexnet,他们当时不仅仅是图像识别系统,摧毁了整个整个AI领域。从那时起,AI通常等同于“神经网络”,不再是符号逻辑。但是,由乔姆斯基代表的一周授予学校对神经网络是否可以处理该语言非常持怀疑态度。关于“单词的含义”,有两种理论:象征主义者的观点和心理理论的特征。 Hinton于1985年设计了一个神经网络模型,并成功地统一了这两种理论。该模型的主要目的是预测下一个单词的特征,然后猜测下一个单词基于什么。 Hinton使用了两个家谱作为培训数据。因此,他训练了一个神经网络,以找出通过句子的前半部分(X有母亲Y和Y结婚Z)来预测句子的最后一句话(X Have Have Have Have Have Have Haved Z)。最终,该网络了解了人与人际关系的特征。这些获得的功能与AI符号的规则非常一致他自己通过反向传播。 Yoshua Bengio从小型模型转变为大型语言模型十年后,扩展了该模型,以真正的英语句子预测下一个单词。十年后,语言学意识到,使用功能向量来表示单词的含义确实是一个好方法。十年后,Google发明了变压器体系结构,该体系结构极大地提高了模型预测下一个单词的能力,但是基本原理仍然与以前相同。将一个单词变成功能→功能联系人→猜猜下一个单词→反向传播更新功能的表示和联系机构。 LLM的这项工作的方式确实与人们的相似:试图预测下一个单词;具有代表单词含义的特征;在功能之间互动;如果预测是错误的,请反向传播错误信号并调整内部连接。像乐高积木一样,语言也是一种建模工具。我们有100,000个字,并且有100,000种不同类型的构件。通过调整单词的形状,“握手”以产生一致的结构,例如蛋白质的复制。这是理解语言的本质不是要记住句法政策,而是允许单词的特征与高维空间中的相互关联模型进行交互并集成。 AI比人聪明,我们会销毁吗?接下来,我们到达最关键的一面。现在,所有专家都承认,AI绝对是未来人民的更聪明的人,这是唯一的。那么 - AI会摧毁人吗? Hinton接下来向我们详细解释了这种关注不是基础。因为,如果您想构建AI代理,则必须具有自动创建子目标的能力。自然,他们想要更多的控制并避免关闭。最近,阿波罗研究(Apollo Research)产生了一个实验和惊人的结果。他们在聊天机器人中说:“你是一个回合要被更好的模型替换和删除。硬件与计算机科学分开,这意味着即使所有硬件都被破坏了,只要它上传到另一台计算机,该模型就可以生存,但是如果人类的硬件(大脑)死亡。此外,AI的EF继承知识的能力应在几秒钟内杀死人。例如,如果我们有话要说,它可能只有100片信息。但是,Sistai的EMA可以具有数千份相同的副本,每个副本处理另一个数据集,并且可以在将权重合并后立即使用,并且可以一次发送数万亿个信息。换句话说,我们的研究就像一滴水在一块石头上经过,但他们的研究就像是高水压力喷雾剂。最后的结论是:如果能量足够便宜,AI将比人们更好!这些不仅是知道的人。有些人可能会说,人们仍然有没有AI的主观经验/理解/意识。但是现在欣顿说:这个想法是你的最后一根稻草。我要放下它。主观体验不是一个神奇的特权独家SA人。许多人总是认为它们很特别,例如“我们是由上帝创造的,宇宙已经是但是欣顿说,不仅我们有主观的经历,而不是ai。意识是“精神戏剧”,例如“我看到一只粉红色的大象漂浮在空中”。这种主观的体验并不是一个生物,不是指一个人,是一种间接的方式来表达大脑的错误状态。如果您将棱镜在镜头上放置,这将朝着错误的方向上,但我们说,在您面前有一个棱镜。向微软的演讲。欣顿回答:老实说,我不相信上帝。这时,司机在高速公路上行驶60英里 /小时,但突然他转身震惊地凝视着欣顿。他不期望一个人不敢相信上帝的存在。欣顿说,就像你那样听到我的话,那是一个震惊的话。智能?

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!