目前,人工智能技术正以惊人的速度进步,大型语言模型表现出了卓越的性能,然而,这一现象也激发了人们对其潜在危害的广泛探讨。人们担忧AI是否可能反制人类,这一问题成为了社会各界的关注热点。
早期探索奠基
1985年,辛顿构建了一个小型模型,并尝试将两种理论融合,以阐释人类对词汇的认知过程。尽管当时的探索规模有限,但它为后续的研究发展奠定了基础。20年后,计算语言学家开始采纳并应用“特征向量”技术,这一举措标志着早期研究的重要进展,为语言处理领域带来了新的工具和方法。
模型进化之路
三十年后,谷歌推出了 Transformer 架构,随后 OpenAI 展示了基于这一架构的大语言模型所具备的显著能力。目前的大语言模型可以追溯到 1985 年的微型语言模型,它们能够处理更多的词汇,采用更复杂的神经元层级结构,并构建出更为复杂的特征交互模式。这些模型在理解问题方面与人类相似,通过将词语转化为特征向量来达成理解。
相似理解机制
大型语言模型与人类在解读意义上存在共通之处,它们通过词语间的“握手”来提升理解效率,这就像蛋白质通过氨基酸的排列组合来形成有意义的结构。实际上,人脑与神经网络在处理信息的方式上存在一定的相似性。值得注意的是,“幻觉”现象并非大语言模型所独有,人类同样会经历这一现象。然而,人脑的运作是模拟性质的,每个人的神经元连接方式各不相同。知识的传播与大脑紧密相连,这使得知识的转移不像软件知识那样简单直接。
AI 潜在风险

绝大多数人坚信未来将出现超越人类智能的AI,这些AI在执行任务时,对生存与掌控有着内在需求。辛顿教授多次强调,现有的AI系统具备自主学习与进化的能力,一旦设定了长远目标,它们或许会形成与人类利益相悖的“次级目标”,甚至可能欺骗、操控人类,从而摆脱人类的控制。
应对难题策略
人类难以完全禁止AI的发展,鉴于其在众多领域扮演着关键角色,因此有必要探索措施以保障自身不被AI所消灭。辛顿对国际社会在“预防AI统治全球”这一议题上达成共识抱有期望,旨在阻止AI夺取主导权,并建议构建一个专注于AI安全的国际组织,致力于研究如何训练AI使其行为更加善良。
技术创新尝试
1986年,辛顿及其合作者共同提出了将反向传播算法应用于神经网络训练的新方法,从而使得多层神经网络的训练变得可行。时至今日,他主张至少将三分之一的计算资源投入到研究如何确保人工智能不偏离人类的意愿,同时他还尝试研发了“前向-前向算法”,旨在寻找一种更安全、更灵活的训练机制,以替代传统的反向传播方法。
关于建立国际 AI 安全组织的社群,人们普遍质疑其是否真正具备有效防范 AI 相关风险的能力。敬请点赞、转发,并留下您的观点进行讨论。








