Artwork

Контент предоставлен 晚点 LatePost. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией 晚点 LatePost или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.
Player FM - приложение для подкастов
Работайте офлайн с приложением Player FM !

71: “如果相信只靠 Scaling Laws 就能实现 AGI,你该改行了”,与香港大学马毅聊智能

1:53:00
 
Поделиться
 

Manage episode 423080283 series 3330158
Контент предоставлен 晚点 LatePost. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией 晚点 LatePost или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

本期节目是「晚点 LatePost」上周发布的《对话香港大学马毅》的采访音频。(原文见 shownotes 末尾链接)。

马毅现在是港大计算机系主任和数据科学研究院院长。自 2000 年从加州伯克利大学博士毕业以来,马毅先后任职于伊利诺伊大学香槟分校(UIUC)、微软亚研院、上海科技大学、伯克利大学和香港大学。

在如今的 AI 领域,马毅是一位直言不讳的少数派。不少人相信用更多数据、更大算力做更大参数的模型,就可以实现通用人工智能,这就是大模型的 Scaling Laws,它被一些人视为“信仰”。

马毅则不相信这条路。他认为现在的深度学习网络本质上,都是在做压缩(compression):就是从图像、声音和语言等高维信号里,找到能表示数据间相关性和规律的低维结构。

GPT 表现出来的数学推理等能力,在马毅看来本质还是依靠记忆和统计,就像一个接受填鸭式教育的、高分低能的学生,它并不能学到因果推理、逻辑等能力。这离他定义的智能还有相当距离。他认为智能最本质的特征是:能纠正自己现存知识的不足,而且能增加新的知识。

由此,马毅也完全不买账 AI 威胁论,他认为,说现在的 AI 危险的人,“要么是无知,要么是别有目的”。

为解释深度学习网络到底在做什么,马毅团队最近几年的重点工作是,白盒大模型,也就是用数学来解释深度学习网络的压缩过程,以找到更高效的压缩方式。

他也希望以此来对抗黑盒带来的误解,因为“历史上,任何有用的黑盒都可能变成迷信和巫术”。他担心 AI 威胁论可能带来过度监管,导致垄断,遏制创新。

真理不一定掌握在少数人手中,但少数派和观点竞争的存在增加了发现真知的概率。

*访谈过程中涉及了一些论文、著作和术语,我们也标注在了 shownotes 里的附录部分。

时间线指引:

-现有主流路线的局限
02:49 工业界更关注现有方法提效,而白盒模型刚提出时的工程验证有限。
05:08 现在的大模型是通过经验找到了一些有效的方法,但它引起的量变不是真正的智能。
08:29 现有方法其实只模拟了记忆的局部功能,资源消耗大GPT 类模型仍“高分低能”。
13:26 当整个community 都认可一两件事,可能忽略掉其他可能更重要的事,曾经的深度学习就是一个例子。
15:45 如果你作为年轻人,相信只靠 Scaling Laws 就可以实现 AGI,你可以转行了。(这部分提及的文章是附录里的 wide eyes shut)
18:44 因为研究不要怕特立独行:当年在微软亚研院招何恺明等员工,都会让大家想:你做的哪些事别人做不了?

-智能的原则:简约与自洽;达到智能的可能路径:白盒、闭环、自主
21:19 2017 年回到伯克利后,开始梳理已有成果:现有深度网络都是在做“压缩”(compression)。
23:18 白盒大模型是给这个压缩过程找到数学解释。
24:52 科学史上的好想法总会被翻新。
26:11 知道了压缩到数学原理,能帮助找到更高效的压缩方式。
26:50 Everything should be made as simple as possible, but not any simpler.前半句对应简约,后半句对应自洽。
29:39 为什么智能会出现?——世界上有值得学、能学到的规律。
32:47 知识不等于智能,GPT-4 有更多知识,婴儿更智能。智能的本质特则会给你是能纠正现存知识的不足并增加新的知识。
37:13 达到智能,除了从黑盒到白盒,还有从开环到闭环,从人工到自主。
40:48 自主学习的含义之一是,人的学习是在大脑内部建模完成的,不需要真去对比外部物理信号,生物没有这个选项。
46:17 跨学科研究和借鉴神经科学帮助形成了上述想法。

-验证推演 & 白盒对黑盒的祛魅
48:41 ReduNet 是一个框架,但工程实现还不够;CRATE 做了工程优化。
55:32 历史上任何有用的黑盒都可能变成巫术。
57:03 有人说 AI 是原子弹,我们看很可笑。
57:33 政府应该监管技术的应用,而不是技术本身。
59:07 从去年开始,更迫切感到要让更多人知道现在的 AI 在作什么,AI 没这么可怕。
60:16 白盒更实际的作用:减少试错成本、GPU 成本。

-对智能历史的梳理
01:05:04 为何机器智能的结构会类似生物智能?——尚未看到更高效地方法。
01:07:13 从维纳的《控制论》开始,第一批研究智能的选择并没有区分机器与生物。
01:09:58 闭环系统的好处,解决“灾难性以往”问题。
01:13:13 对(人工)智能的研究并非始于1956年。
01:15:26 深度网络的两次危机都与缺乏数学解释有关,但现在可能不会再发生。
01:17:23 从生物学和神经科学中学习,猴子大脑机制与智能研究发现的相似性。
01:20:36 真正的智能应具备自主学习和自我纠错的能力。

-创业 & 教育
01:24:14 学校做验证,公司做放大,希望证明白盒路线的可行。
01:29:09 要么有量变,用白盒显著降低训练资源or提升训练效率;要么有质变,探索闭环、自主的可能性。
01:38:53 业界其他的非主流路线探索:LeCun 的 JEPA,李飞飞新创业等。
01:41:21 港大正在推动 AI literacy 课程,所有专业都学,AI 应成为通识教育的一部分。
01:48:39 达特茅斯会议为什么在智能前面加上 artificial?——也是追求和前辈不一样,想探索人类高级智能。
01:52:20 科学竞争最关键的就是人,重要的是把资源分配给正确的人。

相关链接:

对话香港大学马毅:“如果相信只靠 Scaling Laws 就能实现 AGI,你该改行了”
https://mp.weixin.qq.com/s/YTLWgcsGds86lgW_druXBQ

【视频】马毅教授谈神经网络,《简约和自洽》:神经网络从黑盒到白盒,学习模型从开环到闭环
(听完播客还有兴趣了解跟多的话,非常推荐这个视频,有图解、有现场,深入简出)
https://www.bilibili.com/video/BV1tN411F77Z/?vd_source=3ea9875872e1534f62079295c4e2c464

忆生科技Engram正在招募优秀人才,简历请投递:recruit@transcengram.com

访谈中提到的论文:

Scaling White-Box Transformers for Vision, 2024/5
https://arxiv.org/abs/2405.20299

Eyes wide shut? exploring the visual shortcomings of multimodal llms, 2024/4
https://arxiv.org/abs/2401.06209

White-Box Transformers via Sparse Rate Reduction: Compression Is All There Is? 2023/11
https://arxiv.org/abs/2311.13110

Unsupervised Learning of Structured Representations via Closed-Loop Transcription, 2022/10
https://arxiv.org/abs/2210.16782

本期人物:
马毅,香港大学计算机系主任
程曼祺,晚点 LatePost 科技报道编辑(微信:momochoqo;即刻:程曼祺_火柴Q)

剪辑:甜食

附录:访谈中提到的技术术语、概念和人物
维纳:在 1940 年代前后提出控制论。播客中提到的《控制论》的副标题是:under control and communication in animals and machine(“或关于在动物和机器中控制和通信的科学”)
香农:在 1940 年代前后提出信息论
Yann LeCun,图灵奖获得者、Meta 首席科学家
李飞飞,知名 AI 研究者,斯坦福大学教授
何恺明,知名 AI 研究者,ResNet 作者
1956 年达特茅斯会议:提出了人工智能(Artificial Intelligence)这一概念的会议
ReduNet,马毅团队 2022 年发布的白盒大模型理论框架
CRATE,马毅团队 2023 年提出的更新的白盒大模型
JEPA,Yann LeCun 团队提出的一种世界模型架构

  continue reading

72 эпизодов

Artwork
iconПоделиться
 
Manage episode 423080283 series 3330158
Контент предоставлен 晚点 LatePost. Весь контент подкастов, включая эпизоды, графику и описания подкастов, загружается и предоставляется непосредственно компанией 晚点 LatePost или ее партнером по платформе подкастов. Если вы считаете, что кто-то использует вашу работу, защищенную авторским правом, без вашего разрешения, вы можете выполнить процедуру, описанную здесь https://ru.player.fm/legal.

本期节目是「晚点 LatePost」上周发布的《对话香港大学马毅》的采访音频。(原文见 shownotes 末尾链接)。

马毅现在是港大计算机系主任和数据科学研究院院长。自 2000 年从加州伯克利大学博士毕业以来,马毅先后任职于伊利诺伊大学香槟分校(UIUC)、微软亚研院、上海科技大学、伯克利大学和香港大学。

在如今的 AI 领域,马毅是一位直言不讳的少数派。不少人相信用更多数据、更大算力做更大参数的模型,就可以实现通用人工智能,这就是大模型的 Scaling Laws,它被一些人视为“信仰”。

马毅则不相信这条路。他认为现在的深度学习网络本质上,都是在做压缩(compression):就是从图像、声音和语言等高维信号里,找到能表示数据间相关性和规律的低维结构。

GPT 表现出来的数学推理等能力,在马毅看来本质还是依靠记忆和统计,就像一个接受填鸭式教育的、高分低能的学生,它并不能学到因果推理、逻辑等能力。这离他定义的智能还有相当距离。他认为智能最本质的特征是:能纠正自己现存知识的不足,而且能增加新的知识。

由此,马毅也完全不买账 AI 威胁论,他认为,说现在的 AI 危险的人,“要么是无知,要么是别有目的”。

为解释深度学习网络到底在做什么,马毅团队最近几年的重点工作是,白盒大模型,也就是用数学来解释深度学习网络的压缩过程,以找到更高效的压缩方式。

他也希望以此来对抗黑盒带来的误解,因为“历史上,任何有用的黑盒都可能变成迷信和巫术”。他担心 AI 威胁论可能带来过度监管,导致垄断,遏制创新。

真理不一定掌握在少数人手中,但少数派和观点竞争的存在增加了发现真知的概率。

*访谈过程中涉及了一些论文、著作和术语,我们也标注在了 shownotes 里的附录部分。

时间线指引:

-现有主流路线的局限
02:49 工业界更关注现有方法提效,而白盒模型刚提出时的工程验证有限。
05:08 现在的大模型是通过经验找到了一些有效的方法,但它引起的量变不是真正的智能。
08:29 现有方法其实只模拟了记忆的局部功能,资源消耗大GPT 类模型仍“高分低能”。
13:26 当整个community 都认可一两件事,可能忽略掉其他可能更重要的事,曾经的深度学习就是一个例子。
15:45 如果你作为年轻人,相信只靠 Scaling Laws 就可以实现 AGI,你可以转行了。(这部分提及的文章是附录里的 wide eyes shut)
18:44 因为研究不要怕特立独行:当年在微软亚研院招何恺明等员工,都会让大家想:你做的哪些事别人做不了?

-智能的原则:简约与自洽;达到智能的可能路径:白盒、闭环、自主
21:19 2017 年回到伯克利后,开始梳理已有成果:现有深度网络都是在做“压缩”(compression)。
23:18 白盒大模型是给这个压缩过程找到数学解释。
24:52 科学史上的好想法总会被翻新。
26:11 知道了压缩到数学原理,能帮助找到更高效的压缩方式。
26:50 Everything should be made as simple as possible, but not any simpler.前半句对应简约,后半句对应自洽。
29:39 为什么智能会出现?——世界上有值得学、能学到的规律。
32:47 知识不等于智能,GPT-4 有更多知识,婴儿更智能。智能的本质特则会给你是能纠正现存知识的不足并增加新的知识。
37:13 达到智能,除了从黑盒到白盒,还有从开环到闭环,从人工到自主。
40:48 自主学习的含义之一是,人的学习是在大脑内部建模完成的,不需要真去对比外部物理信号,生物没有这个选项。
46:17 跨学科研究和借鉴神经科学帮助形成了上述想法。

-验证推演 & 白盒对黑盒的祛魅
48:41 ReduNet 是一个框架,但工程实现还不够;CRATE 做了工程优化。
55:32 历史上任何有用的黑盒都可能变成巫术。
57:03 有人说 AI 是原子弹,我们看很可笑。
57:33 政府应该监管技术的应用,而不是技术本身。
59:07 从去年开始,更迫切感到要让更多人知道现在的 AI 在作什么,AI 没这么可怕。
60:16 白盒更实际的作用:减少试错成本、GPU 成本。

-对智能历史的梳理
01:05:04 为何机器智能的结构会类似生物智能?——尚未看到更高效地方法。
01:07:13 从维纳的《控制论》开始,第一批研究智能的选择并没有区分机器与生物。
01:09:58 闭环系统的好处,解决“灾难性以往”问题。
01:13:13 对(人工)智能的研究并非始于1956年。
01:15:26 深度网络的两次危机都与缺乏数学解释有关,但现在可能不会再发生。
01:17:23 从生物学和神经科学中学习,猴子大脑机制与智能研究发现的相似性。
01:20:36 真正的智能应具备自主学习和自我纠错的能力。

-创业 & 教育
01:24:14 学校做验证,公司做放大,希望证明白盒路线的可行。
01:29:09 要么有量变,用白盒显著降低训练资源or提升训练效率;要么有质变,探索闭环、自主的可能性。
01:38:53 业界其他的非主流路线探索:LeCun 的 JEPA,李飞飞新创业等。
01:41:21 港大正在推动 AI literacy 课程,所有专业都学,AI 应成为通识教育的一部分。
01:48:39 达特茅斯会议为什么在智能前面加上 artificial?——也是追求和前辈不一样,想探索人类高级智能。
01:52:20 科学竞争最关键的就是人,重要的是把资源分配给正确的人。

相关链接:

对话香港大学马毅:“如果相信只靠 Scaling Laws 就能实现 AGI,你该改行了”
https://mp.weixin.qq.com/s/YTLWgcsGds86lgW_druXBQ

【视频】马毅教授谈神经网络,《简约和自洽》:神经网络从黑盒到白盒,学习模型从开环到闭环
(听完播客还有兴趣了解跟多的话,非常推荐这个视频,有图解、有现场,深入简出)
https://www.bilibili.com/video/BV1tN411F77Z/?vd_source=3ea9875872e1534f62079295c4e2c464

忆生科技Engram正在招募优秀人才,简历请投递:recruit@transcengram.com

访谈中提到的论文:

Scaling White-Box Transformers for Vision, 2024/5
https://arxiv.org/abs/2405.20299

Eyes wide shut? exploring the visual shortcomings of multimodal llms, 2024/4
https://arxiv.org/abs/2401.06209

White-Box Transformers via Sparse Rate Reduction: Compression Is All There Is? 2023/11
https://arxiv.org/abs/2311.13110

Unsupervised Learning of Structured Representations via Closed-Loop Transcription, 2022/10
https://arxiv.org/abs/2210.16782

本期人物:
马毅,香港大学计算机系主任
程曼祺,晚点 LatePost 科技报道编辑(微信:momochoqo;即刻:程曼祺_火柴Q)

剪辑:甜食

附录:访谈中提到的技术术语、概念和人物
维纳:在 1940 年代前后提出控制论。播客中提到的《控制论》的副标题是:under control and communication in animals and machine(“或关于在动物和机器中控制和通信的科学”)
香农:在 1940 年代前后提出信息论
Yann LeCun,图灵奖获得者、Meta 首席科学家
李飞飞,知名 AI 研究者,斯坦福大学教授
何恺明,知名 AI 研究者,ResNet 作者
1956 年达特茅斯会议:提出了人工智能(Artificial Intelligence)这一概念的会议
ReduNet,马毅团队 2022 年发布的白盒大模型理论框架
CRATE,马毅团队 2023 年提出的更新的白盒大模型
JEPA,Yann LeCun 团队提出的一种世界模型架构

  continue reading

72 эпизодов

Все серии

×
 
Loading …

Добро пожаловать в Player FM!

Player FM сканирует Интернет в поисках высококачественных подкастов, чтобы вы могли наслаждаться ими прямо сейчас. Это лучшее приложение для подкастов, которое работает на Android, iPhone и веб-странице. Зарегистрируйтесь, чтобы синхронизировать подписки на разных устройствах.

 

Краткое руководство