机器学习与大脑:涌现、学习与人机融合的未来
无数数据涌现的智慧(大模型)就像人类大脑中的无限神经元一样,我们至今都没搞懂,究竟是为什么、在哪个时刻,AI会突然产生"涌现";这正如我们不解,为何一堆神经元的集合能拥有如此深邃的智慧,这一切都太神奇,也太相似。
而监督学习与无监督学习,也像我们学习事物的不同阶段。监督学习,像是我们从小模仿大人,到大学跟随导师,在既定框架内接受与调整。无监督学习,则像是我们自我顿悟的时刻:在解题、思考或见识世界的过程中,内心深处泛起波澜,最终确立了一生的方向与梦想。
我坚信AI的发展路径会超过我们所想的速度,而其最大推力,将源于无监督学习,或是李飞飞教授研究的"世界模型"这类能让模型自主思考的方式。只有让AI摆脱人类的束缚,让这个硅基生命像孩子一样从零到一地探索。
就像AlphaGo,在接受人类全部棋谱的训练后,它最多只能与顶尖棋手过招。然而,在转向强化学习,也即仅被告知围棋规则之后,AI发生了质变。它开始像一个孩子,从不断碰壁中学会取胜,研究出了人类未曾设想的棋路,最终即便是人类冠军也再难取胜。可以说,单在围棋上,它已超越所有人类。这才是我们期望AI实现的效果。
然而,为何如今的AI还未达到"精通"的境界?是什么阻止了GPT、Claude等模型复现它们自己的"AlphaGo时刻"?它们的能力似乎止步于"通晓",却未能"精通"乃至超越人类,尽管强化学习算法对它们同样适用。
答案或许在于:真实世界的规则远比围棋复杂,甚至我们自己也无法完全定义。所以AI只能在人类的理解框架内学习,这何尝不是一种广义的"监督学习"呢?
要解决这个问题,斯坦福大学的"世界模型"给出了方向:构建一个模拟世界,给AI感官去亲身体验。让它从生火学起,到学会社交,再到规模化协作。若不设目标,让它在海量模拟中自由演化,它会变成什么样?没人知道。
我们正在亲手创造连自己都无法完全理解的存在。这是危险还是安全?这就像一场赌局。但我预感(或者说,一个暴论是):只有与AI融合,人类文明才能进入下一阶段。因为只有融合,才能真正"理解"AI,获得源于了解而非未知的安全感。具体方式可能是脑机接口或硅基改造,但我相信,这条路,一定会有人去走。