2025年秋天,全球10到20亿戴眼镜的人,可能正站在被颠覆的边缘。扎克伯格在Connect大会上说,5到7年内,这些普通眼镜会不会全部被智能眼镜取代?如果你还在掏出手机查看时间,你可能正在用上个时代的方式生活。
这不是科幻预言。扎克伯格自己已经一天用手机的次数少了一半——看时间,轻点眼镜腿;收消息,眼角显示3秒;回复消息,手指微动30个单词就发出去了。他说「我现在打字速度是每分钟30个单词」,但他的手几乎没动。
关键在一个黑色手环上。
Meta在Connect 2025发布了三款眼镜:第二代Ray-Ban Meta,运动款Oakley Vanguard,和首次搭载高分辨率显示屏的Ribbon。但真正的突破不在镜片上,在扎克伯格手腕上那个叫「神经腕带」的东西。他说这是「第一款主流神经接口」,用来控制眼镜的全新输入方式。
过去所有计算平台都有自己的输入革命。电脑是键盘鼠标,手机是触摸屏。眼镜呢?扎克伯格的答案是:直接读取大脑发给肌肉的电信号。
不是手势识别。不是语音指令。是在你的手还没动之前,神经腕带就已经知道你想干什么。
他演示的时候,手指只在空气中轻微晃动,幅度不超过1厘米。眼镜里的菜单跟着切换,照片放大,音量旋转调节,像在转一个看不见的旋钮。「基本上就是这么点动作」,他比划着说,「没人会注意到。」
但这还不是重点。
扎克伯格说,他现在能做到的是:手插在夹克口袋里,肌肉只是互相对抗用力,手根本不动,消息就发出去了。因为神经腕带读的不是动作,是肌肉收缩前大脑发出的电信号。
这个技术有多关键?他拿开会举例。你和朋友面对面聊天,对方提到一个人,你突然想起「对了,我该联系那个人」。如果是以前,你要么打断对话掏手机,要么聊完就忘了。现在呢?你继续看着对方眼睛,手腕轻轻一动,消息发出去了,对方根本察觉不到。
他说自己特别喜欢Zoom的一点,就是可以边开会边处理事情——别人说话时你想查个背景资料,或者突然想起要回复谁,可以偷偷打字。但面对面聊天做不到这一点,「你不能当着别人面掏手机,那很不礼貌」。
神经腕带改变了这个规则。它让你在保持眼神交流、保持临场感的同时,完成所有数字操作。朋友在讲一件事,你需要某个信息,以前要等聊完再去问别人。现在你边听边发消息,信息回来了,你的回应更准确了。
「我经常遇到这种情况」,扎克伯格说,「需要一个信息才能继续对话,现在我直接在对话中间就拿到了。」
这背后是一套完整的个性化学习系统。神经腕带刚开始使用时,你需要做稍微明显一点的手势——比如假装手里握着一支小铅笔,然后模拟写字的动作。但几天后,它就学会了你的「写字习惯」:你写J和别人写J的方式不一样,你写W的肌肉用力模式也是独特的。
系统会和你「共同进化」。它学你,你也在学它能识别的最小信号。最后的结果是:你只需要用最细微的肌肉收缩,甚至手不移动位置,只是肌肉互相对抗用力,就能输入文字。
扎克伯格说现在打字慢主要是因为自己打错了,自动纠错没修复,得手动回去改。「就是标准的机器学习过程,会越来越好。」它会学会你的输入模式,甚至能提前预测你要写什么,自动补全,你连完整动作都不用做。
所以为什么不用语音?「很多时候你周围有人。」他说。语音控制确实也能用,但你需要一种「私密、低调、微妙」的方式来控制设备。他们研究过耳语识别,但最终还是选了神经信号。
为什么不用按钮?按钮也行,但只能完成有限的固定操作。而神经腕带能做的事情多得多:播放音乐,切歌,调音量,打字,滑动菜单,放大照片。他说调音量的体验特别神奇,「你就假装面前有个音量旋钮,转动手腕,音量就跟着变了,感觉像魔法」。
更重要的是,这是一种可以完全隐身的交互。他可以在和人说话时,手自然垂在身体一侧,轻轻动一下手指——切歌,回消息,调出信息——别人完全看不出来。「就像现在学生上课偷偷看手机,老师说'把手机收起来'。以后老师可能要说'把眼镜摘了,把手伸出来',两样都得管。」
关键数据在这里:全球有10到20亿人需要矫正视力的眼镜。扎克伯格问,5到7年内,有没有可能这些眼镜全部被智能眼镜替代?「感觉就像iPhone出来之后,所有翻盖手机都变成了智能手机,只是时间问题。」
但要让这么多人换眼镜,眼镜本身必须足够好。这也是Meta的三条设计原则:第一,必须先是好眼镜。很多科技公司做出笨重的设备,加了一堆功能,然后问「为什么没人想戴」?因为人们一天里大部分时间不拍照,不查信息,眼镜就只是在脸上。它必须好看、轻便、舒适,你愿意一直戴着,那么需要用功能的时候,它就在那里。
第二,技术要隐身。不要让技术成为焦点。扎克伯格说他一直在推设计团队:「我不在乎你们做的动画多酷,用户不想看到随机的东西出现在视野里。」消息来了,显示3秒,偏离视线中心,不挡视野,然后消失。你想用就用,不想用它就不存在。
第三,认真对待超级智能。AI会是我们一生中最重要的技术,它不该只存在于数据中心自动化任务,它应该为人服务。所以从第一代开始,这些眼镜就设计成可以通过软件更新不断进化——新的AI功能随时可以推送下来。比如「对话聚焦」功能:你在嘈杂的餐厅,戴上眼镜,它能把你正在交谈的朋友的声音放大,屏蔽背景噪音。
这就是为什么眼镜是「个人超级智能的理想载体」。它是唯一能同时做到这些事的设备:看到你看到的,听到你听到的,随时和你对话,在你视野里实时生成界面。手机、手表、耳机都做不到全部。只有眼镜能做到视觉和听觉的双向输入输出。
而神经腕带,是这一切的开关。
想想你上次在超市买电钻的场景。你不是在买电钻,你是在买墙上那个洞。工具不是目的,目的是你想创造的东西。神经腕带也一样——它不是为了炫技,是为了把技术变成「隐形」的延伸,让你的意图直接变成结果。
扎克伯格说他最大的发现是:AI可以有极高的智能,但它没有冲动,没有欲望。它坐在那里等你下指令,然后执行大量工作。人类的作用是什么?「决定我们想做什么让世界变得更好。」一部分是个人创造力的表达,但另一部分——他说科技行业可能不够重视的——是关心他人,照顾人,传播善意。
这是一个关于输入方式的故事,但本质是关于人类意图如何更快、更自然地被实现。
但神经腕带不是万能的。它需要几天的学习期,需要你和它「共同进化」,它的准确率取决于算法对你个人模式的理解深度。如果你是左撇子,或者有肌肉疾病,或者手部受过伤,现在还不知道它能适配到什么程度。而且它只解决了输入问题,输出依然依赖眼镜的显示屏——Ribbon是单目显示,不支持3D物体,完整的全息体验要等Orion的消费者版本。
扎克伯格也不认为5年内我们会扔掉手机。他的预测是:手机会更多地待在口袋里和包里,我们会越来越少拿出它。「就像我以前一天看多少次手机查时间?现在不看了,轻点眼镜,时间出现,结束。」
专访的最后,他说了一句话:「每次我想到AI的某个里程碑,它们实现的速度总是比预期快。」他不认为「永远在线的AI助手+实时生成界面」要等5年,可能2到3年。
但他没说的是:当那个未来到来时,谁会拥有读取你肌肉信号的权力?那些电信号会被保留多久?会不会有一天,手环不仅知道你想打什么字,还能推测出你为什么犹豫了0.5秒?
他说用户可以控制开关。但他也说,眼镜需要「看到你看到的,听到你听到的」才能工作。
这扇门已经打开了。
