2023年,哈里斯副总统在白宫对 Dario Amodei 说:「我们在盯着你们。」当时这位 Anthropic CEO 刚解释完公司的安全政策,在场官员的反应是——「这不是很正常吗?难道不是所有人都这么做?」
如果你以为 AI 安全只是道德声明,那你可能还停留在 2016 年的行业共识里。
这场对话的主角们,六年前还是 OpenAI 的研究团队。Jared Kaplan 当时是物理学教授,干了六年后觉得「无聊了,想和朋友多待会儿」,于是转行做 AI。Chris Olah 19 岁时第一次见 Dario,当时觉得「博士后好酷啊」。Tom Brown 从 Stripe 跳槽,因为 Daniela Amodei 跟他说「OpenAI 需要管理帮助,他们有点乱」。
但真正让他们记住彼此的,是 2020 年 GPT-3 发布前后的某个机场。Tom 在英国某机场用 GPT-2 生成假新闻文章,发消息给 Dario:「这东西真能写,政策影响会很大。」Dario 回了一个字:「是。」
这群人后来一起做了一件「稍微奇怪、以安全为导向的事情」——创办 Anthropic,然后写了一份被他们称为「宪法」的文档。
但转折点更早。
2015年,Dario 还在 Google 时试图拖延另一个项目,于是和 Chris 开始写「AI 安全的具体问题」。这篇论文的目标不是提出新理论,而是「政治工程」——说服 20 个不同机构的研究者联署,证明「AI 安全是个真问题」。Chris 记得自己在 Google Brain 内部谈了至少 20 个人,一个个建立共识。
Dario 说得直白:「那时候有些话你就是不能说。」2014 年的学术界,谈论 AI 可能变得非常强大,会被当作「科学狂妄」。但物理学家不在乎这个——「物理学家很傲慢,总是做野心勃勃的事情。」
2016 年,Tom 还在纠结该不该加入 OpenAI。他本想做创业或继续搞 AI 安全,但当时的共识是「你得超级擅长决策论才能帮上忙」。他给所有导师发消息,大部分人说不靠谱。只有 OpenAI 的人回复:「你可以通过工程工作帮上忙。」这在当时是异端——AI 只属于研究者。
那错了。
