OpenAI 推出了 ChatGPT 的高级语音模式,为用户带来了前所未有的 GPT-4o 超逼真语音交互体验。
OpenAI内部仍动荡不安,ChatGPT的两位重要负责人选择离开。
8月6日,AI(人工智能)巨头OpenAI联合创始人约翰·舒尔曼(John Schulman)在X(推特)发文表示,将离开OpenAI加入另一家AI初创公司Anthropic(OpenAI的竞争对手)。
舒尔曼9年前在OpenAI成立之初加入,负责领导ChatGPT和API(应用接口)的后期训练工作。
他表示:“这个选择源于我希望深入研究AI对齐,开启职业生涯的新篇章,重返实际技术工作。我决定在Anthropic追求这一目标,我相信我可以获得新的视角,并与那些深入参与我最感兴趣话题的人一起做研究。”
不过,他特意强调,选择离开并不是因为OpenAI缺乏对对齐研究的支持,“相反,公司领导层一直致力于在这一领域进行投资”。
同时,据外媒报道,知情人士称,OpenAI副总裁、ChatGPT负责人Peter Deng也已离职。他曾多次在公开场合表示OpenAI的模型其实比发布的更强大,出于安全要谨慎推出。
而OpenAI的另一位联合创始人、总裁格雷戈里·布罗克曼(Greg Brockman )也表示,自己会长期休假至今年年底。
他表示这是自9年前共同创建OpenAl以来的“第一次放松”,“我们的使命还远未完成,我们还需要建立一个安全的 AGl(通用人工智能)”。
对于舒尔曼的离职,OpenAI CEO山姆·奥特曼(Sam Altman)留言对其表达了感谢,并表示“对产品和社会有着深刻的思考,更重要的是,我们会非常想念你,并让你为这里感到骄傲”。
OpenAI研究主管鲍勃·麦格鲁(Bob McGrew)回复称:“我会怀念我们一起长途跋涉讨论研究想法的时光,整个公司也会怀念你以身作则的领导。”
ChatGPT官方号也留言感谢了舒尔曼对于ChatGPT模型的付出。
此前离开OpenAI加入Anthropic的“超级对齐”团队负责人杨·莱克(Jan Leike)也回复称,非常高兴能再次合作。
从去年11月奥特曼遭解雇的“宫斗”风波到今年安全团队核心成员离职,OpenAI的安全问题一直备受争议。
OpenAI联合创始人、首席科学家伊尔亚·苏茨克韦(Ilya Sutskever)和莱克在内的多位核心成员都相继离开,核心安全团队的超级对齐也已经解散。莱克宣布离职后曾在X发帖怒斥OpenAI及领导层“重视光鲜的产品,安全文化和流程不再受到重视”。
彼时,消息人士透露,注重AI系统安全的员工已经对奥特曼的领导失去信心。
OpenAI首席技术官米拉·穆拉蒂(Mira Murati)在7月初曾回应称:“超级对齐是OpenAI非常重要的安全团队,但只是团队之一,公司有很多人负责安全工作。”她表示并不认同“公司把产品放在安全之前”这一观点,并称这一论调有点过于愤世嫉俗。
她表示,很多人认为安全和能力是分开的,一定要一方优于另一方,而“安全应该从项目开始就与能力一同考虑,而不是事后追加”。在航天、汽车这些有着成熟安全思维和系统的行业,人们不一定会一直围着桌子争论什么是安全,但他们也一直在做这件事情。她认为整个行业也应该向成熟的安全纪律方向发展,不仅仅是操作纪律,也包含产品和部署安全,考虑偏见、虚假信息等因素。同时,她表示,OpenAI也一直在考虑模型的长期对齐,不仅仅是当下。
可以看到的是,GPT-5目前还在一直跳票,何时发布仍是未知,同时,今年还或将面临50亿美元的收支缺口……曾经一鸣惊人的OpenAI后面的路可能并没有那么好走。