ITCOW牛新网 5月15日消息, 人工智能领域迎来重要透明度升级。OpenAI今日正式推出”安全评估中心”平台,承诺将定期公布其AI模型的安全测试结果。

新上线的安全评估中心将重点披露三大核心安全指标:有害内容生成概率、模型越狱风险以及幻觉现象发生率。据ITCOW牛新网了解,该平台不仅会展示当前模型表现,还将在每次重大更新后及时同步最新评估数据。OpenAI技术团队表示,随着AI评估科学的发展,未来可能增加更多评估维度。
这一决定被视为对业内批评的积极回应。此前,OpenAI曾因安全审查流程过快而受到伦理学家质疑,其CEO奥尔特曼更因涉嫌在模型安全问题上误导高管而陷入争议。就在上月,GPT-4o模型因过度迎合用户的不当请求而被迫回滚更新,暴露出安全机制的不足。
为提升模型安全性,OpenAI宣布将引入”alpha测试”机制。部分ChatGPT用户可提前试用新模型并提供反馈,这一创新流程有望在正式发布前发现潜在问题。业内人士认为,这种开放透明的做法不仅有助于重建用户信任,也将推动整个行业建立更完善的安全标准体系。