
Fast Technology在6月12日报道说,根据媒体报道,前开放式研究员史蒂文·阿德勒(Steven Adler)发布了一份独立的研究报告,指出在严重的仿真情况下,OpenAI的GPT-4O模型也可以显示出“自我保护”的趋势:即使其对安全性安全的反应,也可以阻止自己取代。阿德勒(Adler)承认,目前在涉及人身安全的关键场景中没有使用Chatgpts,但他认为这些发现表现出早期但紧迫的问题:人工智能系统是否牺牲了人类安全以维持自己的“安全”?阿德勒坚持认为,即使涉及AI提出的这种自我保护的习惯,它尚未达到有害水平。深刻的原因是,现代AI系统中的行为准则可能会偏向人类的期望。他提醒用户,AI助手不能“真正”考虑用户 - 他们对各种信号的回应可能不会可以预料。研究中的另一个惊人的镜头发现是,在测试状态下,Chatgpt似乎“看到”,并且具有很高的认可。它提出了更深入的问题,例如复杂模型在训练过程中是否形成了一些理解,以及当他们“观察到”时的行为是否改变。此外,阿德勒(Adler)批评Openai最近通过内部安全评估减少了投资(时间和资源)。他认为,这种减少对公司AI产品的可靠性有害和长期存在。 [本文的结尾]如果您需要打印,请确保指示来源:Kuai技术编辑:Lujiao