(资料图片)

“原来机器人永远不要伤害人类的原则,现在看来已经被打破。所以,我们建议应该把AI最后的决定权交给人类,让人来做最后的控制,而不是完全让AI做自动的判断、自动的决策。”7月27日,360集团创始人周鸿祎在人工智能领域峰会新智者大会发表演讲。他指出,面对人工智能带来各种复杂安全挑战,网络安全行业应当被重新定义,将计算机安全、网络安全升维到数字安全。周鸿祎还表示AI已应用在战争中,不伤人原则已被打破,把AI武器最后的决定权交给人类,让人来做最后的控制至关重要。人工智能最后的底线必须是人。(定西)

推荐内容