去年 #OpenAI 内讧,前些天Ilya离职,传闻都是因为在 #安全 问题上产生了不可调和的分歧。
这个问题上,坚持安全至上的Ilya显然得到了更多同情,失败者身份和科学家光环都起到了很明显的作用。相对来说,更重视产品发布的Sam主要是个商人(本科肄业),无商不奸嘛。
但仔细想一下他们的思路,问题就没有这么简单。
理论上说,一个 #绝对安全 的AI有存在的可能吗?
大概是没有。连人都可能会被骗当上恐怖分子,AI也很难完全避免。
Ilya可能非常聪明,可能考虑了很多情况,但智者千虑必有一失。一个他认为足够强大、足够安全的AI突然进入社会,反而更可能造成无法预料的危险。更不用说你控制不了对手使用不安全的AI。
#渐进 可能是一个更好的方式。一个不那么安全,但也不那么强大的AI进入社会,让人们有足够多的时间来应对,知道如何与AI共处。双方协同演化,更可能得到一个更好的结果。
这大概也是 #设计论 和 #演化论 的分歧。
Edited 242d ago