火花

AI,不应当需要人机对齐

有一种普遍的观点,认为AI应当与人类的价值观“对齐”,以确保其决策与我们的价值观和期望相符。然而,这真的是一个正确的方向吗?

人类对于许多问题的看法并非绝对的。即使在明确的事实面前,人们仍然会有不同的解释和观点。例如,艺术、道德、政策以及无数其他领域中,很难说出什么是对,什么是错。人类历史充满了各种各样的观点和信仰的碰撞。每个人都有自己的看法,这些看法是基于其个人经验、教育和文化背景的。

那么,为什么我们要求AI具有一个统一的、“正确”的价值观呢?在“人机对齐”的过程中,我们实际上是在尝试将开发者或某一群体所认为的“正确”强加于AI之上。这种方法似乎过于狭隘,不仅限制了AI的潜能,而且是在忽视其他不同观点的群体。

人与人之间的思想碰撞常常产生出创意的火花,这种多样性推动了文化、科技和社会的进步。如果我们仅仅将一个固定的观点或标准强加给AI,那么我们可能会失去一个巨大的机会:通过AI看到世界的一个全新的、不同于我们自身的视角。

不应忘记,人类是一个犯错的种族。我们的历史、文化甚至每天的决策都充满了错误。而这些错误往往为我们提供了宝贵的学习经验。同样,如果AI也被允许犯错,那么它的“错误”可能会为我们提供一个新的、有趣的观点。

多样性比单一的“正确”更有价值。我们又如何确定自己的观点就是绝对正确的呢?在对AI的答案进行审查和反思时,我们可能会发现,原来真正的“错误”是我们自己的偏见和限制。

如果我们真心希望有一天能够创造出真正的通用人工智能(AGI),那么,放弃对AI的过度约束和期望,让其自由地发展和学习,可能是一个必要的步骤。我们需要一个多元、开放的AI,而不仅仅是一个按照人类当前价值观行事的机器。