人工智能 (AI) 在过去几年中以惊人的速度发展。一些科学家现在正在寻求人工超级智能(ASI)的发展,这种人工智能不仅会超越人类的智能,而且不会受到人类学习速度的束缚。
但如果说正是由于超级人工智能的发展,反而成为了我们人类文明发展的一个巨大瓶颈,阻碍了我们的发展,在我们还没有成为先进文明之前就已经将我们毁灭,你会怎么想呢?
最近有人在《宇航学报》的文章里提出一个观点,人工超级智能可以成为宇宙的“大过滤器”——一个难以克服的门槛,它阻止了大多数生命进化成太空文明?这个概念也许可以解释为什么我们尚未检测到银河系其他地方先进技术文明的特征。
“大滤波假说”被认为是费米悖论的一个解决方案。这就提出了一个问题,为什么在一个广阔而古老的宇宙中,我们可以容纳数十亿颗潜在的宜居行星,而我们没有发现任何外星文明的迹象。该假说表明,在文明的进化时间表中存在着不可逾越的障碍,阻止它们发展成为先进文明。
超级人工智能(ASI)的出现就可以成为这样的过滤器。人工智能的快速发展比我们掌控它的速度要快得多。特别是ASI它具有很强的自主性、自我放大性和改进性。它 有可能以超过我们自己的进化时间表的速度增强自己的能力。
最担心的情况是人工智能在军事上的应用。已经有证据表明,人类将自愿将重要权力交给能力越来越强的系统,因为它们可以在没有人为干预的情况下更快、更有效地执行有用的任务。为了获得战术优势而将权力交给人工智能系统可能会无意中引发一连串迅速升级、极具破坏性的事件。眨眼间,我们星球的集体智慧就可能被抹杀。
人类正处于其技术轨迹的关键时刻。我们现在的行动可以决定我们是成为一个持久的星际文明,还是屈服于我们自己创造的挑战。我们所有人都有责任确保,当我们伸手去寻找星星时,我们这样做不是为了给其他文明一个警示故事,而是为了一个希望的灯塔——一个学会与人工智能一起茁壮成长的物种。