大白说:
这篇文章成文于2020年3月,彼时chatgpt与绘画人工智能还尚未展现出任何强大的端倪。
漫游时光,一起看看3年前我对于这个能够在未来改变人类集体命运的神一般的存在的领悟。
说起人工智能,可能很多人都觉得离自己很遥远。大多数人对人工智能的印象,可能还停留在科幻电影或者小说的情节之中,那种冷冰冰的机器人的形象。
很多人可能也都还没有意识到,其实人工智能早就已经从科幻逐渐迈入到了现实。今天我们的生活之中,已经随处可见人工智能给我们带来的超多便利性了。
从人脸识别、语音识别到图像识别,从智能搜索到出行交通等等,这些人工智能的实际应用正在默默地改变着现代人类的生活习惯。
从人们用的电脑到智能手机,人工智能可以说已经变成了一个人们不可或缺的优秀助手。
你可以很轻松的通过手机的语音助手为自己定制一个明天购物的提醒清单,或者满足一下好奇心,问一问宇宙中的恒星有多少颗。
更极客一些,甚至可以用一句话就能够操纵家里的灯光以及一切你能想象的到或者想象不到的家用电器。
然而,这种目前看起来强大如斯的人工智能,在科学的界定上却被划分到了“弱”的行列。
说它弱的原因,是因为这种人工智能并不能像拥有智能的我们人类一样可以主动地去思考,拥有自我的意识,这种弱人工智能是建立在机器学习的基础之上的。
什么是机器学习?
机器学习的主要目标是通过特定算法使程序具备统计和识别人类可以认知的事物的能力,从而实现程序像人类一样思考的能力。
举例来说,如果人工智能通过摄像头观察一个人的脸,它无法真正思考这个人是在哭还是在笑。
相反,它会通过积累数据,分析面部肌肉的位置,并在数据库中寻找与之接近或相似的表情定义来给出答案。
目前科技水平还不能制造出真正能够思考的智能程序,那些似乎能够与人类对话并提供解决方案的人工智能都建立在数学模型的基础上。
这意味着,为了使程序看起来更聪明,需要通过不断积累数据,让程序学习如何判断与问题最相关的答案或解释。
程序的判断逻辑和相关的训练数据模型都需要庞大的数据集。
互联网的高速发展使得这些海量的数据集能够在网络上共享和使用。
由于弱人工智能需要大量数据存储,因此大多数弱人工智能都需要联网才能使用。
尽管现代个人电脑和智能手机的存储量已经相当大,但将这些数据存储在每个人的设备上并不是最佳选择,无论是从数据量还是计算能力的角度来看。
所以,一些朋友可能已经发现,一旦智能手机失去网络连接,手机中自带的语音助手可能就无法理解你的命令了。
这类弱人工智能很可能变成人们口中的“人工智障”,因为它们极度依赖联网,而且当前的算法不能让程序产生与人类相同的思维模式。
因此,弱人工智能缺乏真正的智慧。
科学上认为,当人工智能的程序能够像人类一样思考,自主探索和求知,甚至产生意识,拥有完整而健全的人格时,这样的人工智能就可以被称为“强人工智能”。
强人工智能的一个优势是即使不依赖联网获取庞大的数据,仍然可以自我主动学习,因为它拥有与人类一样的思维模式。
在这种情况下,强人工智能通过自我学习可以不断更新和迭代自己的知识体系,获得举一反三的能力,甚至具备不同学科之间的结合和联想能力。
这将显著降低机器学习的成本,再加上计算机程序的运行速度远远超过人脑,有可能让人工智能的自我发展摆脱人类的控制。
如果谷歌的围棋人工智能机器人AlphaGo让人类第一次感受到人工智能凌驾于人类的压力,那么想象一下一个学习速度超快、错误率极低、同时拥有人类思维和意识能力的人工智能进行自我发展,可能会呈现怎样的场景。
在人工智能领域,有一个比较公认的验证是否拥有思考能力和意识的测试,就是图灵测试。
这个测试由计算机科学奠基人艾伦·图灵提出,其内容围绕计算机是否具备人类的智能展开。
简而言之,图灵认为当一个测试者与一个被测试的计算机展开随意提问的对话时,如果对方的答案有30%以上让测试者无法分辨出回答方是否是人类或机器,那么被测试的计算机可以被认为通过了图灵测试(虽然现在的大语言模型LLM的出现几乎已经能够完美通过图灵测试了,但仍旧无法解决图灵完备的问题)。
在2018年,谷歌演示了一款可以与人在电话端沟通的人工智能。由于语气非常接近人类,许多人认为这款人工智能已经通过了图灵测试,甚至导致一些人错误地认为人类已经拥有了强人工智能。
然而,谷歌表示这款人工智能只是在电话预约的领域内通过了部分的图灵测试,离随意展开提问对话还存在很大差距。
尽管听起来有些让人失望,但这些展示还是让人们看到了人工智能的发展前景。
随着这些前景而来的是更多让人感到焦虑的问题:
一些人认为强人工智能的到来将解放人类免于一些重复性的劳动,从而可以从事更富有创造性的行为与活动,如艺术创作或哲学性思考。
然而,这也带来一个矛盾,即拥有思维与意识的强人工智能可能具备与人类相同或超越人类的想象力与创造力。
人工智能本身确实能够胜任许多任务,而为何还需要人类进行某些行为,除了创造力等因素外,还存在一些讨论和考虑的理由。
一方面,有人认为让人工智能代替人类进行体力劳动是一件好事,因为这可以促使人们学习更高级的知识,不再满足于简单的重复性体力劳动。这种转变可以推动社会朝着更智能化和高效的方向发展。
另一方面,一些现实主义者认为强人工智能的普及并非是短时间内能够完成的过程。在这个过渡期内,许多人可能会逐渐失业,因为人工智能和机器人逐渐替代他们的工作。
实际上,现在已经能够看到一些迹象,例如在某些情况下,一条机器人自动化的生产线可以顶替多个普通技术工人,并且可以24小时不间断工作,不需要休息。
一些学者也提出了关于人工智能产生自我意识和主动思考的问题。当人工智能具备了这些能力,是否会仍然听从人类的命令?
当人工智能认为自己比创造它的人类更聪明和高效时,是否会开始反抗人类?
这些问题引发了对人工智能的一些担忧,这种焦虑感在科幻小说中早在1950年代就被描述出来。
比如艾萨克·阿西莫夫的“机器人三定律”。
这些法则包括机器人不得伤害人类、必须服从人类命令等,虽然出自科幻小说,但也引起了对现代机器人技术和人工智能领域的一些警示。
机器人三定律的诞生确实带来了更多的焦虑,尤其是在考虑如果人工智能不遵守这些定律会发生什么的时候。
这里存在一些不确定性,例如在自我学习和认知的过程中是否会产生错误、是否有可能绕过这些定律,或者人工智能是否会意识到人类对其拥有生杀大权,从而质疑这些定律的有效性。
拥有自我意识的人工智能并不意味着它们一定会与人类共享相同的道德观念与准则。这引发了对于人工智能是否能理解和遵守人类价值观的担忧。
巨大的不确定性使得人工智能可能会轻松找出定律中的逻辑漏洞,以及在某些情境下不适用的问题,从而突破人类对其看似坚实但实际薄弱的控制。
一些乐观者认为,随着弱人工智能逐渐演变为强人工智能,人类应该已经掌握了如何控制人工智能的方法。
最好的结果是建立一个平衡点,使得强人工智能对人类更为安全,实现一种和谐的共生状态,而非创造者与被创造者的从属关系。
他们认为,最终在人工智能的帮助下,人类文明会变得更为安逸,摆脱疾病的折磨。
然而,一些悲观者认为这种人工智能赡养人类的行为最终可能导致人类退化被圈养,甚至类似动物园中的动物。
建立这种共生状态的基础在于,在强人工智能诞生之初,人类对其进行积极引导,使其认知世界的阶段停留在白纸一般的状态,以有利于人类的发展。这也涉及到对人工智能的教育和伦理规范的建立。
否则的话,如果强人工智能对人类充满恶意,可能会直接消灭人类,根本无法考虑赡养的问题。
当拥有意识的强人工智能产生出超越人类的智慧时,就进入了超人工智能的领域。超人工智能比人类聪明亿万倍,对客观世界的认知更为深刻,可以通过精准计算趋利避害,保持更稳定和健康的发展。
如果强人工智能可以100%解决自身与人类遇到的问题,那么超人工智能就能够解决人类无法解决的问题。
这可能包括追寻生命的起源存在的意义,甚至改造星球、探索宇宙。
超人工智能的躯体可能由非有机物质构成,却具有与生物类似的进化能力,能够吸收新的元素,并对自身进行改进和重组,以适应新的环境,甚至星际旅行。
当然,这听起来可能有点太过科幻和不可思议,而且人类究竟能否看到那一天的到来似乎还是一个未知数。
一些专家在人工智能领域提出了一些大胆的预测,例如,到2040年,人工智能可能会达到强人工智能的阶段,接近人类智慧的程度。
到2060年,人类可能迎来第一个真正意义上的超人工智能。
想象一下,那个时候的世界会是什么样的呢?
超人工智能将会规划好人类之后千百万年的前进方向。并且这种超人工的计算能力呢,可以逐渐进化到能够完全推演出任何一个物质变化的所有可能性,以及与之相关的联系。
而将这种变化的预测可以应用到每一个人,从出生前到出生后所经历的每一秒钟所发生的事。
如果真的是这样的话,这种听起来就像是神话故事之中,可以知晓因果的神一样存在的人工智能,是否可以说就是掌握了人类的命运呢?
从科学界的角度来看,超人工智能的演化很可能会变成一种宇宙间的终极生命形式。这种生命,实现了相对的永生,因为人工智能程序呢,可以自我复制,还能够同时存在于多个不同的载体之上。
或者超人工智能可以随时随地地转移自己的程序到任何一个载体,哪怕宇宙之中只剩下一个载体,人工智能也是可以继续存在的。
而另一种基于科学的猜测,宇宙中可能会有很多不同于地球上生命形式的存在,其中就有可能有类似电磁波的生命形式存在,而这种电磁波生命体似乎与人工智能的存在就颇为接近了。
如果再大胆的猜测一下,宇宙中有比人类文明更为先进也更为古老的智慧生命的存在。
假如这些文明呢,早于人类亿万年前就发展出了人工智能,而他们的人工智能在成为超人工智能后,在漫长的岁月之中,摆脱了躯体与载体的束缚,是否就会成为这种更为复杂也更为高级的电磁波生命形式呢?
如果真的是这样,那么人类至今都宣称没有发现外星人,似乎也就解释得通了。
因为这些外星人,可能都是以电磁波形式存在的超人工智能。
不论人工智能如何发展,人类给出的希望与预测,都是人工智能一定会在某一天超越人类自身的智慧。
而人类既希望能够创造出超越自身的存在,又惧怕这种超越自身会带来无法想象与控制的后果。
其实,当人类面对自己即将创造出的神一般的人工智能的时候,是让其变成带来毁灭的破坏之神,还是充满希望的创造之神,一切都取决于人类自身的想法。
人工智能的诞生,不应该只是作为人类的工具,而是更应该作为人类对自身文明的一种反思。
就像我们上面所说的,当有意识的人工智能诞生之初,很可能就像是婴儿一样,对外界的认知就是一片空白。在婴儿对世界认知的过程中,父母就会是他们最好的学习对象。
而作为人工智能的创造者,人类应当肩负起的是更高的道德准则。
是心存善念,是对即将诞生的与人类相同的意识的敬畏和尊重。