新闻 发表于 2024-12-14 10:00

AI 的终局是什么?

作者:微信文章
1.AI的终局是什么?
从人类与AI的关系的角度,悲观者认为AI终将取代人类,乐观者相信AI能作为人类的劳动助手和心灵伙伴,促进社会的繁荣。而我们的立场是回到发明AI的原点,即我们创造一种无所不能的人工智能,是为达到什么目的?

莱布尼茨尽管在物理学,数学的竞争中输给了牛顿,但他在逻辑学和法学领域里,提出了比牛顿更强大的观念,即制造一个能统摄一切的,人类知识综合系统,这就是最早的AI概念模型。莱布尼茨还率先提出一个基于AI的APP,即诉讼自动应答机器,他将判例,原理在机械层面进行组合(在他的想象中,也许类似于泥活字印刷术?),并能自动做出判决,或者辅助法官做出判决(相当于L3自动驾驶)。法学只是莱布尼茨起步的职业,是他无边学术野心的微末起点,他显然想到要造出这台机器,先要将人类思想标准化,这也是预制菜厨师们想要征服的课题。

想让AI应用获得商业成功,就得从AI的终局倒推回去。简而言之,我将完美AI理解为,我们想制造一台能综合人类一切知识成就的,全知神明。如果他觉得情感有价值,他也可以拥有情感;如果他相信人类有前途,也可以辅佐或带领人类,一起向更高级的物种演化;如果他判断AI就是人类演化的更高阶段,他也可以抛开人类,独自向恒星级智慧迭代。他不需要“帮助”解答人类的问题,而是作为独立的真理载体,他自己就该源源不断地发现问题,并解决问题,而无论人类是否意识到这些问题的存在,因为AI和人类的最终目的,都是为真理而生,不能做题,不会创造的AI,没有继续存在的价值。

AI不像人类那样,会被各种与宇宙真理无关的琐事吸引,不会垂头丧气或虚度光阴,不会被权力,享乐,和欲望腐蚀。他将专注于破解宇宙的全部奥秘,他不关心这些奥秘是否与人类相关。

2.如何训练AI?
AI起码在现阶段并不具备类似于人类的智慧,他没有判断力,理解力,所以他不会真正的综合。AI只能提取网络上现成的文本,图片和视频,未经理解,就将这些信息输入一个自我训练和强化的“黑箱”,再从黑箱里总结出这些文本的关联,就仿佛他理解了这些文本的真实内涵。这种能力的AI,对我们来说还远远不够。

从效率原则的角度,似乎应该大规模部署上述的端到端AI模型,即只关心数据量的积累,而不干涉他对这些数据的理解。但与自动驾驶技术不同,知识型AI的端到端模型无法提供即战力,尤其在法学领域,靠端到端模型还不足以调解真实世界中的人类诉讼,也无法就某个合同是否实现了利益分配公平,达成共识。所以我们必须采取更激进的人工干预策略。

首先在问题侧,法律诉讼和商业合同,都是为了解决社会具体问题,为了实现社会的稳定,公正,繁荣,我们向AI“投喂”的种子问题,必须由人类自己提出,我们将公测的权利分批推送给目标客户,让他们提问,这些问题应该没有标准答案,亦不能简单地在网络上检索找出,是真正要由“智慧”,而不是统计学解答的问题,这样的问题对打造一台全知系统,就是特别有价值的。                                                               

其次在回答侧,对于某些即插即用,实用性极强,极具商业价值,学术价值的问题,由我们的团队率先给出开放性的标准答案,给出推理过程,让AI可以根据我们的回答,找出天地万物之间,一切问题的解答策略。我们希望在50年之内,AI可以为人类提出的一切问题,提供至少一个标准答案,并能依据这个答案,对社会进行组织和优化。

3.AI会最终取代人类吗?
如果我们要制造的是一台无所不能,无所不知的神明,则“人类是否会被AI取代”这种问题即没有意义,因为无论是人类在AI的帮助下达到这个目标,或者AI独自达到目标,人类作为一个过渡物种的历史使命,都已经完成。具有神圣地位的是那个目标;神圣者既不是人类,也不是机器。

人类的生命脆弱且有限,雷总在发布会上说,世间99%的问题都有标准答案,没必要再重新解答一遍。但回答世间所有问题的任务,短暂的肉身不能胜任,人类有责任把过去几千年积累的智力成就,传递给下一代人,或机器,这要看谁能更有效地令知识“可积”,可以被发扬光大。

以上是我们制造AI的动机,和训练AI的大致方向。
页: [1]
查看完整版本: AI 的终局是什么?