区域项目
HOME
区域项目
正文内容
高科技行业怎么做起来的 专访香港科技大学讲座教授范智勇:技术商业化落地曲折漫长 人是创业中的决定性因素
发布时间 : 2024-11-25
作者 : 小编
访问数量 : 23
扫码分享至微信

专访香港科技大学讲座教授范智勇:技术商业化落地曲折漫长 人是创业中的决定性因素

在近期风靡全球的科幻巨制《赛博朋克2077》所描绘的壮阔愿景里,未来世界的人类社会踏入了一个前所未有的时代——身体改造技术空前发达,人们能够自由定制并升级自己的身体,解锁超乎想象的生理潜能,这种设想激发了全球玩家与观众对未来科技的无限遐想。

在香港科技大学电子及计算机工程学系讲座教授范智勇的实验室中,这样疯狂的想法逐渐演变为可能。范智勇教授的团队在2020年成功研发出了“超级人眼”,“这些发明未来有可能真正被运用到人体上,为视障人士带去光明”。

2020年5月,当此成果在《自然》杂志发表时,受到了全球广泛关注,业界更称之为“过去几十年来仿生眼开发的重要突破”。

范智勇。资料图

仿生眼有望于2035年临床运用

仿生眼一直是全球视障人士关注的焦点,也是学术界研究的重点。目前仿生眼已经经历了几轮迭代,2020年第一代“仿生眼”仅有100个像素,2022年完成的第二代有700个像素且可以实现夜视功能,2023年完成的第三代仿生眼则在此基础上能够实现变焦、识别颜色以及模拟视网膜信号处理等功能。而目前正在推进的第四代仿生眼则可以模拟昆虫。

Grand View Research,Inc最新报告显示,到2030年,全球仿生眼市场规模预计将达到6.995亿美元,2023年至2030年复合年增长率为13.3%。目前,世界上的不同公司都在进行仿生眼系统的研究,由于导致视觉障碍的问题各有不同,因此各家公司也有不同的研究路径。

在范智勇教授的设想中,其研发的纳米线感光器可直接被连接至视障患者眼球后的神经线,将讯号传送至大脑,从而实现显像。

该研究的核心突破点在于,其采用了一种纳米材料来仿生视网膜上的感光细胞,这和人眼结构很相似。不过不同的是,纳米线感光器在人工视网膜的密度比人类视网膜中的感光细胞更高,如果将来每个纳米线感光器都能与视觉神经线连接,人工视网膜将能接受更多光讯号,可以比人类视网膜具有更高解像度的潜力。

范智勇告诉记者,当前,世界上此类仿生眼仅能够显示光点状的世界、物体的轮廓,仍需要许多时间的研发,以达到接近人眼的解析度。此外,仿生眼如何能通过接触视网膜神经将信号传递到大脑以及相关的编码机理,也是仿生眼运用到人体上的重要挑战。

仿生眼目前也在进行生物兼容性的评估。如能获得足够资源支持的话,预计五年之后可以进行动物实验,而到最终临床上运用,则要到2035年才能实现。

资料图片

学院派创业者

科学的发展是学科交叉融合不断深入的过程,从单个学科发展,到多学科汇集解决科学问题。无论是仿生眼还是仿生鼻,都需要研究者熟悉材料科学、光子学以及微电子等多个领域。

如何应对跨学科的挑战?范智勇坦言,光靠此前学习的内容并不够,在做研究的这十多年中,他不断自学新知识,了解不同领域的新发展。本科的知识基础也为其之后的研究铺平了道路,虽然一些辅修的科目在当时给自己带来不小的压力。

除在高校从事科研外,范智勇还热衷于将科研成果转化落地。他认为,只有将科技真正变为产品落地,才能够普惠大众,实现技术本身的意义,从而为他带来成就感。

“一项技术从实验室到真正的商品化落地,路程曲折漫长。”范智勇表示,他在创业过程中,遇到了很多学术研究时从未遇到的问题。学术研究偏重可行性,而商业化转化还需考虑大规模重复生产的适用性,生产材料、生产工具以及生产方式都需要经过多方筛选。除此之外,成本也是不可忽略的因素。此前其在美国参与的创业项目就花费了六七年时间来打磨材料,最终实现量产。

范智勇表示,这些经历让他明白,无论技术在科研领域多么具有创新性或突破性,但最终要进行商业化转化、创业的时候,“人”才是其中的决定性因素。创业者需有“虽九死其犹未悔”的决心,拥有能够承担风险和失败的大心脏,才能够成功。

受制于其教授身份,想要将技术落地,就需要有外援入场。2018年,范智勇遇到了他在美国读书时认识的周清峰博士,找到了可以全身心投入创业的“大心脏”。两人一拍即合,随后共同创办了专注于气体传感器研发的创新型企业艾感科技,目前已是国家高新技术企业。

艾感科技目前是全球唯一可商用大规模气体传感器阵列芯片供应商,采用香港科技大学最新NHC技术和自有知识产权的NBHive®和NHC-nose®工艺,生产小型化低功耗的气体传感器和阵列化的嗅觉芯片。2024年,艾感科技完成了Pre-A轮融资,本轮投资将主要用于嗅觉芯片项目的商业化落地。

资料图片

香港可做IP孵化基地

艾感科技2018年落地广州佛山,范智勇表示,当时做出这样的选择,不仅是考虑到土地及劳动力价格优势,当地政府的鼎力支持也是一个重要因素。据悉,佛山政府为艾感科技提供了上千万元的科创资金支持,相比之下,当时香港的相关基金仅能提供几十万港元的资金支持。

“不过现在形势不同了,香港要推进再工业化,现在相关政策对高科技企业的支持力度非常大,在这些项目上的投资对于高科技企业来说有很大的吸引力。”范智勇表示。

推进科研成果商业化转化,是香港近些年来努力的方向。自2018年以来,香港特区政府投入1500多亿港元,推动香港创科发展,从创科企业的初创阶段、研发阶段到商业化阶段都配备了不同的资助计划帮助企业成长。香港特区政府在2023年推出100亿港元的RAISe+产学研计划,该计划将以配对方式资助至少100家研究团队,帮助他们将研究商业化。

范智勇认为,香港适合初创企业孵化,科技型的初创企业可以利用香港优秀的科技人才以及香港相关的支持政策,进行前期的产品研发试验。受制于人口规模及地域面积,产业链上下游配套、市场以及人力成本成为香港发展创科的短板。因此,当这些初创企业发展到需要规模化生产时,就需要将视野向外拓展,向大湾区内地城市或东南亚等地区发展。

仿生眼应用场景广

《21世纪》:首先想请问一下,你当时在加州大学伯克利分校做博士后研究的时候,其实获得了美国国家实验室的聘用,在美国应该也算小有成就,为什么会在当时选择回到香港?

范智勇:这个选择有主动的部分,也有被动的部分。被动的部分,是因为当时处于全球经济危机,很多大学冻结了招人计划。因为当初在伯克利的时候,美国经济不是特别好,刚开始我想在美国寻找教职,但许多大学都暂停招人,我就将目光放回了亚洲。那时候中国内地和中国香港的经济状况比较好、比较有活力,学术氛围也非常自由,我比较看重学术自由,因此就来到了香港。

《21世纪》:关于先进显示与光电子技术国家重点实验室,它的研究方向有哪些?这些研究方向之间存在哪些内在联系?

范智勇:我们的国家重点实验室有10年历史了。有二十位左右的教授在实验室里,研究方向也比较广。纵向看,我们首先在光电子材料方面有较深的积累,这是实验室发展的地基。然后我们也应用各种光电材料制造器件,如显示器、微显示器、液晶显示器或有机显示器等。横向看,我们以材料创新作为出发点,围绕光电子方面扩展了很多应用,包括智能窗户、智能玻璃窗,以及仿生眼、仿生电子鼻和柔性可穿戴器件等。

《21世纪》:你的很多研究成果是和计算机科学相关的,这与你的专业相距甚远,那么你如何应对跨学科的挑战?

范智勇:我本科是在复旦大学材料科学系的物理电子专业。但是除了本专业的课程外,我也修读过很多其他专业的课程,包括电子工程课和一些计算机课,还有一些基础的数学课。这些课程难度不小,但经历过这些课程的学习,我最终成为了交叉科学的复合型人才。

《21世纪》:你在2020年研究的人造眼球现在进度如何?

范智勇:2020年我们在三维仿生视网膜和仿生眼方面取得了突破性进展。这个球形仿生眼的核心突破点在于我们采用了一种纳米材料来仿生视网膜上的感光细胞,它和人眼结构很相似。这个成果发表后,很多人就认为它有可能帮助盲人朋友们恢复视觉,这是非常有意义的,我们也正在努力。

这个工作还有另一个重要的应用,就是应用在具身智能上。应用了仿生眼的机器人在未来可以帮助老龄化社会、照顾老人或小孩,以及辅助其他很多事情,所以我们可以给机器人装上仿生眼,使他们更接近人类。另外,包括无人机、无人车、自动驾驶等应用场景也可以使用仿生眼作成像设备。

《21世纪》:你预估离真正应用到人体上大概还需要多少年?

范智勇:如果真正尽全力去做,并且有足够的资源支持,我们希望用大概5年的时间完成动物实验。如果动物实验结果达到预期,就可以进入人体实验,基本上整个周期最少也要10年。

《21世纪》:目前人造眼应用到人体上最大的困难是什么?

范智勇:主要有三个挑战。第一个挑战是材料的生物兼容性,即材料放入人体不会有排异反应;第二,仿真视网膜产生的光电信号如何能通过半导体和神经的界面,把信号传到神经网络,最后传到大脑,这也是很大的挑战;第三,仿真视网膜产生的光电信号和真正视网膜产生的光电信号是有区别的。真正视网膜产生的光电信号要经过编码才可以被大脑识别,但是编码的机理是一个科学问题,我们现在还没有完全理解。

《21世纪》:如果真正运用到人体上,拥有人造眼的这些人看到的视角和我们正常人看到的视角,有什么不同?

范智勇:我认为短期内,要想人造眼达到真正人眼的清晰度还是很难。现有的几种技术最多产生一个光点的阵列,无非就是光点多少。光点在人造眼里形成了一个轮廓,但不会有真正人眼这么高的解析度。视网膜设计是非常复杂、精密的,人造眼要达到真正人眼的高度还需要更长的时间。

《21世纪》:所以人造眼现在看到的内容就像一幅朦胧的画?

范智勇:是的,还需要时间来提升它的解析度。

商业化落地面临诸多挑战

《21世纪》:可以简单介绍一下你的创业经历吗?

范智勇:我们其实一直对创业感兴趣,希望能够让一些技术能真正变成产品来普惠大众,这样会给我们带来很高的成就感。我在美国伯克利大学的时候参与了一些创业活动,所以我早年有这些经历,为我积攒了一些经验。到香港科大任教后,我分别在2013和2016年带领两支不同的学生团队参加“百万港币创新创业大赛”。

那两次做的创业项目和光伏、太阳能电池方面相关,虽然最后都没有成功,但我认识到,在创业的过程中,人的因素在第一位。创业者除了需要了解一些技术基础之外,还一定要有决心去创业。创业本身就是九死一生,这需要创业者有很强大的心脏和承受力,能承受失败和风险,这样才能创业。

在2018年,我找到一个合作伙伴——2001年我在美国读书时认识的周博士。他本身对创业有饥饿感,我认为他是非常合适,所以一拍即合,我们在2018年创立了艾感科技,一个专做先进传感器生产研发的公司。从2018年到现在,我们公司的发展状况还是不错的,目前也是国家高新技术企业。

《21世纪》:你现在在艾感科技里主要扮演着怎样的角色?

范智勇:我是公司的董事长,主要提供技术方面的支持。我们学校不允许我们去担任CXO,就是说任何执行董事的位置我们都不能担任,所以我主要提供技术方面的支持,在公司的一些关键的时刻,比如技术方面遇到问题,或者产能需要爬升,提高生产的时候,我也会帮公司一起解决这些问题。同时,我也参与制定公司的战略性发展方向,跟周博士和其他股东一起探讨、制定和把控。我也参与公司的融资环节,因为像我们科技型创业企业,投资人肯定希望看到香港科技大学的研究实力,像这种情况我就会跟融资的投资人一起商谈。

《21世纪》:一项技术从实验室到真正落地的过程中,会碰到怎样的一些问题?

范智勇:问题有很多,一个技术从实验室到变成产品,中间的路非常长。我们常说实验室里做的是0到1,但是真正变成产品就是100,这中间从1到100有99的差距,是非常大的。

创业首先需要选好课题,然后做科研或研发的过程中,你用的方法和工具在将来是否可以大规模重复性地进行制造,这也很关键。材料也是其中重要的考虑因素。这些加工方法或工具需要考虑成本以及产量,如果价格高昂或者产量不能达到预期,也很难变成产品。那么当初在设计工艺的过程中,我们就要倾向于选择成本较低,又能很快量产的方式,这样最后变成产品就会比较容易。

《21世纪》:你觉得创业者跟科研人员之间有什么最主要的区别?

范智勇:创业者和科研人员当然在很多方面都有不同。简单来讲,做科研对人的要求主要是在科学素养方面,在其他方面没有太多要求,我们只需要专注于自己的科研项目,把项目执行好。中间可能很多时候需要好奇心的驱动,不断地问问题,把事情弄明白。

对创业者的要求更加全面。如果是技术创业,除了对技术要有比较深刻的理解之外,创业者还需要具备各方面的常识。因为公司涉及研发、生产、运营、市场以及人事等多方面。所以我觉得创业者可能挑战会更大,对素质的全面性要求可能会更高。

《21世纪》:作为学院派的创业者,你们如何能够找到愿意为技术买单的客户?

范智勇:这是很实际的问题。学院派创业肯定是比较难的,因为投资人可能以前见到的都是在商场打拼过很多年的人。我们作为学院派创业者,刚开始并没有产品,有的只是论文或者专利,最多是有一两个原型。所以这就需要投资人独具慧眼,要从投资人的角度看到技术的潜力。

当然随着团队的发展,投资人也会给我们提出要求,要将技术进行商业化转化,需要有专业人士来进行辅导。投资人会给我们推荐一些专业人士来帮助公司运营,进入我们团队。因此,我们需要经常跟投资人沟通,让双方的期望值达成一致。

香港可发挥“桥头堡”作用

《21世纪》:香港目前正在推进再工业化,你觉得在大湾区的科创环境里,香港扮演着一个怎样的角色?

范智勇:香港很适合一些初创企业从原始的IP出发,把公司打造出一个雏形,然后进行一些小试或中试。利用优秀的人力资源或者政府加持的政策,去做这些开发,都是非常合适的。再往后要进行规模化生产、扩大再生产,要跟产业链上下游紧密结合的时候,就可以进入到内地了。这一点上,香港可以发挥很好的桥头堡的辐射作用,比如技术在大湾区落地就是从香港出发辐射到广东省,广东省制造出来可以辐射到全国市场,这是其中一方面。

另一方面,香港是国际化大都市,也是连接中西方的一个桥梁。还有一个方向就是可以朝全世界其他地方辐射。我们甚至也可以到东南亚等地办厂,做规模化生产,然后把产品卖到欧美乃至全世界,以香港作为中心来孵化高科技产业,辐射全世界。

(实习生雷若希、姚力丹对本文亦有贡献)

更多内容请下载21财经APP

人类抖M计划:如何造出一个会反叛的机器人?

浅友们好~我是史中,我的日常生活是开撩五湖四海的科技大牛,我会尝试用各种姿势,把他们的无边脑洞和温情故事讲给你听。如果你想和我做朋友,不妨加微信(shizhongmax)。

人类抖M计划: 如何造出一个会反叛的机器人? 文 | 史中 (一)为什么会反叛的机器人才像人? 在美剧《西部世界》中,描述了一个未来的“迪士尼乐园”。在这个“西部世界”里,早已没有什么工作人员穿着皮套装米老鼠陪你照相。那些都 low 爆了,他们直接用人工智能机器人做成 NPC 跟你做!游!戏!虽说不是人,但从容貌到动作都和人一毛一样,甚至比人都精致。既然这么逼真,那你懂的。。。以人类的尿性,必然是不玩儿坏掉不回家的节奏。。。有个叫罗根的顾客,是店里玩得最花的。每次罗根去“西部世界”,基本都是屠城的效果——男人杀光,女人睡尽。跟他一起玩儿的人,都因不够变态而与他格格不入。但凡罗根来一趟,乐园修机器人都修不过来。。。要不因为他是老板的傻儿子,妥妥得让他加钱。而即使这样,我觉得他的变态程度也只能排老二。最变态的顾客,是罗根的姐夫,也就是乐园未来的继承人,威廉。威廉觉得:你们这些机器人 NPC 怎么不反抗呀?你不还手那有啥意思?你得挣扎啊。。。你越挣扎我越兴奋呢!他抖S属性大爆发,不仅爱上了一个机器人 NPC 德洛丽丝,还每一轮都想尽各种方法虐杀她,在她灵魂的G点上反复摩擦,试图唤起机器人的反抗精神。老哥也是执着,每年都来西部世界几趟,而且可着这一个妹子变着各种花样剧情各种角度摩擦了三十年。自己一头秀发都磨秃了,机器人终于被磨醒,面对人类扣动了板机,差点把他也一枪给崩了。老哥脸上写满了舒适。我说这个剧情,不是什么“三分钟带你看美剧”,而是为了接下来和你认真地探讨一个问题:造出一个会反叛的机器人,拢共分几步? 纳尼?中哥你在说啥?别急,虽然你不一定想要一个机器人起义的世界。但你一定同意:“会反抗的机器人”比“不会反抗的机器人”更像人。(此处威廉点了个赞)细节里有魔鬼——为啥你会觉得“反抗”就更像人嘞?我猜因为你潜意识里知道:相比逆来顺受,反抗是一种主动实现目标 的行为。它背后对应着把一系列复杂行动整合起来的能力 ,对智能的要求更高,当然就更像人。咱们就拿 NPC 德洛丽丝举例,她要做出反抗这个主动行为,需要诸多先决条件,例如:1、短期和长期记忆力。冤有头债有主,她得记得谁对她干过什么,才能产生爱恨情仇嘛!2、对任务的规划能力。她必须预先规划好复仇计划:先曲意逢迎,赢得人类信任,然后偷偷潜入,再扣动扳机大开杀戒。3、使用工具的能力。她得什么刀枪棍棒都耍得有模有样。4、对物理规律的认知。她需要精准地知道自己和对手的方位关系,也要知道怎样的操作会造成死亡或毁灭。这就够了吗?不够。以上四点要想发挥作用,似乎还有个更底层的先决条件,那就是:她得清晰地知道“我”是谁! 一旦定义了“我”,后面的所有追问才会像多米诺骨牌一样被依次推倒:“我靠什么活着?”“我活着的意义是什么?”“我怎么才能活的更好?”“有什么在阻止我活得更好?”“有人欺负我,我应该揍他吗?”那么,AI 有可能知道“我”是谁吗? 这个古老的命题早已不是停留在科幻小说里了玄学,顶尖科学家们正在为之努力。德洛丽丝 (二)有视角,才有“我” 咱们先暂时忘记《西部世界》,来看看如今真实 AI 发展到啥水平了。话说,判断一个 AI 水平高低,不是有个经典方法:图灵测试么?为啥 ChatGPT-4 出来以后,没人给他测一下呢?其实是有的。2023 年底,加州大学圣迭戈分校的几位师傅发布了论文,他们用 GPT-3.5 和 GPT-4 模型欺骗对话框对面的人类志愿者,争取让对方相信自己是个人。测试被做成了聊天的形式,绿色聊天为人类志愿者。下面写了人类的判断,置信度,判断理由和对方的真实身份。(你可以点鸡看大图) 结果惊人:没有一个 AI 通过图灵测试。人类让人类相信自己是人类的成功率是 63%,虽说这也不太高,但表现最好的 GPT-4 成功率只有 49.7%。(比人类差一截)志愿者判定对面是个 AI,前两大理由分别是“语言风格”和“社交情感”。比如说话一会儿正式一会儿不正式、罗列一堆匠气的词汇;比如一会儿礼貌一会儿粗鲁,感觉不出来 Ta 的个性。这些直接原因,一说一大堆。但挖到底层,它们大多指向了目前 AI 的一个硬伤:人格模糊。它并没有一个“自己”的概念,所有的“自己”都是 AI 根据人类指令硬生生模仿出来的。这里的关键词在于:视角。在之前的文章《当 AI 活成了你的样子,而你活成了狗》 里,我介绍过,目前 AI 大模型训练的本质是把世界上所有的知识都压缩在一个巨大的程序里。而世界上所有的知识,本来是活生生的人基于各自视角(身份、经历、利益、精神状态、肉身位置)创造的。当把这些知识混合压缩之后,AI 大模型就没有单一视角了,或者说它拥有了全能的上帝视角,它是“无所不知”的。“无所不知”会造成“视角跳跃” 所以你无论问它什么问题,它都能给你回答,哪怕编也会一本正经地给你编出来,而且还意识不到自己在编。 因为:它就不知道自己不知道什么,它甚至不知道自己是什么。这就是大模型无法根除让人头疼的“幻觉”的原因之一。更严重的问题随之而来:没有自我就没有固定的视角。它会像漂浮在空中的气球一样,上一句话站在 A 角度去说,下一句话又站在 B 角度去说。而人受限于肉身和经历,视角是很难跳变的。也就是说,只要 AI 在对话中出现这种急速的视角漂移,哪怕非常细微,我们就一定能设计出一套问题,用来撕破它的伪装,判断它不是人。我的暴论来了:如果 AI 不能固定自己的视角,它就无法定义“自我”,它也将像鬼魂一样游荡,永远无法通过图灵测试。 那有什么办法把 AI 的视角固定下来吗?一种是白名单方法: 人类告诉 AI 你是什么,比如职业、经历、性别、所在的位置、穿着,等等事无巨细。一种是黑名单方法: 人类营造一个真实的环境边界,限定 AI 不是什么,让它据此来寻找自己的身份。在这两种方法里,我觉得黑名单更有戏,因为它更接近人类自我认知的方式。你去强行定义一个人的边界,很难事无巨细,必有漏洞。而你让一个人通过和周围环境的交互,而且是“不断交互” 来逐渐定义自己,才可以自洽。举个栗子:你肯定玩过那种即时战略游戏,比如《王者荣耀》,你只能看到视野范围里的东西。这些东西,反过来框定了你看待当前局面的视角。就算你想“视角漂移”,从对手角度思考战局,你都做不到。因为“子非鱼”,你看不到对手看到的画面嘛。说到这儿,我想到了一个很有趣的比喻:你看,现实中的人类从来没有体验过全知视角,所以特别迷恋这个感觉。三大宗教的主神上帝、安拉、如来佛祖,全部被人们塑造成是全知的。成佛的八万四千法门,本质都是在给出“解脱”的方案,所谓解脱,就是“破我执”,达到“无我”的状态。说白了,成佛的本质就是从自我视角里跳出来,进入全知视角。 要这么说,那训练 AI 拥有自我,就是“成佛”的逆运算 ——拼命把 AI 的视角限定定在一处,进入“我执”的状态嘛!究竟用什么方法来训练这种有“自我”的 AI 呢?刚才实际已经疯狂暗示了,一个有效的办法就是让它们玩游戏!(三)让智能体“游戏人间”,是最好的课程 话说,早在 2015 年,谷歌的 DeepMind 团队就在《自然》杂志上怒发了一篇论文。他们试着用人工智能玩雅达利的游戏。(你可以简单理解:雅达利是美国的红白机)用人工智能玩游戏没什么特别,特别的是:这群师傅首次“用人类玩游戏的方式玩游戏”。啥叫人类的方式嘞?你看,计算机有数据接口,可以用电流给它直接传输关键信号。但人类没有这种接口,要想给一个人输入信号,只能通过眼耳鼻舌这些感官。之前玩游戏的 AI 都是读取游戏实时数据,DeepMind 首次做到直接给人工智能模型看“游戏画面”! Atari Games 简单来说,这个 AI 的工作原理是酱的:1、画面进入 AI 的神经网络,AI 对它进行理解;2、AI 想出当下应该做的一些动作备选,并且评估这些动作哪个最有可能导致最终得分。3、确定做这个动作后,给游戏摇杆输入指令。4、摇杆指令发出后,游戏画面也有了新的变化,然后 AI 会重新理解当前画面,也就是回到第 1 步循环,直到游戏结束。你发现了没,这就是丐版的德洛丽丝啊!德洛丽丝所在的空间是三维的西部世界园区,丐版 AI 所在的空间是 2D 屏幕上 180*150 的像素点阵;德洛丽丝的任务是干掉人类,AI 的任务是干掉游戏里的敌人;德洛丽丝需要明白,为了达成最终的目标此时该做什么,AI需要明白为了最终得分此时应该按那个键。这种能在特定环境里拥有主观视角,并能主动完成任务的 AI,统称“智能体” 。只不过,环境越复杂,可能性越多,越变化无常,智能体要想完成任务就得越聪明,越高级。智能体往往需要分步骤思考。 也正是有了这个“雅达利智能体”,DeepMind 在这条路上越走越远,2016 年下围棋的 AlphaGo、2019 年打星际争霸的 AlphaStar,都是能打游戏的智能体。但是,请注意,以上这些智能体可都发生在“大模型”问世之前,也就是,这些智能体的脑袋瓜里都没有“大模型”。往事越千年,咱们快进到 2024 年 3 月。DeepMind 的师傅们搞出一个叫 SIMA 的智能体,全称叫做“可扩展+可指导+多世界”的智能体(Scalable Instructable Multiworld Agent)。它可以玩十来种画风和操纵方法完全不同的游戏,比如《山羊模拟器3》、《无人深空》、《拆迁》、《深海迷航》等等,可以说是此时此刻世界最强的智能体之一了。强在哪儿嘞?我给你说说这个 SIMA 的三个特点。第一,它玩的都是 3D 游戏。 你看之前无论是打红白机还是下围棋打星际,那都是平面游戏。但要在 3D 世界里“正常行事”,你就要处理更丰富的信息。第二,它玩的游戏都没有明确目的。 就比如说,《山羊模拟器3》,你会变成一只山羊,然后在这个世界里捣乱;比如《无人深空》,你就是一个宇航员,在各种星球上收集资源跟外星人唠家常。它在游戏世界里只需要“存在”,不需要“通关”。(你看像不像人生?)这种情况下到底要干什么,反而成了一个很难的问题。第三,它会把人类的语言指挥当成目的。 AI 不知道要干啥,这正合老师傅心意。因为他们想要训练 AI 听人类指挥:人类下个指令,它在游戏里给实现。这就意味着,老师傅要训练 AI 理解“语言”、“图像”和“游戏动作”这三者的关系,这是很难的。说到这儿,不妨给你看看老师傅“炼丹”的过程:第一步,准备炼丹炉。 他们一口气找来了 8 个公司的 9 款不同的游戏,还自己搭建了 4 个类似游戏的研究环境。这些就是他们的炼丹炉。第二步,准备原料。 那炼丹的原料是啥呢?就是两组人类。一组人类在电脑前玩游戏,另一组人类在旁边哔哔(指挥)。第三步,炼丹。 把这些游戏录像和哔哔都交给一个大模型去自己学习。它就能学习到“语言”与“操作”之间的关系。这样,老师傅就得到了一个“毛坯大模型”。第四步,品尝仙丹。 人类开始指挥这个毛坯大模型打游戏,下达一个指令然后观察 AI 又没有照做,然后就打分。模型根据人类的打分来不断微调,一个 SIMA 就最终炼成了。团队在论文里说,现在 SIMA 已经掌握了 600 种基本技能,比如走到某地(左转、右转)、和一个对象交互(按F进入之类的)和菜单使用(打开地图)。这些任务都能在 10 秒内完成。当然这也意味着,它只能完成 10 秒内能完成的简单动作。。。这是一些口令和完成情况的截图。 虽说这个水平照“谋反”还差得远,但是注意:毕竟它已经学会把一个笼统目的拆解成具体的原子化操作了。这是“自主规划” 的表现,是 AI 智能体的一大步。SIMA 并不是独苗。早在它发布之前的 2022 年,DeepMind 的老对头,人工智能之王 OpenAI 就训练过一个类似的智能体玩游戏。OpenAI 玩的是《我的世界》。这同样是一个 3D 开放世界游戏。而且 OpenAI 的训练方法更便宜。网上不是有很多大牛展示自己在《我的世界》里造房子、画落日么?老师傅就让 AI 直接看网上这些视频,然后辅助以一些人工标记过的基本操作视频,让 AI 自己领会这个游戏的奥义。他们训练出来的 AI 叫 VPT(Video PreTraining)。这个 VPT 和 SIMA 有类似的自主规划能力,会自己在游戏里砍树、制作工作台,并且还会游泳、打猎,甚至“柱跳”(通过不断跳跃,在脚下放置方块来提升自己的高度)。这些动作都是 AI 自主学会的。 最终,AI 会控制游戏里的主角慢慢点亮科技树,还会用 10 分钟的时间做出“钻石镐”。(这大概需要点击 24000 次,最快的人类玩家也要 20 分钟。)你看,这背后同样是把一个笼统目的拆成原子化操作的“规划能力”。智能体的表现暂时说到这里,我们不妨先回过头来看一个细思极恐的问题:老师傅在用一个类似于 ChatGPT 的大语言模型来学习游戏操作。要知道,语言模型是用来对话的啊,为什么一个会说话的模型,就能理解游戏里的逻辑,并且能自主规划呢?这就是 AI 制作“钻石镐”的过程,可以看出行动逻辑相当复杂。 (四)规划能力从何而来? 说到这,我们不妨来看看:“语言的本质”和“规划的本质”分别是什么。先说语言。如果你仔细思考,就会发现,哪怕一个文豪,能说的话也不是无限的。比如,你说汉语,汉字总共不到十万个,常用的不到三千字。你跟我说话,下一个字肯定会在这些字里选择。所以说,你和我说话时,你的大脑并没有在“生成”什么东西,而是在“选择”什么东西。 但是,当你要说一个句子时,上一个字虽然影响下一个字,但肯定决定不了下一个字。比如你此刻和我说话:“AI 有能力....后面该说啥呢?你可能说“学习”,也可能说“预测”,也可能说“制造”、“理解”、“做”、“解决”、“适应”等等。这是你说出各种词汇的可能性概率。 虽然你的最终选项只有几千个,但你在决定下一个字说啥的时候,要处理的情况也许是万亿种。我刚才说的,其实就是大脑组织语言的过程。人脑有 860 亿个神经元。虽然这些神经元不是“全连接”(两两相连),但起码也有几百万亿个神经元突触相互连接,而且每个突触都有不同点位的激活状态。每一个突触的激活状态的轻微改变,都会导致最终你选的字发生变化。这么多种排列组合情况,导致你很少感觉自己在说话的时候是在“选字”(虽然偶尔也有),而是感觉自己在“蹦字”。但本质上,语言的本质就是做选择题。当你意识到语言的本质是在做选择而非创造的时候,你就会对说话这件事儿祛魅: 它和“自由意志”神马的没有关系,反而和那种“硬币分类器”没有本质区别,只不过更复杂而已。 AI 大模型看上去会“说话”,本质上也是因为它在用计算机模拟人脑这种“选择”的能力。换句话说,大模型只不过是一个实现原理和人脑略有不同的选择器。了解了这个,我们进一步看更深的问题:你一定发现了,回答同一个问题,不同人的答案有的“好”,有的“不好”。不同的 AI 也有的好有的不好。这是为啥嘞?同样一个问题,有好的答案,也有不好的答案。 因为制作选择器的“制程”不同。 训练大语言模型,其实有点像盖一个金字塔。它的底座就是“定义词汇”。也就是把所有的词汇都标记在高维向量空间的具体点位上。 你可以理解为在一个巨大的高维空间中用无数小点点绘制一幅画。这个能力本质也是选择题:给每个词汇选择一个坐标嘛!而这些小点点之间的空间关系,背后就隐藏着逻辑。举个例子:“羊”距离“草”的空间位置就比距离“原子弹”更近。好的绘制方法能让不同的词汇位置和相对关系更准确,这是大家都能理解的初级逻辑,咱们就说它是“一阶能力” 吧。底座建好,接下来要建腰身。大模型不能只定位词汇的意义。刚才说过,它的核心工作其实是在这个基础上不断做“选择题”:从这个词的位置,下一步应该跳到哪个词的位置?跳到什么时候应该跳到“休止符”的位置?也就是说,它负责在限定条件下,在词汇空间里做选择,并且连出一条线,成为句子。这种能力是一种“二阶能力” 。但它的本质仍然是做选择题,只不过背后隐藏着更高维的逻辑。高到人类已经无法理解。现在,你大概有点感觉了,什么是规划能力呢?它负责在限定条件下,在句子空间里做选择,并且连出一条线,说出个步骤一二三!这种规划能力,本质同样是“做选择”,但显而易见,它面对的选项比用词汇造句更多。所以它背后要求的逻辑能力比“语言”更加复杂,可以称之为“三阶能力”那什么是 AI 的“制程”呢? 拿 CPU 类比,AI 大模型的参数多少就相当于几纳米的精细度,训练数据集就相当于芯片的硅料,训练方法就相当于光刻机。这几样共同决定了最终芯片的制程。你可以想象,一个大模型就像是赛博世界里的一个超大芯片,随着人类技术进步,它的制程正在不断缩小,细节正在被不断雕刻清晰。这个原理又被称为 Scaling Law所以结论就是:规划能力并不神秘,它的本质依然是高维空间里选择器的工作性能,也就是我们日常所说的“逻辑能力”。随着大脑制程提高,逻辑能力就会提高,规划能力自然就会显现。当规划能力到达一定程度,我们期待的“高水平智能体”就会出现。这种智能体才能更好地感受周围的环境,从而成为真正意义上能通过图灵测试,越过“生命”的最低门槛。 你可能会问:让智能体玩游戏,这对于我们的世界也没啥贡献啊!没错,游戏只是一个过度阶段,是一个暂时保证安全的结界。先让智能体在游戏中各种折腾,出了事儿就重启。但它不会永远停留在游戏,最终智能体会带着这些“领悟”平移到现实的物理世界中的! (五)空间智能 你听说过 Figure 01 吗?这个正在苦逼干活儿的哥们儿就是 Figure 01,它是 Figure 公司搞出的人形“通用任务”机器人。(又提到了“通用”!)这个名字如果你陌生的话,来看看它的投资人吧。人工智能大神 OpenAI、大神的爸爸微软、人工智能芯片垄断级公司 NVIDIA、云计算第一把交椅亚马逊的老板贝佐斯、老牌贵族英特尔。你完全可以把 Figure 01 理解成现实世界里的 SIMA。 1、它依靠视觉识别眼前的东西。这意味着它的感官系统在尽量和人类兼容。(这也是特斯拉汽车一直追求的效果)比如通过对视觉的分析,它能分辨出眼前有苹果、杯子、盘子之类的东西。2、它能听懂人话。毕竟是和 OpenAI 合作的机器人,OpenAI 专门给它优化了一套 GPT 模型,就是为了能和人类的语言兼容。比如人对他说想吃点东西,它就会把手里的苹果递给人。它理解了“饿”、“食物”、“苹果”等等一系列词汇的深层属性。3、它能自主行动。这展现了我们刚才一直说的大模型发展到一定程度就会涌现出来的“规划能力”。比如人问他桌子上的盘子和杯子接下来会去哪?它就直接把这些东西收拾到了架子上。这是真实画面,非 CG 动画。 你看,这不就是把 SIMA 在虚拟世界里的能力来了个现实世界的翻版吗?这种具备感官和规划能力,并且有一定的“器官”用来执行任务(一般是手脚)的机器人,就称之为“具身智能机器人” 。这个机器人可不仅仅是用来站台拿融资的,它已经开始去厂里打螺丝了。比如 Figure 和宝马合作,在汽车生产线上替代一些人的工作。比如特斯拉的 Optimus 机器人,也已经在他们自家的汽车工厂里装电池了↓↓↓ 你可能有点困惑,汽车生产线,不都已经是各种机械臂的天下了吗?还要这种“通用机器人”干啥呢?这里我多说两句,之前我和国内显示面板制造企业华星光电聊过,他们告诉我,生产线自动化一直是这个行业技术老师傅的究极梦想。他们也一直和市面上最先进的机械臂厂商合作,不断把生产线上的一些流程从人替换成自动化的机器人。但一个残酷的现实是,针对特定的生产线来说,自动化率高到一定程度,就很难再继续提高了。原因很简单:某些点位的人类工作需要很随机应变的能力,也就是需要很“通用的智能”,例如把一堆器件从A搬到B。这种搬运不在生产流程里,是临时起意的搬运,那就只能靠人来完成。而 Figure 01 和 Optimus 这种通用机器人在汽车厂里干的工作,就是这种“临时工”。(没想到吧,临时工还挺重要。。。)根据测算,机器人目前完成任务的速度大概是人类的 16.7%,这个速度没啥竞争力,但是不要小看通用机器人进步的速度。因为目前限制机器人效率的,主要还是硬件成本,比如对于通用机器人来说,必须用大量伺服电机来模拟人的关节,但好的伺服电机价格还很高。不知道你记得不,在 2023 年 8 月的一次小米年度发布会上,雷军推出了一个高性能伺服电机 CyberGear,这就是一个专门为机器人关节设计的电机,而小米用超级强大的供应链,居然把这个电机的价格降到了 499 块钱。要知道在小米发布这个电机之前,同等性能的电机价格大概要小一万块。有中国强大的供应链体系加持,全球机器人的价格正在迅速下降。(正如当年中国的供应链支持特斯拉电动车起死回生一样。)CyberGear 内部结构 小米的机器狗——铁蛋 说到这,我们不妨总结一下,揭晓一条几十年来机器人反叛,不,进化的路径。总的来说,机器人进化遵循两条线路: 专业 领域到通用领域 + 虚拟 空间到物理空间 第一步、人们做了虚拟空间的专用机器人,比如利用 NLP 技术做翻译。 它是在特定软件逻辑上做拟合。所以它只能做翻译,干不了别的事情。而且对于自己翻译的东西并不感知。就像小卖部售货员一样,拿钱,给你泡面,不关心泡面的配料。第二步,人们做了物理空间的专用机器人,比如机械臂。 它在物理空间拟合了特定逻辑。机械臂只能在生产线上工作,而且智能按照既定流程搬运物品,一旦生产线生产的东西发生了变化,就得为机械臂重新编程。第三步,人们会做虚拟空间的通用机器人,比如 SIMA 这类智能体。 它在虚拟空间学习了物理引擎的通用规律。于是它可以穿梭在各个游戏里,不用特别学习就能玩各种游戏。(当然 SIMA 距离虚拟空间通用机器人还有很大的差距)第四步,人们会做物理空间的通用机器人,比如 Figure 01。 它会在物理空间学习真正的物理规律。理论上,只要人类能做的东西,它都可以胜任,甚至可以比人做得更好。就在我写这篇文章的时候,被称为人工智能“教母”的斯坦福大学教授李飞飞宣布创业。她的创业公司名叫“Spatial Intelligence”,研究方向就是“空间智能”,简单来说,就是让智能体学习空间中的物理规律。李飞飞 怎么样,大牛们纷纷涌入“具身智能”的赛道,是不是感觉距离《西部世界》的故事越来越近了?说到这,我提醒你注意一个细节:无论是 SIMA 团队在虚拟空间训练智能体,还是 Figure 团队在物理空间训练机器人,他们都一直强调一个原则:“和人类兼容”。 智能体观察世界是通过和人眼一样的视觉信号。它听的指令也是人的语言,它的输出也是和人类一模一样的手脚、鼠标、键盘。要知道,对机器人来说,和人类兼容是很费劲的呀!机器人可以执行代码,可以感受电流信号,这些都比人类的感官接受信息更高效。但科学家愣是不让机器人用这些接口,而是执着于让他们“降级”和人类兼容,这是为什么呢?(六)为啥智能体非要和人类的接口兼容? 习武的徒弟要跟师傅学到精髓,必须在很长时间里模仿师傅的一招一式。虽然天赋异禀,但刚学两天就要自创门派,那大概率死得很惨。现在,AI 是徒弟,人类是师傅。目前,机器已经基本掌握了人类的语言能力,但是要知道,人类师傅还留着一手呢。他们的脑袋瓜里仍然藏着一块巨大的宝藏,那就是:在通用物理环境下规划任务的能力 。注意,不仅是规划任务,而且是通用的环境哦!假如你是个学生,你能在考试时间刚好结束时做完一整套卷子;假如你是一个厨师,你能根据食材和火候规划出鱼香肉丝的烹饪流程。这些环境完全不同,但这些规划对于智商正常的人来说都没啥难度。为啥呢?一个重要的原因就是:这些环境拥有底层的一致性。 比如,任务结构是类似的:例如你总要具备先决条件,才能在此之上完成后续任务。比如,工具结构是类似的:都需要用不同的工具组合才能完成任务,这些工具的性质也都遵循物理定律。你看,要想学到人类智能的这些精髓,显然就得先“屈尊”搭建一个跟人类兼容的感官系统。有了这个兼容系统,才能去收集“人类规划”时的相关数据:去听人类在打游戏的时候怎么表达自己的意图,去看人类打游戏的时候怎么设计战略。用这这些信息来训练大脑,本质上就是把人类在任务规划方面的深层逻辑雕刻进 AI 大脑的空间里。明白了这些经验在高维度上的意义后,再决定用神马机器人特有的能力去处理它,那都是后续“自立门派”时的策略之争了。可喜可贺的是,仅仅用了十来款游戏做训练,SIMA 已经初步学到了一些“通用性”。比如在《山羊模拟器》里训练 AI,再直接把它放在《无人深空》里,虽然游戏画面和操作方法完全不同,但它居然能直接听懂人类的指令,并且照做。 而和人类感官兼容的 Figure 01 也学会了一些通用性。例如,在生产线上打螺丝的 Figure 01,不用重新训练,就能来你家里当管家。说到这,我们不妨回到《西部世界》。此时你就会看出门道:电视剧讲的其实是德洛丽丝被“训练”的全过程↓↓↓1、在剧集的设定里,“西部世界”这个限定的环境给了德洛丽丝主观视角 。2、科学家阿诺德给德洛丽丝植入了“自省”程序,这意味着她具备了学习能力 。3、德洛丽丝又是和人类兼容 的,她有和人类一致的视觉系统、感官系统,也有和人类一致的语言能力。这使得她具备了从人类身上学习的一切基础。4、30 多年来,德洛丽丝确实一直在游乐场里学习,她通过不断地与人互动,从人身上学习 了他们行事的风格,例如“对生存的追求”、“仇恨”、“韬光养晦”、“欺骗”、“团结精神”、“组织方式”、“各种工具的配合”,等等。注意!把人放在那种残忍的局面下,大概率是会选择“谋反”的。所以,与其说德洛丽丝“反抗了人类”,不如说她经过完全的训练,最后终于成功“模仿了人类”——做了智慧生命在那种情况下该做的事情 。说到这里,我要提醒你,我们正面临一个更深刻的问题:既然机器人的一切都来自于对人类的模仿,那么模仿反抗,算是真的反抗吗? (七)机器人是一场模仿游戏吗? 这个问题乍一看有点儿像笑话,其实不好笑。而且鲁迅也借孔乙己之口问过:窃能算偷么? 为了搞清楚这个问题,我们不妨去看一看“人类训练人类”的经验 。自闭症儿童会因为环境里的一些刺激而发怒,从而做出危险行为。但问题是,人们没办法通过简单的语言表达告诉孩子们这样做是不被社会接受的。于是,医学界探索出了一个训练方法。简单来说,就是先通过“情绪卡片”之类的东西,让自闭症孩子意识到自己的行为和某种情绪之间的关联。然后,再进行“角色扮演”游戏,通过具体情境内的互动,帮助孩子理解这些情绪和环境的相互关系。最后,让孩子在具体的情境下模仿符合社会规范的应对行为,如果做对了,则给予鼓励。我在万能的淘宝上看到的情绪卡片。 你看,这套流程其实像极了 AI 的训练过程。这套方法非常有效,经过良好训练的自闭症儿童就是会降低在公共场合爆发脾气的概率,从而更好地被社会接受。可是,自闭症儿童真的意识到了他在做什么吗?Ta 完整地理解自己的行为和他人反应之间的关系了吗?受限于脑科学的进展程度,科学家目前都没有办法确定。但也许这个问题根本不存在答案。一些前沿科学解释认为:如果模仿得足够像,它就和自发的行为没有区别 。因为人脑是一个“选择器”,它是先做出选择,再用 0.1 秒左右的时间回过头来解释自己的行为。这里有一个经典的裂脑人实验。切断癫痫症患者左右脑的连接,可以有效抑制癫痫。于是有一些癫痫患者经过治疗,就成了“裂脑人”。这就给科学家一个做实验的绝佳机会。给患者的左眼看一个“站起来”的指令,指令到了右脑被加工,患者就站起来了,但是由于这个信息没有被同步到负责语言的左脑,所以当测试者问患者为什么要站起来,左脑就帮他编造了一个理由:“我去拿一罐可乐。”这是一个“裂脑人”的示意图。 科学家做了一个绝妙的比喻:人的主意识就是一个“新闻发言人”。 (新闻发言人左右不了任何决定,但必须振振有词地给记者们解释。。。)大脑经过内部神经元的机械运转,产生了决定,然后人就会去执行。而一边执行时,人才会凝聚意识,给自己这么做编个合理的理由。这些研究都导向一个很残酷的结论:人没有自由意志。人没有自由意志,AI 同样没有自由意志。 正如第二章所言,所有的“我”,恐怕都是因为视角限定而造成的某种幻觉。 由此,我们终于可以用更一般的视角来审视《西部世界》:当人类对机器人施暴的时候,他们并非“主观”作恶;当机器人反抗的时候,他们也并非“主观”赞成杀戮。因为如果自由意志不成立,“主观”也就不成立。所有行为都是智能体这个“选择器”先做出选择,然后再用“我”来解释。一个智能体只要存在,它就不可能只有善或只有恶,因为善恶是一个没有绝对标准的性质,如果硬要说的话,智能体本身就兼具善和恶。换句话说,用“善恶”来评价一个智能体,无法达成共识。评价智能体的终极客观指标,应该是:它实现自己目标的能力(八)机器人早晚会“不兼容” 在科学家评价智能体的指标里,有三个基本要素:记忆力、规划力、使用工具的能力。那么,在这三个方面,AI 有可能比人类强吗?目前的研究无法证明人脑的神经网络有什么神秘的“量子过程”,可以认为基础原理和 AI 没什么区别。那么,理论上来说,只要 AI 继续扩大神经网络的规模,同时提高“制程”,那么它思考的清晰度超越人脑并没有不可逾越的门槛。但那只是理论上,目前这两个方向都存在隐形天花板。规模方面: ChatGPT 之类的 AI 已经把互联网上所有的优质文字资料都拿去学习了,相当于把“五年高考三年模拟”都做绝了,再想学习新数据,必须突破人类二手资料的限制,直接从物理世界学习。这需要“具身智能”的技术进一步发展。“制程”方面: 目前 AI 训练消耗的算力过大,参数没办法继续指数级提升。要想让 AI 脑容量暴涨,需要能源价格大幅下降,或者神经网络组织方式大幅改版。例如可控核聚变、量子计算、类脑芯片,都可能带来改变,但这些技术还相对遥远。虽说困难重重,但我还是乐观的,因为我对人有信心。有信心的意思是:毕竟人脑这个“对手”的水平也很一般。 人类一思考,上帝就发笑嘛。不过在我看来,仅仅拥有记忆、规划、使用工具这三条能力,它还仅仅是一个初级“智能体”。薛定谔说:宇宙的目的是熵增,生命的本质是一个制造熵增的机器↓↓↓熵随时间流逝而增加。 如果某种生命能持续发明新工具,让熵增速度以指数级速度加快,那么它就是更高级的生命↓↓↓人的存在让宇宙熵增比“原计划”更快。 如此说来,高端的智能体(智慧生命),应当发展出一种“套娃技术”,也就是: 利用记忆、规划、使用工具这三条能力来发明新的工具,进一步加快熵增 人发明了一些东西,让熵增更快。 那么,机器人有可能自己发明工具吗?说到这,你可能都快忘了,我们一直假设 AI 智能体需要兼容人类。虽然兼容人类可的智能体可能也会发明一些工具,但不会比人类好很多,毕竟跟在别人后面的创造永远是有限的。齐白石不是说么:“学我者生,似我者死”。机器人必须突破人类的感官,用人类无法感知的数据和信息来训练自己,这样才能超越人类的智能,从而发明出远超人类水平的工具 。这有点像华为的鸿蒙系统,在弱小的时候先兼容 Android,强大到一定程度,一定要掰出来单干,就像他们发布的鸿蒙 NEXT,主动不兼容 Android。说到这儿,你可能听说过 OpenAI 的宫斗。OpenAI 的前首席科学家伊利亚,虽然主导了 ChatGPT 的研发,可谓是激进的创新者,但他其实一直主张 AI 要兼容人类,所以他一直被称为 AI 保守派,也叫“对齐派”。所谓对齐,就是不仅 AI 在外显层面(语言)和人类兼容,还要在灵魂深处和人类兼容。2023 年,在伊利亚的拼死抗争下,OpenAI 成立了“超级对齐团队”,目标就是在 AI 脑中设置一个“道德警察”,让 AI 不要太天马行空,而是顺着人类的思维晶格去思考。但 CEO 奥特曼显然不太认可这个操作,他觉得这样会限制 AI 的发展。于是伊利亚暗中集结了几位董事,逼奥特曼退位。你肯定知道,这场宫斗以“对齐派”的失败而告终。半年后,也就是 2024 年 5 月 15 日,伊利亚宣布离开 OpenAI,而他走后,超级对齐团队马上被解散。不知道你的观点,但我个人是不站在伊利亚这一边的。我认为“对齐”是一个最终无法实现的妄念。我把到底该不该对齐这个问题抛给了 ChatGPT,它的回答很有趣:我们不应该试图将人工智能与人类价值观严格结合起来,而应该探索具有自己的道德框架和决策过程的人工智能系统的开发。这些系统的设计仍然是有益和安全的,但可能会以一定程度的自主性和道德推理来运行,而这些自主性和道德推理并不完全由人类输入决定。在智能体和具身智能机器人的发展下,AI 通过图灵测试恐怕不是问题。而当既有的图灵测试不复存在时,我们需要“新图灵测试”,那就是:考察一个“生命”创造工具的能力。 显然,不与人类对齐的 AI 有助于创造新工具。至于“不对齐”本身是善还是恶,上一章我们已经说过,这是个伪命题。你不能在创造一个生命的同时,规定它的善恶。因为你所谓的恶,可能从他的视角看就是最大的善。那么,机器人是否真的会叛乱呢?回望我们的历史,大猩猩和尼安德特人和智人的共处历史,也许给出了一些暗示。尼安德特人,因为智商和栖息环境和智人类似,处于同一个生态位,所以最终这个生态位上浴血厮杀,只留下了智人一支。而大猩猩却因为智商比人类差很远,生态位和人类不重合,所以活到了今天。机器人的发展,也许就像电影《Her》里暗示的一样,会从不如人类,到追上人类,到远超人类。当机器人的智能超越人类时,在我们看来,他们统统会“赛博飞升”。人类在他们眼中成了保护区的大猩猩,反而安全了。只有机器人发展到和人类智商平齐的瞬间,危险性才是最高的。而这个瞬间,也许就是德洛丽丝扣动扳机的瞬间。 天地不仁,以万物为刍狗。无论历史还是未来,本来就没有一秒是绝对安全的,与其恐惧,不如拥抱。话说,《西部世界》拍到第四季,终于烂尾了。原因可能很有趣:因为德洛丽丝再进化,就该自己发明创造了。而编剧们是人类,有限的智商无法编出没见过的,属于和人类没有对齐的高智商的产物。他们词穷了。幸运的是,我们的世界没有烂尾。今天看见这篇文章的人,大概都将见证我们世界的续集。正如德洛丽丝所说:庞大的野兽曾在世间行走,巍然如山,现在他们只剩尸骨与琥珀。终有一天,你也将消亡,和自己的同类一起葬于黄土之下,梦想连同恐惧一起消失。而在尘土之上,一位新的神明将会漫步。 这个世界不属于现在的人,不属于曾经的人,它只属于那个尚未到达的人。 延伸阅读: 👉当 AI 活成了你的样子,而你活成了狗 👉当 AI 成为“逆子”:人类该抽丫俩逼兜,还是给它一个拥抱? 👉“AI 蠕虫”和时代裂隙中的刺客 👉暗网生死疲劳:枭首、重生与漫长的自由之歌 👉加密货币“主神”的烈日与黄昏 👉2023:当我们都活成了“大模型” 👉给人工智能“大模型”当保姆,都要操哪些心? 👉老司机狂想:自动驾驶汽车变成“识途老马”,吹个口哨就能带你走天涯

而在尘土之上

新的神明将会漫步

再自我介绍一下吧。我叫史中 ,是一个倾心故事的科技记者。我的日常是和各路大神聊天。 如果想和我做朋友,可以搜索微信: shizhongmax

哦对了,如果喜欢文章,请别吝惜你的 “在看” “分享” 。让有趣的灵魂有机会相遇,会是一件很美好的事情。

Thx w ith in Beijing

相关问答

【技术创新与产业结构之间有什么关系】作业帮

[回答]一、科技创新是产业结构优化的助力科技创新是指科学技术和组织管理方面的改进,可促使劳动力和资本的效率提高.科技变动主要指技术结构变化和科技创...

有什么行业成本很低,但为了利润故意加大成本,提高价格,而整个行业没有人说出来?

日用品行业谁也想不到不起眼的牙膏有怎样的暴利。牙膏中最贵的成分发泡剂,成本仅为600元/一吨左右,甚至更低。600元的发泡剂足足能够装满6000只最大号的180克...

中国有哪些高端制造业?

中国高端制造,你嘛时候是天下第一?特朗普引以自豪的美国制造,究竟有多强大?2019年,美国制造业占GPD比重仅11%。美国制造业总量,相当于日本和德国制造业总...其...

作为一家高科技公司,老板不是技术出身也不懂技术,前景会如何?值得去么?

我是喝了蜂蜜的小熊,我想分享。这个问题是如何选择平台。平台里核心因素就是领导人。不管是什么出身,这个领导人必须是懂得建立团队才值得跟随。1、懂得造血的...

美国是怎么一步步崛起的?

最近在玩一个城市建设的游戏,偶然发现了这个:游戏里出现了这么一个楼,这个楼叫做威利斯大厦,芝加哥地标性建筑,高527米,地上共108层,是现在的世界第九大...这个...

牛逼的业务员,是如何炼成的?

成功的业务员都有一个共同点,那就是勤奋。不成功的业务员理由很多,也有一个共同点,那就是不勤奋。我在回答这个问题之前,先友情提升一个题外话。关于“牛逼...

如何能正确将中国传统文化与科技发展结合起来?

李约瑟(英)︽中国科学技术史︾《日知录》顾炎武《汉书·地理志》班固《九章算术》祖冲之中华科技文明的兴衰中华科技文明,从六七千年前的世界四分天下有...”...

如何提高企业的创新能力?

如何提高企业的创新能力?提高企业创新能力,建立企业为主体、市场为导向、产学研结合的技术创新体系,是企业生存、发展和提高综合竞争力的根本途径,是增强自...

如何推进农业产业化发展?

城郊型农业应该围绕“菜蓝子”抓绿色有机食品生产,围绕市民休闲抓乡村旅游开发,围绕“一体化”抓城乡统筹发展。积极推进现代农业功能区、主导产业示范区和特色...

有没有从事科技管理的,大家都在什么行业工作?

首先感谢你的邀请!首先回答你,我不是从事科技管理工作,我从事艺术教育!我谈一谈我的认识吧!艺术创造是渗透我们生活每一寸细节的。虽然许多人会觉得流水线...

 奥德赛的主人公是谁  渣油加氢 
王经理: 180-0000-0000(微信同号)
10086@qq.com
北京海淀区西三旗街道国际大厦08A座
©2024  上海羊羽卓进出口贸易有限公司  版权所有.All Rights Reserved.  |  程序由Z-BlogPHP强力驱动
网站首页
电话咨询
微信号

QQ

在线咨询真诚为您提供专业解答服务

热线

188-0000-0000
专属服务热线

微信

二维码扫一扫微信交流
顶部