摘要:GPT,作为一个大型AI语言模型,火出了圈。这个参数量巨大的AI算法模型,可以完成一些复杂的语言类任务,如写作、对话、绘画、编程、高难度考试等等,以其惊艳表现让中产和准中产们瑟瑟发抖,真正感觉到“狼来了”。其实,在科学界,AI已经持续多年高...
GPT,作为一个大型AI语言模型,火出了圈。这个参数量巨大的AI算法模型,可以完成一些复杂的语言类任务,如写作、对话、绘画、编程、高难度考试等等,以其惊艳表现让中产和准中产们瑟瑟发抖,真正感觉到“狼来了”。
其实,在科学界,AI已经持续多年高热度。《科学》杂志公布的2022十大科学突破里,有创造力的人工智能赫然在列。但这回不同,AI小白们也都被GPT序列吸引,和ChatGPT玩得不亦乐乎。ChatGPT属于快餐式问典,提个问题,可以迅速得到似乎比自己所想更高明的答案,于是我们在惊叹的同时,油然而生一种无力感。上一回AI让人类喟叹,恐怕还是2016年AlphaGo击败李世石,而GPT的能力与当年的AlphaGo完全不在一个层次。AlphaGo那一轮AI热,带火的是概念和信心,这一轮AI技术才是真好用。AlphaGo擅长运算,但创造力很一般,GPT写诗作曲编程信手拈来,在注意力机制(Transformer)、扩散模型(Diffusion)等代表性的新算法能力上都超过了之前的卷积(CNN)、循环(GNN)、对抗(GAN)等神经网络,而且其新算法的潜力还远没有被充分开发,具有极大的成长性。
而当我们还沉湎在ChatGPT带来的快乐和忧伤中无法自拔时,GPT-4又来了。GPT-4是一个多模态大模型,不同于ChatGPT只支持文字输入,GPT-4支持多种信息输入方式,不仅可以聊天,还可以看图,如识别手绘代码草稿进而写出完整的代码。而且GPT-4聪明多了,以高难度的律师模拟考试为例,ChatGPT排名在倒数10%,GPT-4的排名则在前10%,短短几个月就从学渣变成了学霸。虽然GPT-4依然有一本正经胡说八道的毛病,但正如OpenAI一位联合创始人所言,GPT并不完美,但你也一样。据说GPT-5已经在路上,从2019年行业一线水平语言模型十亿量级的参数规模,到2020年GPT-3模型1750亿的参数规模,再到2022年的万亿参数模型,未来的GPT会是多么巨大的AI模型,会能干到什么程度,或许超出想象。
当然,训练GPT很贵也很难。首先需要大量的数据标注师,ChatGPT训练的三个阶段中,前两个阶段都需要大量的人工标注,为了过滤网上采集的数据中暴力、犯罪或者反人类的内容,得靠人手工标注。其次能耗高,维持ChatGPT日常运转一天的电费大约是5万美元,训练一次更需要消耗90多万度电,差不多是1200个中国人一年的生活用电量。最难的还是芯片。训练GPT3.5需要用英伟达的高端GPU芯片A100,一颗A100的成本约8万人民币,完成训练大概需要三万颗A100芯片,而当年AlphaGO的训练只用了176颗GPU。未来的GPT芯片用量依然会指数级增长,对训练用芯片性能的要求会越来越高。AI的尽头,其实还是半导体。如果中国不能突破芯片卡脖子的问题,被卡的又岂是半导体本身。而GPT确实不开源,并且暂不对中国内地用户开放。百度发布文心一言,勇敢,但还有明显差距,惟愿差距不要越来越大。
GPT的出现,告诉我们,很多职场人注重培养的技能,其实是最容易被机器替代的,而不容易被替代的,是常识和批判性思维的能力,而这需要我们时常对自己思考的方式进行更深入的反思。
GPT可以给我们答案,但是无法取代阅读和学习所带来的愉悦、悲伤、批判、联想、共鸣、疑惑、反思、自省、感悟、激励、启迪、审美、通透和荡气回肠。GPT是工具,而人不能只是一副纯然工具化的脸谱,人需要以内涵超越工具,以与他人的共情和同理相互联结,才能完成自我救赎。