AIGC爆火的背后,我们更需要算力“新基建”

如果你是一名科技迷兼玩家,那么你一定听说过《骑马与砍杀2》最近出现的NPC对话MOD,在它的加持下,NPC不再是只会重复“直到我的膝盖中了一箭”的复读机,也跳出了靠预置选项交互的限制,而是与活人一般与玩家输入的文本实时交流,甚至还注意到了人物身份而使用了敬语。


在MOD的加持下,原本只是“工具人”的各色NPC不仅拥有了姓名,还自动生成了符合游戏和个人设定的履历及开放式对话。



赋予NPC灵魂的神奇MOD背后,是OpenAI最新推出的人工智能聊天机器人——ChatGPT(Chat Generative Pre-trained Transformer,聊天生成型预训练变换模型),这款推出两个月即达到1亿用户量的应用,已经创下了用户增长最快的世界纪录。

除了可以透过人类自然对话方式进行交互,ChatGPT还可以用于相对复杂的语言工作,包括(剧本、歌词、企划等)自动文本生成、自动问答、自动摘要等在内的多种任务,甚至可以写出相似于真人程度的文章,或帮助程序员编写程序。


如果你对游戏和聊天都不感兴趣,那么作为一名LSP,你一定也看过下面这类神秘“小姐姐”的靓照。



是的,它们也都是AI自动生成的产物。

2022年,被称为AIGC元年。顾名思义,AIGC(AI-generated content)区别于传统的UGC(User-generated content用户生产内容)、PGC(Professional-generated content专家生产内容)、OGC(Occupationally-generated Content职业生产内容),将内容生产的工作交给AI,让它们在模型和算法的引领下替人舞文弄墨、妙笔生花,甚至是制造以假乱真的视频。

从2022年9月AI绘画爆火,到11月30日OpenAI正式发布ChatGPT,AIGC的强大正掀起一场新的科技革命。


无论是堪称通过图灵测试的ChatGPT,还是以假乱真的AI绘画,其背后均离不开算法与模型。2014年,人工智能专家Ian Goodfellow以CNN(Convolutional Neural Networks深度卷积神经网络)为基础,创造性地令两组神经网络产生对抗:生成网络产生“假”数据,并试图欺骗判别网络;判别网络对生成数据进行真伪鉴别,试图正确识别所有“假”数据。在两者的对抗中,强大的“造假能力”逐渐演化出来,并用于图像合成等场景。

这便是GAN(Generative Adversarial Network生成式对抗网络)诞生的故事,作为21世纪最强大的算法模型之一,GAN从2015年起被投入实际应用中。同一年,OpenAI在美国硅谷诞生,并向AGI(Artificial General Intelligence通用人工智能)研究发力,致力于让AI成为改变人类生活的新技术。


和AlphaGo、智能驾驶等决策式AI所不同的是,AIGC又被称为“生成式AI”,它所擅长的是根据已有条件进行缝合式创作、模仿式创新,堪称究极“缝合怪”。它的诞生与进化,离不开大模型的突破;而大模型的突破,又堪称“大力出奇迹”的典范。

简而言之,如果将AI看作不谙世事的婴儿,让它认识世界的过程,就是不断将样本打上标签后让其记忆的过程。AI发展早期,所有的样本标签都需要人工标注,再喂给AI学习,效率低下不说,还无法处理复杂情况。


随着Transformer架构的诞生与发展,NLP(Natural Language Processing自然语言处理)有了长足进步。基于Transformer架构的GPT系列等预训练模型,从需要人工标注数据迈向无监督学习,逐步替代了GAN等模型。

有了高效算法和强大算力的支持,AI能处理的样本数量及难度指数型上升,进入无需人工干预的时代,而样本参数量达到一定量级产生质变后,具备高度泛用性的大模型便应运而生,并进一步反哺样本的采集和分析,达到自我进化。


问渠哪得清如许,为有源头活水来。大模型的建立与大量数据的训练学习,在AI进化之路上相辅相成,缺一不可。如果把AI模型比作人的大脑,那参数就相当于大脑中神经元的数量。伴随着“神经元”数量平均每3、4个月倍增一次的增长速度而来的,则是同样水涨船高的训练成本。

据OpenAI测算,自2012年起,全球头部AI模型训练算力需求每3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍,而ChatGPT训练阶段总算力消耗约为3640 PF-days(以每秒计算一千万亿次为标准,一共需要计算3640天)。

公开信息显示,2018年6月,OpenAI发布的首代GPT参数量仅为1.17亿个,而ChatGPT背后的GPT-3.5模型已增加至1750亿个参数,多过人脑拥有的860亿个神经元数目,预训练数据量也从5GiB增加到45TiB。

2023年2月20日,复旦大学自然语言处理实验室发布了中国首个类ChatGPT模型MOSS,发布当晚因为流量过大一度瘫痪。复旦科研团队坦承,“MOSS的英文回答水平比中文高,因为它的模型基座学习了3000多亿个英文单词,中文词语只学了约300亿个。”


目前,MOSS的最大短板是中文水平不够高,主要原因是互联网上中文网页干扰信息如广告很多,清洗难度很大。为此,复旦大学自然语言处理实验室正在加紧推进中文语料的清洗工作,并将清洗后的高质量中文语料用于下一阶段模型训练。复旦科研团队相信,这将有效提升模型的中文对话能力。


如此庞大的模型背后,投入的运营资金自然是天文数字。正如前面所提到的,AI模型的每一次训练,都需要输入极其庞大的样本数据,AI进入无监督学习时代后,所需样本更是如恒河沙数。半导体产业分析机构SemiAnalysis估算,应用ChatGPT的一次性训练费用约为8.4亿美元,每天的硬件维护费为69.4万美元,每次对话费用为0.36美分。按此估算,ChatGPT一亿的月活用户每个月只做一次对话,每月也至少需要5682万美元(约合3.86亿元人民币)的维护费。


AI训练的费用之所以如此高昂,与其所需的GPU算力密不可分。2023年2月12日,国盛证券在报告《ChatGPT 需要多少算力》 中,以当年1月平均每天约有1300万独立访客使用ChatGPT进行估算,得出所需的英伟达A100 GPU需求为3万多片,仅初始投入成本就约为8亿美元,每日电费在5万美元左右,而这只是AI所需算力的九牛一毛。

随着国内外厂商相继入局研发AI大模型,对算力的需求只会水涨船高,同时,由于A100芯片在国内被禁售,研发难度更是大幅度提升。

AI爆炸式发展的当下,如何把握先机?云算力共享平台——深脑链(DeepBrainChain)给出了一个可能的答案:基于区块链技术构建分布式网络,将散落闲置的GPU算力汇聚起来,令星星之火成燎原之势。

说起深脑链(DBC)的运作逻辑,或许可以追溯到起源于1999年的SETI@home(Search for Extraterrestrial Intelligence at home,在家探索外星文明)项目,由美国加州伯克利大学发起的该项目,旨在利用参与者的闲置算力,分析射电望远镜在扫描宇宙时收集到的信号,以寻找地外生命,可谓算力“众筹”的滥觞。


恪于“黑暗森林”法则,或许我们穷其一生都无法与外星人有真正的接触,但若将分布式计算与区块链相结合,辅以推动人类长足进步的美好愿景,深脑链(DBC)便应运而生。

具体运作上,深脑链(DBC)首先解决的是算力问题,通过区块链挖矿机制,深脑链的矿工因为挖矿利益而保持在线,持续提供AI有效算力,并累积形成一个庞大的算力池。

此时,AI企业可以支付DBC也就是深脑币,租用算力来验证算法,训练模型。对于算力需求者而言,比起自行高价采购硬件,租用GPU服务器拥有不可比拟的优势:一是按需使用,性价比高;二是云平台带来的高可迁移性,只要能上网就能顺利使用。

与此同时,深脑链(DBC)还设计了一系列安全交易产品,利用区块链的公开性、可追溯性和不可逆改这三大特性,分离数据拥有权和使用权,保护AI训练时的数据隐私,也解决了AI产业的买卖信任问题。同时,深脑链的去中心化特性也保证了系统的安全。它通过将计算能力分散到网络中的许多节点,避免了对单一中心的依赖,实现了更高的安全性和可靠性。



此外,深脑链(DBC)不仅提供了高效的算力资源,还为开发者提供了一个完整的开发环境,方便开发人员快速部署和扩展应用。

基于种种优势,目前深脑链(DBC)已广泛运用于人工智能、无人驾驶、云游戏、视觉渲染、生物制药等各种场景。


如果说,挖取比特币(BTC)、莱特币(LTC)等加密数字货币的行为,是“为了挖矿而挖矿”,在“利己”的基础上“顺便”帮助维护这一全球性支付网络;那么参与深脑链(DBC)云GPU算力平台,则更多地带上“利他”的属性。换句话说,参与者得到的不再是饱受争议甚至遭部分国家强力封禁的虚拟货币,更是在真切帮助世界进步。

人工智能技术已经进入普适时代,很多事情都可以由人工智能代替人类来完成,大大提高生产力。正如深脑链(DBC)在其愿景中所描绘的一样,站在未来的基点上,构建一个无限可扩展的高性能分布式算力网络,将成为AI+元宇宙时代最重要的计算基础设施。而对于算力“新基建”的前瞻性投入,也将助力参与者在AI新纪元占得先机。

举报
评论 0