
我,来自苏州,是一个热爱二次元的码农。
新博客,新起点
我只不过是一只普普通通的初中牲罢了
那么,让我来介绍一下这个博(垃)客(圾)
硬件配置:
托管于雨云
--------只要雨云一天不倒,我的博客就一天不倒!
软件配置:
博客平台 | 基于 | 域名 |
---|---|---|
VuePress | NodeJs+Pnpm+VSCode+CMD | 阿里云,两年只要70元 |
2024/6/17...小于 1 分钟
我,来自苏州,是一个热爱二次元的码农。
我只不过是一只普普通通的初中牲罢了
硬件配置:
托管于雨云
--------只要雨云一天不倒,我的博客就一天不倒!
软件配置:
博客平台 | 基于 | 域名 |
---|---|---|
VuePress | NodeJs+Pnpm+VSCode+CMD | 阿里云,两年只要70元 |
当然,也有不少厂商是基于 LLaMA 爆改的,或者叫套壳,不是真正意义上的自研大模型。
ChatGLM-6B 和 LLaMA2 是目前开源项目比较热的两个,早在 2023 年年初,国内刚兴起大模型热潮时,智谱 AI 就开源了 ChatGLM-6B,当然 130B 也可以拿过来跑,只不过模型太大,需要比较多的显卡,所以很多人就部署 6B 试玩。
从长远看,信创大潮下,国产大模型肯定是首选,企业布局 AI 大模型,要么选择 MaaS 服务,调用大厂大模型 API,要么选择开源大模型,自己微调、部署,为上层应用提供服务。使用 MaaS 服务会面临数据安全问题,所以一般企业会选择私有化部署 + 公有云 MaaS 混合的方式来架构。在国产厂商里面,光从技术角度讲,我认为智谱 AI 是国内大模型研发水平最高的厂商,这也是我选择 ChatGLM-6B 的原因。
又是新的一年,博客也没什么好说的,就浅浅祝福一下
• 利用 中括号 表示列表 • 列表内的元素用 逗号 隔开 • 注意是 英文输入法 下的逗号
s1=['lilei',18,'c1',201901]
s2=['hmm',19,'c2',201902]
print(s1)
print(s2)
#output
['lilei', 18, 'c1', 201901]
['hmm', 19, 'c2', 201902]