GPT-3 里的大模型计算量是 Bert-base 的上千倍。统统这些都是在燃烧的金钱,真就是 all you need is money。如此巨大的模型造就了 GPT-3 在许多十分困难的 NLP 任务,诸如撰写人类难以判此外文章,甚至编写SQL查询语句,React或者JavaScript代码上优异的表示。
之前提到过,GPT-n 系列模型都是采用 decoder 进行训练的,它更加适合文本生成的形式。也就是,模型完全黑盒,输入是一句话,输出也是一句话。这就是对话模式。 对话
当然,完全不仅仅是法式界。据说 GPT-4 正在做图文理解,那么,对于教师、大夫、咨询师、等等等等,各行各业,是不是都是一个巨大的冲击?所谓专业范围的常识门槛,也将被模型一步踏平。仅仅留下那些具有高等常识程度的专家才有真正的价值。
有人讲 google 将被替代,我认为也就还好吧,没准,财大气粗的 google 此时此刻,他们的NLP+强化学习也已经在筹备的路上了。
如果感觉写得好,就存眷一下我的公众号 JioNLP,欢迎存眷。