寡欲则宽 发表于 2024-7-15 17:47:25

ChatGPT最强竞争对手重磅升级,免费可用!第一手实测在此

本文来自微信公众号“量子位”,作者:房屋 克雷西

在OpenAI祭出GPT-4的API和“最强插件”代码解释器后,竞争对手显然坐不住了。
就在方才,Anthropic旗下Claude发布第二代——没错,就是被外界评价为GPT-4最强竞品的那一个。
浅划一下此次更新动作的重点:
免费,不用排队,本身用邮箱注册即可登陆。
科技大佬们打起来真是妙啊,妈妈再也不用担忧ChatGPT/GPT-4将我拒之门外后,打工或写作业时没有AI用了!



英伟达AI高级科学家Jim Fan火速尝鲜,并在推特上分享了本身的Claude2用户体验。



关于Jim Fan老师谈到的Things you should know,量子位挑了些重点:

[*]免费使用!
[*]Claude2(100K 上下文)比GPT-4-4K便宜了4-5倍。
[*]实际可以撑持20万token上下文,约15万个单词,输入一本书不在话下;不外此刻只开放了10万token长度。
[*]常识更新鲜,常识截止时间是2023年初,而GPT-4停在2021年9月;
[*]可以将多个文档导入后,询问文档之间概念的关系,撑持txt、pdf多种格式(ChatPDF之类的应用,危


[*]代码、小学数学能力,比初代Claude有所进步。



国内AI博主海辛也在微博上惊讶连连。
因为上传本身的简历后,Claude2分析出了她的MBTI人格:



除了他们,第一波冲进网页体验Claude2的网友们已经在激情分享了本身的体验感:
不错子,和GPT-4-32k比,Claude2的回答更个性化~



于是乎,量子位先冲了一波网页对话,来看我们的人肉测验——
咦,Claude更新了?注册一个尝尝

首先奉上最有节目效果的弱智吧Benchmark,给读者伴侣们开开胃。
问的问题无外乎弱智吧的典中典,譬如“咖啡算不算豆乳”“数据线可不成以暂存数据”之类的。






看到Claude2一本正经地回答弱智吧问题,就会发现AI还是太纯挚了,看不出人类的小心机。
不外正经地看,这些回答倒也没短处。
上面的两个问题算Claude2顺利过关,那么如果提问一些更无厘头的问题呢?
问,玉皇大帝到底住在九重天的哪一层?
答,从安身点来看,玉皇大帝地址的天庭,应该处于平流层,因为“这更符合天庭圣洁的定位”。



当然,没有人能评判这个回答到底对还是错,但至少Claude2的这一通分析,还算有理有据。



开胃小菜就展示到这里,下面上正餐!
长文档是本次更新的一大亮点,这一点已经被推特网友们惊呼鹅妹子嘤了。
比如上传两个pdf,可以看到,Claude2可以从两个pdf文档中做出摘要,这两个文档一个关于“语言流变模式”,一个关于“对称性”,而且将文档内容分点列在对话框中:



此前,量子位就出过让初代Cladue-100k版本在20秒速通92页论文的攻略。
不只是较大的文档,按照Claude2开放的10万token的上下文来看,一次性上传一本书让它读,也是小菜一碟。
对普通用户来说,此刻不仅能够上传长文档,还可以用上传的文件构建本身的常识库,对Claude翻阅文档后进行回答,真的长短常实用。
以至于内心呈现一个疑问,会不会在ChatGPT摊薄Jasper、Notion等公司的蛋糕后,Claude也要对ChatPDF类东西下手了?
最后,我们为大师奉上今天的餐后甜点:让Claude2来写个法式尝尝。
为了考验Claude设计算法的能力,我们选择了一种古典暗码,让它试着写个解密法式出来。
这种暗码叫做维吉尼亚暗码,可以理解成二维的凯撒(位移)暗码,此中包罗密钥。



举个例子说明一下它的算法:
假如明文是B,密钥是C,B是字母表中第二个,那么从C开始数的第二个字母D就是密文。
如果数到了Z,就从头从A开始接着数,密钥长度不足时则进行循环。
解密自然就是把加密过程倒过来。
Claude输出了这样的代码(C++,下同):
#include <iostream>
#include <string>

using namespace std;

string decryptVigenere(string ciphertext, string keyword) {

string plaintext;

int keywordIndex = 0;

for (int i = 0; i < ciphertext.length(); i++) {

    int p = (ciphertext - &#39;A&#39;) - (keyword - &#39;A&#39;);

    p = (p + 26) % 26;

    plaintext += (char)(p + &#39;A&#39;);

    keywordIndex = (keywordIndex + 1) % keyword.length();

}

return plaintext;

}

int main() {

string ciphertext;
cout << ”请输入密文:”;
cin >> ciphertext;

string keyword;
cout << ”请输入密钥:”;
cin >> keyword;

string plaintext = decryptVigenere(ciphertext, keyword);

cout << ”明文是:” << plaintext << endl;

return 0;

}
我们把“CHATGPT”用密钥“CLAUDE”进行了加密,密文是“ESANJTV”,并测验考试用Claude给出的法式解密。
一次就成功了,看来Claude的代码能力的确没让我们掉望。



这个问题可能有些简单,我们再加大难度尝尝。
我们试着从LeetCode中找了一道中等难度的问题,人类解这道题的通过率概略是60%。
给定一个长度为n的整数数组 height 。有 n 条竖直的线,第 i 条线的两个端点是 (i, 0) 和 (i, height) 。找出此中的两条线,使得它们与 x 轴共同构成的容器可以容纳最多的水(容器不能倾斜)。返回容器可以储存的最大水量。
这样说可能不那么容易想象,下面的这张图或许更加直不雅观:



原题中给出的示例一共有9条线,高度分袂为“1,8,6,2,5,4,8,3,7”,相应的最大水量是49。
我们给Claude2的Promot是酱婶儿的:
写一个C++法式解决这个问题,不要本身设定初始值,让用户输入:(接上面的问题)
Claude2给出了这样的答案:
#include <iostream>
#include <vector>

using namespace std;

int maxArea(vector<int>& height) {
int max_area = 0;
int n = height.size();
for (int i = 0; i < n; i++) {
    for (int j = i + 1; j < n; j++) {
      int width = j - i;
      int h = min(height, height);
      max_area = max(max_area, width * h);
    }
}
return max_area;
}

int main() {

vector<int> height;
int input;

cout << ”请输入一系列整数:” << endl;

while(cin >> input) {
    height.push_back(input);
}

cout << ”最大面积为: ” << maxArea(height) << endl;

return 0;
}
}
我们没让Claude2专门调整输入和输出格式,所以没有提交给LeetCode,而是直接运行的。
用的数据也是上面提到的,成果表白,Claude2给出的代码至少在核心算法上是正确的。
(下图输入中的a是告诉CPU这一系列整数输入完了,可以替换成任意非数字字符)



看来这个问题也没能难倒Claude2。
除了代码,Claude2据称还拥有小学级此外数学程度。
那就趁便用经典的鸡兔同笼问题考一考它(这道题是ChatGPT出的):



反复测验考试了很多次,虽然方程式列得没有问题,但Claude2解出的答案都是20(正确答案应该是40)。
看来计算这种事,对Claude2来说还是有点困难。
有关此次更新的更多信息,可以看下Anthropic的宣传片:
与OpenAI“撕”出来的AI公司

见识过Claude2的表示后,那就不得不提一下背后的公司Anthropic,毕竟真的有点意思。
Anthropic自称是一家AI安全公司,且具有公益性(PBC)。
眼下,它和OpenAI同样将重心放在生成式AI上。1月份,公司在市场上已经有50亿美元估值。
Anthropic由OpenAI前研究副总裁Dario Amodei带领10名员工创业,于2021年成立。



这里面既有GPT-3首席工程师Tom Brown,也有OpenAI安全和政策副总裁Daniela Amodei(Dario的姐姐),可以说是带走了相当一批核心人才。
出走成立新公司的原因之一,自然是对OpenAI现状并不对劲。
畴前几年开始,微软频频给OpenAI注资,随后又要求他们使用Azure超算来搞研究,而且将技术授权给微软,甚至为微软本身的投资活动筹集资金。
这与OpenAI创立的初衷相悖,一批员工便想到了离职创业。
当然,还有一部门原因是这群人想做能控制、可解释的AI,说白了就是先搞大白AI模型背后的道理,从而在提供东西的同时设计更多可解释的AI模型。
于是,在OpenAI彻底变成“微软揽钱机器”后,他们便从这家公司分开,创办了Anthropic。



现如今,微软真的和OpenAI有了“深度绑定”的味道。
然而既狗血又八卦味十足的事情是,本年2月,谷歌CEO劈柴哥重磅颁布发表,斥资3亿美元,投的就是Anthropic。
之所以被外界抱以厚望,称号Claude2为GPT-4最强竞品,不仅仅是因为Claude实测下来体验确实位于第一梯队,还因为背后实力强大的“爸爸们”:
本年5月,该公司暗示筹集了4.5亿美元,使Anthropic筹集的资金总额超过10亿美元。
在谷歌入股之前,Anthropic就已经获得了多位大佬的投资,如Skype创始人Jaan Tallinn,Facebook联创Dustin Moskovitz,谷歌前CEO、现技术参谋Eric Schmidt等人。
此刻,合作伙伴列表里除了Zoom和Notion.AI,还多了Jasper.AI的名字。



不仅如此,公司核心技术Constitution AI也备受瞩目。
它主要围绕“语言模型如何决定它将涉及哪些问题以及它认为哪些问题不合适?为什么它会鼓励一些步履而阻止另一些步履?语言模型可能具有哪些价值?”展开。
为了解决上述问题,它让AI尽可能遵循很多原则。
原则条目有很多,包罗联合国宣言、Anthropic从研究中本身发现的原则,DeepMind在Sparrow研究中提出的原则,甚至还借鉴了苹果的处事条款。
而且是通过AI反馈的方式,来评估输出,应对目前AI的错误谬误。具体表此刻AI训练过程中,分为两个阶段:
第一阶段,模型被训练使用一套原则和一些过程的例子,来评估和改削本身的反映;
第二阶段,模型通过强化学习进行训练,使用基于原则集的AI生成的反馈来选择和输出更无害的内容。



这一点与ChatGPT的的杀手锏RLHF(人类反馈强化学习)大相径庭,而Anthropic给出的解释是:
基于Constitution AI的强化学习,比从RLHF中强化学习得出的生成内容,更有用,且更无害。
而且,还更容易规模化。
在这套Constitution AI,迭代到2.0的Claude,确实在导入文件、上下文窗口理解等功能方面,比GPT-4更引人注目。
不外也不是完美的,比如GRE测验成就上,Claude2就5局3败,输给了GPT-4。
但不成否认,巨佬们在AI方面你追我赶的场所排场,让本普通用户切切实实感到感染了一波渔翁得利的快乐,嘻嘻嘻(狗头)。
页: [1]
查看完整版本: ChatGPT最强竞争对手重磅升级,免费可用!第一手实测在此