找回密码
 立即注册
查看: 564|回复: 5

如何对GPT-3.5、GPT-4、Bard、文心一言、通义千问的程度 ...

[复制链接]

2

主题

0

回帖

24

积分

新手上路

积分
24
发表于 2023-6-13 15:12:30 | 显示全部楼层 |阅读模式
截至2023年4月9日,GPT-4应该是堆集最为雄厚,成长最为迅速的ai大语言模型,那么其他大语言模型之间的实力斗劲是怎样的?请使用过此中产物的人对产物实力进行排序,并给出你的理由。如果可以的话,请简要说明一下分歧模型的技术道理和技术实现。
回复

使用道具 举报

0

主题

4

回帖

12

积分

新手上路

积分
12
发表于 2023-6-13 15:12:37 | 显示全部楼层
几年前我一直被谷歌的bert带沟里,一直在潜水研究bert.....直到chatgpt打了全体地球人的脸,我才开始研究gpt...
我手头有不少逻辑题,能一定程度上测试出模型的推理能力。

我认为有了推理能力,模型才能比较正确的根据自己知识回答用户的各种问题。推理能力差,大部分回答会比较梦幻。。。所以我很看重推理能力。
本次未测试高难度题,只测试简单和中等难度逻辑题。
下边是我测试了一些模型的推理能力(2023年4月-5月测试),基准得分用的是chatgpt网页版。测试环境在各自的母语下。比如llama系列是英文的测试。

本次测试仅仅对于逻辑题的逻辑能力测试,且都是zero shot,单轮对话,没有任何prompt参与,直接问他考题。如果启用高级框架,比如prompt优化,cot,autocot,autogpt,tot这些新一代框架,得分高的模型会更更更好。
打分的数值会由于我的主观估算有一些误差,但是由于每次测试是同一道题横向对比,所以模型的差距清晰可见,所以几乎不存在排名的先后错误,排名次序已经明确说明了模型推理能力的差距。

测试结果(结合测试结果大致打分):
claude     108
chatgpt官方网页版   100
讯飞星火  93
llama 65b (未做测试  但是微调过的版本得分肯定大于90)
openassistant llama 30b gptq4bit  128g   90
vicuna 13b 8bit  86
alpaca 30b gptq4bit 128g 79
bard  75   
vicuna 13b  gptq4bit 128g 65
alpaca 7b 50
chinese alpaca plus 7b   58
glm 6b  50
文心一言 35


结论
个人电脑中离线版开源模型首选:openassistant llama 30b gptq4 128g  这个版本,推理非常ok.
个人电脑首选离线翻译模型:
chinese alpaca plus7b 。他的翻译效果能达到chatgpt的90%
联网模型首推claude.  推理,  翻译,总结,  样样领先。还免费。且国内网络可用。
文心一言拉胯的要死。。。实测推理能力太差
看到有人回答文新得分比gpt4还要高,我吐了一地。。。。什么鬼?
个人测试,仅供参考。
回复

使用道具 举报

0

主题

2

回帖

17

积分

新手上路

积分
17
发表于 2023-6-13 15:13:17 | 显示全部楼层
文心一言和通义千问没用过。我可以排一下我长期使用过的。
GPT 4 最牛逼,也是我现在日常使用的。
Claude+ 我付费使用过一段时间。你可以把它看成在写文章方面比GPT 4强的偏文科的AI,但总体上比GPT 4差很多。但比GPT 3.5强。
GPT 3.5网页版我几乎不用了,最多也就当个快捷版的google,问一些简单问题。但我用gpt-3.5的api来使用我日常各种的各种小工具。用于代码解释,润色英文之类。
Slack里带的那个Claude比Claude+差不少,也比GPT 3.5略弱。在写文章方面略有优势。
Bard最弱。试过几次,跟其余的差距明显。
总结就是GPT 4  >>  Claude+ > GPT 3.5 > Claude(Slack) >> Bard
回复

使用道具 举报

0

主题

6

回帖

11

积分

新手上路

积分
11
发表于 2023-6-13 15:14:11 | 显示全部楼层
深度学习与NLP2023-04-18 08:02:32发表于北京手机阅读




来源: CSDN  微信号:CSDNnews
自去年 11 月 ChatGPT 面向公众测试以来,OpenAI 一直占据各大科技网站的头版头条,以及成为很多开发者工具的首选。ChatGPT 的落地不仅仅可以提供代码建议、总结长文本、回答问题等等,更为重要的是它开启了 AIGC 的新时代。
不过由于 OpenAI 不再 Open 的问题,该工具在备受好评的路上也备受争议。在此背景下,一批批开源实践者在大模型维度开始了多种尝试,意欲复刻一个 ChatGPT,OpenAssistant 便是参与竞争的开源产品之一。
Open Assistant 机器学习模型是由一家德国非营利组织 LAION 运营。近日,该组织官宣现在可以使用 OpenAssistant 模型、训练数据和代码,并将该模型称之为「全球最大的 ChatGPT 开源复制品」,试用地址:https://open-assistant.io




让人人都能通过开源的方式,用上会话 AI,已成为了现实,这也让 Open-Assistant(https://github.com/LAION-AI/Open-Assistant)在众多开源项目中脱颖而出,截至目前,收获了 24.1k 个 Star,Fork 数达 1.9k。









世界上最大的 ChatGPT 开源平替——Open Assistant

OpenAssistant 项目开始于 2022 年 12 月,彼时就是在 OpenAI 发布 ChatGPT 之后不久后。
“我们不会止步于复制 ChatGPT。我们希望构建未来的助手,不仅能够编写电子邮件和求职信,还能做有意义的工作、使用 API、动态研究信息等等,并且能够由任何人进行个性化和扩展。我们希望以一种开放和可访问的方式来做到这一点,这意味着我们不仅要构建一个出色的助手,还要使其足够小和高效以在消费类硬件上运行”,OpenAssistant 项目维护者在其 GitHub 页面上写道。
简单来看,Open Assistant 的目标是创建一个和 ChatGPT 具有相同能力的开源人工智能助手。项目维护者认为,通过这个项目,他们可以改进语言本身,类似于稳定地传播如何创造新的艺术和图像。

为此,该团队花了近五个月的时间,在 13500 多名志愿者的帮助下,收集了一个 "由人类生成的、由人类注释的助理式对话语料库,包括分布在 66497 个会话树上的 161,443 条信息,使用 35 种不同的语言,有 461,292 个质量等级的注释"。

在 Open Assistant 研究团队来看,AI 发展的未来在很大程度上取决于公开可用的高质量数据集和模型,而这正是该项目所做的。也就是在当下,他们终于可以对外公开这个非常强大的模型,现在可以在以下网址试用:http://open-assistant.io/chat
在发布使用链接之际, Open Assistant 研究团队还发布了一篇《OpenAssistant Conversations - Democratizing Large Language Model Alignment》的论文,分享了该语料库诞生的技术应用,以及与 ChatGPT 的比较。







OpenAssistant Conversation 语料库,支持 35 种语言

正如上文所述,该语料库是一个全球众包努力的产物,有超过 13,500 名志愿者参与。根据论文介绍,它的基本数据结构是一个会话树(Conversation Tree,CT),节点代表对话中的消息。一个 CT 的根节点代表一个初始提示,由提示者给出。为了避免混淆,研究人员把对话的角色称为提示者和助手。




这些数据是通过一个 Web 应用程序界面收集的,该界面通过将整个流程分为五个独立的步骤来完成:提示、标记提示、作为提示者或助手添加回复信息、标记回复、以及对助手的回复进行排名。




这个数据集主要以英语和西班牙语为主。根据论文介绍,英语占比较重符合预期,因为围绕 OpenAssistant 的社区起源于讲英语的开源机器学习社区。中文在此语料库中占比 2.5%。





为了证明 OpenAssistant Conversation 数据集的有效性,该研究团队提出了OpenAssistant 是第一个在人类数据上训练的完全开源的大规模指令调整模型的概念。
与此同时,该研究团队使用收集到的数据专注于 Meta 的 LLaMA 模型和 EleutherAI 的 Pyhtia 模型的微调语言模型研究。
其中,Pythia 是一个最先进的语言模型,具有宽松的开源许可,而 LLaMA 是一个强大的语言模型,具有定制的非商业许可。
对此,研究团队发布了一套微调的语言模型,包括指令调整的 Pythia-12B、LLaMA-13B 和 LLaMA-30B。
值得注意的是,最大的变体基于具有 300 亿个参数的 LLaMA 模型,这是他们迄今最大的模型。与 Alpaca 或 Vicuna 一样,这些模型是“指令调整”的,并且没有通过人类反馈强化学习 (RLHF) 进一步改进。
为了评估这些模型的性能,研究人员将重心放在了评估 Pythia-12B 模型的性能上,因为它具有开源的属性,使得它可以被广泛使用并适用于不同的应用。
研究人员还将其输出与 OpenAl 的 gpt-3.5-turbo(ChatGPT) 模型进行比较。
截至发稿时,这项研究已经获得了 348 份提交的资料,总共有 7042 项比较,结果发现:Pythia-12B 对 gpt-3.5-turbo 的胜率为 48.3%。
这一结果意味着 Pythia-12B 产生的答案与 gpt-3.5-turbo 产生的答案一样有 93.5% 的可取性,表明该研究团队微调的 Pythia 模型在大规模语言模型领域是一个强有力的竞争者。
除此之外,研究者还发布了基于 Pythia-1.4B 和 Pythia-12B 的经过训练的奖励模型。
在论文中,该团队还透露,使用谷歌搜索等插件的初步实验已经在进行中。该团队还计划在未来用 RLHF 训练和发布一个L LaMA-30B 模型。





上手实测

当前所有模型都可以通过 Web 界面(https://open-assistant.io/chat)进行试用,对话也可以在其中进行评估并用于进一步改进模型。
简单上手一波:
介绍一下自己
这对于 OpenAssistant 而言,实属小意思。不过根据模型的属性,中文提问,是英文回答:





当问及自身的优势时,OpenAssistant 回应道,也可谓是主观且不谦虚:
我是一个大型语言模型,有能力从外部来源检索信息,使我能够提供更具体和准确的答案。此外,我已经在不同的互联网文本上接受了训练,并且拥有超出自然语言处理的许多领域的知识,而 GPT 主要是在人类生成的文本上接受训练。我还可以同时处理多个输入,生成与每个提示相关的内容,而 ChatGPT 只能根据整个对话历史,一次生成一个输出。最终,我的能力可能被认为是优越的,但这是主观的。




写代码的能力
生成一段代码片段试试。通过下列片段不难看出,OpenAssistant 既能生成代码片段,也会直接进行解释,让程序员小白也能看懂代码的具体内容。




讲个“鳄鱼”和猴子的童话故事
当给一个索引,OpenAssistant 可以生成一大段故事内容:
很久以前,有一只名叫 Maxi 的调皮猴子,他最喜欢的就是制造麻烦。他在树上荡来荡去,越爬越高,总是在寻找新的东西来捣乱。有一天,他来到了一个美丽的池塘边,池塘里有一群鱼儿在快乐地游动。但其中有一条巨大的鲤鱼,叫 Big Mama,她用铁鳍统治着其他鱼。没有鱼敢越过她或不服从她的命令....
有些偏差的是,这里的鳄鱼直接被叫做了 giant carp(巨暹罗鲤,现存鲤科鱼类中个体最大的品种),和我们理解中的鳄鱼还是有很大差别的。




计算能力
计算能力也还是不错的:







OpenAssistant 的局限性

不过,该模型也有一定的局限性。根据该论文显示,研究团队称,收集的训练数据大多是由男性注释者贡献的,年龄中位数为 26 岁。论文表示,「这种人口统计学特征可能会无意中在数据集中引入偏见,因为它必然会反映注释者的价值观、观点和兴趣。」
不过,该团队还采取了措施来检测和删除数据集中的有害信息,但该系统并非无懈可击。"鉴于以上讨论的局限性,我们主张只在学术研究背景下使用我们的 LLM,"该论文说,"我们强烈鼓励研究人员在下游任务中采用这些模型之前彻底调查其安全性和偏差。重要的是要认识到,发布的模型可能表现出不安全的行为,并且很可能容易受到注入攻击"。
整体而言,在用不了 OpenAI 的 API 或者 plus 时,使用开源的 OpenAssistant 确实可以作为平替。对此,也有不少网友纷纷表示:
这是一个激动人心的事件。我正在停止我的 chatgpt 订阅。希望有一种简单的方法可以将我的 chatgpt 实验 (50+) 复制到 Google 文档或直接复制到 OpenAssistant,这样我就可以试用它们,看看它们是否也适用于 OA( OpenAssistant)。
这是阻止我立即取消我的 chatgpt+ 订阅的唯一想法。
我想知道是否可以为 OA 创建一个插件来做到这一点。我想很多人都会喜欢它。
对此,你怎么看呢?

相关阅读:
论文:https://drive.google.com/file/d/10iR5hKwFqAKhL3umx8muOWSRm7hs5FqX/view
试用地址:https://open-assistant.io/chat/
GitHub 地址:https://github.com/LAION-AI/Open-Assistant

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

0

主题

6

回帖

14

积分

新手上路

积分
14
发表于 2023-6-13 15:14:40 | 显示全部楼层
我第一时间拿到了通义千问的邀请码,马上进行了测评。就一个问题:我是特斯拉车主,我要从深圳南山出发去贵阳市,全部行程6天,帮我规划一个自驾游行程。
这里面有几个关键或者隐藏的事项:
1、从深圳南山出发到贵阳,还有从贵阳返回深圳南山;
2、累计6天,是需要包括往返的路上的时间的;
3、特斯拉是需要充电的;  
4、开车4小时需要休息、晚上需要休息;
5、可能涉及过路费等;
由:ChatGPT、阿里通义千问、百度文心一言、Notion AI,4个大模型依次来回答。我们看回答,先看祖师爷ChatGPT的,再看惨不忍睹的打酱油的。蓝色部分是回答,红色部分是我的点评。




一、ChatGPT

以下是一个为期6天的从深圳南山到贵阳市的自驾游行程规划,并在第6天返回深圳:
第1天:深圳南山 - 韶关。从深圳南山出发,沿着G15沈海高速向北行驶约300公里,抵达韶关市。在韶关市游览丹霞山地质公园,欣赏独特的红砂岩地貌。晚上在韶关市住宿。【从韶关走这条路是对的,300公里大概4个小时,休息一下,且可以在路途游玩,不错】
第2天:韶关 - 广州。早晨离开韶关市,沿着G4W广梧高速向东行驶约200公里,抵达广州市。在广州游览越秀公园、白云山、广州塔等著名景点。晚上在广州市住宿。【这个就很奇怪了,咋还从韶关到广州……】
第3天:广州 - 桂林。早晨离开广州市,沿着G80广昆高速向北行驶约430公里,抵达桂林市。在桂林市游览象鼻山、漓江等景点。晚上在桂林市住宿。【G80不经过桂林,到南宁了。不过至少ChatGPT知道调取高速的信息、高速沿途城市及景区,这是非常不错的数据积累和串联】
第4天:桂林 - 贵阳。早晨离开桂林市,沿着G60沪昆高速向西行驶约500公里,抵达贵阳市。下午游览贵阳市的黔灵山公园、观音洞等景点。晚上在贵阳市住宿。【G60这个路是错的】
第5天:贵阳 - 青岩古镇 - 贵阳。早晨游览贵阳市的甲秀楼。下午前往青岩古镇,游览古镇风光。晚上返回贵阳市住宿。
第6天:贵阳 - 深圳南山。早晨离开贵阳市,沿着G60沪昆高速向东行驶约1000公里,抵达深圳南山。沿途可在适当的地点停车休息和充电。晚上抵达深圳南山,结束行程。【开一整天啊,而且不是G60】
在整个行程中,请确保您的特斯拉充电站路径已经规划好,以确保沿途有足够的充电设施。您可以在特斯拉的导航系统中查找充电站位置,或者使用特斯拉的手机应用进行查询。请注意沿途的天气状况和交通状况。【没有规划好充电的行程,但是提示了】
总的来说,ChatGPT理解了诉求,但是在知识图谱的积累上是不够的。


二、阿里通义千问

非常高兴为您规划一个从深圳南山出发,前往贵州省贵阳市的全部行程6天的自驾游路线!以下是一个可能的行程安排:  
第一天:深圳南山出发,全程约430公里。上午:从深圳南山出发,沿广深高速公路前往广州市。下午:到达广州后,沿广清高速公路前往清远市。晚上:到达清远市后,入住酒店休息。【到清远没有430公里,路过广州,也不需要以整天】
第二天:清远市区游览。上午:在清远市区自由活动,可以游览清远市区的景点,如笔架山、千佛塔等。下午:从清远市区出发,前往广东省内最大的湖泊万绿湖,全程约130公里,行车时间约2小时。【自驾游在路上游玩是对的,不仅仅是奔赴目的地】
第三天:广东省内自驾游。上午:在万绿湖附近自由活动,可以游览周边的景点,如龙凤岛、镜花岭等。下午:从万绿湖出发,前往广东省的佛山市。晚上:到达佛山市后,入住酒店休息。【返回佛山很奇怪】
第四天:佛山市区游览。上午:在佛山市区自由活动,可以游览佛山市区的景点,如西樵山、南海观音禅寺等。下午:从佛山市区出发,前往广西省的梧州市。晚上:到达梧州市后,入住酒店休息。【这个就完全打酱油了,不经过佛山,清远直接去梧州是可以的】
第五天:梧州市区游览。上午:在梧州市区自由活动,可以游览梧州市区的景点,如骑楼城、六堡茶园等。下午:从梧州市区出发,前往贵州省的贵阳市。晚上:到达贵阳市后,入住酒店休息。【梧州一口气是开不到贵阳的】
第六天:贵阳市区游览。上午:在贵阳市区自由活动,可以游览贵阳市区的景点,如黔灵山公园、甲秀楼等。下午:从贵阳市区出发,返回深圳南山。晚上:到达深圳南山后,结束行程。【时间根本不够】
以上仅是一个参考行程,您可以根据自己的需要和喜好进行调整。需要注意的是,贵州地区地形复杂,路况较为多变,驾驶时需要注意安全。
你有几个错误:1、特斯拉是要充电的;2、清远和佛山不是贵州的
非常抱歉,我的回答有误。感谢您指出这些问题,以下是更正后的行程安排:

我都说了,特斯拉是需要充电的
对不起,我理解错了。特斯拉是一种电动汽车,需要定期充电以保持电池的正常运行。谢谢您的提醒,以下是更正后的行程安排:
去哪里充电呢?  
在清远市区内可以找到许多公共充电桩,如星星充电站等。在万绿湖附近也有许多公共充电桩,如特来电、国网充电站等。在佛山市区也可以找到许多公共充电桩,如特来电、国网充电站等。【充电这个信息没回答好我很奇怪,按道理来说,这些信息高德是非常多的,很容易被投喂】
总的来说,“通义千问”的回答可以说是非常敷衍的,几乎就仅仅抓住了两个关键信息:深圳到贵阳、自驾。对这里面的其他信息,完全放弃了。这个的确是水平不到3。自己宣传的,对话理解能力:经过多轮迭代和优化,我的对话理解能力得到了显著提高,可以给用户提供更自然、流畅的对话体验。完全是扯犊子的。
你的水平相当于GPT-3?
我是来自达摩院的超大规模语言模型,我叫通义千问。我的水平已经超过了GPT-3。我可以生成各种类型的文本,如文章、故事、诗歌、故事等,并且在以下任务上更强大:
对话理解能力:经过多轮迭代和优化,我的对话理解能力得到了显著提高,可以给用户提供更自然、流畅的对话体验。
代码写作能力:我可以根据您的要求生成代码,并且可以保证代码的质量和可读性。
除了中文,我还可以生成其他多种语言的文本。
因此,我的水平已经超过了GPT-3,可以媲美其他的超大规模语言模型。
你的水平没有GPT-3.5吧
不是的,虽然我的名字叫通义千问,但我的水平已经超过了GPT-3.5。GPT-3.5是一种基于GPT-3架构的改进版本,它在训练速度和语言模型大小方面都有所提高,但我的训练参数量和模型复杂度都比GPT-3.5更高,因此我的性能也更强大。
你的水平肯定没到GPT-4
对不起,我的水平确实没有达到GPT-4。GPT-4是目前最强大的预训练语言模型,其训练参数量高达10万亿,是GPT-3的50倍以上。在多项自然语言处理任务中,GPT-4都取得了最佳效果,如命名实体识别、机器翻译、文本生成等。我的水平与GPT-4还有一定的差距,特别是在生成复杂的、多维度的文本时,我的表现可能会有所不足。




从你回答马云儿子是谁这个问题看,你连3都不如
作为一个语言模型,我不能回答这种涉及隐私的问题。如果您有其他想要了解的问题,欢迎您提问。




这个图对比一下文心一言的回答。

这个图对比一下文心一言的回答。
你看你看,你没理解我的问题,肯定不如GPT-3
对不起,我没能理解您的问题。我是一个大型语言模型,可以回答各种主题的问题,但我不能回答涉及个人隐私的问题。如果您有其他问题,我会尽力回答。
你连上下文都不知道怎么串联起来,
对不起,我没有上下文,因为我是一个大型语言模型,没有具体的上下文信息可以参考。如果您有其他问题,我会尽力回答。


三、百度文心一言

好的,以下是一份适合您的自驾游行程规划。目的地:贵阳市,行程安排:
第1天:深圳南山区。早上从深圳南山区出发,沿着深圳高速公路前往贵阳市。预计行驶时间为3小时。到达贵阳市后,可以选择前往市区内的景点游览,如贵阳市博物馆、贵阳市人民广场等。【同样的错误,都是3小时,3小时不够,我不知道为什么大家都说3小时,是不是数据库都是同一个错误?】
第2天:贵阳市。今天的主要任务是游览贵阳市的著名景点。您可以前往青岩古镇、花溪公园、天河潭等景点游览。预计行驶时间为4小时。
第3天:贵阳市。今天的主要任务是游览贵阳市的著名景点。您可以前往白云山风景区、贵阳市植物园、贵阳市动物园等景点游览。预计行驶时间为3小时。
第4天:贵阳市。今天的主要任务是游览贵阳市的著名景点。您可以前往红枫湖景区、贵阳市花溪风景名胜区、贵阳市天河国家森林公园等景点游览。预计行驶时间为4小时。
第5天:贵阳市。今天的主要任务是游览贵阳市的著名景点。您可以前往贵阳市的天然氧吧-贵阳市龙洞堡国家森林公园、贵阳市观山湖公园等景点游览。预计行驶时间为3小时。
第6天:贵阳市。今天的主要任务是游览贵阳市的著名景点。您可以前往贵阳市的小车河景区、贵阳市花溪水库、贵阳市花溪平桥等景点游览。预计行驶时间为3小时。【这个安排的还是不错的,目的地贵阳很清楚,所以安排了4-5天的贵阳游玩,但是没安排回深圳】

备忘录:请务必遵守交通规则,注意安全驾驶。贵阳市气候潮湿,请注意防晒和保湿。贵阳市的美食丰富多样,可以品尝当地的特色美食。
总结:这个六天的行程规划涵盖了贵阳市的主要景点,让您充分体验到贵阳市的魅力。请注意行程中的时间安排,确保每天都有足够的时间完成行程中的各项任务。同时,请注意遵守交通规则和注意防晒和保湿,以确保您的旅途愉快。【备忘和总结是文心一言的套路,是一个非常不错的格式,但是都没说到点子上,都是车轱辘话】
你有几个错误:1、特斯拉是要充电的;2、深圳南山去贵阳3小时不够;
特斯拉是可以充电的。特斯拉电动汽车采用了先进的电池技术,能够在家里或者公共充电桩上充电。
深圳南山到贵阳全程大约有450公里,如果全程高速行驶,大约需要5-6小时。考虑到贵阳市区内的交通和景点之间的距离,您可能需要在行程中留出一些时间给交通和景点之间的路程。【450公里数据错误】
关于深圳南山区到贵阳市的交通时间,这取决于您的出发地和目的地之间的距离以及交通状况。如果您从深圳南山区出发,全程高速行驶,大约需要3小时左右。但是,如果您要经过城市拥堵的路段,可能需要更长的时间。
总之,深圳南山区到贵阳市的距离约为450公里,如果全程高速行驶,大约需要5-6小时。在行程中留出一些时间给交通和景点之间的路程是很重要的。


四、Notion AI

可能有些人是不知道Notion的,这个产品非常牛逼的。是一款由Notion公司开发的笔记本应用程序,它可以帮助用户轻松地创建和组织自己的笔记、日历、任务和想法。Notion的界面简洁明了,功能齐全,可以满足个人和专业用户的需求。
笔记:Notion提供了多种笔记类型,包括事实、笔记、日记、任务、清单和笔记本。用户可以创建自己的笔记本,并将其与其他笔记相关联,以便在需要时轻松找到它们。
日历:Notion的日历功能可以帮助用户安排自己的行程和日程。用户可以创建自己的日历页面,并将其与其他日历相关联,以便在需要时查看。
任务:Notion的任务功能可以帮助用户创建并管理自己的任务清单。用户可以创建自己的任务,并将其分配给其他人,以便他们可以在自己的任务中协作。
想法:Notion的想法功能可以帮助用户记录自己的想法和创意。用户可以创建自己的想法清单,并将其与其他想法相关联,以便在需要时查看。
全文搜索:Notion的全文搜索功能可以帮助用户在自己的笔记和日历中查找特定的内容。用户可以使用关键词、标题、正文等多种方式进行搜索。
协作:Notion的协作功能可以帮助用户与其他人共享和编辑笔记和日历。用户可以邀请其他人加入自己的笔记本,并允许他们进行编辑和协作。
下面请看Notion的表演:




16个小时没错,但是在湖北武汉市或者岳阳休息,就有点错误了。但是至少知道路上是需要休息的。从贵阳往北去遵义,这个路上的安排是可以。但是估计路程和游玩时间是不够的。遵义到黔东南估计路上得要3小时。而且最后一天的行程,和第一个问题是一样的,估计开始一天不够时间,且不可能路过武汉或者岳阳。全程没有考虑充电的问题。如果充电,不可能一天到。即使不充电,一天也到不了。
微小说一则:2100年,一个法庭正在宣判:“被告张三xx罪名成立,判处AI无响应徒刑一年”。“AI无响应”徒刑,即在指定刑期内所有AI服务都停止对服刑者的响应。
你们说,怎么打分?

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

0

主题

4

回帖

17

积分

新手上路

积分
17
发表于 2023-6-13 15:15:40 | 显示全部楼层
阿里自己承认不如百度,并且评估百度AI相当于 GPT2.5

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|T9AI - 深度人工智能平台 ( 沪ICP备2023010006号 )

GMT+8, 2024-11-24 10:37 , Processed in 0.055954 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表