心情快车 发表于 2023-5-19 21:45:48
答主是不是发现一次性发很长的文本会被提示太长了,而一段一段发就可以?但是实际上,这样发超过了最长token限制后,它会把前面的内容抛弃掉,所以和一次性发没有什么区别dengsq 发表于 2023-5-19 21:45:56
文献多长都无所谓,是时间跨度太长了,一个对话框过久了就可能蹦出这个提示黄埔军人 发表于 2023-5-19 21:46:21
有没有可能in context learning跟训练有本质区别fgdfhfg 发表于 2023-5-19 21:47:15
不是吧,我现在找一个很久以前的对话框,也还是可以继续对话的过客来此一游 发表于 2023-5-19 21:47:26
买个plus就可以了@Xizi_3znMuxNU 发表于 2023-5-19 21:48:11
现在的chat记性差多了,文字一多就忘了之前的指令四有dē猪 发表于 2023-5-19 21:48:59
训练可不是一个人能完成的,那是靠大家不断的使用,慢慢训练JSQ12390 发表于 2023-5-19 21:49:14
为了理解上下文,你每次对话都会把这轮所有的context都传给GPT,所以为了节省算力就加了对话字数上限曾-戈1 发表于 2023-5-19 21:49:49
Fine tune api有个限制, 就是必须针对每一条输入信息指定想要的输出信息。有的时候没有这种一对一的对应关系存在。低调de梦 发表于 2023-5-19 21:50:16
答主的意思是一次性发会提示文本过长,但是分成好几次发就不会了。但实际上就算好几次发,它也会把之前的内容抛弃掉以满足最长字数的限制