心情快车 发表于 2023-5-19 21:45:48

答主是不是发现一次性发很长的文本会被提示太长了,而一段一段发就可以?但是实际上,这样发超过了最长token限制后,它会把前面的内容抛弃掉,所以和一次性发没有什么区别

dengsq 发表于 2023-5-19 21:45:56

文献多长都无所谓,是时间跨度太长了,一个对话框过久了就可能蹦出这个提示

黄埔军人 发表于 2023-5-19 21:46:21

有没有可能in context learning跟训练有本质区别

fgdfhfg 发表于 2023-5-19 21:47:15

不是吧,我现在找一个很久以前的对话框,也还是可以继续对话的

过客来此一游 发表于 2023-5-19 21:47:26

买个plus就可以了

@Xizi_3znMuxNU 发表于 2023-5-19 21:48:11

现在的chat记性差多了,文字一多就忘了之前的指令

四有dē猪 发表于 2023-5-19 21:48:59

训练可不是一个人能完成的,那是靠大家不断的使用,慢慢训练

JSQ12390 发表于 2023-5-19 21:49:14

为了理解上下文,你每次对话都会把这轮所有的context都传给GPT,所以为了节省算力就加了对话字数上限

曾-戈1 发表于 2023-5-19 21:49:49

Fine tune api有个限制, 就是必须针对每一条输入信息指定想要的输出信息。有的时候没有这种一对一的对应关系存在。

低调de梦 发表于 2023-5-19 21:50:16

答主的意思是一次性发会提示文本过长,但是分成好几次发就不会了。但实际上就算好几次发,它也会把之前的内容抛弃掉以满足最长字数的限制
页: 1 [2] 3
查看完整版本: 训练了3天的chatGPT崩了