关于中西方AI大模型的架构,这么理解是不是很有意思

关于deepseek年前前后的疯狂,相信多多少少你应该有耳闻。

这其中不仅仅是逻辑处理能力媲美chatgpt,也不仅仅是降低了大模型对巨大算力的依赖。这其中更有趣的是核心逻辑算法。我们今天不聊那么深,只是开个脑洞,另辟蹊径。🤣

我们在使用deepseek时点开“深度思考(R1)”,然后你询问他问题的时候,他会先给出你提问的分析内容,判断你究竟想要什么,然后给出你问题的答案。而其他ai并不是这样。

这就好像是中国的家长和西方的家长的区别。

中国的家长习惯扶持这孩子长大、成年甚至老去,耗尽毕生心力。

就好比deepseek,怕你不懂,理解不了。中间出来一下帮你认清事实的人,告诉你“你面对的人”究竟想要的是什么,他的底层逻辑是什么,如何拆解“他的提问”,变成基础清晰的问题,然后交给deepseek底层模型处理,并给出答案。

 

而西方的家长把你培养到一定阶段,然后让你去自食其力,在历练中自己成长。不懂的你再来找我帮忙。

chatgpt被喂了海量的数据,这些数据包罗万象,让chatgpt自己整理出联系和逻辑。

收到提问后,chatgpt会想出一个答案,然后如果觉得不太拿得出手,就会向深层请求支援,然后调动庞大的各类知识体系,调动其中可能的有关答案,哪怕只有一点关系,然后进行整合。这也是会耗费大量算力的原因。

deepseek和chatgpt就很像这种中西方的教育或者说养育的方式的不同,是我站在你前面还是站在你后面那。

(非专业人事,胡说八道)

 

阅读剩余
THE END