关于中西方AI大模型的架构,这么理解是不是很有意思
关于deepseek年前前后的疯狂,相信多多少少你应该有耳闻。
这其中不仅仅是逻辑处理能力媲美chatgpt,也不仅仅是降低了大模型对巨大算力的依赖。这其中更有趣的是核心逻辑算法。我们今天不聊那么深,只是开个脑洞,另辟蹊径。🤣
我们在使用deepseek时点开“深度思考(R1)”,然后你询问他问题的时候,他会先给出你提问的分析内容,判断你究竟想要什么,然后给出你问题的答案。而其他ai并不是这样。
这就好像是中国的家长和西方的家长的区别。
中国的家长习惯扶持这孩子长大、成年甚至老去,耗尽毕生心力。
就好比deepseek,怕你不懂,理解不了。中间出来一下帮你认清事实的人,告诉你“你面对的人”究竟想要的是什么,他的底层逻辑是什么,如何拆解“他的提问”,变成基础清晰的问题,然后交给deepseek底层模型处理,并给出答案。
而西方的家长把你培养到一定阶段,然后让你去自食其力,在历练中自己成长。不懂的你再来找我帮忙。
chatgpt被喂了海量的数据,这些数据包罗万象,让chatgpt自己整理出联系和逻辑。
收到提问后,chatgpt会想出一个答案,然后如果觉得不太拿得出手,就会向深层请求支援,然后调动庞大的各类知识体系,调动其中可能的有关答案,哪怕只有一点关系,然后进行整合。这也是会耗费大量算力的原因。
deepseek和chatgpt就很像这种中西方的教育或者说养育的方式的不同,是我站在你前面还是站在你后面那。
(非专业人事,胡说八道)
阅读剩余
当前文章作者名:塔林
当前文章标题:关于中西方AI大模型的架构,这么理解是不是很有意思
当前文章地址:https://2109.love/?p=1880
文章版权归作者所有,未经允许请勿转载。
转载及其他合作需求请微信联系博主
当前文章标题:关于中西方AI大模型的架构,这么理解是不是很有意思
当前文章地址:https://2109.love/?p=1880
文章版权归作者所有,未经允许请勿转载。
转载及其他合作需求请微信联系博主
THE END