感觉 Deep Learning 中的 Transformer 这个方法论产出模型能力虽不说已达到巅峰,但也已经算是几乎触顶了,在这个时间周期上来看,整体的模型能力变化已然不大,对于生态建设以及旁功能拓展似乎更像是现代主流媒体的声音(个人观察的现象,大家太流于表面,以至于忘记目前主要形式是 LLM 而被时代洪流带着走)。我觉得后面更多可能是一些性能上的提升(能耗比这样,目前主流人群能接触到的并不是顶尖的,而是出于经济效益和产能的综合给出的次的模型,所以如果大家日常体验觉得能力提高了,更多是因为你现在用的模型并不是旗舰的),对于智力的提升,数据我想应该该爬完的已然几欲爬完,剩下可能更多是参数配方,但是边际效益,并不会向摩尔规则那样指数增长。
Comments (0)
No comments yet. Be the first to share your thoughts!