从 DeepSeek 看25年前端的一个小趋势

从 DeepSeek 看25年前端的一个小趋势大家好,我卡颂。 最近DeepSeek R1爆火。 有多火呢?

从 DeepSeek 看25年前端的一个小趋势

大家好,我卡颂。

最近DeepSeek R1爆火。有多火呢?连我爷爷都用上了,还研究起提示词工程来了。

大模型不断发展对我们前端工程师有什么长远影响呢?本文聊聊25年前端会有的一个小趋势。

模型进步的影响

像DeepSeek R1这样的推理模型和一般语言模型(类似Claude Sonnet、GPT-4o、DeepSeek-V3)有什么区别呢?

简单来说,推理模型的特点是:「推理能力强,但速度慢、消耗高」。

他比较适合的场景比如:

  • Meta Prompting(让推理模型生成或修改给一般语言模型用的提示词)
  • 路径规划

等等。

这些应用场景主要利好AI Agent。

再加上一般语言模型在生成效果、token上下文长度上持续提升。可以预见,类似Cursor Composer Agent这样的AI Agent在25年能力会持续提升,直到成为开发标配。

这会给前端工程师带来什么进一步影响呢?

一种抽象的理解

我们可以将AI Agent抽象得理解为「应用压缩算法」,什么意思呢?

以Cursor Composer Agent举例:

从 DeepSeek 看25年前端的一个小趋势

我们传入:

  • 描述应用状态的提示词
  • 描述应用结构的应用截图

AI Agent帮我们生成应用代码。

从 DeepSeek 看25年前端的一个小趋势

同样,也能反过来,让AI Agent根据应用代码帮我们生成「描述应用的提示词」。

从 DeepSeek 看25年前端的一个小趋势

从左到右可以看作是「解压算法」,从右往左可以看作是「压缩算法」。

就像图片的压缩算法存在「失真」,基于AI Agent抽象的「应用压缩算法」也存在失真,也就是「生成的效果不理想」。

随着上文提到的「AI Agent」能力提高(背后是模型能力提高、工程化的完善),「应用压缩算法」的失真率会越来越低。

这会带来什么进一步的影响呢?

对开发的影响

如果提示词(经过AI Agent)就能准确表达想要的代码效果,那会有越来越多「原本需要用代码表达的东西」被用提示词表达。

比如,21st.dev[1]的组件不是通过npm,而是通过提示词引入。

相当于将「引入组件的流程」从:开发者 -> 代码。

变成了:开发者 -> 提示词 -> AI Agent -> 代码。

从 DeepSeek 看25年前端的一个小趋势

再比如,CopyCoder[2]是一款「上传应用截图,自动生成应用提示词」的应用。

当你上传应用截图后,他会为你生成多个提示词文件。

其中.setup描述AI Agent需要执行的步骤,其他文件是「描述应用实现细节的结构化提示词」

从 DeepSeek 看25年前端的一个小趋势

这个过程相当于「根据应用截图,将应用压缩为提示词」。

很自然的,反过来我们就能用AI Agent将这段提示词重新解压为应用代码。

这个过程在25年会越来越丝滑。

这会造成的进一步影响是:越来越多前端开发场景会被提炼为「标准化的提示词」,比如:

  • 后台管理系统
  • 官网
  • 活动页

前端开发的日常编码工作会越来越多被上述流程取代。

你可能会说,当前AI生成的代码效果还不是很好。

但请注意,我们谈的是「趋势」。当你日复一日做着同样的业务时,你的硅基对手正在每年大跨步进步。

总结

随着基础模型能力提高,以及工程化完善,AI Agent在25年会逐渐成为开发标配。

作为应用开发者(而不是算法工程师),我们可以将AI Agent抽象得理解为「应用压缩算法」。

随着时间推移,这套压缩算法的失真率会越来越低。

届时,会有越来越多「原本需要用代码表达的东西」被用提示词表达。

这对前端工程师来说,既是机遇也是挑战。

参考资料

[1]21st.dev:https://21st.dev/?tab=components&sort=recommended

[2]CopyCoder:https://copycoder.ai/

相关资讯

DeepSeek R1 震撼登场:从介绍到使用

春节期间,DeepSeek 掀起了一股热潮,成为了科技领域的热门话题。 身边很多非圈内人士茶余饭后也在讨论 DeepSeek,足以见得其火爆程度。 介绍DeepSeek 全称:杭州深度求索人工智能基础技术研究有限公司,成立于 2023 年 7 月 17 日。

从大模型性能优化到DeepSeek部署

一、背景Deepseek-r1模型的爆火标志着本地部署大模型的需求日益增长。 本文主要探讨如何优化本地部署大模型的性能,并结合我们的实践进行评测分析,文章最后我们将分享如何在本地高效部署满血版Deepseek-r1大模型。 在生产环境中,我们已部署专用的大模型推理集群,并对其性能进行了全面优化。

探索基于Qwen2.5实现DeepSeek推理的奇妙之旅

作为一名互联网技术爱好者,我一直对大型语言模型和高效推理技术充满热情。 本文基于基于Qwen2.5实现DeepSeek推理功能。 本文使用unsloth框架,这个轻量高效、易于上手的工具,加上SFT中文数据集的加持,测试了在医疗领域的推理应用。