课程 ID: 19280
描述:
话题概述:
在大模型落地企业级应用时,我们面临一个核心矛盾:用户的自然语言需求极度稀疏模糊,而严谨的软件工程架构需要高度确定性。单纯依赖Prompt Engineering已陷入天花板——大模型的“黑盒”特性导致生成复杂应用时频繁出现幻觉和逻辑崩溃。
达摩院“语构”团队(一款以一句话生成高可用应用的产品)的解决思路是引入Harness Engineering(治理工程)理念:用系统级的工程手段约束、编排和兜底AI的输出,而不是依赖模型本身的完美性。本分享将深度拆解这套方法论的核心架构:通过意图解构与约束、多Agent流水线编排、以及闭环自纠错机制,将不可控的LLM输出转化为高可用、高确定性的应用生成引擎。
通过工程化驾驭,应用开发周期和生成的代码可用性得到显著提升。更重要的是,这套方法论明确了下一代AI驱动软件开发中工程师的角色转变——从“代码编写者”升级为“AI工程流水线的设计者与审核者”。
演讲题纲:
1. 从Prompt到Harness:问题与方法论升级
大模型在简单Demo时是神,但为什么在复杂工程中频繁失败?如何从Prompt工程升级到系统级的工程化驾驭?
2.Harness Engineering的三大支柱
通过意图约束、流水线编排、自纠错机制,将模糊的自然语言需求转化为确定性的系统输出。
3.一线踩坑与工程解法
分享成本控制、失控防控、质量提升的具体实践方案。
4.效能变革与未来展望
工程师角色如何从代码编写者升级为AI流水线的设计者与审核者。
话题亮点:
1. 跨越自然语言与工程确定性的鸿沟
大模型在生成“一个简单应用”时表现优异,但为何在长链路复杂应用生成中频繁失败?本议题直击这一核心痛点,分享如何通过Schema设计、状态治理等工程化手段,系统性地解决从模糊需求到确定性输出的全链路问题。
2. 不改模型、用工程手段对抗幻觉
在无法微调底层大模型的约束下,如何通过Harness层的外围工程实现有效的错误防控?包括缓存策略、多模型协同路由、Agent熔断机制等一线实践中被验证的解决方案。