带伞else:
出门大模型编程的流程:
收集大量“天气+行为”的数据:
(晴天,出门)
(下雨,带伞)
(阴天,出门)
...
喂给模型训练,学出一套权重w
模型预测时,只需输入“天气=下雨” -> 输出“带伞”的概率高,就预测“带伞”
你不需要再写规则,而是“让数据说话”。
这就是所谓的:
传统编程是“人定规则”,大模型是“模型学规则”。
?
四、再回到你的比喻:“大概是个苹果”
你说得非常生动:
“y不一定准确,无限接近正确,就像一个苹果,它是苹果的相似度有多少,差不多就行了,大概就是个苹果。”
这正是大模型的“模糊匹配”原理。尤其在图像识别中,模型不是100%判断“这是苹果”,而是给出一个“概率”:
?\t苹果:87%
?\t番茄:10%
?\t柿子:3%
这时候,它选“苹果”作为预测结果。但如果这个苹果有点变形、颜色有点偏,就会导致识别不准。为什么?因为模型只知道“相似度”,不知道“逻辑规则”。
?
五、从“编程范式的演化”看待这个变化
1. 早期计算机时代:硬件编程
?\t二进制,汇编语言
?\t对人极不友好
2. 高级语言时代:规则编程
?\tc、python、Java等
?\t程序员用明确逻辑告诉机器该做什么
3. 现在:数据驱动编程(大模型)
?\t人类不再写规则
?\t而是提供大量数据
?\t机器自动学会规则(权重)
这就是所谓的“从编程到训练”。
?
六、例子:传统写代码 vs 大模型生成代码
传统写代码
def is_apple(iage):
# 提取颜色
# 提取形状
# 判断是否红色圆形果实
# ...
return true or False
大模型写代码:
模型输入:图像
模型输出:分类概率 {苹果: 87%, 橙子: 8%, 柿子: 5%}
你写的不是代码,而是设计数据和目标,再让模型自己学会判断。
?
七、优点与缺点总结
优点
缺点
不需要人工写逻辑规则
推理不可解释
可处理复杂、模糊的任务
容易出现“幻觉”或“偏差”
泛化能力强,适应变化