Semantic Kernel v1.20发布了,不是什么惊天动地的大新闻,就是微软给C加了个正经搞AI智能体的“工具箱”。我没看发布会,是自己跑通了本地Ollama跑Llama3的例子,代码就十几行,真能用。
以前在公司改CRM系统,想加个AI问答,得让Python团队写接口,再让C调HTTP,中间丢数据、超时、报错全得自己捞日志。现在直接new一个Kernel,注册个VolatileMemoryStore,再加个SequentialPlanner,几下就串起来了。不是魔法,是把原来要写一整天的胶水代码,压到了三四个方法调用里。
它真能本地跑大模型。我笔记本装了个Ollama,拉了qwen2:1.5b,改了一行endpoint地址,`AddOpenAIChatCompletion("http://localhost:11434/v1")`,就通了。没配证书,没改防火墙,没装CUDA——因为根本不用。但它也就到这了,想跑72B模型?内存直接红。想微调?连HuggingFace的pipeline都没封装。
它不碰训练,不碰图像识别,不碰实时语音流。文档里写着“支持多模态”,但我翻遍v1.20的NuGet包和示例代码,全是字符串进、字符串出。有个ImageContent类,但没配套解码器,也没示例怎么喂给CLIP。Python里pip install transformers就能跑通的活,C现在还得自己找ONNX模型、配推理引擎,没人帮你兜底。
我们部门两个.NET老手,三天搭了个销售数据问答Agent:连SQL Server查库存,调本地Llama解释结果,再用Blazor吐到网页上。没招Python工程师,没买新服务器,就用了现有开发机。老板没问技术细节,只看了演示,说“下个月给三个分公司推”。
高校老师也试了,带学生用C写AI作业,不用再教virtualenv和requirements.txt。record类型写个FunctionDefinition一行搞定,比Python的dataclass少打不少字。学生交的代码,90%能跑通,不是总卡在pip install失败。
但它替代不了Python。我室友搞CV,天天调torch.compile和flash-attn,我拿v1.20连个ResNet都加载不了。还有做量化的朋友,拿llm.cpp跑4-bit模型,C里连个等效的NativeAOT+LLM推理层都没有。
v1.20不是C逆袭,是让它终于能站回自己的地盘:企业后端、内部系统、自动化流程。不是去和Python抢实验室,而是把AI塞进财务系统、工单平台、仓储软件里。
我跑完例子关掉VS,喝了口凉掉的咖啡。代码还在,没报错,页面弹出了“库存不足,建议补货”。
