0.5b 这种才是最有用的,因为它可以万能地微调成单一小任务。
而且它参数量小,本地跑,运行快。
以前的那些nlp任务都可以用这种万金油来微调。
比如文章提取,文章样式整理,数据格式转换,文章校验,快递信息提取等。
你可能会说我为什么不用传统的nlp来干? 主要是现在的llm模型,从训练到部署已经非常的流水线了,不会深度学习的人也能训练一个并部署,这个流水线简单到,真的只需要处理数据集而已。
整个过程你甚至不需要写…。
{dede:pagebreak/}
写业务的话,go是不是垃圾?
公司就一个后端一个前端,有必要搞微服务吗?
为什么中国电信的iptv一定要有网线连接!?
什么是ddd领域驱动架构,尽量说人话,回答要在50个字以内?
你觉得在澳大利亚最坑的是什么?
桂林米粉为什么走不出桂林?
竖折能否取代 iPhone mini成为小屏的最佳选择?
Mac 发展那么多年结果只能剪***吗?
养乌龟只养一只,它觉得会孤独吗?
前端,后端,全栈哪个好找工作?
感觉鱼缸久了底下火山石里脏脏的,能彻底换水清理一遍不?
有哪些是你用上了mac才知道的事?
为什么我感觉广西未来会撤自治区改省?
养龟你踩的最大的坑是什么?
老公加班过多,是逃避家庭责任吗?
有没有宝塔平替的服务器管理面板,现在宝塔越来越贵了,也太臃肿了?