Thread Reader
orange.ai

orange.ai
@oran_ge

Mar 13, 2023
5 tweets
Twitter

早晨起来大模型的新闻又炸了 斯坦福微调了 7B LLaMA 模型,只用了 52K 的数据,达到了和达芬奇003类似的效果,并且可以跑在消费级设备上,比如树莓派。 github.com/tatsu-lab/stan…

而且这个模型没有经过道德训练,也就是会乱说触犯各国人类禁忌的话。以后人手一个自己的本地语言模型,审查彻底的失灵。
这个模型对硬件的低要求也说明中国半导体产业是完全可以靠自研来支撑国产AI的
这个模型叫羊驼🦙 文本大模型的 stable diffusion 一个大生态的开始
训练成本奇低。 数据生成过程产生 52K 条独特指令和相应的输出,使用 OpenAI API 的成本不到 500 美元。 在 8 个 80GB A100 上微调一个 7B LLaMA 模型需要 3 个小时,这对大多数云计算提供商来说成本不到 100 美元。
orange.ai

orange.ai

@oran_ge
产品喵|All in AI|分享即学习 如果你觉得最近几年的互联网很无聊,看看 AI 吧: AI News 电报频道,欢迎加入 https://t.co/2onQSumj6S Newsletter 记录思考,欢迎订阅 https://t.co/yUHd5ZYwXS
Follow on Twitter
Missing some tweets in this thread? Or failed to load images or videos? You can try to .