Thread Reader
Jeremy Lu

Jeremy Lu
@thecat

Feb 22, 2023
3 tweets
Twitter

嘿 Amazon 居然研發了一個屌打 GPT3.5 的 LLM,相較於 GPT 的參數量高達 175 billion 它只用 1 billion 個參數建模準確度就高達 91.68% (GPT 是 75.17%),更有趣的是它架構也不複雜且已完整開源,連訓練好的模型也能直接下載,你只要有張卡就能玩啦~🤩 論文 : arxiv.org/pdf/2302.00923…

來源是 Amazon 前專案經理的貼文: linkedin.com/feed/update/ur…
看完整本論文啦,亮點就是整合文字與圖像雙模型做為 input 以建構 Chain-of-Thougt (COT) 從而提升 inference 準確度,簡單講它採用與 GPT/LLM 完全相反的超小語言模型但做的更快更好 ( 而且演算法公式也不難,照著下圖刻一下就完成囉~🤗 ( 是說等這消息一星期後普及到大眾媒體時 $AMZN 或將井噴?🤩
Jeremy Lu

Jeremy Lu

@thecat
Fullstack web developer by day, amateur haskeller by night, avid cyclist and swimmer in between. Ask me anything about statechart, react and cycling. λ
Follow on Twitter
Missing some tweets in this thread? Or failed to load images or videos? You can try to .