<dfn id="ccosy"></dfn>
  • <ul id="ccosy"></ul>
  • Datawhale干貨

    作者:平凡@知乎,諾桑比亞大學,在讀博士

    今天晚上,花了一點兒時間看了兩篇文章:


    (資料圖片)

    《Emergent Abilities of Large Language Models》[1]

    《PROGRESS MEASURES FOR GROKKING VIA MECHANISTIC INTERPRETABILITY》[2]

    這兩篇講的都是emergent behavior,即涌現現象。

    大規模神經網絡下的涌現現象

    在機器學習中使用大規模神經網絡時,由于增加了參數數量、訓練數據或訓練步驟等因素,出現了定性上的新能力和性質,這些能力和性質在小規模神經網絡中往往是不存在的。

    第一篇文章舉了這個例子,每個圖都可以理解為一個任務,橫軸是神經網絡的規模,而縱軸是準確率,可以理解為模型的性能。

    我們拿圖一來看,在10的22次方前,這些模型基本上的性能基本上都很穩定在0附近,而在10的22以后,突然在10的24次方上獲得了很大的性能提升,在其他的幾個任務上都表現出類似的特征。

    意想不到的效果

    第二篇文章更是有趣,我直接把推特一位博主的評論引用在這里:

    作者發現,當我們訓練用網絡計算同余加法 a+b = ? (mod c) 時,網絡在某個時間突然獲得了 100% 準確率。分析發現,神經網絡實際上“頓悟”了使用傅立葉變換來計算同余加法!這個算法可以證明是正確的, 反人類直覺的。

    從這倆例子里面我的感受是,只要數據量足夠且真實,且模型沒有硬錯誤的前提下,不斷的訓練說不定真的能夠產生一些意想不到的效果。

    還有就是我覺得人類現在積累的知識并不少,但是系統的少,零星的多,如果類似ChatGPT這樣的大模型可以拿所有的人類已有知識進行不斷學習的話,我覺得有很大概率會讓它涌現出意想不到的能力。

    甚至可能把人類的生產力解放提前很多。

    參考

    1.https://arxiv.org/pdf/2206.07682.pdf2.https://arxiv.org/pdf/2301.05217.pdf

    推薦內容

    国产午夜亚洲精品不卡免下载| 国产人成精品午夜在线观看 | 日韩AV无码精品一二三区| 国产Av一区二区精品久久| 免费精品国产日韩热久久| 91福利精品老师国产自产在线| 久久精品免视看国产陈冠希| 精品亚洲综合在线第一区| 国内精品久久久久影院网站 | 亚洲av午夜成人片精品网站| 中日韩精品电影推荐网站| 亚洲人成电影网站国产精品| 日韩一级视频免费观看| 亚洲欧洲日韩极速播放| 久久久久无码精品亚洲日韩 | 麻豆成人久久精品二区三区免费| 精品少妇一区二区三区视频| 国农村精品国产自线拍| 狠狠色伊人久久精品综合网 | 亚洲无线观看国产精品| 中文国产成人精品久久久| 国产精品无码素人福利不卡| mm1313亚洲精品无码又大又粗| 日韩精品人成在线播放| 一本大道无码人妻精品专区| 一级一级特黄女人精品毛片| 亚洲午夜精品第一区二区8050| 色婷婷久久久SWAG精品| 青青久久精品国产免费看| jazzjazz国产精品| 国产精品亚洲综合一区| 国产乱子伦精品无码专区| 久久国产精品免费一区| 99re这里只有精品国产精品| 国精品无码一区二区三区在线蜜臀| 国产香蕉国产精品偷在线观看| 中文字幕日韩专区精品系列| 国内精品人妻无码久久久影院导航 | 亚洲精品在线视频观看| 亚洲精品视频专区| 久久精品国产亚洲AV蜜臀色欲|