【摘要】GPT之父Alec Radford团队用百年前的数据训练了一个130亿参数的"古董"大模型talkie-1930-13b。这个从未见过计算机的模型,仅用250个样本微调后就能为现代Python库打补丁,在SWE-bench基准达到4.5%通过率,与"吃下整个互联网"的现代模型仅差1个百分点。这场"穿... 阅读全文