关于 Wbot-1 的有趣故事


在训练初代 Wbot-1 模型时,受限于资金和算力,我们只训练了一个非常小的模型。小到这款模型都无法输出正常句子。

这种情况直到第 130 次迭代才完全解决。如果你对 Wbot-1 感兴趣,可以查看我们开源的 Wbot-1(5) 重训练开放权重模型,开源在了 Hugging Face。重训练版本仅有 54.5M 的参数,完全无法进行正常聊天 (;´д`)ゞ

至于为什么在第 130 次迭代时会解决,其根本原因是我们重构了相关训练代码并初步清洗了训练数据集。在这次重构以后,Wbot-1 模型确实可以输出正常句子了。于是我们在第 140 次迭代时将该模型作为基座模型并命名为: Wbot-1 (后续被内部称为 Wbot-F


其实 Wbot-1 的故事并没有多少,它自诞生起就饱受争议。且由于 Wbot-F 架构的特殊性,导致后续所有基于 Wbot-F 的模型都存在回复“幻觉率”高、不遵守指令和知识储备不充足等问题。(除 Wbot-5 外,基本所有公开的模型都是基于 Wbot-F 进行训练的)

当时团队训练 Wbot 的目的很简单,只是想降低模型 API 的使用成本,让更多人受益。也正是这种想法支撑着团队在每一代 Wbot 模型发布时总会保留着一款免费模型。