【2023.12.28】
之前那个二十面大模型是十月中旬的模型,大约花费了几百个4090小时,因为所有额外概念的拟合程度处于同一梯度,所以没有侧重点,很难控制,就当试错成本叭
这个二十面LORA是十一月上旬的模型,拟合程度呈现梯度排序,为了与大模型萝莉手办v1.32(现在是28日凌晨三点半,距离这个大模型的1.32版本出炉还有约180小时)配合使用,就上传了这个老古董,训练分辨率也是1344×1344
V1.25额外概念及其锚定拟合程度梯度排序:
T1:4349,
T2:47216881T,91396498T,69189881T,
T3:132914,71798,25683858T,
T4:183125,196320,162839,181117,144395,
T5:99147,137481,207052,198203,149499,181696,15485,167350,195912,169879,176917,101141,139392,(梯度越低说明越是什么都没学到,充当正则集了)
其实还有个拟合程度T0的词该模型可以识别,也就是genereesparlintelligenceartificielle,(这个词是对抗训练用的,不启用即可)
意思是générées_par_l'intelligence_artificielle,
这是最大熵版本,我所说的熵与锚定(黑话称之为“串”)的影响力呈正相关,与额外植入概念的影响力呈负相关