有好奇心是好事


英昭兄是忍者:源氏+半藏,古武技者 真侠客 原来手里剑是真的

宇宙探索编辑部是最好的 郭帆太棒了 中国电影有救了

喜欢蒋奇明 傅卫军和那日苏 哑巴和酒鬼 不像演的

“这道题太难了,爸爸也不会”

极乐迪斯科,尤利西斯,宇宙探索编辑部,火线

第一感觉很重要

直觉,潜意识,精神分析,懒得骗自己,无法对自己坦诚会产生精神疾病

换季时候睡不着,饮料买起来了要

大受震撼

搜索多轮对话数据集构建时看到了认真介绍SFT的博客Blog 惊喜,同济大二软院的年轻人,在嘉定,和展一个校区。

以前觉得写博客用于代码的学习记录,后来不自觉的,变成纯粹的生活记录了,做自己认可的事情就会有动力,技术是手段,表达分享信息的手段,一篇篇博客像一个个存档点一样,将主体的一部分定格下来,希望后来的我可以保留这些残影,没什么害处的,没什么好羞耻的,看看来时路,挺好,少年的激情和骄傲

生活应该是RL,在经历尝试中学习,RL确实学的慢,效率不够高,但是学的深刻且泛化性强。不同的先天基因,初始权重各不相同,不同的后天环境,奖励信号因人而异,于是有了人格的多样性。应试教育是SFT,刷题是投喂大量标注数据,学习的效率高,确实可以在已有的范式中表现优异,但是面对全新的、难以在历史数据中找到答案的问题,没有依靠,没有范式,就难以做出正确判断。所以强化学习的泛化性非常关键,表现好的模型需要先SFT冷启动再RL提升性能,SFT固然好,但是苦于现实中数据集的多样性难以保证,不是所有问题都有确定的答案。

大兴土木,工程面搬迁

大学工地大学

比六层楼还高的打桩机 头部不像应该是角度问题

苏丹的游戏 普通话84分 还不能当语文老师

浪漫的牺牲

苗圃 植青小屋

新冠重感冒2周,没抢到SeaPower的票,候补估计是不会有了,黄牛票648

Speed中国行很有趣,都是很可爱的人

真的抢不到

搞到票了

Cursor是写轮眼,直接把项目框架分析完了,verl里有个函数叫Ulysses的,用于张量序列的并行计算

随机遭遇《欧洲的扩张》,除非所有的历史数据都有参数记载,不然人力记录真的不可靠,要是历史能像OW的回放那样就屌了

白钢哈特好看 青玉斧头好凶 红配绿 丑帅 可爱

十字军永远守望

黑镜第七季没有逻辑硬伤,现在没人能把计算机技术全部掌握,这是没办法的事情,不老不死也没用,发展太快了,第一集的普通人很现实,赛博寂静岭

编译原理期中考不难

更新频率很低,因为没啥阶段性成果,不知道最终模型跑出来是个什么东西

诺奖得主的离谱科研发现,暗示了宇宙埋没已久的另一层真相_哔哩哔哩_bilibili

量子激发态,将能指与所指联系起来的力量,概念,指针,精神,波,复古

33号远征队,复古JRPG,法兰西的浪漫

极乐迪斯科 == 博德之门3 == 光与影 33号远征队 == 黑神话悟空 ==艾尔登法环

从左至右,战斗难度提升,剧情深度降低,战斗体验容易重复令人厌倦,剧情的起伏可以弥补这一点。随着技术力的上升,rpg的战斗系统越来越精致,但是一旦角色话不投机就非常出戏,游玩体验会打折扣。

游戏角色的身子和脑子往往不能全面发展,重编剧的游戏往往表现力欠佳,重表现力的游戏往往对话稍尬,哑巴主控也是常有的事

33号远征队的对话逻辑做的相当好 有真人的味道 博门3考虑到体量巨大 对话树有逻辑缺陷 人物性格偏于扁平 可以理解

GTA和大表哥 流氓土匪 主打真实

2077和巫师3 平平淡淡 npc伪人感很重,不如R星

魂类游戏没对话 微量剧情 不玩

优雅

一家三口 海边春游

小天使

不如迈特·凯的连体服

33号远征队 最终讨论的是 “无限月读的生活是否值得去过”

用一生去爱还是用一生去绘 这是很有哲学意味的抉择

“一定不要忘了我们心爱的人。只要心中有他们,他们就算去了很远很远的地方,也能永远活在我们心里。”

爱能穿越时空

回去面对残破的现实需要很大勇气 是维尔索对阿莉西亚的期望

但人是活在他人的期望中的吗? 他人为自己献出了一切便意味着自己要遵从他人的期望去生活吗?

如果选择待在画中,能心安理得,那也很好,其实玛埃尔是想待在画中的,她很聪明也很善良,她知道这样不对,但她对家庭破碎的负罪感太强,现实中的她毁容、失声,看不到未来的希望,真的不忍心把她赶回去,但梦总是要醒的,如果不知是梦,一直沉醉也罢,但是既然已知是梦,我可能不会选择自欺……其实也不知道了,我无法感同身受,我不是她,我没有资格去为她做决定。

“房间的灯我给你留着,希望你能获得心安”

无论选择哪里 都希望你过得好

一个家庭的悲剧带来了一个世界的毁灭

吕涅、古斯塔夫……历代的远征队员都对自己肩负的责任与使命深信不疑

无法定义真实 眼前的生活或是梦幻泡影 很喜欢远征队 高博门3一筹 可与极乐迪一桌

再见

华为智驾 底盘驱动很关键

多轮对话数据集的强化学习 奖励函数设定不好就训练不下去 这最后一步格外关键

原始数据收集清洗 => 数据集构建 =>监督学习 =>强化学习

这几个字打出来花了数秒 全套跑通要数月 从无到有的创造

台上一分钟,台下十年功 稍有体会

加油!


文章作者: chris2ease
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 chris2ease !
  目录