乡村老师新手进阶攻略如何让学生的成绩健步如飞?

Lucky,再次见面o(`ω′*)o最近放假,可以高产,顺便夸一句:

“良心工作室的游戏是真良心好游”

好了,回归正题,本期是入门到精通的【进阶篇】没有看过上一期【入门篇】的捧油们可以点击下方传送门查看:

进阶阶段:本期我们来讲一下,如何使学生成绩健步如飞,首先我们需要了解以下这些必知的信息↓↓↓

1.教学等级教学等级初始1级,满级6级,教学经验可以通过每天温习文案‖上课获取,第一次升级可以上六节课,后面三次升级是增加课程增量+1和知识增量+1,最后一次升级还可以增加10体力上限。

2.课程选择

课程选择也是有讲究的,语文>英语>数学,但是不要一昧地去上一种课,这种讲究只是决定顺序,意思就是说还是要平均地上课,这只是决定了上哪一节课的先后而已,比如:第一次选择了语文课,第二次就要选英语,第三次就要选数学,这样平均地上课才好,因为越高等级的课程进度越长,一直上一节课的话收益较低。

3.课上课前科普

在上课前我们需要教训一下没有认真做作业或者迟到的孩子们,如果这时候你选择教训他,会减少他的3~4心情,但是后面两天他犯错的几率会变小,如果你选择不教训他,会+3~4心情,后面两天犯错几率增加,这个的话最好还是都选教训,因为这样的话就相当于让你选择学生的知识还是心情,选择知识永远比选择心情更好,因为选知识可以让他晚上认真写作业,获得不认真写的一倍,而心情只是-3,-4,我们只需要跟他谈话或课外活动即可。

关于课上的选择,我们只需要三观即可,有三观去选择正确的选项,一般两个选项都是让我们选择知识(或者是课堂进度)或心情,根据情况选择即可,如果选项存在消耗体力的选项建议选择,一般效果会更好一些。也有可能会出来一些学习上的问题,不过一般人都会,不需要担心,另外作业看情况选择多少,如果学生心情都>80,选择布置多一点的作业更好,获取的知识会比普通的多一倍,并且心情只是-3。

关于课后的选择,每次上课完以后我们都可以选择课后活动,一共是谈话,补习,课外活动,放学。谈话:-10体力,选择一位学生谈话,一次谈话有四个回合,三个主题选项,要根据学生的性格去选择正确的选项从而得到增益,可以+心情,+教学经验,+知识,相反的,如果你选择了他讨厌的,敏感的话题,就会有副作用,减少相应属性。

补习:-15体力,需要2本作业本,作业本可以通过印刷厂购买,至少要选择两名学生进行补习,每次补习增加30~100的知识,减少6~7的心情,这取决于学生性格,学习能力加成和补习是否上心,建议选择几个心情>80且优秀的学生或是差生进行补习增益。

放学:也就是直接放学,不消耗任何体力,也不增加减少任何数值,没体力或要节省体力时就选择这个好了。

4.数值增益

分别是课程增量,知识增量和收藏品增益。课程增量就是会让你每次上课所获得的课程进度更高,可以通过升级教学等级,收藏品增加。

收藏品增益就是和陶老聊天(一天最多2次),接受他的委托(给他买肉吃)增加和他的好感度,好感度到30/60/100时都可以升级感情去获得陶老的收藏品:教学宝典一代/教学宝典二代/旧戒尺,分别可以增加课程增量x1,知识增量x1,知识增量x2,可以大幅度提升上课的收益。

5.期末与考试复习每一届学生有三个学年,一个学年是7天,前两个学年第七天就是期末考试,会根据学生的知识量去判断学生的成绩,每个学年的知识要求都不同,第一学年及格线是400知识,优秀线是1300知识,第二学年及格线是1000知识,优秀线是4000知识,另外不是知识在线下就不会及格或者是优秀,线上只是100%会及格或优秀,知识离线要求越接近的话几率越大,分数等级分别是不及格,及格,中等,良好,优秀,学生考试分数等级越高,期末获取的资金和名声就越高。

在第三学年最后4天的时候会进入复习阶段,这时候我们可以选择讲解习题或者是测验,讲解习题不需要耗费资源,只需要体力,但是获得的知识较少,测验需要耗费测验卷,分为普通试卷和进阶试卷,进阶试卷比普通试卷效果更好,比讲解习题的知识更多,价格更贵,为90块钱一张。

课前:首先利用入门篇流派赚到的钱去买12张进阶试卷,40个运动器材,20本作业本,一点猪肉,剩下的钱买玉米,先去厨房把爆米花做好,6个玉米可以做6个爆米花。

有不好好做作业或者迟到的全部都要批评,不要心软!

课后:每次上完课的课后机会,我们可以选择老三样,反正放学绝对不可以选,血亏的东西,记住补习=课外活动>谈话。补习提供的知识非常多,但是减少的心情也是比较多的,补习提供的知识多少还是取决于学生心情好坏,基础学习加成和心情学习加成,这很关键,也在于学生有没有认真听,认真听会x2收益,不认真会1/2收益,认不认真是我们无法决定的。

我建议:上课的时候点六节课,选项都选+知识的选项,应该都会-心情,这时候我们就要选择课外活动去加回去学生心情,踢毽子加心情最多,一般都选这个更好,或者说是在第三学年期末4天,每次测验一般都会减少学生7~10的心情,也需要我们用课外活动去平衡心情,因为心情好的话提供的学习加成最高可达20%,这是什么概念,相当于一个B级学生摇身一变成A级!

课外后,我们可以去做饭,建议有钱的话还是买猪肉吃,没钱的话可以吃SCP给的腊肉,配土豆,白菜什么的,大概一次恢复44体力,然后可以根据自己的流派去干自己的事情赚钱,或者是去接受村民委托,维持维持生活,也可以利用多余的钱去修葺一下房屋,操场,获得永久性的加成收益。

每次留下20体力去山地和陶老聊天,一天可以和他聊两次,也可以用闲钱接受他的委托,给他买肉吃(他是会白嫖的),关于陶老的科普在上面的科普知识里面有讲了,这里就不重复了。

还需要注意的是,每天开头记得温习一遍文案,每天+6教学经验也很香,当6级MAX的时候就不需要了。

期末备考:当第三年最后四天会进入复习备考阶段,这时候我们就可以利用准备的12张进阶试卷去给学生复习了,全部每天3张试卷测验,获取的知识大概和试卷价格成正比,比如进阶试卷一张90块钱,那么一张试卷给每位学生提供的知识也就是90知识,三张就是270知识,如果学生心情好,学生基础知识加成高,就可以达到下面这种优秀的知识收益。

因为测验会掉太多心情了,所以还是要买大量运动器材,举行课外活动抵消部分心情,当然也可以在测验过程穿插一些互动,有些互动可以抵消1~2的心情,连续四天备考冲刺。

需要注意的是,最后一天的课外活动我们要选择全部人补习,因为最后一天已经不需要学生心情好坏了,就全部人补习,做最后的100~300的知识冲刺,学生当晚也会疯狂刷题增加40~50知识。

然后就是中考了,一切都将结束了...这是我的三周目,大家可以参照一下攻略成果,加油

目前知道的是1w知识以上可以达700分。

中考后:我们会迎来新一届的学生,新学生品质会根据你的名声而决定,学生品质代表学生性格优劣和学习能力加成多少。

THE END
1.知识点增量学习在线学习离线学习的区别增量学习是一种动态的学习技术,通过不断使用新数据来扩展现有模型的知识。相比离线学习,增量学习可以在面对新数据中的新类别时更有效地进行处理,并且具有记忆已学知识的功能。离线学习是一次性将所有数据参与训练,完成目标函数的优化后不再改变。增量学习不需要访问已用https://blog.csdn.net/qq_32342205/article/details/133271326
2.增量学习:让AI能够持续适应新数据的能力腾讯云开发者社区在人工智能领域,随着数据的不断增长和应用的不断扩展,AI系统需要具备持续适应新数据的能力。传统的机器学习方法往往需要重新训练整个模型,这在大规模数据和复杂任务下效率较低。而增量学习作为一种新兴的学习方法,可以让AI系统在不丢失之前学习的知识的情况下,通过增量https://cloud.tencent.com/developer/news/1230521
3.增量学习概览增量学习是一种机器学习方法,模型逐步学习和增强其知识,而不会忘记以前获取的信息。从本质上讲,它通过随着时间的推移获取新信息来模仿人类的学习模式,同时维护和建立以前的知识。在数据按顺序到达或无法存储所…https://zhuanlan.zhihu.com/p/691181754
4.NeurIPS2022离线强化学习新范式!京东&清华解耦式学习算法离线强化学习算法 (Offline RL) 是当前强化学习最火的子方向之一。离线强化学习不与环境交互,旨在从以往记录的数据中学习目标策略。在面临数据收集昂贵或危险等问题,但是可能存在大量数据领域(例如,机器人、工业控制、自动驾驶),离线强化学习对比到在线强化学习(Online RL)尤其具有吸引力。在利用贝尔曼策略评估算子https://baijiahao.baidu.com/s?id=1748460613920583591&wfr=spider&for=pc
5.机器学习中在线学习批量学习迁移学习主动学习的区别电子online learning包括了incremental learning和decremental learningincremental learning增量学习,是指一个学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识。增量学习非常类似于人类自身的学习模式。因为人在成长过程中,每天学习和接收新的事物,学习是逐步进行的,而且,对已经学习到的知识,人类一般http://eetrend.com/node/100016949
6.2020届计算机科学方向毕业设计(论文)阶段性汇报基于深度学习的跨年龄人脸识别 通过引入对抗模块使得身份相关特征最大程度上和年龄解耦,一定程度上提升了模型性能。 张哲恺 图排序的硬件加速器设计 加速器的最终硬件架构、重要细节及实验结果。 蒋泽天 多图的离线协同式匹配和在线增量式匹配 介绍多图的离线协同式匹配和在线增量式匹配,MGM-FLoyd,MGM-SPFA和FastSPFA。https://zhiyuan.sjtu.edu.cn/html/zhiyuan/announcement_view.php?id=3709
7.介绍增量学习袋鼠社区介绍增量学习 - 一、增量学习1.增量学习的愿景是,在新的数据以流式到达,同时出现新的类别或者新的任务的情况下,人工智能系统能够做到增量学习,在保留旧的知识的情况,能够较好地适应新的领域,学习新的知识。2.增量学习目前需要解决的问题:新知识时往往会遭遇“灾难性https://www.dtstack.com/bbs/article/4953
8.TPAMI2022基于图神经网络实现强化的增量和跨语言社会事件北京航空航天大学、美国伊利诺伊大学芝加哥分校和澳大利亚莫纳什大学联合提出了一个全新的强化、增量且跨语言的社会事件检测体系结构FinEvent在离线、在线和跨语言社会事件检测任务中,FinEvent的模型质量有了显著和持续的提高,分别提高了14%-118%、8%-170%和2%-21%。 https://www.zhuanzhi.ai/document/247a2dcefd61c0025c6693638d8e84c5
9.chapter111.md·StarTogether/mlopsbook要加强模型实时性最重要的做法是改变模型的训练方式,按照实时性强度排序,是全部样本更新、增量更新、在线学习。不同的更新方式当然也会带来不同的效果,例如全量更新,模型会利用某时间段内的所有训练样本进行重新训练,再用训练好的新模型替代老版本的模型,这样的训练方式需要的训练样本量、训练时间长、数据延迟长,但是https://api.gitee.com/StarTogether/mlops-book/blob/master/chapter-11-1.md
10.基于增量学习的CNNLSTM光伏功率预测电气技术2024年05期基于增量学习的CNN-LSTM光伏功率预测,光伏功率预测,长短期记忆(LSTM)网络,增量学习,弹性权重整合(EWC)算法,针对目前大部分光伏功率预测模型采用批量离线训练方式,且新建光伏电站训练数据较少的问题,本文提出一种基于增量学习的卷积神经https://wap.cnki.net/qikan-DQJS202405004.html
11.基于深度学习的类别增量学习算法综述期刊近年来,深度学习模型在众多领域取得了广泛成功.现有的深度学习模型大多部署在静态环境下,依赖提前收集好的数据集进行离线训练,模型一经确定,便无法进一步更新.然而,现实中开放动态的环境往往存在以流形式不断到来的数据,包括随时间演进不断产生的新类别数据.因此,理想的机器https://d.wanfangdata.com.cn/periodical/jsjxb202308002
12.阿里云离线数仓)谷粒学苑课时16 : 16_ODS_离线全量表格数据同步完成09:32 课时17 : 17_ODS_离线增量表order_info首次初始化同步05:58 课时18 : 18_ODS_离线增量表使用DataWorks批量一次性同步功能16:13 课时19 : 19_ODS_表格管理设置08:16 课时20 : 20_ODS_增量表的实时同步19:18 https://www.gulixueyuan.com/course/622
13.[图像分割/增量学习]ModelingtheBackgroundforIncrementalLearn一个在数据集A上训练好的模型,再在B上进行训练的时候会完全打乱对A知识的学习。 不同学习算法 offline learning and online learning: 离线学习是训练好后在做预测,在线学习是持续添加训练数据并持续更新模型。 incremental learning and decremental learning: 增量学习是不断学习新的知识并保存以前的知识,递减学习是https://www.cnblogs.com/nrocky/p/13822325.html
14.DiDiFood中的智能补贴实战漫谈架构滴滴技术因此,我们无法如一般线性或者树模型一样直接产出所有特征对于最终输出【增量】的重要度。我们在实践中使用的方法是用一个新的 LightGBM 去拟合离线评估最优模型产出的【预测增量】,并用这个新模型的特征重要度来近似评估各个维度特征的重要性,以此来决策是否加入和剔除特征。选择 LightGBM 的原因是我们对于这个模型的https://www.infoq.cn/article/mpkjAbSW9mwmy5AdArhM
15.西工大潘泉团队:如何解决增量学习中的灾难性遗忘问题?针对类增量学习中的灾难性遗忘问题,该文提出一种不同类的数据流和特征空间双分离的类增量学习算法。进一步,利用实测和仿真数据构建了一个飞机目标高分辨率距离像增量学习数据集,实验结果表明该算法相比其它几种对http://www.myzaker.com/article/66cd1cb28e9f092ed30909ad
16.面向流数据分类的在线学习综述?的流式数据中增量学习一个从输入变量到类标变量的映射函数,以便对 随时到达的测试数据进行准确分类.在线学习范式作为一种增量式的机器学习技术,是流数据分类的有效工具.主要 从在线学习的角度对流数据分类算法的研究现状进行综述.具体地,首先介绍在线学习的基本框架和性能评估方法, 然后着重介绍在线学习算法在一般流数据https://jos.org.cn/jos/article/pdf/5916
17.连续迁移学习跨域推荐排序模型在淘宝推荐系统的应用工业界推荐系统一个重要的特点是模型训练遵循连续学习(Continual Learning)范式,即模型需要使用最新的样本,利用离线增量更新(Incremental Learning)或在线学习(Online Learning)等方式学习最新的数据分布。对于本文研究的跨域推荐任务而言,源域和目标域的模型都是遵循连续学习的训练方式。我们由此提出了一个学术和工业上将有广https://www.51cto.com/article/717581.html
18.深度学习模型在线训练排序策略离线排序模型华为云帮助中心为你分享云计算行业信息,包含产品介绍、用户指南、开发指南、最佳实践和常见问题等文档,方便快速查找定位问题与能力成长,并提供相关资料和解决方案。本页面关键词:深度学习模型 在线训练。https://support.huaweicloud.com/topic/985668-2-S
19.科学网—[转载]强化学习在资源优化领域的应用随着强化学习在围棋、游戏等序列化决策领域大放异彩、在多智能体协作等领域取得较好表现,它的一些优秀特性也得到了资源优化领域的关注。首先,基于强化学习的解决方案决策非常高效。虽然强化学习策略的训练非常耗时,但是这些训练工作可以离线进行,实际中只需要利用训练好的模型进行推理,因而在绝大部分情况下可以做到近似实时https://blog.sciencenet.cn/blog-3472670-1312677.html