戴上Garmin245,感受迎面吹拂的风

作为一名户外跑步爱好者,其实我一直都挺想拥有一块能让我「不带手机出去跑步」的智能手表——支持音乐播放功能、能准确地记录数据,续航也得靠得住。

但说来惭愧,我对于AppleWatch以外的智能手表几乎一无所知,而AppleWatch对我而言又显得略为复杂了一些,因此这个事项就一直搁置着。

上Garmin官网搜索了一下,发现五月新出了一款ForeRunner245,除了维持Garmin一向专业的运动特性以外,245还加入了音乐功能,并可以配合RDP使用。

这不就是我一直在等的那款表嘛!和朋友商量了一下,我骑车前往最近的实体店,并在半个小时后就付款买下了它。

虽说买表的故事充满了冲动消费的色彩,但我在购买前也做了一番功课,而以下特性是让我骑车前往的主要动因。

实体按键是我选择Garmin而非其他智能手表的最重要原因。

我很热爱在雨天跑步。雨天的时候空气清新、凉爽、人少、环境安静,跑道和地面也会格外柔软,但在下雨天按动触屏简直是个灾难。满手的水无法解锁TouchID(已使用FaceID的请忽略这条),打开手机之后要精确地按动某个键也几乎不可能。想拿衣服擦掉水吧,偏偏雨天都穿着滑不溜秋的防水外套。

由于实体按键的方便操作,我现在会很频繁地使用手表的倒计时功能。不管刷牙、洗澡、给猫上药,满手是水甚至戴着手套的时候,实体按键都能很方便地帮上忙。

还有一个实体按键带来的惊喜是,Garmin使用的是大猩猩屏幕,但由于不必用来触摸,所以可以放心大胆地贴膜,也就不存在是保留手感还是保护屏幕的取舍问题了。

根据官方数据,245在智能模式下的续航可以达到7天(这里的智能模式应该是指不使用GPS和音乐功能,但正常和手机连接的情况);而在音乐模式下续航大约是6个小时,就是说可以听着音乐跑完一个全马。

使用音乐功能运动半小时大约会消耗约8%~10%的电量,手表电量在20%以下时音乐功能才会自动停止,因此听着音乐跑完一场全马应该是可行的(蓝牙耳机表示有点勉强)。

Garmin的定位毕竟是专业运动表,它能提供的数据非常准确可靠,即便是在有建筑物遮挡的体育场周围,也能准确地测量距离(和跑道上标示的距离很接近)。

虽然非音乐版的樱桃红款更美貌一点,但我还挺需要音乐功能,因此购买了音乐版。

Spotify是主流音乐平台中唯一还提供Garmin版本的,但没有Premium版本的我使用了原始的USB传输方式。音乐存储空间是5GB,用来存储跑步歌单绰绰有余。

进一步使用之后就发现,Garmin除了我已经充分了解的上述特性,还对运动有以下很好的支持。

之前随心所欲地跑步时,总会出现三天打鱼两天晒网的情形,而究其根本,不能坚持是因为太过苛求自己。每次都很追求速度和距离,总是以对身体负荷较大的方式完成训练。要是在休息日,稍微疲倦一些也就算了,但工作日早晨运动强度过大很容易造成上班时感到疲乏,进而造成隔天想要运动时唤起的都是痛苦回忆,经常躲懒放弃,无法长期坚持。

而Garmin的训练计划则科学得多。设定了最经常跑步的距离、日常运动强度、期望完成训练的周期之后,就会有一套实践的训练计划。我选择的距离是5km、目标是11周完成,因此训练强度不算高。目前是我训练的第7周,工作日的核心训练内容是间歇跑以及从走路到跑步的过渡跑,核心内容大概可以在五分钟之内完成,整个训练的前后十分钟用走路或慢跑来热身和放松;一周只有一次距离较长的训练(5km以上),我目前将它安排在周末。由于平时的训练不会让人精疲力竭,所以坚持起来不太费力(有时候到了上午十点我甚至会忘了六点多还跑过步),而且我也可以花更多精力在调整跑姿这件事上,更健康和可持续。

Garmin的课程设置也不死板,虽然有设定好训练日期,但可以通过reschedule重新安排一周内的课程,只要一周内能完成三次训练就可以。目前是训练的第八周,前七周21次的训练任务我全都没有落下,光这一点就是工作之后没做到过的事了。

我买RDP的主要原因是当天去柜台购买时刚好撞上220元的折扣价,但就目前的使用感受而言,它为Garmin加成的价值远不止这个价。

RDP的体积非常小,重量也可以忽略不计,跑步前夹在运动裤的裤腰处就可以进行运动监测。而且它还有一定的防水性,虽然每次运动完手表都会提示要及时取下RDP,但有一次我还是不小心丢进了洗衣机,不过换了个电池后它依然是健全的。

我虽然跑得没多好,但很喜爱跑步,对于跑步最大的担忧是「如果过几年就不能这么跑了该怎么办」,所以之前左膝的疼痛让我颇为担忧,渐渐地会在跑步时有意无意地减轻对左膝的压力。

戴上RDP后第一次跑步我就吓了一跳:左右边身体的平衡是46%/54%,平衡数据全程飙红。于是我在跑步时更注意发力位置、落地高度、用脚踝进行缓冲等等,渐渐可以将身体平衡控制在48%/52%之内,左膝的疼痛反倒也出现得更少了。

Garmin引入了「身体电量」的概念,主要的计算机制是:

如果早起运动、之后则处在平静状态(比如上班工作)的话,一天中的身体电量是先降再升的(一般是睡过午觉之后升到峰值);而如果早晨没有运动,身体电量在一天中则是平缓下降的。

早晨是否运动影响身体电量,左:早晨运动右:早晨未运动

由于我不习惯晚上戴表睡觉,所以早晨初始的身体电量并不准确,但是一天中的电量趋势还是比较符合我的主观感受的。

除了在工作很累的时候拿80的身体电量给自己鼓劲之外,现在这个功能最大的用处就是在逛街或者玩耍后跟朋友撒娇,「你看,我只有10%的电了~」「啊,我要没电了!」。

除了常见的跑步、游泳、骑行等运动外,GarminIQStore还提供一些官方或第三方的运动App,比如瑜伽、远足、跳伞、球类运动、重量训练等等,涵盖了大多数常见的运动场景。

甚至在应用商店中还能看到Hunt&Fish这样的神奇应用,以后触发这个场景时大概可以试试。

除了表盘和专门运动类软件外,Garmin的应用商店中其他种类的应用非常少(无论是官方还是第三方开发),笔记类应用只有一个、提醒类应用空白、唯一一个番茄钟应用也是最近才上架的。

这就导致它完全无法支持什么生活场景,245甚至不支持生成支付二维码(支付版的运动功能弱得多),更别说适配NFC。不过一旦接受了这个设定之后……带纸币去买早餐好像也不是什么大不了的事嘛。

Garmin245从外观上来说就是个直男运动表,不过一旦接受了这个设定……我现在是拿它在所有场合配所有风格的衣服的。

至于同样非常少可选择的表带,只能当作是节省开支了。

表的名字摆在这里,Garmin就是一块forrunner的手表,爱跑步的人类可以拥有,并且推荐搭配RDP一起拥有。但除了运动场景之外,最好不要对它抱有别的期待。

在生活场景中,除了心率、久坐提醒、身体电量、计时器外,我几乎不使用别的功能。它不像AppleWatch那样全面、强大、好看,购买它不像是买了个电子设备,反而更像是给家里买了个洗碗机——除了洗碗以外起不到别的作用,但如果不出什么大问题,可能会用上五六年。

虽然Garmin245是看完《强风吹拂》之后的冲动消费,但到现在为止,它给我带来的正向改变已经值回了售价。

——即便我这辈子都无法成为藏原走,跑步对我而言依然是重要的事。

THE END
1.ChatGPT与传统聊天机器人的不同之处chatgpt文章ChatGPT与传统聊天机器人的不同之处主要体现在模型架构、训练数据、对话连贯性、适应性和功能方面。 1. 模型架构: ChatGPT是基于深度学习的模型,使用了Transformer架构,这种架构可以处理长文本,同时具有较好的并行计算能力。 传统聊天机器人则多采用基于规则或基于统计的机器学习模型,需要手工设计规则,过程繁琐。 https://www.chatgptzc.com/chatgptwenzhang/49093.html
2.Neurips2024解读系列之——IlyaSutskever快速回顾了大家熟知的预训练的几个历史阶段以及scale law究竟scale在哪里,law是什么的经典结果图。 但是,尽管计算设备(更好的GPU,比如H200)还能提升,数据用完了,预训练似乎走到头了? 此处又给出了几种可能得解决办法, 发展Agent代理提高模型性能(时下比较火,又是一个大的方向) https://zhuanlan.zhihu.com/p/12741832800
3.机器学习中的在线学习与离线学习离线训练是什么意思离线学习:一个batch训练完才更新权重,这样的话要求所有的数据必须在每一个训练操作中(batch中)都是可用的,个人理解,这样不会因为偶然的错误把网络带向极端。 这种理解方式在国外论文中出现比较多,国外称为online and batch learning.离线就是对应batch learning.这两种方式各有优点,在线学习比较快,但是有比较高的残差https://blog.csdn.net/a493823882/article/details/83240496
4.大模型是什么意思大模型的应用嘲有哪些→MAIGOO知识大模型通常具有更多的参数和更复杂的结构,这使得大模型在实时性要求较低的场景下具有优势,例如离线批处理、离线训练、离线预测等。小模型通常具有较少的参数和简单的结构,这使得小模型在实时性要求较高的场景下具有优势。 复杂程度: 大模型通常具有更复杂的结构和更多的参数,这使得大模型能够处理更复杂的数据模式和关https://www.maigoo.com/goomai/315161.html
5.相比于离线训练,在线训练的好处有什么?问答离线训练毕竟使用的是 T-1 或者 T-2 的数据去做的,没有对线上实时产生的行为数据进行利用,对于数据的时效性利用相对较差。 比如说,有这样的一个场景,今天我的整个平台只对 14 岁以下的少女做某个运营活动,而平台上充斥了大量的年龄段的客户,整个平台的交互行为都变了,这个时候你的模型还是 T-1 去做的,将https://developer.aliyun.com/ask/446535
6.亭台楼阁范文10篇(全文)1. 鉴赏是什么意思? 提示:评品欣赏 2. 我们来评品欣赏一下本文的美主要体现在哪些方面? (讨论) 提示:归纳鉴赏散文的方法 通常可以从两个大的方面来评价欣赏一篇散文: 1) 语言, 作者的遣词造句是否具有美感, 这叫言内之美, 本文的语言之美体现在修辞美、诗意美、联想美等方面; https://www.99xueshu.com/w/ikeybm7iw2tp.html
7.淘宝推荐嘲的利器:融合复杂目标且支持实时调控的重排模型一个重排模型在线上能为一个权重生成好的序列,一定是因为它在离线训练的时候就已经见过这套权重或者相似的权重了。所以在离线训练的时候,对于每一个 training 的 sample 或者每一个 training 的 batch,都是采样一个 w 做训练的,因为不知道线上真实会遇到什么样的 w,进行采样。https://www.51cto.com/article/773581.html
8.GitHubShaoQiBNU/Google论文对比了上述所有结构的MTL在腾讯视频VCR和VTR两个任务上相对单任务模型的离线训练结果: 可以看到,几乎所有的网络结构都是在一个任务上表现优于单任务模型,而在另一个任务上表现差于单任务模型。尽管MMoE有了一定的改进,在VTR上取得了不错的收益,但在VCR上的收益接近于0。 https://github.com/ShaoQiBNU/Google_MTL
9.推荐模型离线评测效果好,线上效果却不佳的原因推荐系统里非常常见,并且往往非常的隐蔽的一种数据分布不一致的情况被称之为冰山效应,也就是说离线训练用的是有偏的冰山上的数据,而在线上预估的时候,需要预测的是整个冰山的数据,包括大量冰面以下的数据!我们看下面这张图。左边是我们的Baseline,绿色的表示正样本,红色表示负样本,灰色部分表示线上由于推荐系统的“https://www.jianshu.com/p/34489b31c783
10.系统回顾深度强化学习预训练,在线离线等研究这一篇就够了为了追求更少监督的大规模预训练,无监督 RL 领域发展迅速,它允许智能体在没有奖励信号的情况下从与环境的互动中学习。此外,离线强化学习 (offline RL) 发展迅猛,又促使研究人员进一步考虑如何利用无标签和次优的离线数据进行预训练。最后,基于多任务和多模态数据的离线训练方法进一步为通用的预训练范式铺平了道路。https://m.thepaper.cn/newsDetail_forward_20718623
11.如何在本地(离线)使用PrivateGPT训练自定义AI聊天机器人2. PrivateGPT可以离线使用,无需连接任何在线服务器,也无需从OpenAI或Pinecone添加任何API密钥。为了便于使用,它在你的电脑上本地运行一个LLM模型。因此,你必须在你的电脑上下载一个与GPT4All-J兼容的LLM模型。我在下面添加了详细的步骤供你参考。 设置环境来训练一个私人的AI聊天机器人 https://www.wbolt.com/how-train-ai-chatbot-using-privategpt-offline.html
12.chapter111.md·StarTogether/mlopsbook用户T-1 时刻发生的行为(播放某首歌、观看某个主播、打赏/付费),需要在T时刻实时反馈到训练数据中,提供模型学习 下图2-4一个比较常见的特征实时化的实现框架图,主要包括日志系统、离线画像、实时画像,通过 storm、flink、kafka 完成实时数据的处理和传输, 并存储在 hbase 和 redis 中,最后落盘到 hdfs 中。实时https://api.gitee.com/StarTogether/mlops-book/blob/master/chapter-11-1.md
13.蚂蚁金服核心技术:百亿特征实时推荐算法揭秘备注:弹性特征带来一个显著的优势:只要用足够强的L1稀疏性约束,在单机上就能调试任意大规模的特征训练,带来很多方便。我们的hashmap实现是KV化的,key是特征,value是vector的首地址。 离线训练优化 经过这样的改造后,在离线批量学习上,带来了以下变化: 在线训练优化 https://maimai.cn/article/detail?fid=1010621115&efid=mIQCHnkj0zjxlpygUmo5mg
14.基于多时间尺度多智能体深度强化学习无功电压控制方法与流程8.(2)将有载调压分接头(oltc)、电容器组(cb)和储能(es)均定义为智能体,在第一时间尺度阶段,搭建环境和智能体交互的马尔科夫决策过程的交互训练环境;在该过程的交互训练中,输入光伏、风机和负荷的预测数据,采用ddqn算法(double q network)进行离线训练无功优化离散动作策略;训练完毕,得到智能体oltc、cb和es的调https://www.xjishu.com/zhuanli/60/202110597000.html
15.曾真论大模型预训练数据的信息披露另一方面,数据缺乏时效性。模型通常是离线完成预训练后加载到系统中,在与用户交互时通常也不像搜索引擎那样联网寻找答案,因而信息的时效性欠缺;有的系统搭载了检索增强模块,允许模型访问特定的在线知识数据库,但当模型从多个来源聚合信息,结果可能还是从不同文档截取出部分合成一个仍有错误的回答。https://www.jfdaily.com/sgh/detail?id=1258325