我应该优化到什么程度?这是我经常问自己的一个问题,我想你也一定问过。如果你在为一个目标进行优化,比如建立一家世代相传的公司,寻找完美的生活伴侣,亦或是设计一套完美的锻炼计划,那么你的倾向就是努力做到尽善尽美。
优化是对完美的追求--我们向着目标优化是因为不想将就。但是,一味追求完美是否更好呢?换句话说,优化到什么程度才算过了?
长期以来,人们一直在试图弄清楚优化的难度。你可以把他们放在一个光谱上。
一边是约翰·梅尔(John Mayer),他认为少即是多。在他的代表作《地心引力》中,他唱道:
“哦,两倍的好并不是真的有两倍那么好/也不能像一半那样长久/想要更多的东西会将我逼至俯首”。
多莉·帕顿(Dolly Parton)则持相反意见。她的名言是:“少并不代表多。多就是多。”
亚里士多德不同意这两种观点。他在 2000 年前就提出了黄金分割点:当你针对一个目标进行优化时,你需要的是过多和过少之间的中间值。
我们该选哪一个呢?现在是 2023 年。我们希望在这个问题上多一点量化,少一点空泛。理想情况下,我们可以用某种方法来衡量针对目标进行优化的效果如何。
如今,我们经常可以向机器寻求帮助。目标优化是机器学习和人工智能研究人员研究的关键内容之一。为了让神经网络做任何有用的事情,你必须给它一个目标,并努力让它更好地实现这个目标。计算机科学家在神经网络方面找到的答案,可以教给我们很多关于优化的一般知识。
机器学习研究员 Jascha Sohl-Dickstein 最近发表的一篇文章让我感到特别兴奋,他提出了以下观点:
机器学习告诉我们,过多地针对目标进行优化会让事情变得错得离谱--你可以通过量化的方式看到这一点。当机器学习算法过度优化目标时,往往会忽略全局,导致研究人员所说的 "过度拟合"。在实践中,当我们过度专注于完善某个流程或任务时,我们就会过于适应手头的任务,而无法有效地应对变化或新挑战。
因此,说到优化——事实上,"多 "并不意味着 "多"。接招吧,多莉·帕顿。
这篇文章是我试图总结亚萨(Jachsa)的文章,并用通俗易懂的语言解释他的观点。为了理解这一点,让我们来看看机器学习模型的训练是如何进行的。
Mindsera 利用人工智能帮助你发掘隐藏的思维模式,揭示思维盲点,更好地了解自己。
你可以根据有用的框架和心智模式,利用日志模板来构建自己的思维,从而做出更好的决定,改善自己的健康状况,提高工作效率。
Mindsera人工智能导师模仿马库斯·奥勒留(Marcus Aurelius)和苏格拉底(Socrates)等思想巨人的思维,为你提供洞察力的新途径。
智能分析会根据你的写作生成原创作品,测量你的情绪状态,反映你的个性,并给出个性化建议,帮助你提高。
建立自我意识,理清思路,在日益不确定的世界中取得成功。
开始吧。
想要成为志愿者?可戳此处。
👇
设想一下,你期望创建一个机器学习模型,它在分类狗的图片上有着出色的表现。你希望能够输入一张狗的照片,并获得相应的狗的品种。但你不只是希望得到一个常规的狗图片分类器。你追求的是无以伦比的机器学习分类器,不计代价、不懈编程、借助无数的咖啡。(毕竟,我们正在优化。)
那么,如何达成这一愿景呢?虽然有多种策略,但你很可能选择使用监督学习。监督学习犹如为你的机器学习模型配备一位导师:它通过不断向模型提问并在其出错时进行指正,让模型逐渐熟悉并掌握问题的答案。在此训练过程中,模型将逐步提高其答题的准确性。
首先,你需要准备一个图片数据集来训练你的模型。你为这些图片预先定义好标签,如:“贵宾犬”,“可卡贵宾”,“丹迪丁蒙梗”等。接着,你将这些图片及其对应的标签输入到模型中,让模型开始其学习之旅。
模型的学习方法很像是一个“试错”过程。你展示一个图片给它,它尝试猜测这张图片的标签。如果答案不对,你会对模型进行微调,以期它下次能够给出更为准确的答案。坚持这样的方法,随着时间的流逝,你会发现模型在预测训练集内图片的标签时表现得越来越出色。
现在,模型在预测训练集中的图片标签上表现得越来越好,你为它设置了一个新任务。你要求模型为那些它在训练中从未见过的狗的图片打标签。
这是一个重要的测试:如果你只询问模型之前见过的图片,这就有点像是让它在测试中作弊。因此,你再找来一些确信模型没见过的狗的图片。
起初,一切都非常顺利。你越是训练模型,它的表现就越好:
但如果你继续训练,模型将开始做出类似AI版的 “在地毯上拉屎” 的行为:这到底是怎么回事?
这里发生了什么?
一些训练会使模型在达到目标上更加优化。但是超过某个点,过多的训练实际上会使情况变得更糟。这在机器学习中是一个被称为 “过拟合” 的现象。
在模型训练中,我们其实进行了一种微妙的操作。
我们希望模型能够很好地为任意的狗狗图片打上标签——这是我们真正的目标。但我们不能直接为此进行优化,因为我们不可能获取所有可能的狗狗图片。取而代之的是,我们为一个代理目标进行优化:一个我们希望能代表真正目标的狗狗图片的小子集。
在代理目标和真实目标之间,有很多相似之处。因此在开始时,模型在这两个目标上都得到了进步。但随着模型训练得越来越深入,这两个目标之间有用的相似性逐渐减少。很快,模型仅仅擅长识别训练集中的内容,而对其他内容则处理得不佳。
随着模型的继续训练,它开始过于依赖你用来训练它的数据集的细节。例如,可能训练数据集中有过多的黄色拉布拉多贵宾犬的图片。当模型过度训练时,它可能错误地学习到所有黄色的狗都是拉布拉多贵宾犬。
当模型遇到与训练数据集特性不同的新图片时,这种过拟合的模型会表现得很糟糕。
过拟合揭示了我们在目标优化探索中的一个重要观点。
首先,当你试图优化任何事物时,你很少是直接优化该事物 —— 你优化的是一个替代措施。在狗狗分类问题中,我们不能针对所有可能的狗的图片来训练模型。相反,我们试图对一组狗的图片子集进行优化,并希望这能够有效地泛化。它确实可以 —— 直到我们过度优化。
这也带来了第二个观点:当你过度优化一个代理函数时,你实际上会远离你最初的目标。
一旦你了解了机器学习中的这种机制,你会开始在各处都能观察到它。
以学校为例:
在学校,我们希望优化对我们所学课程的学科知识的学习。但要衡量你对某个知识了解得有多深入是困难的,因此我们进行标准化测试。标准化测试在某种程度上可以很好地代表你是否了解一个学科。
但当学生和学校对标准化考试成绩施加太大压力时,优化考试成绩的压力开始损害真正的学习。学生变得过于适应提高考试分数的过程。他们学会如何参加考试(或作弊)以优化他们的分数,而不是真正地学习学科知识。
商业世界中也存在过拟合。在书籍《Fooled by Randomness》中,Nassim Taleb写到了一位名叫Carlos的银行家,他是新兴市场债券的一个穿着考究的交易员。他的交易风格是逢低买入:1995年墨西哥货币贬值时,Carlos低点买入,并在危机解除后债券价格上涨时获利。
这种逢低买入的策略为他的公司带来了8000万美元的净收益。但Carlos变得“过度适应”他所接触的市场,而他对优化回报的追求最终导致了他的失败。
1998年夏天,他在一个低点买入了俄罗斯债券。随着夏天的到来,跌势加剧——Carlos继续买入。Carlos不断加倍下注,直到债券价格非常低,他最终损失了3亿美元——这是他到那时为止在整个职业生涯中所赚取的三倍。
正如Taleb在他的书中指出的那样,“在市场上,最成功的交易员可能是那些最适应最新周期的人。”
换句话说,过度优化回报可能意味着过度适应当前的市场周期。你的绩效会在短期内显著提高。但当前的市场周期只是市场行为整体的一个代表——当周期发生变化时,你之前成功的策略可能会突然使你破产。
相同的启发适用于我的业务。Every做的是订阅制媒体的生意,我想要增加MRR(每月重复收入)。为了实现这个目标,我可以通过奖励作者获得更多的页面浏览量来增加我们的文章的流量。
这很可能会起作用!增加流量确实会增加我们的付费订阅者——到一定程度。过了那个点,我敢打赌作者会开始通过点击诱饵或者淫秽的文章提高页面浏览量,这些文章不会吸引那些愿意付费的、参与度高的读者。最终,如果我把Every变成一个点击诱饵工厂,我们的付费订阅者可能会减少,而不是增长。
如果你继续观察你的生活或你的业务,你肯定会发现同样的模式。问题是:我们该怎么办?
机器学习研究者使用许多技术来防止过拟合。Jascha的文章告诉我们可以采取的三大措施:提早停止、引入随机噪声和正则化。
提早停止
这意味着要始终检查模型在其真正目标上的性能,并在性能开始下降时暂停训练。
在Carlos的案例中,他是一位交易员,在购买债券下跌时损失了所有的资金,这可能意味着需要一个严格的亏损控制机制,迫使他在累计亏损达到一定数额后强制他解除交易。
引入随机噪音
如果在机器学习模型的输入或参数中引入噪音,它将更难出现过拟合现象。同样的原理也适用于其他系统。
对于学生和学校来说,这可能意味着在随机时间进行标准化测试,以增加填鸭式备考的难度。
正则化
在机器学习中,正则化用于对模型进行惩罚,以防止其变得过于复杂。模型越复杂,越容易对数据过拟合。这其中的技术细节并不是太重要,但在机器学习之外的其他系统中,可以应用同样的概念来增加系统内的摩擦。
如果我想激励 Every 的所有作者,通过提高页面浏览量来增加我们的月度重复收入,我可以修改奖励页面浏览量的方式,使超过一定阈值的任何页面浏览量逐渐减少计入。
这些都是解决过拟合问题的潜在解决方案,这再次引出了我们最初的问题:优化的最佳水平是什么?
我们所学到的主要教训是,你几乎永远无法直接为一个目标进行优化 - 相反,你通常是在为看起来像你的目标但略有不同的东西进行优化。它是一个代理。
因为你必须为代理进行优化,当你优化得太多时,你会过于擅长最大化你的代理目标 - 这往往会使你远离真正的目标。
因此,需要牢记的一点是:知道你正在为什么进行优化。要知道目标的代理并非目标本身。在优化过程中要保持灵活,当看起来你的代理目标与实际目标之间的有用相似性已经用尽时,要准备停止或切换策略。
至于约翰·梅尔(John Mayer)、多莉·帕顿(Dolly Parton)和亚里士多德(Aristotle)在优化智慧方面的看法,我认为我们必须把奖项颁给亚里士多德和他的黄金分割点。
当你为一个目标进行优化时,最佳的优化水平在过多和过少之间。它是“恰到好处”。
作者|Dan Shipper
翻译| Ines
校对|Nechi
排版|Bo
审核|Bo
原文链接👇
SeeDAO 是一个基于区块链的数字城邦,其表现形态为去中心化的数字网络(SeeDAO Network) 和映射在全球各地的物理据点(Seeshore)由 SeeDAO 成员共建、共治、共享。目前已形成翻译公会、投研公会、研发公会等多个公会,一万余名成员。旨在从教育、信息、活动等多方面助力优质 Web3 项目的诞生。
中文 Twitter :https://twitter.com/see_dao
Global Twitter : https://twitter.com/en_SeeDAO
Discord :https://discord.com/invite/seedao-xyz
Notion :https://seedao.notion.site
Mirror: https://seedao.mirror.xyz
添加小助手微信进入 SeeDAO 新手营:seedao2023