My first SCI

我的第一篇SCI,从投稿到发表大约经历的整整2年,但总算走过来了。现以时间倒序的方式总结如下,勉励自己,希望在以后的科研工作中少走弯路。 第一部分:WATER投稿及与编辑部的联系 2022年05月24日 15:05 published today https://www.mdpi.com/2073-4441/14/11/1672 2022年05月23日 20:24 (星期一) Could you please provide us a new Figure 7 and […]

从事科研和实践的经历和成长

受疫情影响,我和孙老师作为2019级2班班主任。有一门科研与实践的课程需要给同学们上,受孙老师委托,把自己的从事科研和实践的经历和成长给学生讲一下,同时也是给自己这么多年来工作的一个总结,列提纲如下: 1.科研 第一个探索的学术问题与第一次参与发表科技论文的经历; 自己独立发表核心期刊的研究论文; 读博、出国访学交流学习与探索研究方向; 从第一次指导的研究生毕业到两篇硕士优秀毕业论文; 组建科研团队与合作; 从核心期刊到第一篇EI论文; 从EI论文到第一篇SCI英文论文; “Everything should be made as simple as possible, but no simpler. […]

无法连接到reCAPTCH和无法登录Google邮箱问题

这个两个问题困扰我好久了,今天终于解决,开心纪念一下: 1.无法连接到reCAPTCH 采用Chrome浏览器安装Header Editor插件;配置文件HE-GoogleRedirect.json。搞定,具体可查看博客。 http://2145.replace.favo.xpu93.com/ 2.无法登录Google邮箱 在地址栏后面加“h/”。设置为html邮箱格式就能出来。 具体可看视频。https://www.youtube.com/watch?v=Ksym1wVxUN8

Support Vector Machine

最近学习下支持向量机怎么应用,有机个网页分享的经验比较重要,需要注意。这里面也有一些大坑需要避开。 1.官网 http://www.csie.ntu.edu.tw/~cjlin/libsvm 2.matlab安装libsvm常见问题 我用的Matlab2018b。这里注意,先配置编译器:mex -setup;若没有则安装“MinGW-w64 C/C++ Compiler ”, MEX configured to use ‘MinGW64 Compiler (C++)’ for C++ language compilation. […]

无参数全局优化新算法-转载

https://www.sohu.com/a/214687628_464065 有一个常见的问题:你想使用某个机器学习算法,但它总有一些难搞的超参数。例如权重衰减大小,高斯核宽度等等。算法不会设置这些参数,而是需要你去决定它们的值。如果不把这些参数设置为“良好”的值,这个算法就不会起作用。那么你会怎么做呢?下面我列出了我见过的人们的做法,从最常见到最不常见排序: 猜测和检查:听从你的直觉,选择感觉不错的数字,看看它们是否工作。一直持续这样做,直到厌倦。 网格搜索:让计算机尝试在一定范围内均匀分布的一组值。 随机搜索:让计算机随机挑选一组值。 贝叶斯优化:使用像MATLAB的bayesopt之类的工具来自动选择最佳参数,然后你会发现贝叶斯优化比你的机器学习算法有更多的超参数,你变得沮丧,然后回头使用猜测和检查或网格搜索。 在有一个良好的初始猜测的前提下进行局部优化:这就是MITIE的方法,它使用BOBYQA算法,并有一个精心选择的起始点。由于BOBYQA只寻找最近的局部最优解,所以这个方法是否成功很大程度上取决于是否有一个好的起点。在MITIE的情况下,我们知道一个好的起点,但这不是一个普遍的解决方案,因为通常你不会知道好的起点在哪里。从好的方面来说,这种方法非常适合寻找局部最优解。稍后我会再讨论这一点。 绝大多数人只会用猜测和检查的方法。但应该有更好的方法。我们都希望像贝叶斯优化这样的黑盒子优化策略有用,但根据我的经验,如果你没有将其超参数设置为正确的值,那么它还不如专业的猜测和检查。我认识的每个使用贝叶斯优化的人都有相同的经验。最终,如果我认为手动调参能做得更好,那么就手动呗,而且我的大多数同事也这样想。最终的结果是,我大部分时间都没有使用自动化的超参数选择工具。 我很想有一个无参数的全局优化器,可以信任地用它做超参数选择。 所以当我读到Cédric Malherbe和Nicolas Vayatis在去年的机器学习国际会议上发表的Global optimization of Lipschitz functions这篇论文时,我非常兴奋。在这篇论文中,他们提出了一个非常简单的无参数、而且经证明有效的方法来寻找使函数f(x)最大化的,即使 f(x)有多个局部极大值。论文中的关键思想是保持f(x)的分段线性上界,并用它来决定在每个优化步骤中用于评估的x。因此,如果你已经评估了点x₁,x₂,…,xt,那么您可以在 f(x)上定义一个简单的上界,如下所示: 其中k是f(x)的Lipschitz常数。因此,根据Lipschitz常数的定义, U(x)≥f(x),∀x, […]

probability value, P value

假设检验问题的概率值(probability value, P value)是由统计量的样本观察值得出的原假设可被拒绝的最小显著性水平。 任一检验问题的p值可以根据检验统计量的样本观察值以及检验统计量在H0下一个特定的参考值(一般是H0与H1所规定的参数的分界点)对应的分布求出。