A-A+

ei论文造假会被发现吗

2023年05月16日 论文技巧 阅读 108 次浏览 次
摘要:

问:论文数据造假能看出来吗答:论文数据造假能看出来。毕业论文核查的是你的论文与数据库中其他论文文字重复的比例,通常不会审查数据的真实性。即使是外审,那么被查出数据造假概率也并不大,因为每个领域的研究论文区别是很大的,就是审稿人也很难挨个核实数据的真实性。不过,最好也不要这么数液做,会涉嫌学术不端,被发现了后果还是很严重的。在造假的基础上得出的研究数据,无论有多合理、多缜密,都免不了被发现的命敏漏运。当然,这种级别的学术不端是非常难以察觉的,就算被发现后舍恩声称自己计算失误也可以蒙混过关,外界很难认定他有严重的主观捏造行为。但从这时开始,这些不好的数据处理习惯就已经薯拿物为以后更严重的学术欺诈行

问:论文数据造假能看出来吗

  • 答:论文数据造假能看出来。
    毕业论文核查的是你的论文与数据库中其他论文文字重复的比例,通常不会审查数据的真实性。
    即使是外审,那么被查出数据造假概率也并不大,因为每个领域的研究论文区别是很大的,就是审稿人也很难挨个核实数据的真实性。不过,最好也不要这么数液做,会涉嫌学术不端,被发现了后果还是很严重的。
    在造假的基础上得出的研究数据,无论有多合理、多缜密,都免不了被发现的命敏漏运。
    当然,这种级别的学术不端是非常难以察觉的,就算被发现后舍恩声称自己计算失误也可以蒙混过关,外界很难认定他有严重的主观捏造行为。但从这时开始,这些不好的数据处理习惯就已经薯拿物为以后更严重的学术欺诈行为埋下了祸端。
  • 问:ei期刊复现不了

  • 答:为什么很多国内学者的AI的论文复现不了?
    一、数据关系
    因为作者使用的数据比较私密,一般人拿不到,这种情况下,即使作者提供了源代码,但是读者却拿不到数据,也就没法复现算法。
    这种情况在国内学术界很普遍,数据别人没有,这就好像一位奥数老师,自己出了一道奥数题,自己解答出来,然后把解题过程写了论文,这类论文往往说服力不够,故事性不够强。
    二、硬件原因
    深度学习的很多算法,是靠大力出奇迹的方法做出来的。比如谷歌、facebook的一些算法,依靠强大的硬件训练出来。
    普通研究者没有局袭腊那么强大的硬件资源,估计达不到他们的1%的算力,根本无法复现算法。
    三、数据划分和训练方式
    有些论文公开了代码,也公开了数据,但是论文里没有提到数据划分问题,桐滑数据如果比较少的话,不同的划分会导致结果不同。
    四、众所周知的原因
    这个原因大家心知肚明,我就不说太明白了,这个情况出现在很多国内作禅罩者的论文里。这个在公开数据上比较少见。
  • 答:会被撤稿。论文不能复现的后果是会激逗被撤稿。如果被发现,揭穿论文造陵散假一事,就会被要求撤回这篇论文。很可能还会撤销自己取尺铅氏得的学位。
  • 问:研究生论文数据造假会被发现吗

  • 答:研究生论文数据造假会被发现如下:
    造假被查出来的大都是生物,材料之类的领域,然而计算机(特指深度学习)才是重灾区,造假容易复现困难随机性强,别说二流论文,顶会论文都没有参考价值。所以除了廉价劳动力够多的大研究室,其他人论文的数量基本取决于不要脸的程度。这也是我再也不想碰ML领域会议的原因。
    比如组合优化的性能曲线,所有人都知道是个指数曲线,你搞个新的剪枝条件,水一点咱不求正确解,毕竟大部分应用下并不需要正确解,切掉1%的解换来50%的速度是很合理的思想。什么性能改进不够大?5次实验最好的跟最坏的比啊,还不行用C+SIMD写的跟Java的比啊,再不行竖搭说实话你随便编个数也没人看得出来,毕竟理论上行得通,行不通那是他程序写的不好。
    要说上面想法毕竟真的,顶多偷懒不想做实验,到了ML领域之后那就是明明白白的造假了。数据集精选到位,想法再烂几百个实验里只要能挑出一个能看的,那就是顶会苗子——normalization + adaptive learning rate + manifold constraint审稿人怎么知道哪个项work?
    再进一步,古典ML还要你写程序做实验,到了DL里这些全都可以省了,完全可以画图编数据发顶会一步到位。毕竟就是个人肉Architecture Search,随便找个domain画个图,编个比SOTA高一点的精度,一篇论文就诞生了。需要公开数据集和代码?某国际大厂研究院实习生发的顶会论文也带代码,
    最近有些研究都开始明目张碧纤乱胆的把validation dataset的distribution当制约条件,甚至直接sample数据进train loop,好家伙演都不演骑头上侮辱人智商呢是不?人家都把造假上升为novel approach了,悔档就别提被发现了,那是伟大的研究懂不懂。
  • 评论已关闭!