西红柿小说网 > 都市小说 > 穿越:2014 > 第311章 巨额的隐形财富全文阅读

在人脸识别方面、超分辨率重建等方面生成对抗网络更是大有用武之地。

甚至是在语义图像修复方面生成式对抗网络同样是可以大显身手。

除此之外,生成式对抗网络还有很多应用方向。

概括地说,生成式对抗网络的应用前景是相当广阔的。

说起来因为在这个时空机器学习方面的研究比较滞后。

林灰想搬运生成式对抗网络这一模型的话其实也不需要担太多风险。

尽管如此,在将生成式文本摘要方面的彻底搞定之前。

林灰也不着急将生成式对抗网络相关的研究成果搬运出来。

至于为什么林灰不将生成式对抗网络搬出来?

林灰不想给外界其余的学术人员一种割裂感。

就像林灰在过往游戏开发(搬运)时不想给游戏玩家一种割裂感一样。

虽然林灰现在已经有了一定的将生成式对抗网络的推出逻辑基础。

(林灰此前搞得生成式文本摘要里面涉及到的生成式模型,而从尹芙·卡莉那收购来的专利中又涉及到类判别式模型,而生成式对抗网络其组成正是包含有生成式网路和判别式网路……)

但如果林灰贸然搞出生成式对抗网路依旧不是很好。

毕竟生成式对抗网络就应用层面来说和林灰现在一向搞得自然语言处理这一学术领域其实关系不太大。

在这种情况下,林灰莫名其妙推出一个和自然语言处理几乎没啥关系的模型算怎么回事呢?

虽然学术方面无心插柳柳成荫的例子很多,很多学术成果最开始问世的时候目的往往是跑偏的。

但林灰内心信奉的原则是注定了林灰不大可能打破此前延续的惯例。

无论是游戏开发还是学术进展上,林灰都不想给别人一种割裂感。

而且,科技树还是按顺序点比较好。

虽然说作为挂比不按顺序点科技树也可以。

但在多元化的社会下不按规矩办事往往就意味着风险。

乱点科技树,自己的科技逻辑链没形成。

潜在对手却形成了相应的发展脉络。

那么科技成果很有可能被对手所窃取。

这是林灰所不愿意看到的。

现在在林灰看来学术方面他所要做的依然是深耕自然语言处理。

深耕生成式文本摘要。

通过不断的深耕,从自然语言处理这一领域找到破局点

或者说点亮相邻于林灰已点亮科技成果的科技树分支才是最好的。

(林灰倒也不着急,即便是一时之间未找到合适的破局点其实也关系不大。

起码是一个月林灰还是不需要太担心的。

毕竟就生成式文本摘要这方面取得的“突破性进展(成功的搬运)”林灰最起码也能“混”一个硕士学位。

而这也是要林灰消化一段时间了。

其实林灰原本的估计更加乐观。

林灰原本是觉得将生成式文本摘要这个方向的论文搞清楚,就差不多能博士了。

不过通过最近跟尹芙·卡莉的交流,林灰觉得是他过于乐观了。

就像诺奖级成果不一定真的能获得诺奖一样。

就算林灰在生成式文本摘要方面鼓捣出的东西对于这个时空能称得上是博士级甚至更高级别的成果。

但想藉此一步到位获得博士毕业论文也是很有难度的。

毕竟此前林灰搞得学术内容其主要呈现形式都是围绕着生成式文本摘要这样一个算法专利的。

这个时空西方对于专利形式的学术成果更倾向于将之视作偏向于实践的东西,亦即工程上的成果。

而仅仅依靠工程方面的成果想要一步到位弄到博士方面的成果是很麻烦的。

虽然涉及到生成式文本摘要在学术上的收益这个稍微低于林灰的预期,不过问题不大。

林灰觉得学术上步子太大也不完全是好事情。)

既然短时间不搬运生成式对抗网路。

那刚才关于生成式对抗网路的思考岂不是等同于白白浪费脑细胞?

当然不是。

很多时候思维大概就是在一些漫不经心的思考中获得新的启发的。

关于生成式对抗网路这方面的思考,林灰突然意识到他还有一笔巨额的隐形财富。

那就是前世的人工标注数据。

虽然没太认真翻看前世一同携带来的信息。

但人工标注的数据林灰不可能是没有的。

尤其是前世那些企业级硬盘里面绝对不可能没有人工标注数据。

就算没啥图像的人工标注,涉及到一些文本的人工标注,绝对是不可能少了的。

毕竟这种东西相当实用,而且文本标注其实也不是很占地方。

要知道涉及到神经网路学习训练或者说深度学习训练在模型构建的时候可是需要大量的人工标注数据的。

尤其是监督学习和半监督学习更是需要大量的人工标注数据。

通常一个模型在架构的时候需要很多的人工标注的数据。

在调整的时候也需要很多的人工标注数据。

举这样一个例子:

在图象识别里面,经常我们可能需要上百万的人工标注的数据,

在语音识别里面,我们可能需要成千上万小时的人工标注的数据。

涉及到机器翻译更是需要数千万语句标注数据。

说实话作为一个来自前世往后几年的技术人员。

此前涉及到人工标注数据的价值林灰还真没太当回事。

但现在看来,这玩意的价值此前明显被林灰忽视了。

林灰记得在前世2017年看到的一组数据说得是涉及到人工翻译的话。

一个单词的费用差不多是5—10美分之间,一个句子平均长度差不多是30个单词。

如果需要标注一千万个双语句对,也就是我们需要找专家翻译一千万句话,这个标注的费用差不多是2200万美元。

可以看到数据标注的费用是非常非常高的。

而这仅仅是2017年的数据标注成本。

在现在的话标注成本岂不是意味着更高的数据标注费用?

要知道现在几乎不怎么注重无监督学习。

在无监督学习方面更是几乎没啥可堪一用的模型。

在主流的机器学习依旧是靠监督学习和半监督学习。

而举凡是监督学习和半监督学习基本就离不开人工标注的数据。

以这个角度来衡量的话林灰所拥有的一大批现成的人工标注数据岂不是一笔巨额的隐形财富?