但要想商业上利益最大化,还需要找到人工智能真正的爆点。
像爱因斯坦一堆理论研究,普通人根本无从得知细节。
但只要将爱因斯坦的研究跟“穿越时空”扯上关系。
普通人或许依旧不是很懂爱因斯坦的理论。
但这并不妨碍人们理解爱因斯坦理论牛比了。
这么说的话,“穿越时空”就是爱因斯坦理论的爆点。
什么叫爆点呢?
爆点是指能点燃吃瓜民众情绪的点。
爆点的出现能让普罗大众对技术感兴趣。
即便不能让普罗大众感兴趣。
最起码也得让资本头头/金主感兴趣。
金主不感兴趣,怎么能愉快的圈钱呢?
以生成式摘要算法作为人工智能这方面的切入点/入局点很不错。
只要逻辑自洽就能够顺利平稳完成学术上的闭环成长。
但从让金主感兴趣这点出发的话。
生成式摘要算法这玩意注定不能成为人工智能的爆点。
想要让一众金主从生成式摘要算法这方面看出人工智能这方面广阔的钱景似乎是天方夜谭。
事实上,涉及到生成式摘要算法这东西别说是让金主知道是什么东西了。
很多从业人员也摸不着头脑。
林灰前不久看到普林斯顿大学的学报称:
普林斯顿大学数学系同ggleearc组成了一个新型摘要算法研究团队。
这个研究团队声称将搞出一个比林灰弄得算法更高效的新型算法。
这个团队的课题名称:
——“基于lt长短期记忆神经网络实现高效摘要算法”?
看到这个名称,林灰却有点哭笑不得。
两个很顶尖的团队明明是想搞定一个更牛的摘要算法,为什么却要在长短期记忆神经网络上下功夫呢?
林灰一时之间有点无语,脑海中能想到的形容词只有“南辕北辙”。
林灰印象中“长短期记忆神经网络神经网路”最初提出来是为了处理训练传统循环神经网路时可能遇到的梯度消失和梯度爆炸问题然而也没把这个问题给解决了
虽然长短期记忆神经网络在处理长序列文本的时候可能会有一定的优势。
但只是凭借这玩意显然很难搞定生成式摘要算法关系不大啊。
以这个为研究方向,林灰很怀疑这些人究竟能否搞出来什么成果。
而且此次谷歌研究院是跟普林斯顿大学数学系合作的。
林灰前世没少看一些学术论坛。
虽然正经知识没学到多少。
但关于普林斯顿大学数学系的一些轶事趣谈还是略知一二的。
普林斯顿大学数学系充斥着性情很古怪却又很执拗的人。
林灰感觉谷歌研究院同普林斯顿大学数学系进行合作的话大概率会被带跑偏。
更何况此次二者的研究方向还是lt这个方向。
林灰觉得此二者进行合作研究偏离航向是大概率事件。
但林灰也不能松懈。
适当的高估对手是有必要的。
一个人成功应该是基于自身更为强大的基础上。
而不是要指望着对手更菜。