博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Jeff Dean本科论文首次曝光!第一批90后出生时,他就在训练神经网络
阅读量:6942 次
发布时间:2019-06-27

本文共 810 字,大约阅读时间需要 2 分钟。

hot3.png

22岁时,你在干嘛?

这两天,现任Google AI掌门,传奇一般的Jeff Dean,再次收获膜拜和引发热议。全因他的本科毕业论文首次曝光。

这篇论文只有8页。

却成为1990年的最优等本科论文,被明尼苏达大学图书馆保存至今。

同时这篇论文表明,整整28年前,Jeff Dean已经在用C语言,为神经网络编写并行计算的代码。

拜Jeff Dean教的众人又沸腾了。

老论文,新热议

有位大概很年轻的网友,看了论文之后在HackerNews上发出感慨:不可思议,Jeff Dean在1990年就开始对神经网络感兴趣。

一句话,引来众多科普和追忆。总结起来,就是当时神经网络正当红。

有人感慨:“神经网络那时候是一件大事,在1980年代后期非常热门,那真是一段美好的时光。”

1990年,正值第二次AI寒冬之前,当时,神经网络、Prolog、LISP语言、模糊逻辑都正在流行,ANN还没有被SVM等超越,日本在AI领域还大有赶超美国之势。

后来成为Jeff Dean同事(实习生 ^_^)的神经网络之父Geoffrey Hinton,当时也已经有很多重要研究发表,反向传播也出现了。

Jeff Dean这篇论文提到的两种并行训练方法,就都是基于反向传播的。

网友@silverlake说,“我几乎与Dean同龄,我的本科项目是用遗传算法改进神经网络。当时人工智能很流行,但不久之后冬天来了。”

1990年代早期,对神经网络和机器学习来说是一段非常有趣的日子。当时物体识别、手写识别等都有出现,所有进展都在快速推进,但很快资金撤走了,项目全都陷入困顿。

“幸好后来GPU、深度反向传播的出现,数据量开始爆炸之后,神经网络卷土重来。”网友@dekhn说。而对于那些在第二次AI寒冬中坚守至今的人来说,显然已经得到了应有的回报。

转载于:https://my.oschina.net/u/3611008/blog/1936528

你可能感兴趣的文章
mycp
查看>>
python连续爬取多个网页的图片分别保存到不同的文件夹
查看>>
linux之SQL语句简明教程---UNION ALL
查看>>
iphone-common-codes-ccteam源代码 CCAudio.mm
查看>>
C++随笔:.NET CoreCLR之GC探索(3)
查看>>
rar 按日期时间备份
查看>>
了解url
查看>>
时间记录日志
查看>>
自我介绍
查看>>
Node.js
查看>>
航空公司判定图练习
查看>>
进程 线程通信方式(转载)
查看>>
1061 Dating
查看>>
在ios上,fixed定位因为input导致手机下面出现空白,视图变小
查看>>
SharePoint 定期备份网站
查看>>
1415-2团队博客汇总表
查看>>
Android Drawable Resource学习(十)、ScaleDrawable
查看>>
Win7(64位旗舰SP1)系统安装Oracle10g
查看>>
设计模式概述
查看>>
C#多个控件有同一个事件,优化
查看>>