STOC大会被称为世界最顶级的大会是有其道理的。二十分钟的休息时间之后,第二场报告会正式开始。
这次在台上做报告的正是宁为昨天才认识的那位大佬迈克尔一世·乔丹的学生之一,罗伯特·桑迪教授。发表的论文题目是《Learning nonlinear operators via DeepONet based on the universal approximation theorem of operators》。
讲述的内容大概是具有单个隐藏层的神经网络可以精确地逼近任何非线性连续算子,而算子的普遍逼近定理暗示了深层神经网络在从分散数据流学习连续算子或复杂系统时的结构和潜力。
非常新颖的内容,这位罗伯特教授的研究团队以此为启发,设计了一个具有小泛化误差的深度算子网络,它由一个用于编码离散输入函数空间的DNN和另一个用于编码输出函数域的DNN组成,同时证明了该网络可以学习各种显式算子,如积分和分数拉普拉斯算子,以及表示确定性和随机微分方程的隐式算子。
这位罗伯特教授的报告对宁为的启发非常大,大到让他产生了对三月主体程序进行一段大改的冲动。
又是那种玄之又玄的感觉,跟他的演讲内容不同,这位罗伯特教授讲述的内容大都是他们在该算子网络验证过程中发生的一些非常有趣的数据反馈,自然也收获了阵阵掌声。
Loading...
未加载完,尝试【刷新】or【关闭小说模式】or【关闭广告屏蔽】。
尝试更换【Firefox浏览器】or【Chrome谷歌浏览器】打开多多收藏!
移动流量偶尔打不开,可以切换电信、联通、Wifi。
收藏网址:www.dingdian007.com
(>人<;)