AI学术圈,又吵了起来,图灵奖获得者、年近古稀的机器学习奠基者、唱衰AI的代表人物等等,纷纷下场“开怼”。
深度学习(DL)是一类机器学习算法,使用多个层逐步从原始数据中提取更高层的特征。
现在,有人给出了更明确的说法,出手者不是旁人,正是深度学习三巨头之一,图灵奖获得者Yann LeCun。他说:
有些人似乎仍然对什么是深度学习感到困惑。以下是深度学习的定义:深度学习就是构建由参数化功能模块构成的网络,并利用基于梯度的优化办法来进行样本训练。
与此定义正交的是学习范式:强化学习、监督学习或自监督学习。不要说“深度学习没法做X” ,如果你真正想的是“监督学习需要太多数据所以没法做X”。
对于其扩展形态(动态网络、可微编程、图神经网络等),网络结构可以依数据动态变化。
这话之后还没完,他又一口气放出了5个排比句,对当前深度学习领域出现的“术语”进行了解读:
别说“DL对对抗样本很敏感”,你真正的意思是“受监督的卷积神经网络对对抗样本很敏感”。
别说“DL存在偏见”,你真正的意思是“纯监督学习再现了训练数据中的偏见”。
别说“DL无法处理组合性”,你真正的意思是“此特定体系结构不能推广到许多以前不可见的部件组合”。
别说“DL不做逻辑推理”,你真正的意思是“一个简单的前馈神经网络不能做长链的推理”。
别说“DL不做因果推理”,你真正的意思是“一个普通的、有监督的神经网络不会自发地发现因果关系。”
本来是对自己去年初提出的观点“深度学习不再是流行概念”进行了一次回应。
深度学习是用于构建复杂模块化可微函数的工具的集合。讨论深度学习能做或不能做什么毫无意义。真正有意义的是如何训练它,以及如何把数据喂给它。
但知名AI“杠精”马库斯看到这条推特,当场不干了:
推崇深度学习的人现在为了不被批评,总是在尽可能的避免提出具体、可验证的主张。这是有一个很危险的信号。
对此,机器学习领域奠基人之一、AAAI前主席Thomas G. Dietterich迅速下场回击:
他说:啊,所以深度学习是AI还是AGI哇?还是说人能想到的未来科技都基于深度学习?
Rodney Brooks说得对啊!深度学习社区现在给自己的定位就是所有未来科技都将归功于DL,但他们并没有真正致力于任何事情。
面对这样的“挑衅”,Dietterich表示图样图森破:DL(以及AI社区)的目标是推动智能系统的科学和工程进步,而不是成为嘴炮王者。
在各方互怼之外,Keras创造者Franois Chollet也另开新帖,对“什么是深度学习”发表了观点。
他认为,截至现在,深度学习的定义对他来说过于“严格”。并且和以下情况是相反的:
⑵ “浅层学习(shadow learning)”,其中只有一个特征提取层。
此外,它没有规定一个特定的学习机制(如反向传播)或一个特定的用例(如监督学习或强化学习),也不需要端到端的联合学习。
而现在的深度学习的定义,只是给出了一个比较清晰边界:哪些是深度学习,哪些不是。例如:
通常由人类工程师编写的程序不是DL,参数化这样的程序来自动学习一些常量仍然不是DL。
有好事网友Ben Kamphaus在马库斯的推文下,当场@了他,还有另一位深度学习巨头、图灵奖获得者Bengio,他说:
Bengio、Chollet以及其他人正在对要解决的问题进行实质性的处理了。
不知道那些愤怒高呼让DL研究人员去做他们已做了很多年工作的人,对解决这一个问题有什么帮助。
场面上,感觉大半个AI学术圈都下场争鸣了。如此盛景,吃瓜群众不免有些懵逼。
当下AIOPS远未达到数据库真正可以脱离专家,实现自治的阶段,因此构建人与工具的生态才是关键。工具不是万能的,利用工具提供的强大的数据处理能力,能大大的提升专家的分析效率,利用一线与三线专家的互动,才能真正的把运维工作做好。而从事AIOPS工作的从业人员,是否也能从杨立昆的反思中获得一些灵感呢?
8月24日消息,虽然Intel和AMD与Nvidia和AMD经常在CPU和GPU相互竞争,不过Intel和Nvidia相互之间都相安无事。不过随着Nvidia进入深度学习领域开始动Intel的蛋糕,这下子Intel也坐不住了。之前Intel和Nvidia因为最新的计算卡的性能问题而大打口水仗,我们也进行了报道。而现在这两家又有新的线