机器之心整理
参与:机器之心编辑部
概率理论为理解学习,建立合理的智能系统提供了数学框架。在此演讲中,Ubr首席科学家、剑桥大学教授ZoubinGhahramani回顾了概率学AI领域的基础,然后重点介绍了该领域的研究前沿,涉及到了贝叶斯深度学习、概率编程、贝叶斯优化、数据科学中的AI等主题。他认为,在深度学习革命之后,下一个前进的方向会是概率机器学习。
ZoubinGhahramani是英国皇家学会会士,剑桥大学信息工程系教授,Ubr首席科学家,英国国家数据科学研究所图灵研究所剑桥主任。ZoubinGhahramani教授曾工作或学习于宾夕法尼亚大学、MIT、多伦多大学、伦敦大学学院盖茨比组、卡耐基梅隆大学。他的研究聚焦于机器学习/人工智能概率方法,在这些主题上已经发表了超过篇论文。他曾是GomtricIntllignc(被Ubr收购,成为了UbrAILabs)的联合创始人,指导众多人工智能与机器学习公司。年,因其对机器学习的贡献,被选为英国皇家学会会士。
如今人工智能与机器学习的发展令人振奋。这几年,我们在游戏中取得了各种突破,例如玩Atari游戏、围棋、扑克。更重要的是,如今这个时代对应用机器学习与人工智能非常感兴趣,例如语音识别、计算机视觉、推荐系统、自动驾驶等。
当我们思考人工智能时,会想到我们当前处于什么状态?离我们想要的人工智能还有多远?我们是否有解决未来挑战的理论基础?为了解决赋有挑战性的AI任务,我们需要关于感知、学习、推理与决策的理论。这也是我们建立AI系统的方式。
深度学习的火热与缺陷
如今深度学习是最为最为火热的学习方法。很多人,特别是刚进入AI领域不久的人会认为深度学习可以解决所有问题,是建立智能系统的有力工具。所以,什么是深度学习系统?
深度学习就是神经网络,而神经网络是带有许多参数的可调非线性函数。上图中,参数θ是神经网络的权重。神经网络是特别有趣的函数,因为输入x和参数θ都是非线性的。现在神经网络所做的是,通过一个函数组合从输入x到输出y表示这一函数,也就是神经网络中的层。总结来说,神经网络的核心是非线性函数+基础统计+基础优化。
深度学习可以说是神经网络的重新包装。现代深度学习系统非常类似于80、90年代流行的神经网络模型,也有一些重要的变化:
1.新的架构与算法上的创新(例如多层网络、RLU、dropput、LSTM等);
2.非常重要的是我们当前有非常大的数据集;
3.非常大规模的计算资源(GPU、云);
4.更好的软件工具(Thano、Torch、TnsorFlow),更方便的建立神经网络;
5.还有产业越来越大的投资也媒体