2016年,AlphaGo 击败韩国围棋冠军李世石,在媒体报道中,曾多次提及“深度学习”这个概念。而新版本的AlphaGoZero,更充分地运用了深度学习法,不再从人类棋手的以往棋谱记录中开始训练,而是完全靠自己的学习算法,通过自我对弈来学会下棋。经过一段时间的自我学习,它就击败了曾打败李世石的以及曾完胜柯洁的AlphaGo版本。

由此可见,机器的确开始具有了某种学习能力。它在训练中得到的不再只是规则、对象信息,而是还能获得对象出现的可能条件。换言之,它已经能够开始“感受”和捕捉可能性,而不只是现成之物了。这种学习就是一个非线性的、概率的、反馈调整的和逐层逐时地深化和构成的准发生过程。这是一个具有某种真实时间历程的习得过程。