马里奥matlab代码我们考虑具有合理激活函数的神经网络。在深度学习中,非线性激活函数的选择对神经网络的性能至关重要。我们基于网络复杂性建立了最佳边界,并证明有理神经网络比深度为ReLU的网络更有效地逼近平滑函数。数值实验表明,有理激活函数的灵活性和平滑性使其成为ReLU的有吸引力的替代方案。有关更多信息,请参阅NicolasBoullé、Yuji Nakatsukasa和Alex Townsend的arXiv预印本arXiv:2004.01902(2020)。Python软件包的依赖项详见requirements.txt文件,主要使用TensorFlow(版本1.14)和Keras(版本2.2.4)。我们在GAN实验中使用GPU版本的TensorFlow:tensorflow-gpu。Python文件RationalLayer.py包含有理激活函数的TensorFlow实现,默认情况下初始化为ReLU函数的类型(3,2)近似。使用from RationalLayer import R。