利用加快卷积神经 络(CNN)反向传播(BP)训练的噪声卷积神经 络(NCNN)算法来提高医学图像训练效率。目前,一些深层神经 络使用了20个隐藏的神经元层,只要注入的噪声位于噪声空间中的NCNN超平面之上,NCNN算法就可以使卷积神经 络具有任意数量的隐藏层,从而增强噪声。
BP算法是广义期望最大化(EM)算法的特例,用于迭代最大化似然或对数似然。 BP和广义EM都是迭代梯度算法,它们的对数似然梯度在每个训练时期都是相等的。将BP嵌入到最大似然估计的一般框架中。
让训练样本平方误差最小的BP将负平方误差的指数形式的可能性均等地最大化。最大化对数似然率还可以最小化平方误差。当输出神经元具有条件的高斯激活功能时,这种“经典”的平方误差或最小二乘BP案例发生在似然框架中,使用BP实现更好的卷积神经 络识别性能,从而使更常见的训练集交叉熵最小化。
另外,经过精心选择和注入的噪声速度平均会使EM算法收敛,因为它会迭代地爬升到最接近的可能性高峰。EM噪声增强会导致使用反向传播训练CNN的噪声空间超平面条件,从平均高于CNNN超平面速度的CNN训练中选择噪声。
而NCNC超平面的结果可能有助于解释轶事 告,即随机选择的噪声有时会稍微提高训练效果,因此有助于提高我们医学图像识别的训练速度。
训练BP仅随样本大小线性缩放。训练BP样本仅产生线性时间复杂度,线性时间复杂度之所以产生,是因为BP的前向或预测通道仅具有复杂性。BP的整体线性复杂度与支持向量内核方法的时间复杂度,这种内核方法的二次复杂性来自于他们的预测传递的复杂性。最近的Fastfood内核算法减少了内核复杂度,选取这种算法可能减少时间复杂性,对于大数据的大规模图像有帮助。
增强噪声可以增强对大数据集的采样。处理越来越大的数据集的一种自然方法是从它们中随机采样。这样的采样会丢弃或忽略一些很多数据,但是在许多情况下,足够大的样本数量可以提供足够的统计精度。
与无噪声情况相比,NCNN算法允许用户获取更小的随机样本,并且仍然可以达到给定的性能水平,以获得更好的性能。这便是对于提高医学图像识别与检测训练效率使用的方法思路。
声明:本站部分文章内容及图片转载于互联 、内容不代表本站观点,如有内容涉及侵权,请您立即联系本站处理,非常感谢!