弹性反向探测的编码训练错误超过100%

本文关键字:错误 100% 编码 探测 | 更新日期: 2023-09-27 18:22:18

我有一个数据集,当加载、归一化并输入前馈神经网络时,默认情况下(没有任何训练)会给我超过100%的错误。130%-150%可能取决于随机权重。我的印象是错误率最多可以是100%?我错了吗?

当我运行迭代时,错误会降至100%以下。

此外,当训练网络(隐藏层和输出的tanh激活函数)时,我有时会得到超过极限(-1,1)的Result值。例如,理想值为1,结果为5.53042334202304(虚构值,但您得到了点)。我很确定这是错的?为什么会发生这种情况?

这是什么混乱,为什么会发生?我的数据是否在某种程度上没有正常化?我是否选择了错误的配置?任何建议都是受欢迎的,因为我在这里的想法已经用完了。

我还上传了我的整个项目,这样你就可以自己查看和测试了。

我的项目数据

我使用Encog Workbench 3.2.0进行所有这些测试,尽管这可能与Encog无关,但我只是不知道我是在做一些基本错误,还是只是在Encog Work台中配置错误。

弹性反向探测的编码训练错误超过100%

首先实现数据的某种规范化和缩放。您可以自己或借助"Analyst Wizard"进行规范化。请注意,这里的数据在分析之前已经标准化了。我还注意到,在你附加的neuralnetwork.eg中,最后一层被标记为"ActivationLinear",在某些情况下,它的输出可能是5。将其更改为"ActivationTANH",并且不会超过1