Estoy usando nd4j y dl4j para implementar algún algoritmo de aprendizaje profundo. Sin embargo, no puedo hacer que datavec + dl4j funcione en primer lugar.

Aquí está mi convertidor de imágenes:

public class ImageConverter {

    private static Logger log = LoggerFactory.getLogger(ImageConverter.class);

    public DataSetIterator Convert() throws IOException, InterruptedException {
        log.info("Start to convert images...");

        File parentDir = new File(System.getProperty("user.dir"), "src/main/resources/images/");
        ParentPathLabelGenerator parentPathLabelGenerator = new ParentPathLabelGenerator();

        ImageRecordReader recordReader = new ImageRecordReader(28,28,1,parentPathLabelGenerator);

        FileSplit fs = new FileSplit(parentDir);
        InputSplit[] filesInDirSplit = fs.sample(null, 100);

        recordReader.initialize(filesInDirSplit[0]);
        DataSetIterator dataIter = new RecordReaderDataSetIterator(recordReader, 2, 1, 2);

        log.info("Image convert finished.");

        return dataIter;
    }

}

Aquí está la clase principal:

ImageConverter icv = new ImageConverter();
        DataSetIterator dataSetIterator = icv.Convert();

        log.info("Build model....");
        int numEpochs = 10;

        MultiLayerConfiguration conf = new NeuralNetConfiguration.Builder()
              .seed(123)
              .optimizationAlgo(OptimizationAlgorithm.STOCHASTIC_GRADIENT_DESCENT)
              .iterations(1)
              .learningRate(0.006)
              .updater(Updater.NESTEROVS).momentum(0.9)
              .regularization(true).l2(1e-4)
              .list()
              .layer(0, new ConvolutionLayer.Builder(5, 5)
                      .nIn(28 * 28)
                      .stride(1, 1)
                      .nOut(20)
                      .activation("identity")
                      .build())
              .layer(1, new OutputLayer.Builder(LossFunction.NEGATIVELOGLIKELIHOOD)
                      .nIn(24 * 24)
                      .nOut(2)
                      .activation("softmax")
                      .build())
              .pretrain(false)
              .backprop(true)
              .build();

        MultiLayerNetwork model = new MultiLayerNetwork(conf);
        model.init();
        model.setListeners(new ScoreIterationListener(1));


        log.info("Train model....");
        for( int i=0; i<numEpochs; i++ ){
            model.fit(dataSetIterator);
        }

En las carpetas de imágenes, tengo algunas imágenes en escala de grises de 28x28 ubicadas en la subcarpeta a, b respectivamente.

Sin embargo, se lanza Exception in thread "main" java.lang.IllegalStateException: Unable to get number of of rows for a non 2d matrix.

Mirando los datos de dataSetIterator.next().toString(), es algo como:

[[[...],
...
]]

=================OUTPUT==================
[[1.00, 0.00],
 [1.00, 0.00]]

Además, la salida de dataSetIterator.next().get(0).toString() es

[[[[...],
...
]]]

=================OUTPUT==================
[1.00, 0.00]

Y para el mnisterIterator en los ejemplos, mnisterIterator.next().toString() debería ser algo como:

[[...]...]
=================OUTPUT==================
[[0.00, 0.00, 1.00, 0.00, 0.00, 0.00, 0.00, 0.00, 0.00, 0.00],
...]

De lo cual infiero que el dataSetIterator que devolví contenía datos en formato incorrecto.

¿Alguien sabe cómo solucionarlo?

0
Steven Luo 29 ago. 2016 a las 12:05

2 respuestas

La mejor respuesta

Ya lo hemos implementado en nuestros ejemplos.

4d y 2d no nos importan, solo especifique la configuración de la capa de convolución: https://github.com/deeplearning4j/dl4j-examples/blob/master/dl4j-examples/src/main/java/org/deeplearning4j/examples/convolution/LenetMnistExample.java#L84

Si tiene más problemas, donde cree que una discusión sería más fácil, venga a nuestro gitter: https://gitter.im/deeplearning4j/deeplearning4j

¡Gracias!

1
Adam Gibson 9 sep. 2016 a las 06:52

Su conjunto de datos es una matriz 4d, pero MNist requiere una matriz 2D https://github.com/deeplearning4j/deeplearning4j/ números / 2010

0
edward he 9 sep. 2016 a las 03:47