Closed lgmoyano closed 1 year ago
Hola @lgmoyano
Recién subo el demo, perdón por la demora!!
Respecto a los datos, en este ejemplito en particular le paso cuatro archivos:
Más observaciones:
tati-gnn
, en el archivo code/bash/prueba_demo está explicado al principio lo que tuve que hacer para poder poner a andar el demo.tati-gnn
, en code/python/keras_demo.Genial @tatipar mil gracias :)
Según entendí, los scripts de bash leen los datos crudos de /rawdata/ctu-13/ y se van generando los datos de entrada (grafos, features, etc.). Entendí bien?
Si es así, cuánto pesa /rawdata/ctu-13/ zippeado?
Hola @lgmoyano
Claro, hay que hacerle un preprocesamiento a los datos crudos. De todos modos, el @harpomaxx me recordó que habíamos decidido tomar los pkts como pesos, y en lo que yo te indiqué lo que se toman son los bytes.
Hay que hacer algo similar, para quedarse con el dato de los pkts, pero para eso primero hay que descargar los archivos "binetflow.2format" de cada captura en https://www.stratosphereips.org/datasets-ctu13
Para que no pierdas tiempo, te paso directamente los archivos ya procesados, cortesía del Harpo:
nodo origen
nodo destino
peso = pkts
): https://www.dropbox.com/sh/3ve35j3tom0iljm/AAAVK0RzBft09APjZSCE7u4_a?dl=1node
,ID
,OD
,IDW
,ODW
,label
.Yo no tengo el código del preprocesamiento con pkts, para seguirlo deberías mirar harpo-branch-pkts
Genial, gracias a ambos, después les cuento cómo me fue :)
@tatipar, me gustaría correr el demo de Keras que conecta ya con los datos de CTU-13, para mirarlo un poco.
Podrías por favor ponerlo en esta repo en el lugar que te parezca mejor? Supongo que code/python/keras-demo o algó así. Los datos de entrada entiendo que pesan demasiado para ponerlos en el repo. No sé si los estás tratando de alguna manera de antemano. En ese caso comentame cómo para ver si lo puedo hacer andar en mi máquina.
Gracias!