@ndvazquez @FdelMazo por favor revisen este PR. Cosas importantes:
Usar un kernel llamado pySpark para trabajar con pySpark. ¿Por qué no usar el mismo de python3? Trabajo mucho con notebooks, trabajo con spark para procesamiento de texto. Para compartir un mismo SparkContext y no setearlo a mano, tengo definido eso en mi kernel.json para que se levante solo. Cuando no trabajo con spark, no quiero el overhead del sparkContext ni de la JVM. Por otro lado, asi es como se crea con las instrucciones de docker y virtualenv!
Esto se puede usar para CI y revisar que las cosas que se suban funcionen sin problemas
@ndvazquez @FdelMazo por favor revisen este PR. Cosas importantes: