Closed ohmanu closed 10 years ago
He copiado el documento de la arquitectura y me he liado a hacer cambios. Subo una nueva versión con todos estos cambios. Son bastante radicales, así que sentíos libres de cambiar cualquier cosa que consideréis incorrecto. Dejo también el documento original para que podáis compararlos.
Teóricamente esta todo completo salvo los escenarios de calidad, que pido por favor, haga otra persona.
Al ejecutar las pruebas del crawler se han insertado observaciones en la base de datos aumentando considerablemente el tiempo en el que se muestran los datos (10-20 segundos). Puesto que en la revisión del trabajo se ejecutarán las pruebas, lo dejo así o hacemos algo al respecto.
He hecho algún cambio mas en la tabla de escenarios, porque no entendía que significaba: ¿Escenario: Nueva fuente de datos fiable / Medición de la respuesta : 1 semana? Por mi parte en esta tabla no voy a cambiar nada mas. Por cierto no he visto ningún archivo nuevo de documentación, ¿Donde está? Por último, para subirlo, acuerdate Manu que junto con la documentación deben ir la salida del E. Architect y la tabla.
Estoy dándo formato al documento final.
Otra cosa: En la documentación generada por el eap, ¿No debería de aparecer algo sobre las API?
Aparece en el diagrama de Sistema en forma de interfaz de la base de datos. ¿Debería aparecer en algún sitio mas?
Ok, no lo había visto. Creo que está bien así.
El proyecto ocupa 73Mb, no puedo entregarlo, ¿es posible que sea por culpa de ejecutar las pruebas?
Todo lo demás ya está entregado, falta el proyecto.
Olvidé subir el archivo de documentación :p ya está subido (Documentación v2)
Hola
Perdona la tardanza, te escribo desde un pc donde no tengo ni git ni nada
La prueba del crawler baja algun JSON a public/crawler/downloads que se puede borrar sin problema (pero veo que solo bajo uno de 90kb)
Lo otro que hace es insertar esos datos a la base de datos, que serian en la carpeta public/basedatos los archivos test.script y test.lobs
La solucion mas facil es que pilles las carpetas "crawler" y "basedatosusuarios" y cambies TODOS los ficheros por los de mi rama (RamaCrawler) que serian la version reducida que usamos en la presentacion y todo te funcionaria igual pero a mi me es imposible hacerlo ahora
Haz la prueba y me cuentas, voy a ver si consigo llegar a mi ordenador y hacerlo
Ok, lo pruebo en un momento y te comento.
Vale
Ya tengo un PC decente
Acabo de hacerlo y el proyecto "interior" comprimido me ocupa 13mb Si pillo todo lo que se baja Git si que se va a esos 75Mb pero es que la carpeta .metadata y la .settings que esta subida SOBRA totalmente (alguien se lio con importaciones de Eclipse que esas carpetas son de Eclipse)
¿Las borras tu y lo subes o me pongo yo?
51mb qué más puedo quitar?
He quitado los metadata, he sustituido las carpetas crawler y la de la base de datos, pero todavía nada.
Vale, creo que el problema era el .git.
A ver
Una solucion es borrar el fichero test.lobs de la carpeta de la base de datos (copialo antes a otro sitio) ya que "teoricamente" si ese fichero falta HSQLDB recrea la base de datos a partir del fichero test.script
Teniendo en cuenta que el .lobs ocupa 46mb seria una buena opcion. Yo he llegado a tener git pero play aqui imposible asi que
Estoy probando eso.
Yo el manager de HSQLDB si puedo arrancarlo y me muestra datos habiendo borrado el lobs por lo que no deberias tener problemas pero mas vale probarlo antes
Sí, tiene sentido.
No sirve, no encuentra los usuarios.
Ok
De todas formas ¿porque entregar la carpeta externa?
La interna (Observaterra12/Observaterra12) es el proyecto en si ya que fuera solo esta
.git => La "historia" de git (commits, etc) .target => los .class generados al compilar El Readme de github que tambien esta en la interna El fichero de travis que es para conectar travis con github asi que....no se necesita en local Una copia del pom de maven que usa travis y que no consegui que usase el pom interno (el interno para compilar y el externo para travis por lo que el externo sobra)
Yo subiria la carpeta de dentro que comprimida me ocupa 13mb ahora mismo y via
Y en github dejaria todo (con fichero de travis, etc) como esta ahora mismo
Creo que ya está. Eliminé ficheros compartidos y bajó bastante.
Ok, dejo de intentar reducirlo entonces. Perdona mi falta de medios, alejarse del ordenador de uno es lo que tiene
Un saludo
Ya está todo subido. Ahora tengo que volver a subir lo de la documentación porque acabo de ver lo de la versión 2 de Nacho, que me lo puso cuando ya lo había subido todo -_-
Perfecto
Gracias por el curro
En breve empaquetaré el proyecto y lo entregaré, no sin antes eliminar los ficheros que se crean al descargar, compilando por última vez y comprobando que todas las pruebas de Play pasan correctamente.
Cualquier cambio o añadido que queráis hacer, todavía estáis a tiempo. Lo mismo en la documentación.
Sobre los BPMNs. Cuando los tengáis todos listos, dadme el visto bueno para subirlos.