Closed matcasti closed 2 years ago
Esto quedó sin solución? de ser así hoy puedo buscar alternativas.
Sería genial, no he buscado alternativas de momento, pero en esencia tenemos que buscar alternativas para este código, específicamente para la función tokeninazadora que se usa dentro de ese flujo de trabajo
Solucionado gracias al aporte de @carlosmoralesq por brindar referencias con código de ejemplo.
El enlace usado para solucionar este problema fue el siguiente:
Se cambio la función fun_tokenizer
por la siguiente:
fun_tokenizer <- function(j, n_words) {
j <- NLP::words(j)
n_grams <- NLP::ngrams(j, n = n_words)
n_grams <- lapply(n_grams, paste, collapse = " ")
unlist(n_grams, use.names = FALSE)
}
Reemplazando de este modo la dependencia existente con el paquete {RWeka}
y sus eventuales problemas de compatibilidad multiplataforma, pasando todas las comprobaciones del R-CMD-check más estricto (multiplataforma y retrocompatibilidad).
Con esto se cierra la propuesta
Debido a su falta de compatibilidad con OS Windows (ver PR #11 para más detalles), hay que buscar una alternativa para el paquete
{RWeka}
.Actualmente solo se utilizan algunas funciones de este paquete, específicamente
NGramTokenizer
yWeka_control
, que se utilizan dentro de la funcióncrear_sankey()
como herramientas tokenizadoras dentro del paquete{tm}
para seleccionar las palabras.