Closed nntruong02069999 closed 2 years ago
Copy the following files into directory /usr/local/share/tokenizer/dicts
of container:
acronyms alphabetic chemical_comp d_and_gi.txt Freq2NontoneUniFile i_and_y.txt keyword.freq multiterm_trie.dump nontone_pair_freq nontone_pair_freq_map.dump numeric special_token.strong special_token.weak syllable_trie.dump vndic_multiterm
There are some redundant files but I am not sure which ones.
Em chào anh, Em run elasticsearch với docker , đã cài coccoc-tokenizer và test command được rồi ạ Đây là lỗi khi em run images lên :
Docker file em build image ạ