yuntians / paoding

Automatically exported from code.google.com/p/paoding
0 stars 0 forks source link

内存泄漏问题 #27

Open GoogleCodeExporter opened 8 years ago

GoogleCodeExporter commented 8 years ago
使用 paoding ,在lucene2.3.2 以及 lucene2.4.0上面运行
做大量的文件处理,建立索引:大概有20w的文件,每个文件��
�小5K。
运行到一半的时候, 会出现内存溢出异常...

但是如果用lucene自带的分词StandardAnalyzer的话, 
就没这个异常。。。
解析下什么原因?

换其他中文分词,也有这种情况
谢谢

Original issue reported on code.google.com by hongyin...@gmail.com on 27 Nov 2008 at 7:01

GoogleCodeExporter commented 8 years ago
需要您把异常堆栈信息也贴一下

Original comment by qieqie.wang on 28 Nov 2008 at 2:11

GoogleCodeExporter commented 8 years ago
这个问题我也遇到了!
使用 paoding ,在lucene2.3.2 以及 lucene2.4.0上面运行
做大量的文件处理,建立索引:大概有2w多的数据从数据库中
查出来的。
报内存溢出

Original comment by kknd...@gmail.com on 26 Mar 2010 at 10:27

GoogleCodeExporter commented 8 years ago
Analyzer analyzer = new 
PaodingAnalyzer();这个方法就报异常java.lang.OutOfMemoryError。
另外将Analyzer改成单例模式获取,也出现内存溢出问题。
但是换成Analyzer analyzer = new StandardAnalyzer(); 
就不出现内存溢出问题。
内存溢出的可能原因:单个目标文件过大,在切词创建索引时�
��成内存溢出。
寻求解决方案!

Original comment by nea...@gmail.com on 14 Apr 2010 at 10:17

GoogleCodeExporter commented 8 years ago
过了一夜运行正常了,不知道什么原因。

Original comment by nea...@gmail.com on 15 Apr 2010 at 3:44

GoogleCodeExporter commented 8 years ago
把jvm虚拟机的内存调一下,至少不仅仅使用默认的。词库在��
�需要内存

Original comment by qieqie.wang on 15 Apr 2010 at 10:53

GoogleCodeExporter commented 8 years ago
最小多少内存才能保证paoding加载不报内存不够的错误?

Original comment by zhangmen...@gmail.com on 26 Jul 2011 at 8:41