以前做過(guò)自然語(yǔ)言處理(nlp)的相關(guān)后端開(kāi)發(fā),之前也談過(guò)搜索引擎Elasticsearch,它們都離不開(kāi)一個(gè)基礎(chǔ)性的工具~分詞,放到Python里面也是處理文本的一個(gè)很基礎(chǔ)常用的東西了,大致干的是這么一件事:將整句話按照一定匹配方法分成n個(gè)詞語(yǔ)。例如:‘百度一下,你就知道’,可分為‘百度’、‘你’、‘就’、‘知道’,這幾個(gè)詞。
由于這是個(gè)基礎(chǔ)性工具,Python作為一個(gè)機(jī)器學(xué)習(xí),搞nlp的首選語(yǔ)言,基本上是調(diào)個(gè)包的事情,但Python的痛點(diǎn)大家也知道~普遍效率低!當(dāng)時(shí)也沒(méi)拜托搞Java的同志幫忙,就琢磨PHP能不能也搞一個(gè),然后,就有了下面這篇介紹~
PHP中文分詞擴(kuò)展
安裝
git clonehttps://github.com/jonnywang/phpjieba.git?
cd phpjieba/cjieba
make
cd..
phpize (如果是多版本PHP,則是例如:/usr/local/php/71/bin/phpize)
./configure(./configure --with-php-config=/usr/local/php/71/bin/php-config)
make
make install
php.ini
加上
extension=jieba.so
jieba.enable=1
jieba.dict_path=/usr/local/phpjieba/data/softs/jz/cjieba/dict#指向jieba庫(kù)dict目錄
function
arrayjieba(string$text,booluse_extract =false,longextract_limit =10)
examples:
ini_set('jieba.enable', 1);? //php.ini 配置了可不用寫(xiě)
ini_set('jieba.dict_path','/usr/local/data/softs/phpjieba/cjieba/dict'); //php.ini 配置了可不用寫(xiě)
try {
$result= jieba('小明碩士畢業(yè)于中國(guó)科學(xué)院計(jì)算所,后在日本京都大學(xué)深造');
echoimplode('/',$result) . PHP_EOL;
//計(jì)算所/小明/京都大學(xué)/深造/碩士/中國(guó)科學(xué)院/畢業(yè)/日本
$result= jieba('小明碩士畢業(yè)于中國(guó)科學(xué)院計(jì)算所,后在日本京都大學(xué)深造', 1, 50);
echoimplode('/',$result) . PHP_EOL;
//小明/碩士/畢業(yè)/于/中國(guó)/科學(xué)/學(xué)院/科學(xué)院/中國(guó)科學(xué)院/計(jì)算/計(jì)算所/,/后/在/日本/京都/大學(xué)/京都大學(xué)/深造
$result= jieba('他心理健康', 1);
echoimplode('/',$result) . PHP_EOL;
//他/心理/健康/心理健康
$result= jieba('this is a demo, my name is jony', 1, 10);
echoimplode('/',$result) . PHP_EOL;
//demo/jony
$result= jieba('this is a demo, my name is jony');
echoimplode('/',$result) . PHP_EOL;
//this/ /is/ /a/ /demo/,/ /my/ /name/ /is/ /jony
$result= jieba('小明碩士畢業(yè)于中國(guó)科學(xué)院計(jì)算所,后在日本京都大學(xué)深造', 2);
print_r($result);
/*
Array
(
[小明] => x
[碩士] => n
[畢業(yè)] => n
[于] => p
[中國(guó)科學(xué)院] => nt
[計(jì)算所] => n
=> x
[后] => f
[在] => p
[日本] => ns
[京都大學(xué)] => nz
[深造] => v
)
*/
} catch (Exception$e) {
echo$e->getMessage . PHP_EOL;
}
還有就是,如果有需要完整匹配的詞語(yǔ),可放到dict文件夾下,這樣就不會(huì)拆分了。性能上,別的不說(shuō),比起Python的分詞包,那是不出意外的秒殺,哈哈~