A Toolkit for Korean sentence segmentation
Project description
Kss: A Toolkit for Korean sentence segmentation
This repository contains the source code of Kss, a representative Korean sentence segmentation toolkit. I also conduct ongoing research about Korean sentence segmentation algorithms and report the results to this repository. If you have some good ideas about Korean sentence segmentation, please feel free to talk through the issue.
What's New:
- December 19, 2022 Released Kss 4.0 Python.
- May 5, 2022 Released Kss Fluter.
- August 25, 2021 Released Kss Java.
- August 18, 2021 Released Kss 3.0 Python.
- December 21, 2020 Released Kss 2.0 Python.
- August 16, 2019 Released Kss 1.0 C++.
Installation
Install Kss
Kss can be easily installed using the pip package manager.
pip install kss
Install Mecab (Optional)
Please install one of mecab, konlpy.tag.Mecab to use Kss much faster.
- mecab (Linux/MacOS): https://github.com/hyunwoongko/python-mecab-kor
- mecab (Windows): https://cleancode-ws.tistory.com/97
- konlpy.tag.Mecab (Linux/MacOS): https://konlpy.org/en/latest/api/konlpy.tag/#mecab-class
- konlpy.tag.Mecab (Windows): https://uwgdqo.tistory.com/363
Features
1) split_sentences
: split text into sentences
from kss import split_sentences
split_sentences(
text: Union[str, List[str], Tuple[str]],
backend: str = "auto",
num_workers: Union[int, str] = "auto"
)
Parameters
- text: String or List/Tuple of strings
- string: single text segmentation
- list/tuple of strings: batch texts segmentation
- backend: Morpheme analyzer backend.
backend='auto'
: findmecab
→konlpy.tag.Mecab
→pecab
and use first found analyzer (default)backend='mecab'
: findmecab
→konlpy.tag.Mecab
and use first found analyzerbackend='pecab'
: usepecab
analyzer
- num_workers: The number of multiprocessing workers.
num_workers='auto'
: use multiprocessing with the maximum number of workers if possible (default)num_workers=1
: don't use multiprocessingnum_workers=2~N
: use multiprocessing with the specified number of workers
Usages
-
Single text segmentation
import kss text = "회사 동료 분들과 다녀왔는데 분위기도 좋고 음식도 맛있었어요 다만, 강남 토끼정이 강남 쉑쉑버거 골목길로 쭉 올라가야 하는데 다들 쉑쉑버거의 유혹에 넘어갈 뻔 했답니다 강남역 맛집 토끼정의 외부 모습." kss.split_sentences(text) # ['회사 동료 분들과 다녀왔는데 분위기도 좋고 음식도 맛있었어요', '다만, 강남 토끼정이 강남 쉑쉑버거 골목길로 쭉 올라가야 하는데 다들 쉑쉑버거의 유혹에 넘어갈 뻔 했답니다', '강남역 맛집 토끼정의 외부 모습.']
-
Batch texts segmentation
import kss texts = [ "회사 동료 분들과 다녀왔는데 분위기도 좋고 음식도 맛있었어요 다만, 강남 토끼정이 강남 쉑쉑버거 골목길로 쭉 올라가야 하는데 다들 쉑쉑버거의 유혹에 넘어갈 뻔 했답니다", "강남역 맛집 토끼정의 외부 모습. 강남 토끼정은 4층 건물 독채로 이루어져 있습니다.", "역시 토끼정 본 점 답죠?ㅎㅅㅎ 건물은 크지만 간판이 없기 때문에 지나칠 수 있으니 조심하세요 강남 토끼정의 내부 인테리어.", ] kss.split_sentences(texts) # [['회사 동료 분들과 다녀왔는데 분위기도 좋고 음식도 맛있었어요', '다만, 강남 토끼정이 강남 쉑쉑버거 골목길로 쭉 올라가야 하는데 다들 쉑쉑버거의 유혹에 넘어갈 뻔 했답니다'] # ['강남역 맛집 토끼정의 외부 모습.', '강남 토끼정은 4층 건물 독채로 이루어져 있습니다.'] # ['역시 토끼정 본 점 답죠?ㅎㅅㅎ', '건물은 크지만 간판이 없기 때문에 지나칠 수 있으니 조심하세요', '강남 토끼정의 내부 인테리어.']]
Performance Analysis
1) Test Commands
You can reproduce this experiment using source code and datasets in ./bench/
directory and the source code was copied from here.
Note that the Baseline
is regex based segmentation like re.split(r"(?<=[.!?])\s", text)
.
Name | Command (in root directory) |
---|---|
Baseline | python3 ./bench/test_baseline.py ./bench/testset/*.txt |
Kiwi | python3 ./bench/test_kiwi.py ./bench/testset/*.txt |
Koalanlp | python3 ./bench/test_koalanlp.py ./bench/testset/*.txt --backend=OKT/HNN/KMR/RHINO/EUNJEON/ARIRANG/KAMA |
Kss (ours) | python3 ./bench/test_kss.py ./bench/testset/*.txt --backend=mecab/pecab |
2) Evaluation datasets:
I tested it using the following 6 evaluation datasets. Thanks to Minchul Lee for creating various sentence segmentation datasets.
Name | Descriptions | The number of sentences | Creator |
---|---|---|---|
blogs_lee | Dataset for testing blog style text segmentation | 170 | Minchul Lee |
blogs_ko | Dataset for testing blog style text segmentation, which is harder than Lee's blog dataset | 336 | Hyunwoong Ko |
tweets | Dataset for testing tweeter style text segmentation | 178 | Minchul Lee |
nested | Dataset for testing text which have parentheses and quotation marks segmentation | 91 | Minchul Lee |
v_ending | Dataset for testing difficult eomi segmentation, it contains various dialect sentences | 30 | Minchul Lee |
sample | An example used in README.md (강남 토끼정) | 41 | Isaac, modified by Hyunwoong Ko |
Note that I modified labels of two sentences in sample.txt
made by Issac
because the original blog post was written like the following:
But Issac's labels were:
In fact, 사실 전 고기를 안 먹어서 무슨 맛인지 모르겠지만..
and (물론 전 안 먹었지만
are adverb clauses (부사절), not independent sentences (문장).
So I corrected labels of the two sentences.
3) Sentence segmentation performance (Quantitative Analysis)
The following table shows the segmentation performance based on exact match method. Kss performed best in most cases, and Kiwi performed well. Both baseline and koalanlp performed poorly.
Name | Library version | Backend | blogs_lee | blogs_ko | tweets | nested | v_ending | sample | Average |
---|---|---|---|---|---|---|---|---|---|
Baseline | N/A | N/A | 0.53529 | 0.44940 | 0.51124 | 0.68132 | 0.00000 | 0.34146 | 0.41987 |
Koalanlp | 2.1.7 | OKT | 0.53529 | 0.44940 | 0.53371 | 0.79121 | 0.00000 | 0.36585 | 0.44591 |
Koalanlp | 2.1.7 | HNN | 0.54118 | 0.44345 | 0.54494 | 0.78022 | 0.00000 | 0.34146 | 0.44187 |
Koalanlp | 2.1.7 | KMR | 0.51176 | 0.39583 | 0.42135 | 0.79121 | 0.00000 | 0.26829 | 0.39807 |
Koalanlp | 2.1.7 | RHINO | 0.52941 | 0.40774 | 0.39326 | 0.79121 | 0.00000 | 0.29268 | 0.40238 |
Koalanlp | 2.1.7 | EUNJEON | 0.51176 | 0.37500 | 0.38202 | 0.70330 | 0.00000 | 0.21951 | 0.36526 |
Koalanlp | 2.1.7 | ARIRANG | 0.51176 | 0.41071 | 0.44382 | 0.79121 | 0.00000 | 0.29268 | 0.40836 |
Koalanlp | 2.1.7 | KKMA | 0.52941 | 0.45238 | 0.38202 | 0.58242 | 0.06667 | 0.31707 | 0.38832 |
Kiwi | 0.14.0 | N/A | 0.78235 | 0.60714 | 0.66292 | 0.83516 | 0.20000 | 0.90244 | 0.66500 |
Kss (ours) | 4.0.0 | pecab | 0.86471 | 0.82440 | 0.71910 | 0.87912 | 0.36667 | 0.95122 | 0.76753 |
Kss (ours) | 4.0.0 | mecab | 0.86471 | 0.82440 | 0.73034 | 0.87912 | 0.36667 | 0.95122 | 0.76941 |
You can also compare the performances with the following graphs.
4) Why don't I trust F1 score?
The evaluation source code which I copied from kiwipiepy also provides F1 score (dice similarity),
but I don't believe this is proper metric to measure sentence segmentation performance.
For example, EM score of text.split(" ")
on tweets.txt
is 0.06742. This means it's terrible sentence segmentation method on tweeter style text.
However, F1 score of it on tweets.txt
is 0.54083, and it is similar with the F1 score of Koalanlp KKMA backend (0.56832).
What I want to say is the F1 scores were similar but the performances of segmentation are hugely different.
You can reproduce this with python3 ./bench/test_word_split.py ./bench/testset/tweets.txt
, and here is one of the segmentation example of both method.
Input:
기억해. 넌 그 애의 친구야. 네가 죽으면 마 들레 느가 펑펑 울 거야. 비 체는 슬퍼하겠지. 이 안은 화를 낼 거야. 메이 시는 어쩌면 조금은 생각 해 주지 않을까. 중요한 건 그건 네가 지키고 싶어 했던 사람들이잖아. 어서 가.
Method: Koalanlp KKMA backend
EM score: 0.38202
F1 score: 0.56832
Output:
기억해. 넌 그 애의 친구야.
네가 죽으면 마 들레 느가 펑펑 울 거야.
비 체는 슬퍼하겠지.
이 안은 화를 낼 거야.
메이 시는 어쩌면 조금은 생각 해 주지 않을까.
중요한 건 그건 네가 지키고 싶어 했던 사람들이잖아.
어서 가.
Method: text.split(" ")
EM score: 0.06742
F1 score: 0.54083
Output:
기억해.
넌
그
애의
친구야.
네가
죽으면
마들레느가
펑펑
울거야.
비체는
슬퍼하겠지.
이안은
화를
낼거야.
메이시는
어쩌면
조금은
생각
해주지
않을까.
중요한건
그건
네가
지키고
싶어했던
사람들이잖아.
어서
가.
This means that the F1 score has the advantages for method that cut too finely. Of course, measuring the performance of the sentence segmentation algorithm is difficult, and we need to think more about metrics. However, the character level F1 score may cause users to misunderstand the tool's real performance. So I have more confidence in the EM score, which is a somewhat clunky but safe metric.
5) Where does the difference in performance come from? (Qualitative Analysis)
It is meaningless to simply compare them by number. I definitely want you to see the segmentation results.
Let's take blogs_ko
samples as examples, and compare performance of each library.
For this, I will take the best backend of each library (Kss=mecab, Koalanlp=KKMA), because looking results of all backends may make you tired.
Example 1
- Input text
거제 내려가는 길에 휴게소를 들렸는데 새로 생겼나보더라구요!? 남편과 저, 둘 다 빵러버라 지나칠 수 없어 구매해 먹어봤답니당😊 보성녹차휴게소 안으로 들어오시면 딱 가운데 위치해 있어요ㅎㅎ 그래서 어느 문으로라도 들어오셔도 가깝답니다😉 메뉴판을 이렇고, 가격은 2000원~3000원 사이에 형성 되어 있어요! 이런거 하나하나 맛보는거 너무 좋아하는데... 진정하고 소미미 단팥빵 하나, 옥수수 치즈빵 하나, 구리볼 하나 골랐습니다! 다음에 가면 강낭콩이랑 밤 꼭 먹어봐야겠어요😙
- Label
거제 내려가는 길에 휴게소를 들렸는데 새로 생겼나보더라구요!?
남편과 저, 둘 다 빵러버라 지나칠 수 없어 구매해 먹어봤답니당😊
보성녹차휴게소 안으로 들어오시면 딱 가운데 위치해 있어요ㅎㅎ
그래서 어느 문으로라도 들어오셔도 가깝답니다😉
메뉴판을 이렇고, 가격은 2000원~3000원 사이에 형성 되어 있어요!
이런거 하나하나 맛보는거 너무 좋아하는데... 진정하고 소미미 단팥빵 하나, 옥수수 치즈빵 하나, 구리볼 하나 골랐습니다!
다음에 가면 강낭콩이랑 밤 꼭 먹어봐야겠어요😙
- Source
https://hi-e2e2.tistory.com/193
- Output texts
Baseline:
거제 내려가는 길에 휴게소를 들렸는데 새로 생겼나보더라구요!?
남편과 저, 둘 다 빵러버라 지나칠 수 없어 구매해 먹어봤답니당😊 보성녹차휴게소 안으로 들어오시면 딱 가운데 위치해 있어요ㅎㅎ 그래서 어느 문으로라도 들어오셔도 가깝답니다😉 메뉴판을 이렇고, 가격은 2000원~3000원 사이에 형성 되어 있어요!
이런거 하나하나 맛보는거 너무 좋아하는데...
진정하고 소미미 단팥빵 하나, 옥수수 치즈빵 하나, 구리볼 하나 골랐습니다!
다음에 가면 강낭콩이랑 밤 꼭 먹어봐야겠어요😙
Baseline separated input text into five sentences because it is split when .!?
(final symbols) appears.
First of all, the first sentence was well separated because the finish symbol appeared. However, since these symbols didn't appear well from the second sentence, you can see that they didn't separated.
Koalanlp (KKMA):
거제 내려가는 길에 휴게 소를 들렸는데 새로 생겼나
보더라구요!?
남편과 저, 둘 다 빵 러버라 지나칠 수 없어 구매해 먹어 봤답니당
😊 보성 녹차 휴게소 안으로 들어오시면 딱 가운데 위치해 있어요
ㅎㅎ 그래서 어느 문으로 라도 들어오셔도 가깝답니다
😉 메뉴판을 이렇고, 가격은 2000원 ~3000 원 사이에 형성 되어 있어요!
이런 거 하나하나 맛보는 거 너무 좋아하는데... 진정하고 소미 미 단팥빵 하나, 옥수수 치즈 빵 하나, 구리 볼 하나 골랐습니다!
다음에 가면 강낭콩이랑 밤 꼭 먹어봐야겠어요😙
Koalanlp separates them better than baseline because it uses morphological information. It divided input text into 8 sentences in total.
The first thing that catches your eye is the immature emoji handling.
People usually put some emojis at the end of a sentence, and in this case, the emojis should be included in the sentence.
The second thing is the mispartition between 생겼나
and 보더라구요!?
.
Probably because the KKMA morpheme analyzer recognized that point as a final eomi (종결어미).
This is because the performance of the morpheme analyzer.
Rather, the baseline is a little safer in this area.
Kiwi:
거제 내려가는 길에 휴게소를 들렸는데 새로 생겼나보더라구요!?
남편과 저, 둘 다 빵러버라 지나칠 수 없어 구매해 먹어봤답니당😊
보성녹차휴게소 안으로 들어오시면 딱 가운데 위치해 있어요ㅎㅎ
그래서 어느 문으로라도 들어오셔도 가깝답니다😉 메뉴판을 이렇고, 가격은 2000원~3000원 사이에 형성 되어 있어요!
이런거 하나하나 맛보는거 너무 좋아하는데...
진정하고 소미미 단팥빵 하나, 옥수수 치즈빵 하나, 구리볼 하나 골랐습니다!
다음에 가면 강낭콩이랑 밤 꼭 먹어봐야겠어요😙
Kiwi shows better performance than Koalanlp. It divided input text into 7 sentences.
Most sentences are pretty good, but it didn't separate between 가깝답니다😉
and 메뉴판을
.
The second thing is it separates between 좋아하는데...
and 진정하고
.
This part may be recognized as an independent sentence depending on the viewer,
but the author of the original article did not write this as a sentence.
The original article was written like:
Kss (mecab):
거제 내려가는 길에 휴게소를 들렸는데 새로 생겼나보더라구요!?
남편과 저, 둘 다 빵러버라 지나칠 수 없어 구매해 먹어봤답니당😊
보성녹차휴게소 안으로 들어오시면 딱 가운데 위치해 있어요ㅎㅎ
그래서 어느 문으로라도 들어오셔도 가깝답니다😉
메뉴판을 이렇고, 가격은 2000원~3000원 사이에 형성 되어 있어요!
이런거 하나하나 맛보는거 너무 좋아하는데... 진정하고 소미미 단팥빵 하나, 옥수수 치즈빵 하나, 구리볼 하나 골랐습니다!
다음에 가면 강낭콩이랑 밤 꼭 먹어봐야겠어요😙
The result of Kss is same with gold label. Especially it separates between 가깝답니다😉
and 메뉴판을
.
In fact, that part is the final eomi (종결어미), but many morpheme analyzers confuse the final eomi (종결어미) with the connecting eomi (연결어미).
Kss has a feature to recognize wrongly recognized connected eomi (연결어미). Thus, it was able to separate that domain effectively.
Next, Kss doesn't split between 좋아하는데...
and 진정하고
. it doesn't split sentences simply because .
appears.
In most cases, .
could be the delimiter of sentences,
but in fact there are many exceptions about this.
Example 2
- Input text
어느화창한날 출근전에 너무일찍일어나 버렸음 (출근시간 19시) 할꺼도없고해서 카페를 찾아 시내로 나갔음 새로생긴곳에 사장님이 커피선수인지 커피박사라고 해서 갔음 오픈한지 얼마안되서 그런지 손님이 얼마없었음 조용하고 좋다며 좋아하는걸시켜서 테라스에 앉음 근데 조용하던 카페가 산만해짐 소리의 출처는 카운터였음(테라스가 카운터 바로옆) 들을라고 들은게 아니라 귀는 열려있으니 듣게된 대사.
- Label
어느화창한날 출근전에 너무일찍일어나 버렸음 (출근시간 19시)
할꺼도없고해서 카페를 찾아 시내로 나갔음
새로생긴곳에 사장님이 커피선수인지 커피박사라고 해서 갔음
오픈한지 얼마안되서 그런지 손님이 얼마없었음
조용하고 좋다며 좋아하는걸시켜서 테라스에 앉음
근데 조용하던 카페가 산만해짐
소리의 출처는 카운터였음(테라스가 카운터 바로옆)
들을라고 들은게 아니라 귀는 열려있으니 듣게된 대사.
- Source
https://mrsign92.tistory.com/6099371
- Output texts
Baseline:
어느화창한날 출근전에 너무일찍일어나 버렸음 (출근시간 19시) 할꺼도없고해서 카페를 찾아 시내로 나갔음 새로생긴곳에 사장님이 커피선수인지 커피박사라고 해서 갔음 오픈한지 얼마안되서 그런지 손님이 얼마없었음 조용하고 좋다며 좋아하는걸시켜서 테라스에 앉음 근데 조용하던 카페가 산만해짐 소리의 출처는 카운터였음(테라스가 카운터 바로옆) 들을라고 들은게 아니라 귀는 열려있으니 듣게된 대사.
Baseline doesn't split any sentences because there's no .!?
in the input text.
Koalanlp (KKMA)
어느 화창한 날 출근 전에 너무 일찍 일어나 버렸음 ( 출근시간 19시) 할 꺼도 없고 해서 카페를 찾아 시내로 나갔음 새로 생긴 곳에 사장님이 커피선수인지 커피박사라고 해서 갔음 오픈한지 얼마 안 되 서 그런지 손님이 얼마 없었음 조용하고 좋다며 좋아하는 걸 시켜서 테라스에 앉음 근데 조용하던 카페가 산만 해짐 소리의 출처는 카운터였음( 테라스가 카운터 바로 옆) 들을라고
들은 게 아니라 귀는 열려 있으니 듣게 된 대사.
Koalanlp separates between 들을라고
and 들은
but it is not correct split point.
And I think it doesn't consider predicative use of eomi transferred from noun (명사형 전성어미의 서술적 용법).
Kiwi
어느화창한날 출근전에 너무일찍일어나 버렸음 (출근시간 19시) 할꺼도없고해서 카페를 찾아 시내로 나갔음 새로생긴곳에 사장님이 커피선수인지 커피박사라고 해서 갔음 오픈한지 얼마안되서 그런지 손님이 얼마없었음 조용하고 좋다며 좋아하는걸시켜서 테라스에 앉음 근데 조용하던 카페가 산만해짐 소리의 출처는 카운터였음(테라스가 카운터 바로옆) 들을라고 들은게 아니라 귀는 열려있으니 듣게된 대사.
Kiwi couldn't separate any sentences like baseline. Similarly, it doesn't consider predicative use of eomi transferred from noun (명사형 전성어미의 서술적 용법).
Kss (Mecab)
어느화창한날 출근전에 너무일찍일어나 버렸음 (출근시간 19시)
할꺼도없고해서 카페를 찾아 시내로 나갔음
새로생긴곳에 사장님이 커피선수인지 커피박사라고 해서 갔음
오픈한지 얼마안되서 그런지 손님이 얼마없었음
조용하고 좋다며 좋아하는걸시켜서 테라스에 앉음
근데 조용하던 카페가 산만해짐 소리의 출처는 카운터였음(테라스가 카운터 바로옆)
들을라고 들은게 아니라 귀는 열려있으니 듣게된 대사.
The result of Kss is very similar with gold label, Kss considers predicative use of eomi transferred from noun (명사형 전성어미의 서술적 용법),
and has many exceptions to prevent mistakes. But Kss couldn't split sentences between 산만해짐
and 소리의
.
That part is correct split point, but it blocked by one of the exceptions which I built to prevent wrong segmentation.
6) Speed analysis
I also measured speed of tools to compare their computation efficiency. The following table shows computation time of each tool when it splits sample.txt
(41 sentences).
It is a single blog post, so you can expect the following time when you split a blog post into sentences.
Since the computation time may vary depending on the current CPU status, so I measured 5 times and calculated the average.
Note that every experiment was conducted on single thread / process environment with my M1 macbook pro (2021, 13'inch).
Name | Library version | Backend | Average time (msec) |
---|---|---|---|
Baseline | N/A | N/A | 0.22 |
koalanlp | 2.1.7 | OKT | 27.37 |
koalanlp | 2.1.7 | HNN | 50.39 |
koalanlp | 2.1.7 | KMR | 757.08 |
koalanlp | 2.1.7 | RHINO | 978.53 |
koalanlp | 2.1.7 | EUNJEON | 881.24 |
koalanlp | 2.1.7 | ARIRANG | 1415.53 |
koalanlp | 2.1.7 | KAMA | 1971.31 |
Kiwi | 0.14.0 | N/A | 36.41 |
Kss (ours) | 4.0.0 | pecab | 6929.27 |
Kss (ours) | 4.0.0 | mecab | 43.80 |
You can also compare the speed of tools with the following graphs.
You can also compare the speed of faster tools the following graphs (under 100 msec).
The baseline was fastest (because it's a just regex function), and Koalanlp (OKT backend), Kiwi, Kss (mecab backend) were followed. The slowest library was Kss (pecab backend) and it was about 160 times slower than its mecab backend. Mecab and Kiwi were written in C++, All Koalanlp backends were written in Java and Pecab was written in pure python. I think this difference was caused by speed of each language. Therefore, if you can install mecab, it makes most sense to use Kss Mecab backend.
-
For Linux/MacOS users: Kss tries to install
python-mecab-kor
when you install kss. so you can use mecab backend very easily. But if it was failed, please install mecab yourself to use mecab backend. -
For Windows users: Kss supports
mecab-ko-msvc
(mecab for Microsoft Visual C++), and its konlpy wrapper. To use mecab backend, you need to install one of mecab and konlpy.tag.Mecab on your machine. There are much information about mecab installing on Windows machine in internet like the following.- mecab: https://cleancode-ws.tistory.com/97
- konlpy.tag.Mecab: https://uwgdqo.tistory.com/363
7) Conclusion
I've measured the performance of Kss and other libraries using 6 evaluation datasets, and also measured their speed. In terms of segmentation performance, Kss performed best on most datasets. In terms of speed, baseline was the fastest, and Koalanlp (OKT backend) and Kiwi followed. but Kss (mecab backend) also showed a speed that could compete with others.
However, there are still many difficulties and limitations in Korean sentence separation libraries, including Kss. In fact, it's also because very few people attack this task. If anyone wants to discuss Korean sentence segmentation algorithms with me or contribute to my work, feel free to send an email to kevin.ko@tunib.ai or let me know on the Github issue page.
2) split_morphemes
: split text into morphemes
from kss import split_morphemes
split_morphemes(
text: Union[str, List[str], Tuple[str]],
backend: str = "auto",
num_workers: Union[int, str] = "auto"
)
Parameters
Note that the parameters of split_morpehems
are exactly same with split_sentences
.
- text: String or List/Tuple of strings
- string: single text segmentation
- list/tuple of strings: batch texts segmentation
- backend: Morpheme analyzer backend.
backend='auto'
: findmecab
→konlpy.tag.Mecab
→pecab
and use first found analyzer (default)backend='mecab'
: findmecab
→konlpy.tag.Mecab
and use first found analyzerbackend='pecab'
: usepecab
analyzer
- num_workers: The number of multiprocessing workers.
num_workers='auto'
: use multiprocessing with the maximum number of workers if possible (default)num_workers=1
: don't use multiprocessingnum_workers=2~N
: use multiprocessing with the specified number of workers
Usages
-
Single text segmentation
import kss text = "회사 동료 분들과 다녀왔는데 분위기도 좋고 음식도 맛있었어요 다만, 강남 토끼정이 강남 쉑쉑버거 골목길로 쭉 올라가야 하는데 다들 쉑쉑버거의 유혹에 넘어갈 뻔 했답니다 강남역 맛집 토끼정의 외부 모습." kss.split_morphemes(text) # [('회사', 'NNG'), (' ', 'SP'), ('동료', 'NNG'), (' ', 'SP'), ('분', 'NNB'), ('들', 'XSN'), ('과', 'JKB'), (' ', 'SP'), ('다녀왔', 'VV+EP'), ('는데', 'EC'), (' ', 'SP'), ('분위기', 'NNG'), ('도', 'JX'), (' ', 'SP'), ('좋', 'VA'), ('고', 'EC'), (' ', 'SP'), ('음식', 'NNG'), ('도', 'JX'), (' ', 'SP'), ('맛있', 'VA'), ('었', 'EP'), ('어요', 'EF'), (' ', 'SP'), ('다만', 'MAJ'), (',', 'SC'), (' ', 'SP'), ('강남', 'NNP'), (' ', 'SP'), ('토끼', 'NNG'), ('정', 'NNG'), ('이', 'JKS'), (' ', 'SP'), ('강남', 'NNP'), (' ', 'SP'), ('쉑쉑', 'MAG'), ('버거', 'NNG'), (' ', 'SP'), ('골목길', 'NNG'), ('로', 'JKB'), (' ', 'SP'), ('쭉', 'MAG'), (' ', 'SP'), ('올라가', 'VV'), ('야', 'EC'), (' ', 'SP'), ('하', 'VV'), ('는데', 'EC'), (' ', 'SP'), ('다', 'MAG'), ('들', 'XSN'), (' ', 'SP'), ('쉑쉑', 'MAG'), ('버거', 'NNG'), ('의', 'JKG'), (' ', 'SP'), ('유혹', 'NNG'), ('에', 'JKB'), (' ', 'SP'), ('넘어갈', 'VV+ETM'), (' ', 'SP'), ('뻔', 'NNB'), (' ', 'SP'), ('했', 'VV+EP'), ('답니다', 'EC'), (' ', 'SP'), ('강남역', 'NNP'), (' ', 'SP'), ('맛집', 'NNG'), (' ', 'SP'), ('토끼', 'NNG'), ('정의', 'NNG'), (' ', 'SP'), ('외부', 'NNG'), (' ', 'SP'), ('모습', 'NNG'), ('.', 'SF')]
-
Batch texts segmentation
import kss texts = [ "회사 동료 분들과 다녀왔는데 분위기도 좋고 음식도 맛있었어요 다만, 강남 토끼정이 강남 쉑쉑버거 골목길로 쭉 올라가야 하는데 다들 쉑쉑버거의 유혹에 넘어갈 뻔 했답니다", "강남역 맛집 토끼정의 외부 모습. 강남 토끼정은 4층 건물 독채로 이루어져 있습니다.", "역시 토끼정 본 점 답죠?ㅎㅅㅎ 건물은 크지만 간판이 없기 때문에 지나칠 수 있으니 조심하세요 강남 토끼정의 내부 인테리어.", ] kss.split_morphemes(texts) # [[('회사', 'NNG'), (' ', 'SP'), ('동료', 'NNG'), (' ', 'SP'), ('분', 'NNB'), ('들', 'XSN'), ('과', 'JKB'), (' ', 'SP'), ('다녀왔', 'VV+EP'), ('는데', 'EC'), (' ', 'SP'), ('분위기', 'NNG'), ('도', 'JX'), (' ', 'SP'), ('좋', 'VA'), ('고', 'EC'), (' ', 'SP'), ('음식', 'NNG'), ('도', 'JX'), (' ', 'SP'), ('맛있', 'VA'), ('었', 'EP'), ('어요', 'EF'), (' ', 'SP'), ('다만', 'MAJ'), (',', 'SC'), (' ', 'SP'), ('강남', 'NNP'), (' ', 'SP'), ('토끼', 'NNG'), ('정', 'NNG'), ('이', 'JKS'), (' ', 'SP'), ('강남', 'NNP'), (' ', 'SP'), ('쉑쉑', 'MAG'), ('버거', 'NNG'), (' ', 'SP'), ('골목길', 'NNG'), ('로', 'JKB'), (' ', 'SP'), ('쭉', 'MAG'), (' ', 'SP'), ('올라가', 'VV'), ('야', 'EC'), (' ', 'SP'), ('하', 'VV'), ('는데', 'EC'), (' ', 'SP'), ('다', 'MAG'), ('들', 'XSN'), (' ', 'SP'), ('쉑쉑', 'MAG'), ('버거', 'NNG'), ('의', 'JKG'), (' ', 'SP'), ('유혹', 'NNG'), ('에', 'JKB'), (' ', 'SP'), ('넘어갈', 'VV+ETM'), (' ', 'SP'), ('뻔', 'NNB'), (' ', 'SP'), ('했', 'VV+EP'), ('답니다', 'EC')], # [('강남역', 'NNP'), (' ', 'SP'), ('맛집', 'NNG'), (' ', 'SP'), ('토끼', 'NNG'), ('정의', 'NNG'), (' ', 'SP'), ('외부', 'NNG'), (' ', 'SP'), ('모습', 'NNG'), ('.', 'SF'), (' ', 'SP'), ('강남', 'NNP'), (' ', 'SP'), ('토끼', 'NNG'), ('정은', 'NNP'), (' ', 'SP'), ('4', 'SN'), ('층', 'NNG'), (' ', 'SP'), ('건물', 'NNG'), (' ', 'SP'), ('독채', 'NNG'), ('로', 'JKB'), (' ', 'SP'), ('이루어져', 'VV+EC'), (' ', 'SP'), ('있', 'VX'), ('습니다', 'EF'), ('.', 'SF')], # [('역시', 'MAJ'), (' ', 'SP'), ('토끼', 'NNG'), ('정', 'NNG'), (' ', 'SP'), ('본', 'VV+ETM'), (' ', 'SP'), ('점', 'NNB'), (' ', 'SP'), ('답', 'MAG+VCP'), ('죠', 'EF'), ('?', 'SF'), ('ㅎ', 'IC'), ('ㅅ', 'NNG'), ('ㅎ', 'IC'), (' ', 'SP'), ('건물', 'NNG'), ('은', 'JX'), (' ', 'SP'), ('크', 'VA'), ('지만', 'EC'), (' ', 'SP'), ('간판', 'NNG'), ('이', 'JKS'), (' ', 'SP'), ('없', 'VA'), ('기', 'ETN'), (' ', 'SP'), ('때문', 'NNB'), ('에', 'JKB'), (' ', 'SP'), ('지나칠', 'VV+ETM'), (' ', 'SP'), ('수', 'NNB'), (' ', 'SP'), ('있', 'VV'), ('으니', 'EC'), (' ', 'SP'), ('조심', 'NNG'), ('하', 'XSV'), ('세요', 'EP+EF'), (' ', 'SP'), ('강남', 'NNP'), (' ', 'SP'), ('토끼', 'NNG'), ('정의', 'NNG'), (' ', 'SP'), ('내부', 'NNG'), (' ', 'SP'), ('인테리어', 'NNG'), ('.', 'SF')]]
Kss in various programming languages
Kss is available in various programming languages.
Citation
If you find this toolkit useful, please consider citing:
@misc{kss,
author = {Ko, Hyunwoong and Park, Sang-kil},
title = {Kss: A Toolkit for Korean sentence segmentation},
howpublished = {\url{https://github.com/hyunwoongko/kss}},
year = {2021},
}
License
Kss project is licensed under the terms of the BSD 3-Clause "New" or "Revised" License.
Copyright 2021 Hyunwoong Ko and Sang-kil Park. All Rights Reserved.
Project details
Release history Release notifications | RSS feed
Download files
Download the file for your platform. If you're not sure which to choose, learn more about installing packages.
Source Distribution
File details
Details for the file kss-4.0.3.tar.gz
.
File metadata
- Download URL: kss-4.0.3.tar.gz
- Upload date:
- Size: 44.9 kB
- Tags: Source
- Uploaded using Trusted Publishing? No
- Uploaded via: twine/3.4.1 importlib_metadata/3.7.3 pkginfo/1.7.0 requests/2.25.1 requests-toolbelt/0.9.1 tqdm/4.64.0 CPython/3.7.3
File hashes
Algorithm | Hash digest | |
---|---|---|
SHA256 | 9c36e0311f81d71dffece73f5df0252e0e74f5e80233754b435b4557bc606834 |
|
MD5 | 9d9eec59bd57ba5440b313d2ec7d2f04 |
|
BLAKE2b-256 | 1116c6d51290d17456ad8b75c1b95a5dd7245f775aaeee9c665c8eaf39b50f55 |