Python - tokenização de palavras

A tokenização de palavras é o processo de dividir uma grande amostra de texto em palavras. Este é um requisito nas tarefas de processamento de linguagem natural, onde cada palavra precisa ser capturada e submetida a análises adicionais, como classificá-las e contá-las para um determinado sentimento, etc. O kit de ferramentas de linguagem natural (NLTK) é uma biblioteca usada para isso. Instale o NLTK antes de prosseguir com o programa python para tokenização de palavras.

conda install -c anaconda nltk

Em seguida, usamos o word_tokenize método para dividir o parágrafo em palavras individuais.

import nltk

word_data = "It originated from the idea that there are readers who prefer learning new skills from the comforts of their drawing rooms"
nltk_tokens = nltk.word_tokenize(word_data)
print (nltk_tokens)

Quando executamos o código acima, ele produz o seguinte resultado.

['It', 'originated', 'from', 'the', 'idea', 'that', 'there', 'are', 'readers', 
'who', 'prefer', 'learning', 'new', 'skills', 'from', 'the',
'comforts', 'of', 'their', 'drawing', 'rooms']

Tokenização de sentenças

Também podemos tokenizar as frases em um parágrafo da mesma forma que tokenizamos as palavras. Nós usamos o métodosent_tokenizePara alcançar isto. Abaixo está um exemplo.

import nltk
sentence_data = "Sun rises in the east. Sun sets in the west."
nltk_tokens = nltk.sent_tokenize(sentence_data)
print (nltk_tokens)

Quando executamos o código acima, ele produz o seguinte resultado.

['Sun rises in the east.', 'Sun sets in the west.']