Python - Dermatização e Lematização

Nas áreas de Processamento de Linguagem Natural encontramos situações em que duas ou mais palavras têm uma raiz comum. Por exemplo, as três palavras - concordado, concordando e agradável têm a mesma raiz de concordar. Uma pesquisa envolvendo qualquer uma dessas palavras deve tratá-las como a mesma palavra que está na raiz. Portanto, torna-se essencial vincular todas as palavras à sua palavra raiz. A biblioteca NLTK possui métodos para fazer essa ligação e fornecer a saída mostrando a palavra raiz.

O programa abaixo usa o algoritmo de derivação de Porter para derivação.

import nltk
from nltk.stem.porter import PorterStemmer
porter_stemmer = PorterStemmer()

word_data = "It originated from the idea that there are readers who prefer learning new skills from the comforts of their drawing rooms"
# First Word tokenization
nltk_tokens = nltk.word_tokenize(word_data)
#Next find the roots of the word
for w in nltk_tokens:
       print "Actual: %s  Stem: %s"  % (w,porter_stemmer.stem(w))

Quando executamos o código acima, ele produz o seguinte resultado.

Actual: It  Stem: It
Actual: originated  Stem: origin
Actual: from  Stem: from
Actual: the  Stem: the
Actual: idea  Stem: idea
Actual: that  Stem: that
Actual: there  Stem: there
Actual: are  Stem: are
Actual: readers  Stem: reader
Actual: who  Stem: who
Actual: prefer  Stem: prefer
Actual: learning  Stem: learn
Actual: new  Stem: new
Actual: skills  Stem: skill
Actual: from  Stem: from
Actual: the  Stem: the
Actual: comforts  Stem: comfort
Actual: of  Stem: of
Actual: their  Stem: their
Actual: drawing  Stem: draw
Actual: rooms  Stem: room

A lematização é semelhante ao radical, mas traz contexto para as palavras. Portanto, ela vai além ao vincular palavras com significado semelhante a uma palavra. Por exemplo, se um parágrafo tiver palavras como carros, trens e automóvel, ele vinculará todas elas a automóvel. No programa abaixo, usamos o banco de dados léxico WordNet para lematização.

import nltk
from nltk.stem import WordNetLemmatizer
wordnet_lemmatizer = WordNetLemmatizer()

word_data = "It originated from the idea that there are readers who prefer learning new skills from the comforts of their drawing rooms"
nltk_tokens = nltk.word_tokenize(word_data)
for w in nltk_tokens:
       print "Actual: %s  Lemma: %s"  % (w,wordnet_lemmatizer.lemmatize(w))

Quando executamos o código acima, ele produz o seguinte resultado.

Actual: It  Lemma: It
Actual: originated  Lemma: originated
Actual: from  Lemma: from
Actual: the  Lemma: the
Actual: idea  Lemma: idea
Actual: that  Lemma: that
Actual: there  Lemma: there
Actual: are  Lemma: are
Actual: readers  Lemma: reader
Actual: who  Lemma: who
Actual: prefer  Lemma: prefer
Actual: learning  Lemma: learning
Actual: new  Lemma: new
Actual: skills  Lemma: skill
Actual: from  Lemma: from
Actual: the  Lemma: the
Actual: comforts  Lemma: comfort
Actual: of  Lemma: of
Actual: their  Lemma: their
Actual: drawing  Lemma: drawing
Actual: rooms  Lemma: room