Python - Dermatização e Lematização
Nas áreas de Processamento de Linguagem Natural encontramos situações em que duas ou mais palavras têm uma raiz comum. Por exemplo, as três palavras - concordado, concordando e agradável têm a mesma raiz de concordar. Uma pesquisa envolvendo qualquer uma dessas palavras deve tratá-las como a mesma palavra que está na raiz. Portanto, torna-se essencial vincular todas as palavras à sua palavra raiz. A biblioteca NLTK possui métodos para fazer essa ligação e fornecer a saída mostrando a palavra raiz.
O programa abaixo usa o algoritmo de derivação de Porter para derivação.
import nltk
from nltk.stem.porter import PorterStemmer
porter_stemmer = PorterStemmer()
word_data = "It originated from the idea that there are readers who prefer learning new skills from the comforts of their drawing rooms"
# First Word tokenization
nltk_tokens = nltk.word_tokenize(word_data)
#Next find the roots of the word
for w in nltk_tokens:
print "Actual: %s Stem: %s" % (w,porter_stemmer.stem(w))
Quando executamos o código acima, ele produz o seguinte resultado.
Actual: It Stem: It
Actual: originated Stem: origin
Actual: from Stem: from
Actual: the Stem: the
Actual: idea Stem: idea
Actual: that Stem: that
Actual: there Stem: there
Actual: are Stem: are
Actual: readers Stem: reader
Actual: who Stem: who
Actual: prefer Stem: prefer
Actual: learning Stem: learn
Actual: new Stem: new
Actual: skills Stem: skill
Actual: from Stem: from
Actual: the Stem: the
Actual: comforts Stem: comfort
Actual: of Stem: of
Actual: their Stem: their
Actual: drawing Stem: draw
Actual: rooms Stem: room
A lematização é semelhante ao radical, mas traz contexto para as palavras. Portanto, ela vai além ao vincular palavras com significado semelhante a uma palavra. Por exemplo, se um parágrafo tiver palavras como carros, trens e automóvel, ele vinculará todas elas a automóvel. No programa abaixo, usamos o banco de dados léxico WordNet para lematização.
import nltk
from nltk.stem import WordNetLemmatizer
wordnet_lemmatizer = WordNetLemmatizer()
word_data = "It originated from the idea that there are readers who prefer learning new skills from the comforts of their drawing rooms"
nltk_tokens = nltk.word_tokenize(word_data)
for w in nltk_tokens:
print "Actual: %s Lemma: %s" % (w,wordnet_lemmatizer.lemmatize(w))
Quando executamos o código acima, ele produz o seguinte resultado.
Actual: It Lemma: It
Actual: originated Lemma: originated
Actual: from Lemma: from
Actual: the Lemma: the
Actual: idea Lemma: idea
Actual: that Lemma: that
Actual: there Lemma: there
Actual: are Lemma: are
Actual: readers Lemma: reader
Actual: who Lemma: who
Actual: prefer Lemma: prefer
Actual: learning Lemma: learning
Actual: new Lemma: new
Actual: skills Lemma: skill
Actual: from Lemma: from
Actual: the Lemma: the
Actual: comforts Lemma: comfort
Actual: of Lemma: of
Actual: their Lemma: their
Actual: drawing Lemma: drawing
Actual: rooms Lemma: room