Informatica
Informazione ed entropia del testo
Giuseppe Vallefuoco
ENTROPIA DI UN TESTO
COS'E' L' ENTROPIA DEL TESTO?
Il concetto di entropia informazionale nasce con l'esigenza di quantificare il contenuto informativo di sequenze di segnali.Una funzione che misuri il contenuto informativo di un evento A deve dipendere dalla sua probabilità.piccola la probabilità e più sappiamo sul sistema.Se si verificano due eventi indipendenti l'informazione acquisita deve essere la somma delle informazioni legate ai singoli eventi.
+INFO
import collections
import math
def entropia (testo):
parole=testo.split()
frequenze=collections.Counter (parole)
vocabolario=set(frequenze.keys())
numparole=len(vocabolario)
probabparole=[freq/numparole for freq in frequenze.values()]
entropia=-sum([p*math.log2(p) for p in probabparole])
return entropia
testo = open('clarissandseptmus.txt' , 'r').read()
t esto2= open('clarissaparty.txt', 'r').read()
print(entropia(testo))
print(entropia(testo2))
def Jaccard(testo,testo2):
uno=set(testo.split())
due=set(testo2.split())
siml=len(uno & due)/len(uno | due)
return siml
testo= open('clarissandseptmus.txt', 'r').read()
testo2= open ('clarissaparty.txt', 'r').read()
similarita=Jaccard(testo,testo2)
print(similarita)
CONTENUTO INFORMATIVO, VIRGINIA WOLF
14.193990946543332 14.146757307318415 0.12339055793991416
DIGITAL TECH PRESENTATION
GIUSEPPE VALLEFUOCO
Created on May 30, 2023
Start designing with a free template
Discover more than 1500 professional designs like these:
View
Geniaflix Presentation
View
Vintage Mosaic Presentation
View
Shadow Presentation
View
Newspaper Presentation
View
Zen Presentation
View
Audio tutorial
View
Pechakucha Presentation
Explore all templates
Transcript
Informatica
Informazione ed entropia del testo
Giuseppe Vallefuoco
ENTROPIA DI UN TESTO
COS'E' L' ENTROPIA DEL TESTO?
Il concetto di entropia informazionale nasce con l'esigenza di quantificare il contenuto informativo di sequenze di segnali.Una funzione che misuri il contenuto informativo di un evento A deve dipendere dalla sua probabilità.piccola la probabilità e più sappiamo sul sistema.Se si verificano due eventi indipendenti l'informazione acquisita deve essere la somma delle informazioni legate ai singoli eventi.
+INFO
import collections import math def entropia (testo): parole=testo.split() frequenze=collections.Counter (parole) vocabolario=set(frequenze.keys()) numparole=len(vocabolario) probabparole=[freq/numparole for freq in frequenze.values()] entropia=-sum([p*math.log2(p) for p in probabparole]) return entropia testo = open('clarissandseptmus.txt' , 'r').read() t esto2= open('clarissaparty.txt', 'r').read() print(entropia(testo)) print(entropia(testo2)) def Jaccard(testo,testo2): uno=set(testo.split()) due=set(testo2.split()) siml=len(uno & due)/len(uno | due) return siml testo= open('clarissandseptmus.txt', 'r').read() testo2= open ('clarissaparty.txt', 'r').read() similarita=Jaccard(testo,testo2) print(similarita)
CONTENUTO INFORMATIVO, VIRGINIA WOLF
14.193990946543332 14.146757307318415 0.12339055793991416