mirror of
https://github.com/freeCodeCamp/freeCodeCamp.git
synced 2026-04-12 01:00:13 -04:00
1.8 KiB
1.8 KiB
id, title, challengeType, forumTopicId, dashedName
| id | title | challengeType | forumTopicId | dashedName |
|---|---|---|---|---|
| 599d15309e88c813a40baf58 | Entropía | 1 | 302254 | entropy |
--description--
Calculate the Shannon entropy H of a given input string.
Dada la variable aleatoria discreta X que es una cadena de N "símbolos" (total de caracteres) que consta de n caracteres diferentes (n=2 para binario), la entropía de Shannon de X en bits/símbolo es:
H_2(X) = -\\sum\_{i=1}^n \\frac{count_i}{N} \\log_2 \\left(\\frac{count_i}{N}\\right)
donde count_i es el conteo de caracteres n_i.
--hints--
entropy debiera ser una función.
assert(typeof entropy === 'function');
entropy("0") debería regresar 0
assert.equal(entropy('0'), 0);
entropy("01") debería regresar 1
assert.equal(entropy('01'), 1);
entropy("0123") debería regresar 2
assert.equal(entropy('0123'), 2);
entropy("01234567") debería regresar 3
assert.equal(entropy('01234567'), 3);
entropy("0123456789abcdef") debería regresar 4
assert.equal(entropy('0123456789abcdef'), 4);
entropy("1223334444") debería regresar 1.8464393446710154
assert.equal(entropy('1223334444'), 1.8464393446710154);
--seed--
--seed-contents--
function entropy(s) {
}
--solutions--
function entropy(s) {
// Create a dictionary of character frequencies and iterate over it.
function process(s, evaluator) {
let h = Object.create(null),
k;
s.split('').forEach(c => {
h[c] && h[c]++ || (h[c] = 1); });
if (evaluator) for (k in h) evaluator(k, h[k]);
return h;
}
// Measure the entropy of a string in bits per symbol.
let sum = 0,
len = s.length;
process(s, (k, f) => {
const p = f / len;
sum -= p * Math.log(p) / Math.log(2);
});
return sum;
}