Files
freeCodeCamp/curriculum/challenges/german/22-rosetta-code/rosetta-code-challenges/entropy.md
2024-01-24 19:52:36 +01:00

1.8 KiB

id, title, challengeType, forumTopicId, dashedName
id title challengeType forumTopicId dashedName
599d15309e88c813a40baf58 Entropie 1 302254 entropy

--description--

Calculate the Shannon entropy H of a given input string.

Bei einer diskreten Zufallsvariablen X, die ein String von N "Symbolen" (insgesamt Zeichen) ist, die aus n verschiedenen Zeichen (n=2 für binär) besteht, ist die Shannon-Entropie von X in Bits/Symbol:

H_2(X) = -\\sum\_{i=1}^n \\frac{count_i}{N} \\log_2 \\left(\\frac{count_i}{N}\\right)

wobei count_i die Anzahl des Zeichens n_i ist.

--hints--

entropy sollte eine Funktion sein.

assert(typeof entropy === 'function');

entropy("0") sollte 0 zurückgeben

assert.equal(entropy('0'), 0);

entropy("01") sollte 1 zurückgeben

assert.equal(entropy('01'), 1);

entropy("0123") sollte 2 zurückgeben

assert.equal(entropy('0123'), 2);

entropy("01234567") sollte 3 zurückgeben

assert.equal(entropy('01234567'), 3);

entropy("0123456789abcdef") sollte 4 zurückgeben

assert.equal(entropy('0123456789abcdef'), 4);

entropy("1223334444") sollte 1.8464393446710154 zurückgeben

assert.equal(entropy('1223334444'), 1.8464393446710154);

--seed--

--seed-contents--

function entropy(s) {

}

--solutions--

function entropy(s) {
    // Create a dictionary of character frequencies and iterate over it.
  function process(s, evaluator) {
    let h = Object.create(null),
      k;
    s.split('').forEach(c => {
      h[c] && h[c]++ || (h[c] = 1); });
    if (evaluator) for (k in h) evaluator(k, h[k]);
    return h;
  }
    // Measure the entropy of a string in bits per symbol.

  let sum = 0,
    len = s.length;
  process(s, (k, f) => {
    const p = f / len;
    sum -= p * Math.log(p) / Math.log(2);
  });
  return sum;
}