<div dir="ltr"><div>So far some nice ideas have been proposed for measuring how effective a multiwinner method is.</div>
<div>All of the ones proposed are based on n, let n be a list of utility scores for the candidates.</div>
<div>1. ln(2*sum(n)+a) we don't know what a is. It's probably pretty close to a constant, let's just call it 1.</div>
<div>2. sum(n)*ln(2*len(n)+a) same comment</div>
<div> </div>
<div>Note:</div>
<div>values for the ln(2*sum(n)+a) can be computed exactly if you have time on your hands</div>
<div>f(1) = 1</div>
<div>f(2) = 1 + 1/2 => 1.5</div>
<div>f(3) = 1 + 1/2 + 1/3 => 1.83</div>
<div> </div>
<div>3. this iterative procedure:</div>
<div>def sortpav(n):<br>    n.sort()<br>    n.reverse()<br>    ret = 0<br>    for y,x in enumerate(n):<br>        ret += x/float(y+1)<br>    return ret<br></div>
<div>Of course these three procedures can be used for Range Voting, but it is not necessary to accept the validity and perfection of Range Voting to use these as metrics.</div>
<div> </div>
<div>Range Voting resembles utility summation with two fundamental differences 1) people vote strategically and 2) a ceiling</div>
<div> </div>
<div>So, now we move onto the multiwinner bayesian versions. </div>
<div>Unlike single winner, the methods for measuring regret so far proposed have a floor, specifically 0. See, the ln of negative numbers includes pi*i. I do not know how to handle imaginary numbers with regard to voting methods, so I am going to outlaw negative numbers as the lazy solution to the problem.</div>

<div> </div>
<div>If anyone has a multiwinner method to suggest, a criticism to the metric or anything else before I run the simulation please let me know. I know better than to call a vote on which metric to use, so if you have an opinion on one of them please tell me.</div>
</div>