<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">El dom., 5 de jun. de 2022 3:06 p. m., Forest Simmons <<a href="mailto:forest.simmons21@gmail.com">forest.simmons21@gmail.com</a>> escribió:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div>You mention sincere vs insincere voting ... which leads to game theory. In game theory most optimal strategies are mixed ... stochastic combinations of pure (deterministic) strategies.<div dir="auto"><br></div><div dir="auto">So it is a matter of luck if it turns out that a deterministic strategy is optimal.</div><div dir="auto"><br></div><div dir="auto">We think of Approval as a deterministic method, but that's only because we have externalized optimal strategy considerations to the (cagey) voters and their (mostly gut level) probability estimates.</div><div dir="auto"><br></div><div dir="auto">Back to multi-winner methods. A rule of thumb for a minimum number of seats for good proportional representation is the reciprocal of S=Sum (p_i)^2, where p_i is the probability that candidate i would get elected by random favorite ballot.</div><div dir="auto"><br></div><div dir="auto"> In general, Sum p_i*r_i is a weighted arithmetic mean of the r values, where the p values are the normalized weights.</div><div dir="auto"><br></div><div dir="auto">So the given sum S is a kind of mean value of the p values. If there were n of them, and they were all equal, the mean would be 1/n, so that the rule of thumb would yield 1/(1/n), that is n, which makes perfect sense.</div><div dir="auto"><br></div><div dir="auto">The same would work for any other kind of weighted mean.  For example the weighted geometric mean:</div><div dir="auto"><br></div><div dir="auto">G=Prod(r_i^p_i) is a weighted geometric mean of the r values where the p values are the (,normalized) weights.</div><div dir="auto"><br></div><div dir="auto">If the r vector is a copy of the p vector we get </div><div dir="auto"><br></div><div dir="auto"><span style="font-family:sans-serif">G=Prod(p_i^p_i)</span></div><div dir="auto"><span style="font-family:sans-serif"><br></span></div><div dir="auto"><span style="font-family:sans-serif">If we take the log of the reciprocal of G, we get ...</span></div><div dir="auto"><span style="font-family:sans-serif"><br></span></div><div dir="auto"><span style="font-family:sans-serif">Log(1/G)=-log(</span><span style="font-family:sans-serif">Prod(p_i)^p_i), which expands to -</span><span style="font-family:sans-serif">Sum(p_i*log p_i), which we recognize as the Shannon Information/ entropy formula.</span></div><div dir="auto"><span style="font-family:sans-serif"><br></span></div><div dir="auto"><span style="font-family:sans-serif">A local global max of this entropy occurs when the distribution is uniform, that is when p_i=1/n.</span></div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">To round out this part of the discussion I should have pointed out that the global min of entropy is zero, which occurs onlywhen all values (except one) of p are zero, corresponding to a single winner (n=1) election in this context.  </div><div dir="auto"><br></div><div dir="auto">In the strategy context it would signify a pure/deterministic (as opposed to mixed) optimal strategy.</div><div dir="auto"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto"><div><div dir="auto"><span style="font-family:sans-serif"><br></span></div><div dir="auto"><span style="font-family:sans-serif">So it turns out that the rule of thumb formula n=1/S is related to the Shannon information/Entropy of the favorite candidate lottery distribution.  In fact, the log of the rule of thumb value is a good approximation to the Shannon information  ... that is</span></div><div dir="auto"><span style="font-family:sans-serif">log(1/S) ~ log(1/G), in general, and the approximation straightens out to equality if all the p values are equal, or if all are zero except one.</span></div><div dir="auto"><span style="font-family:sans-serif"><br></span></div><div dir="auto"><span style="font-family:sans-serif">So we begin to see connections between statistical mechanics and the various distributions that are so ubiquitous in voting methods. These distributions include mixed strategy distributions, distributions of voters and candidates in various issue spaces, etc.</span></div><div dir="auto"><span style="font-family:sans-serif"><br></span></div><div dir="auto"><span style="font-family:sans-serif">Let's keep our eyes open for more connections!</span></div><div dir="auto"><span style="font-family:sans-serif"><br></span></div><div dir="auto"><span style="font-family:sans-serif">-Forest</span></div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">El dom., 5 de jun. de 2022 10:44 a. m., Kristofer Munsterhjelm <<a href="mailto:km_elmet@t-online.de" target="_blank" rel="noreferrer">km_elmet@t-online.de</a>> escribió:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 05.06.2022 19:16, Carl Schroedl wrote:<br>
> As a software guy, the connection I make is to something I have wondered<br>
> for a while -- whether it is useful to study social choice functions as<br>
> lossy compression algorithms. I haven't thought it through, but it could<br>
> be interesting to see if the rate-distortion branch of information<br>
> theory would apply.<br>
<br>
If you're trying to design a method that has the best possible VSE for a<br>
ranked voting method, then it may be possible to use ideas from vector<br>
quantization. In a spatial model, the voters rank the candidates<br>
according to proximity, and then the method finds the winner that's<br>
closest to the voters using only this information. So it's trying to<br>
find a vector (n-dimensional point) that's closest, in an Euclidean<br>
sense, to the distribution of the voters... though unlike ordinary VQ,<br>
it doesn't know the actual distances, only their ranking.<br>
<br>
Similarly, I'd say quota-based proportional representation is like<br>
clustering. Monroe's method is the most obvious clustering-like PR<br>
method: you assign each candidate a voter, so that each candidate has<br>
the same number of voters, and so that the total voter-candidate<br>
distance is minimized. (One possible objection to Monroe is that it<br>
doesn't care about what the voter thinks about the composition of the<br>
rest of the assembly, just his preferred candidate.)<br>
<br>
That's for honest voters, though. With strategic voting, the<br>
"compression method" (clustering method) becomes partly adversarial:<br>
keep the outcome from degrading too much if some fraction of the votes<br>
is arbitrarily altered.<br>
<br>
-km<br>
----<br>
Election-Methods mailing list - see <a href="https://electorama.com/em" rel="noreferrer noreferrer noreferrer" target="_blank">https://electorama.com/em</a> for list info<br>
</blockquote></div></div></div>
</blockquote></div></div></div>