<div dir="auto">It's like the parable of the blind men and the elephant ... you see it from the point(s) of view that are most familiar to you.</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">El jue., 2 de dic. de 2021 3:48 p. m., Kristofer Munsterhjelm <<a href="mailto:km_elmet@t-online.de">km_elmet@t-online.de</a>> escribió:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On 12/2/21 6:05 PM, Colin Champion wrote:<br>
> To judge from the literature I would suppose that voting theory was part <br>
> of first-order logic or of graph theory, but it seems clear that the <br>
> right answer is Bayesian decision theory.<br>
<br>
I would agree with you when the methods are being judged on a how good <br>
it is according to e.g. how often it's susceptible to strategy, or how <br>
often it returns the ideal winner, or its VSE results.<br>
<br>
But I don't think the properties approach is quite as much Bayes stats. <br>
Investigating what kind of properties are compatible or not is not <br>
really a statistical thing: either a method fails (say) monotonicity or <br>
it passes it. Trying to invent methods with new combinations of passing <br>
criteria is... I would say, closer to linear algebra than anything, <br>
although the exact linalg approach for doing so (what I almost did to <br>
show unmanipulable majority and Condorcet as incompatible, and what <br>
Craig Carey did to arrive at IFPP) doesn't really scale.<br>
<br>
One could also argue that it's all economics, because public and social <br>
choice originate in economics (namely, a way to apply economics to <br>
political questions). Things like the median voter theorem and more <br>
generally Hotelling's law feel very "econ-ish".<br>
<br>
> Unfortunately the constructive approach seems to be numerically <br>
> intractable in cases of interest. If the number of voters was small, the <br>
> observations would provide probabilistic information which could be <br>
> integrated under the prior in the normal way. But as the number of <br>
> voters increases, the information becomes increasingly deterministic - <br>
> it degenerates to a set of equations. And therefore two cases arise. <br>
> Either the equations fully determine the parameters of the voter <br>
> distribution, in which case the prior almost drops out of the <br>
> calculation; or the equations constrain the voter parameters to a curved <br>
> manifold in which only the prior remains to be integrated.<br>
<br>
Let's say we use a spatial model. Then the parameters of that spatial <br>
model would still be free (e.g. how many candidates, how many <br>
dimensions, what kind of distribution do the candidates and the voters <br>
follow). Deciding the values of these parameters might be like setting a <br>
prior, because it doesn't necessarily arise from the empirical <br>
distribution no matter how many voters you have.<br>
<br>
For instance, let's say you want to figure out the Condorcet efficiency <br>
of IRV. You use a spatial model based on current US politics, which has <br>
a very high probability of being two-party. So you find out that <br>
Plurality has near 100% Condorcet efficiency. But this is kind of <br>
misleading, because the political situation is the way it is in order to <br>
not make Plurality err to begin with.<br>
<br>
I guess what I'm saying is that it doesn't seem like the hard parameters <br>
scale badly with the number of voters; the difficult bit is instead how <br>
to make sure the numbers are useful. The number of preferences does <br>
indeed scale pretty badly, but I'd imagine Monte Carlo helps with this.<br>
<br>
In some cases it might be possible to integrate exactly. One idea I've <br>
had but never got around to implement is to make exact Yee maps. For a <br>
particular point being the center of voter opinion (distributed <br>
according to a Gaussian with some given variance), we can count the <br>
proportion of say, A>B>C votes by taking the intersection of the polygon <br>
of the Voronoi map designated closest to A, and the polygon of the <br>
second-closest Voronoi map assigned to B, and the polygon of the <br>
max-distance Voronoi map assigned to C. Then we can decompose the <br>
polygon into triangles and integrate over them. This approach scales <br>
badly in the number of candidates, but the number of voters are no <br>
longer part of the picture; the fractions should be in the limit of <br>
number of voters going to infinity (in practice some large finite number <br>
due to numerical precision limits). Is that what you mean by the <br>
equations fully determining the voter distribution?<br>
<br>
-km<br>
----<br>
Election-Methods mailing list - see <a href="https://electorama.com/em" rel="noreferrer noreferrer" target="_blank">https://electorama.com/em</a> for list info<br>
</blockquote></div>