<br><br><div class="gmail_quote"><blockquote style="margin:0px 0px 0px 0.8ex;padding-left:1ex;border-left-color:rgb(204,204,204);border-left-width:1px;border-left-style:solid" class="gmail_quote"><div class="im"><blockquote style="margin:0px 0px 0px 0.8ex;padding-left:1ex;border-left-color:rgb(204,204,204);border-left-width:1px;border-left-style:solid" class="gmail_quote">

You know, as desirable as it is for everyone to be as close as possible<br>
to their correct proportional share, _bias_ seems to me to be the really<br>
important consideration in apportionment and PR. Size-bias.<br>
</blockquote>
<br></div><p>
I imagine that the SLI would penalize bias more heavily than random inaccuracy. My intuition goes like this: there are only a few ways a method can be consistently biased (small-party bias or large-party bias), but there are many ways one might have random noise. Therefore, if you see bias of any given type in a seat distribution, then that would make you much less likely to think the distribution is a good fit to the voting distribution than if you saw just random noise of the same magnitude. In the same way, if the SLI measures goodness-of-fit between the distribution given by the votes and the seat distribution, adding consistent bias would produce a worse fit than would random noise of the same magnitude.<br>

<br>
Chi-squared tests are also pretty good at distinguishing low quality pseudorandom number generators from better ones. When PRNGs fail, they usually fail by exhibiting bias. For instance, linear congruential generators exhibit bias where n sequential numbers fall on either of a small number of planes in n-dimensional space, where n depends on the generator.<br>

<br>
So I think SLI would penalize bias pretty effectively. In any event, it's easy to check. Take the voting distribution, then add either consistent bias (correlation between s/q and q) to fix the RMSE of the result to a predetermined level. Then compare the SLI of the biased distribution from the SLI of the randomized one, and do this enough times in a Monte-Carlo fashion. If I'm right, the mean SLI should be worse for the distributions with bias than the ones with random noise.</p>
<p> </p></blockquote><div>SL/Webster minimizes the SL index, right? It's known that Webster has _no_  bias if the distribution-condition that I described obtains--the uniform distribution condition. </div><div> </div>
<div>I'm not a statistician either, and so this is just a tentative possibility suggestion: What about finding, by trial and error, the allocation that minimizes the calculated correlation measure. Say, the Pearson correlation, for example. Find by trial and error the allocation with the lowest Pearson correlation between q and s/q.</div>
<div> </div><div>For the goal of getting the best allocation each time (as opposed to overall time-averaged equality of s/q), might that correlation optimization be best?</div><div> </div><div>Webster and Weighted-Webster have in common an assumption that they both depend on: They assume that the state or district populations, or the party vote totals, are unknown and unpredictable, and that they have some known or estimated probability distribution.</div>
<div> </div><div>The methods are unbiased, from our point of view if we (at least pretend that we) don't know more than that.</div><div> </div><div>With Webster/SL, the assumption is that the probability distribution is uniform. Weighted Webster attempts to estimate that distribution. There are various ways of estimating it.</div>
<div> </div><div>I've recently suggested interpolating, by a few population or vote total values in and near each particular N to N+1 interval. That gives a non-smooth collection of interpolating curves. Webster or Weighted-Webster will be really unbiased, by empirical tests, only if the populations or party vote-totals are really varying enough to be unpredictable enough, and if the distribution really is as estimated or assumed.</div>
<div> </div><div>Maybe Weighted-Webster would be better with an estimated distribution gotten by least-squares based on a greater number of states, districts or parties, over a larger range.</div><div> </div><div>Warren assumed one exponential function for the whole set of states districts or parties, finding it based on the total numbers of states and seats.</div>
<div> </div><div>But what if the states' or districts' populations are unchanging, or changing together in the same proportions? Webster/SL and Weighted-Webster's guesses about what allocation is unbiased might not be very good.</div>
<div> </div><div>And, even at best, even if they vary enough, and the distribution assumption is accurate, there's no guarantee about _each_ allocation being the least biased one that could be made, according to empirical bias-tests.  The unbias guarantee would be over time. </div>
<div> </div><div>But if we're talking about unbias over time, then why not just do the equalization of the time-average of the s/q values? </div><div> </div><div>So, Webster/SL is the best of the simple methods being considered, and I'm certain that it's the one that should be recommended and used.</div>
<div> </div><div>But, if we're interested in optimizing _each_ allocation, for _each_ apportionment or election, then might it not be better to do it by trial and error, to find the allocation that looks the least biased by some empirical test, such as Pearson correlation between q and s/q?</div>
<div> </div><div>I'm just talking about _ideally_. In practice, I suggest Webster/Sainte-Lague.</div><div> </div><div>Mike Ossipoff</div><div> </div><div> </div><div> </div><div> </div><div> </div><div> </div><div> </div>
<div> </div></div><br>