Kto trzęsie polską polityką? Oczywiście naczelnik Jarosław Kaczyński. Ale spoglądając od strony opozycyjnej i konfigurując rozmaite układanki z Tuskiem, Schetyną, Biedroniem, Czarzastym i Kosiniakiem-Kamyszem w roli głównej, przyjdzie nam wskazać dosyć nietypowego patrona koordynującego myślenie oraz działanie wyżej wymienionych. Nietypowego, gdyż nieżyjącego już od ponad stu lat. Lecz mimo to, gdyby miało w niedalekiej przyszłości dojść do wyborczego porozumienia wszystkich opozycyjnych sił, merytorycznie wskazane byłoby nadać mu szyld Konwentu Victora d’Hondta.
A chodzi rzecz jasna o twórcę obowiązującej w Polsce metody przeliczania głosów wyborczych na mandaty. Łaskawej dla wielkich i bezlitosnej dla maluczkich, a nawet tylko mniejszych. Nakazującej natychmiast pogonić tych, którzy chcieliby adaptować w warunkach parlamentarnej demokracji dawną Havlowską ideę „siły bezsilnych”. Na ignorowanie wynalazku profesora nauk prawnych i matematycznych z Gandawy przywódcy opozycji nie mogą sobie pozwolić. Bo choćby w wyborach każdy z osobna nie wiadomo jak się wytężał, to nie pozbawią naczelnika władzy.
I nie ma znaczenia, że ich z trudem ciułane głosy – w liberalnym centrum, na lewicy progresywnej i postkomunistycznej, w mieście i na prowincji, i w ogóle gdziekolwiek – w powyborczym podsumowaniu mogą się przełożyć na procentowy wynik wyższy od poparcia dla PiS. Przewagi w parlamencie z tego nie będzie. Jedyna rada na d’Hondta, to myśleć o łączeniu wysiłków przed wyborczą weryfikacją. Tego wymaga wymyślony przez niego algorytm.
Z ogólną proporcjonalnością wyborów ta metoda obchodzi się w sposób liberalny. Adekwatnie do poparcia rozdziela partiom tylko tyle mandatów, aby nikt nie zarzucił wyborom, iż są nieproporcjonalne. Po cóż ta oszczędność? Ano po to, aby wygospodarować do podziału dodatkową mandatową pulę. Tyle że już według nieco innych reguł, zdecydowanie bliższych logice większościowej. Czyli im partia silniejsza, tym więcej bierze z wygenerowanej przez algorytm nadwyżki. Średniacy obłowią się już tylko śladowo, a małym (choć wciąż ponadprogowym) d’Hondt tnie bez pardonu, czasem tylko zostawiając jakiś ochłap.
Oczywiście dla przeciętnego wyborcy to kwestia abstrakcyjna. Jednak dylemat, jak rozdzielać parlamentarne mandaty, od dawna nurtuje metodologów polityki. Nie istnieje bowiem powszechnie aprobowany sposób. I to zarówno z matematycznego, jak i politycznego punktu widzenia. Każdy ma wady i zalety. Choć akurat w Polsce obowiązująca od 25 lat (z krótką przerwą) metoda d’Hondta raczej nie budzi kontrowersji. Dlaczego więc dopiero teraz zaczęła wzniecać emocje i prowokować liczne komentarze?
Od mniej więcej połowy lat 90. większa część wyborców przeważnie odnajdywała się w jednym z dwóch dominujących bloków (dawniej AWS-SLD, potem PiS-PO). Jedynie mniejsze formacje, faktycznie cierpiące za sprawą metody d’Hondta, nieśmiało narzekały, że mają pod górę. Któżby jednak ich wtedy słuchał? Ale po 2015 r. sytuacja się zmieniła, ogólna symetria sceny została zachwiana. PiS otacza kilka ugrupowań opozycyjnych, spośród których Platforma ma najwyższe poparcie. Nie na tyle jednak wysokie, aby samodzielnie dogonić rządzących. I dopiero w takich warunkach metoda d’Hondta uwypukliła swoje przewrotne oblicze.
Proporcjonalnie, ale bez przesady
Pora jednak na krótki rys historyczny. Wbrew pozorom oryginalnym twórcą metody d’Hondta nie był belgijski akademik, tylko Thomas Jefferson, jeden z ojców założycieli amerykańskiej niepodległości, trzeci prezydent USA.
System konstytucyjny dopiero się kształtował. Jednym z wielu problemów, które należało wtedy rozwiązać, był podział miejsc w Kongresie pomiędzy poszczególne stany. Poczucie sprawiedliwości podpowiadało, że skoro wprowadzono już zasadę naliczania podatków do budżetu federalnego proporcjonalnie do wielkości danego stanu, powinno się adekwatnie porozdzielać mandaty. Tak aby zobowiązania finansowe były rekompensowane odpowiednią nagrodą w postaci udziału we władzy.
Z wyliczeniem wysokości zrzutki budżetowej naturalnie nie było problemu. Co innego z mandatami. Matematycznym rezultatem dzielenia najczęściej są bowiem ułamki. Nawet pojedynczego dolara da się podzielić na mniejsze części, ale co zrobić z przysługującym fragmentem fotela w Kongresie? Było ich zresztą u zarania niepodległości raptem 65, tym bardziej rosła ich wartość. Poszukiwano więc sposobów na sprawiedliwy przydział Stanom mandatów, a autorską metodę opracował właśnie Thomas Jefferson.
Z naszym problemem podziału mandatów pomiędzy partie Amerykanie akurat nie mieli problemu. Do dziś obowiązuje tam system większościowy. Czyli jeden mandat do zdobycia w każdym okręgu. Zwycięzca bierze wszystko, przegrany obchodzi się smakiem. Rozwiązanie najprostsze z możliwych, które przeważnie utrwala polaryzację sceny politycznej na dwa wielkie obozy. Nie dając przestrzeni mniejszym ugrupowaniom, choćby reprezentowały interesy sporych grup obywateli.
Jednak kontynentalna Europa dosyć wcześnie zaczynała szukać alternatywnych rozwiązań. W XIX w. nawarstwiały się nieznane dotąd napięcia. Z jednej strony kształtowała się nowoczesna świadomość narodowa, z drugiej – rósł konflikt klasowy. Przybywało stronnictw obsługujących nieprzystające do siebie hierarchie wartości, życie polityczne coraz bardziej się komplikowało, nie dawało się już określić dominujących osi podziału. Odpowiedzią na potrzebę upchnięcia zróżnicowanych sporów we wspólnym politycznym schemacie był proporcjonalny system wyborczy. Czyli każdemu tyle udziału we władzy, ile poparcia społecznego. Niestety – coś za coś. Efektem ubocznym nowej ordynacji musiało być rozdrobnienie sceny politycznej, chwiejne rządy koalicyjne, obniżona skuteczność egzekutywy.
A przy tym powrócił problem przeliczenia poparcia wyborczego poszczególnych ugrupowań na liczbę mandatów w parlamencie. Tak samo trzeba było zmierzyć się z kłopotliwymi ułamkami. Już nie tylko po to, aby jak najprecyzyjniej odzwierciedlić polityczne preferencje obywateli. Równie istotnie, o ile nie bardziej, okazało się wynalezienie metody zapewniającej rządom odpowiednią sterowność w warunkach ogólnej proporcjonalności.
Spore grono matematyków trudziło się nad tym problemem, czego efektem jest wielość stosowanych do dziś modeli. Najpopularniejsza okazała się jednak metoda opracowana przez d’Hondta, który w 1878 r. twórczo wykorzystał stary system Jeffersona. Efektem był nowy algorytm pozwalający teraz przeliczać głosy wyborców na mandaty.
Jak to się robi?
Należy zacząć od przypomnienia, że ogólnokrajowe procentowe wyniki wyborcze mają dla partii wymiar głównie wizerunkowy. Posłów wybiera się bowiem w okręgach. Na każdy z nich przypada przewidziana z góry liczba mandatów. Bierzemy więc liczbę głosów oddanych na każdą partię w okręgu i dzielimy ją przez kolejne liczby naturalne. Dzielników powinno być tyle, ile mandatów do wzięcia.
Załóżmy więc, że mamy do czynienia z okręgiem siedmiomandatowym. Każdej z partii przyporządkowujemy po siedem malejących ilorazów. Wszystkie ilorazy wpisujemy do wspólnej siatki, po czym wyciągamy z niej siedem najwyższych. To będą mandaty. Jeśli np. partii zwycięskiej przypadają w puli biorącej cztery mandaty, trafiają one do kandydatów z czterema najwyższymi indywidualnymi wynikami.
Z tego opisu wprost jednak nie wynika diaboliczna specyfika metody d’Hondta. Owszem, samodzielnie dokonując obliczeń, za którymś razem pewnie zauważymy, że jakoś tak się dziwnie składa, iż ostatni „biorący” iloraz najczęściej pochodzi z listy zwycięskiej. Dlaczego tak się dzieje? Bardziej pomocne w zrozumieniu tego zjawiska będą analizy politologów Jacka Hamana i Jarosława Flisa.
Otóż proporcjonalność systemu wyborczego bierze się stąd, że każdemu mandatowi musi odpowiadać pewna liczba głosów. Wyobraźmy sobie, że w naszym siedmiomandatowym okręgu zagłosowało sto tysięcy wyborców. Na jeden mandat przypada więc nieco ponad 14 tys. głosów. Teraz przyjmijmy, że zwycięzca (A) dostał 45 tys. głosów. Ma więc już na wstępie zagwarantowane trzy mandaty (bo 3 razy 14 tys. wynosi 42 tys.). Druga w kolejności partia (B) dostaje 25 tys. głosów. Dostaje więc jeden mandat. Na kolejne partie C, D i E oddano odpowiednio 13 tys., 9 tys. i 8 tys. głosów. W pierwotnym podziale mandatów zatem nie uczestniczą: choć każda przekroczyła ustawowy próg, żadna nie osiągnęła 14 tys. głosów.
Zostają nam jednak jeszcze trzy mandaty do rozdzielenia. Odbywa się to w taki sposób, że stopniowo obniżamy naszą 14-tysięczną kwotę, przez którą dzielimy głosy oddane na poszczególne listy. Do momentu, aż któraś z nich „zmieści się” z dodatkowym pełnym mandatem. Po obniżeniu kwoty do 13 tys. swój mandat zdobywa lista C. Przy kwocie 12 tys. tym razem pulę powiększa partia B (bo 25 tys. podzielone przez 12 to jest nieco ponad 2, a jeden mandat już wcześniej był tej liście przyznany). Obniżamy dalej do 11 tys. – i tak oto z ostatniego mandatu cieszy się zwycięska partia A (ma już trzy mandaty, teraz gdyby liczyć te mandaty po 11 tys. głosów miałaby 33 tys., więc mieści się z czwartym mandatem – 44 tys. – w swoim ogólnym bilansie zdobytych 45 tys. głosów).
Ostateczny efekt? Zwycięzca dostaje cztery mandaty, czyli bezwzględną większość w okręgu. Choć poparcie dla niego nie przekroczyło 50 proc. Dwa mandaty przyznane drugiej w kolejności partii mniej więcej odpowiadają jej 25-procentowemu poparciu. Z kolei jeden mandat trzeciego, 13-procentowego ugrupowania, jest minimalnie poniżej jego czysto proporcjonalnego parytetu. Pozostałe listy – choć cieszące się realnym poparciem społecznym – odchodzą z kwitkiem.
W języku politologii metoda d’Hondta określana jest mianem superaddytywnej. Znaczy to tyle, że duża partia nie ma prawa zdobyć mniej mandatów niż dwie mniejsze powstałe w wyniku jej ewentualnego rozpadu. Ma to zniechęcać do dzielenia się sceny politycznej na małe podmioty i tym samym zapewniać stabilność rządów. Dynamika polityczna sama w sobie bardziej bowiem sprzyja podziałom. Liderzy mają swoje ambicje, a do tego muszą dopieszczać swój najtwardszy, tożsamościowy elektorat. Wchodząc w wyborczą koalicję z inną partią, co zazwyczaj wiąże się z zawieraniem kompromisów programowych, wystawiają się na ryzyko utraty poparcia najbardziej pryncypialnych zwolenników. Metoda d’Hondta ma być więc swoistą rekompensatą za poniesione straty. Bo koniec końców dobru wspólnemu z reguły lepiej służy współpraca niż rywalizacja na twarde tożsamości.
Jest jednak drugi istotny element systemu: wielkość okręgów wyborczych. Im mniej mandatów w okręgu do zdobycia, tym większa deformacja proporcjonalności. Nasz przykład okręgu siedmiomandatowego jest w polskich realiach skrajny, gdyż tak mały okręg występuje jedynie w Częstochowie. W największym warszawskim jest z kolei do wzięcia aż 20 mandatów, co zapewnia niemal idealną proporcjonalność. Każde ugrupowanie przekraczające ustawowy pięcioprocentowy próg może w stolicy liczyć na stosowną gratyfikację.
Dominują jednak okręgi średniej wielkości, najczęściej 12-mandatowe (jest ich 12). Aby mieć tam gwarancję zdobycia choć jednego mandatu, należy mieć co najmniej 7,5 proc. poparcia (a więc mocno ponad 5-proc. próg). Choć na zdobycze proporcjonalne do faktycznej siły mogą liczyć jedynie partie z wynikami dwucyfrowymi. Z kolei te wielkie, zwłaszcza dochodzące do 40 proc., cieszą się poważnymi nadwyżkami. Zwłaszcza w sytuacji, gdy ponad progiem wyborczym tworzy się gąszcz ugrupowań niby to zadowolonych z rezultatu dającego iluzję znaczenia (a przy okazji – w skali kraju – uprawniającego do budżetowej subwencji). W interesie hegemona nie leży osłabianie tych graczy. Maluchy w pocie czoła pracują głównie na to, aby teoretycznie należne średniakom mandaty odpłynęły do puli największego.
Na poziomie pojedynczego okręgu deformacje proporcjonalności mogą się wydawać niewielkie. Ale okręgów mamy aż 41. Jeżeli w każdym z nich w wyniku rozdrobnienia konkurencji najsilniejsza partia zyska choćby jeden dodatkowy mandat, jej łączna nagroda staje się przesądzająca. Oczywiście kosztem konkurencji. To dlatego w 2015 r. PiS wystarczyło niespełna 38 proc., aby wziąć w Sejmie bezwzględną większość.
Tylko jedna lista?
Kalkulatory metody d’Hondta można znaleźć w internecie, choć sporządzenie precyzyjnych symulacji podziału mandatów w rozmaitych wariantach nie jest proste. Należałoby szacować w każdym okręgu z osobna, przeliczając spodziewane lokalne poparcie przez liczbę mandatów. To wymaga bardzo precyzyjnych narzędzi.
Uproszczona analiza na podstawie uśrednionych wyników da nam jednak ogólny pogląd. Jeśli weźmiemy średnią z ostatnich sondaży (PiS – ok. 40 proc., KO – ok. 30, pozostali w przedziale 6–8 proc.), to niezależnie od wielkości okręgu PiS zdobywa co najmniej połowę mandatów i nie potrzebuje nawet ludzi Kukiza do osiągnięcia większości. Natomiast samodzielne wejście do gry ruchu Roberta Biedronia – przy założeniu, że odbiera część głosów Koalicji Obywatelskiej oraz SLD – powoduje jedynie przemieszczenie się mandatów w mniejszościowej opozycyjnej puli, ale nie pozbawia PiS władzy.
Dopiero wspólna lista całej lewicy – zdolna pozyskać mniej więcej 10 proc. nieaktywnych dziś wyborców (łącznie dawałoby to 17–18 proc. poparcia) i tylko w niewielkim stopniu odbierająca wyborców KO (na poziomie kilku procent) – w małych i średnich okręgach doprowadziłaby do równego podziału mandatów pomiędzy rządzących i antypisowską opozycję. W nielicznych wielkich okręgach opozycja uzyskałaby nawet niewielką przewagę.
Godnych rozpatrzenia kombinacji jest oczywiście wiele, każda jednak obarczona grzechem spekulatywności. Co zrobić z PSL, które w logice sejmikowego rozdania ma się nieźle, za to w sondażach nadal walczy jedynie o pokonanie progu wyborczego? W wyborach do Parlamentu Europejskiego ludowcy być może zasilą listy KO, choć nie ma pewności, jak na to zareagują ich niezbyt liberalni wyborcy. A przecież na stole znajduje się jeszcze opcja (o czym niedawno pisaliśmy) wyborczej koalicji SLD-PSL. Partia Czarzastego ma zresztą największe pole manewru, gdyż może negocjować również ze Schetyną oraz Biedroniem.
Metoda d’Hondta jest jednak bezlitosna: jeśli opozycyjne kontredanse nie przyniosą istotnej wartości dodanej w postaci szerokiej koalicji, zmobilizowanych nowych wyborców bądź nie dojdzie do załamania się poparcia dla PiS, ogólny układ sił pozostanie zachowany – nieco ponad jedna trzecia głosów wystarczy PiS, aby trząść krajem. Warunkiem zmiany trendu jest więc istotne przewartościowanie przynajmniej po jednej ze stron. A więc Biedroń musiałby wywołać ogromną falę entuzjazmu. I to nie w dostatecznie już zmobilizowanych – co pokazały wybory samorządowe – wielkich miastach (wtedy w pierwszej kolejności odbierałby głosy KO), lecz na prowincji. Albo też na finiszu kadencji musiałby nastąpić wielki kryzys obozu władzy. Czy afera KNF może się do tego przyczynić? Tego nie wiemy. W przeszłości na sondażowe konsekwencje podobnych zdarzeń czasem trzeba było czekać miesiącami. A bywało i tak, że nigdy nie nadchodziły.
Rozwiązaniem dla opozycji stosunkowo najbezpieczniejszym, choć oczywiście również niegwarantującym ostatecznego sukcesu, jest zatem pełna integracja na wspólnych listach. Wejście na poziom 40 proc. poparcia, całkiem realne w warunkach skrajnej polaryzacji, wyrównałoby szanse w rywalizacji z PiS o ten ważny, ostatni mandat w każdym okręgu. A wtedy nawet ryzyko utraty najbardziej etosowych wyborców poszczególnych partii koalicyjnych – którzy powiadają „nigdy więcej PO” albo „z każdym, byle nie z Czarzastym” – nie będzie takie straszne. Pan d’Hondt już się o to postara.