links for 2010-06-11

11. Juni 2010

Welche Wahrheit? – Den roten Schuh gibt es nicht!

8. Juni 2010

War ich mir bis letzte Woche noch recht sicher, dass es keinen roten Schuh gibt, wurde ich nun vor recht kurzer Zeit abrupt eines Besseren belehrt. Hat doch wohl tatsächlich jemand ein wenig hier und da an der Realität gezupft, ihr dadurch eine neue Form verpasst und – ihr werdet es kaum glauben – einen roten Schuh kreiert.

Wer hier so virtuos die Gesetze der String-Theorie so mühelos manipulierte, um das Universum wie ein Marionettentheater aussehen zu lassen? Richtig. Der hier im Blog zur #37cc vorgestellte äußerst begabte Künstler Ey Lou Flynn.

Und die Ziele, die er sich hier mit der Schuhshow gesetzt hat, die sind von einem kleinen Sympathisanten wie mir kaum in Worte zu fassen, ich versuchs trotzdem (und klau im Zweifelsfall schamlos Worte). Es soll also das eigensinnigste und kreativste Rock-Album der jüngeren deutschen Geschichte entstehen („Blasphemie“, werden die Ärzte-Fans schreien! „Yeah, Blasphemie ist immer gut“ werde ich erwidern!). Und live (nunja, jedenfalls so live, wie es das Internet, Youtube und Konsorten erlauben) wird auf den Seiten der Schuhshow darüber berichtet. Ach ja, und eine geballte Ladung Interaktivität soll es dabei auch geben. Fein, fein, ich bin auf jeden Fall gespannt, was dabei herauskommt und werde, so es meine knapp bemessene Zeit erlaubt, auch versuchen, mein Scherflein zum unvermeidbaren Weg des Ey Lou Flynn in Richtung Rockstar, Plattenvertrag und tonnenweise Groupies beitragen. Und sei es mit einem Blogeintrag, den gefühlte 3,141 Leute lesen, denn auch diese können Multiplikatoren sein!

Leserbrief an die Heilbronner Stimme

3. Juni 2010

Zum Artikel: „Aufregung um Kamera-Quad“ (1.6.2010)

Da fährt ein von der Stadt beauftragtes Gefährt durch die Gegend, um Straßenschäden zu dokumentieren und der HSt fällt nichts besseres ein, als die diffuse Angst der Bevölkerung vor dem angeblich so bösen Google StreetView zu schüren.

Anstatt zum Beispiel die großen Datenkraken Bertelsmann, GEZ, Payback, ELENA oder wie sie alle heißen, einer ähnlich kritischen Berichterstattung zu unterziehen, wird hier nicht gerade subtil Politik gemacht. Man hat Google durch entsprechende Berichterstattung als großen, dunklen Bösewicht positioniert, lenkt von anderen Problematiken ab und stellt sich selbst als Datenschützer dar.

Dass im kommenden Jahr eine Volkszählung stattfinden soll, das wurde 2010 satte 2 Mal in der HSt erwähnt. Beim Zensus 2011 wird eklatant gegen das 1983 ausformulierte Grundrecht auf informationelle Selbstbestimmung verstoßen und teils hochsensible Daten werden zusammengetragen – zum Beispiel komplette Datensätze von Teilnehmern in Zeugenschutzprogrammen mit entsprechendem Hinweis! All das wird nicht thematisiert, sondern ignoriert und totgeschwiegen.

Aber gut, dann müssen eben ein weiteres Mal junge politische Kräfte wie der AK Zensus oder die Piratenpartei auf die Straßen gehen und die Informationsarbeit machen, bei der die sich gern als „traditionell“ bezeichnenden Medien bisher so kläglichst versagt haben.

Gott – Eine Blasphemie

30. Mai 2010

[Dieser Eintrag ist im Wesentlichen ein leicht überarbeiteter Repost eines meiner Beiträge aus dem alten elBloggo und die Fortsetzung von „Ein Gedankenexperiment„, „Newton, Licht, Quanten und billardspielende Roboter“ und „Das Gehirn„]

Was ist Gott? Woher kommt Gott? Warum ist Gott? Und was zum Teufel hat die Kirche damit zu tun?

Gott war seit seiner Erfindung durch die Menschen schon immer die Erklärung für alles, was man mit konventionellen Mitteln nicht erklären konnte. Sei es nun eine schlechte Ernte, weil jemand „gesündigt“ hat oder sei es etwas aus heutiger Sicht eher Triviales wie ein Blitz, den ein Donnergott aus Wut auf die Erde geschleudert hat. Auch die Entstehung der Erde und des Lebens auf ihr wurde mangels anderer Theorien ebendiesem Wesen „Gott“ zugeschrieben: Die unsägliche Kreationismusdiskussion hat glücklicherweise unsere Breitengrade noch nicht in dem Ausmaß erreicht, wie die USA, aber ich befürchte, dass es mit zunehmender Verdummung der Menschen und Politiker durch Privatfernsehen, Zeitungen mit GROßEN BUCHSTABEN und nichtexistentem echtem Journalismus auch hierzulande nur eine Frage der Zeit sein wird, bis Fundamentalchristen fordern, im Wesentlichen ein Märchen als Alternative zu Wissenschaft zu lehren.

Nun entstand aber durch die Aufklärung der Menschheit Wissen. Viel Wissen. Zu Zeiten Newtons (was menschheitsgeschichtlich betrachtet nun wirklich nicht lange her ist) noch war die Wissenschaft mehr oder weniger intuitiv und allgemeinverständlich. Actio gleich Reactio ist ein Prinzip, was man problemlos auch weniger intelligenten Zeitgenossen vermitteln kann und auch einfache Bewegungs- und Beschleunigungsgleichungen sind im Wesentlichen intuitiv durch unsere Reflexe abgebildet (wohlgemerkt rede ich hier und im Folgenden immer vom Prinzip, also der Essenz, die dahintersteckt und nicht unbedingt von mehr oder weniger komplexem Formelwerk, was sich die Physiker begleitend dazu ausgedacht haben).

Nur war eben auch klar, dass das letzte Wort mit Newton noch nicht gesprochen war. Solche auch damals schon im Alltag wichtigen Themen wie Wetter oder Biologie entzogen sich (noch!?) den Naturwissenschaften, hier konnte man noch einen Gott „gebrauchen“, der einem eine gute Ernte bescherte.

Mit fortschreitender Wissenschaft wurde allerdings nach und nach eine Mauer nach der anderen eingerissen, plötzlich verstanden wir, wie Vererbung funktioniert. Auch das Wetter hat irgendwo auf dem Weg seine Unbegreiflichkeit verloren. Wenn wir auch heutzutage noch weit davon entfernt sind, eine 100%ige Wettervorhersage zu liefern, liegt das nicht etwa am prinzipiellen Unverständnis, sondern eher an mangelnden Meßmethoden und ungenauen Modellen alleine schon aufgrund der gigantischen Komplexität.

Auch innermenschliche Vorgänge (bis hin zu höheren Hirnfunktionen) sind heutzutage physikalisch, chemisch und biologisch erklärbar. Die von der Gesellschaft als verhaltensauffällig erklärete Kinder, denen Ritalin oder ähnliches verabreicht wird, sind hier das lebende Beispiel, dass auch Persönlichkeitsstörungen (so es denn welche sind) durch den gezielten Einsatz von Chemikalien „heilbar“ sind.

Und wo bleibt nun Gott?

Ich behaupte nun einfach mal, dass wir das Universum in einem gewissen Größenordnungsbereich verstanden haben und prinzipiell deterministisch nachvollziehen können. Dieser Bereich fängt auf der atomaren Ebene an und endet auf globaler Ebene, die Bewegungen unseres Sonnensystems gehören auch noch dazu, aber vom Verstehen eines Sonnensystems auf das Verstehen aller zu schliessen, ist in meinen Augen ein ungültiger Schluß.

Bleiben für Gott also noch zwei möegliche „Nischen“: Entweder auf der gigantischen Ebene, also quasi in der Unendlichkeit des Universums oder auf der uns bekannten kleinsten Ebene, dem Quantenlevel. Ich persönlich halte beide Ebenen für falsch (und spreche somit quasi Gott seine Existenz ab), was mich aber nicht davon abhalten soll, sie trotzdem im nächsten Teil dieser kleinen Serie weiterzubeleuchten. Dann werde ich mich (jedenfalls nach meinem groben mentalen Plan) auch endlich um die Kirche, menschliche Arroganz und der Sinnlosigkeit des Daseins widmen.

Noch ein kleiner Nachtrag: Wohlgemerkt basieren meine Überlegungen darauf, dass Gott in einem System des Determinismus nichts verloren hat. Das kann man so sehen, muss man aber nicht – es wäre das erste Mal, dass sich Gläubige durch so etwas Weltliches wie Argumente von ihrem Glauben abbringen lassen.

Das Gehirn

13. März 2010

[Dieser Eintrag ist im Wesentlichen ein leicht überarbeiteter Repost eines meiner Beiträge aus dem alten elBloggo und die Fortsetzung von „Ein Gedankenexperiment“ und  „Newton, Licht, Quanten und billardspielende Roboter„]

Heute wollen wir uns hauptsächlich mit einer Frage beschäftigen: Wie funktioniert ein (menschliches) Gehirn?

Unbestritten ist das Gehirn ein hochkomplexer Gegenstand. Nicht nur sorgt es für „selbstverständliche“ Dinge wie Atmung und Herzschlag, es spendet uns auch (jedenfalls nach gegenwärtigem Stand der Wissenschaft) ein Bewusstsein, ein Gedächtnis, bewegt unsere Gliedmaßen und viel mehr. Ach ja, komplexe Mathematik und Physik kann es – so ganz nebenbei – auch, quasi ohne groß nachzudenken (man möge mir den Wortwitz verzeihen). Wer schonmal einen Ball gefangen hat und kurz darüber nachdenkt, dass alleine damit gewisse Berechnungen einhergehen müssen, wird mir da problemlos zustimmen.

Unser Gehirn besteht aus, wie sollte es auch anders sein, Gehirnzellen, genauer Nervenzellen. Man schätzt, dass ein normales Gehirn aus vielen Milliarden von Nervenzellen besteht (laut Wikipedia irgendwas zwischen 100 Milliarden und 1 Billion Stück). Zum (kruden) Vergleich: Heutige Prozessoren besitzen Transistoren in der Größenordnung von 1 Milliarde.  Die Komplexität des Gehirns ergibt sich dabei aus der Vernetzung dieser Zellen, Gehirnaktivität sind dabei elektrische Impulse, die zwischen den Zellen ausgetauscht werden. Die Wissenschaft hat herausgefunden, dass gewisse Bereiche des Gehirns tendenziell eher für gewisse Tätigkeiten zuständig sind, aber man ist weit davon entfernt zu verstehen, was in einem Gehirn passiert, genauso wie man auch schwerlich durch bloßes Betrachten eines Speicherbereiches im Computer auf den Speicherbereich in der Zukunft schliessen kann.

Nun ist das Gehirn, wenn man es auf zellularer Ebene betrachtet, zwar durchaus sehr komplex (und vermutlich zu komplex, als dass je ein anderes Gehirn der selben Größenordnung seine Funktionsfähigkeit komplett verstehen kann), aber alles andere als eine nichtdeterministische Maschine. Der Stand der Neurobiologie ist, dass alle Prozesse im Gehirn deterministisch sind, wenn man einen Gehirnzustand komplett erfasst hat, kann man (rein theoretisch) den nächsten Zustand daraus berechnen.

Nun haben wir ein Problem. Mit der Behauptung, dass das Gehirn streng deterministisch agiert, fällt quasi auch instantan unsere Überzeugung, so etwas wie einen freien Willen zu besitzen.

Was tun? Die Physiker haben eine Antwort darauf: Die Kopenhagener Deutung der Quantenphysik. Mit der Bohmschen Mechanik ist die Sache relativ klar, es existiert kein Zufall, also ist an dieser Stelle auch kein Platz für freien Willen. Die Viele-Welten-Theorie ist, wie so oft, ein Mittelding – im Endeffekt läuft sie aber auch auf die Nichtanwesenheit eines freien Willens heraus, da wir keinen Einfluss darauf haben, in welcher Welt wir „gelandet“ sind. Meiner Meinung nach ist das einer der beiden Hauptgründe, warum viele Physiker ohne konkrete Anhaltspunkte an den Zufall im tiefsten Innern unserer Atome glauben. Der andere Grund ist Gott, aber das spar ich mir für einen weiteren Blogeintrag auf. Man konstruiert sich also quasi einen Einfluss der Quantenmechanik auf die Gehirnaktivitäten und sucht das, was wir als freien Willen empfinden genau dort.

Nur leider stört nicht nur mich daran mindestens eine fundamentale Überlegung: Nehmen wir entgegen der physikalischen, chemischen und neurobiologischen Erkenntnisse an, dass quantenmechanische Verhaltensweisen einen Einfluss auf Gehirnzellen haben, die immerhin jeweils aus grob 100.000.000.000.000 (1014) Atomen bestehen. Wie genau soll nun das Gehirn als Bewusstseinsquelle Einfluss auf diesen, laut Kopenhagener Deutung, subatomaren Zufall haben? Wenn das Gehirn das kann, warum gelingt es dann unseren kompliziertesten Meßaufbauten nichtmal ansatzweise?

Die andere Hauptfrage, die ich an dieser Stelle fragen muss, ist: Warum glauben so viele Menschen wegen überwältigender wissenschaftlicher Beobachtungen an so etwas wie Evolution, aber im quasi gleichen Atemzug lehnen gefühlt mindestens genausoviele Menschen die Nichtanwesenheit des freien Willens trotz ebenso überwältigender wissenschaftlicher Beobachtungen ab?

Liebe Blogleser, jetzt seid ihr gefragt: Glaubt ihr (noch) an euren freien Willen? Habt ihr euch vor dem Lesen dieses Blogeintrages schonmal darüber tiefergehende Gedanken gemacht?
Und denkt dran: Wenn ihr den freien Willen verteidigt, dann nur, weil ihr nicht anders könnt 😉

Zwischendurch eine kleine Lobhudelei für die Free! Music! Week!: Ey Lou Flynn #37cc

8. März 2010

Irgendwie schließt sich der Kreis ein wenig, die Musikpiraten haben mich auf den Künstler gebracht und nun benutze ich sie, um mit meinem leicht ungelenk anmutenden Review von Ey Lous Erstlingswerk wieder ein wenig platonische Liebe zurückzugeben. Tolles Ding, dieses Internet, nichtwahr?

Begonnen hat es, als ich im Herbst 2009 den Free! Music! Sampler! auf mein getreues Billig-MP3-Werbegeschenk-Abspielgerät holte. Anlass waren meine zarten ersten Überlegungen, mal wieder mit Freunden in Heidelberg ein kleines Festival namens „Rock im Feld“ zu veranstalten, nur diesmal, im Gegensatz zu früher, absolut GEMA-frei und komplett mit freier Musik. Ein Lied auf dem Sampler stach aus der Masse raus und blieb im Gehörgang kleben, das war das Laternenlied von Ey Lou Flynn. Als ich dann bei Jamendo weiter in die Richtung grub, stieß ich recht fix auf sein Album „Naja, ich hab mein Bestes gegeben“ und spätestens nach dem Afghanen im Opener Muuh! war ich am Haken.

Ehrenwort, gute Musik verdient Unterstützung, also hab ich das Album recht fix auch gekauft (inzwischen kann man es sich auch vom Maestro persönlich parfümiert schenken lassen) und selbstverständlich meinen Bekannten- und Verwandtenkreis auch aktiviert und dabei auch schon eine gute Handvoll neue Fans generiert.

Ey Lou Flynn beschreibt seine Musik als „Klingt wie platonische Liebe beim Seitensprung“. Das klang vor dem ersten Hören zwar schon irgendwie seltsam, danach fällt mir allerdings keine bessere Beschreibung ein. Liebe Leser (Ihr beiden da hinten im Eck, ihr seid gemeint!), wenn ihr einen Sinn für Humor habt, dann bleibt euch quasi gar nichts anderes übrig, als Ey Lou zu hören und Ey Lou zu lieben! Mehr kann und will ich über das Album und die diversen weiteren Songs hier gar nicht schreiben, da jeder Versuch meinerseits, die geballte Kreativität in Worte zu fassen, nur mir einer Horde heulender Kleinkinder enden kann.

Der Kreis schließt sich natürlich nicht so komplett, ich werde nach wie vor die neusten Eskapaden (wie zum Beispiel in letzter Zeit ein Behind-The-Scenes-Bericht des neusten Musikvideos) verfolgen, die neue Musik hören, die neuen Alben kaufen und in ein paar Jahren, wenn der Ey Lou Flynn das Münchener Olympiastadion füllt, stolz den jungen Dingern meine Erstauflage der ersten CD vorzeigen und mit verträumtem Blick von Früher[tm](c) erzählen.

Ey Lou Flynn – mach weiter so. Ich hätte gern soviel Kreativität und Sinn fürs Texten und Komponieren, wie du alleine vermutlich im kleinen Finger der linken Hand hast, das würd mir dann vermutlich schon absolut ausreichen.

Newton, Licht, Quanten und billardspielende Roboter

21. Februar 2010

[Dieser Eintrag ist im Wesentlichen ein leicht überarbeiteter Repost eines meiner Beiträge aus dem alten elBloggo und die Fortsetzung von „Ein Gedankenexperiment„]

Ein Disclaimer voraus: Es wird Physikalisch. Keine Angst, Formeln wird es hier nicht geben, mir geht es eher um die Veranschaulichung von Grundprinzipien. Gewisse mir näher bekannte Physiker  werden mir mit diesem Eintrag vermutlich wieder vorwerfen, ich würde unzureichend vereinfachen, weil ich zugegebenermassen die Mathematik hinter einigem, über was ich schreiben werde, in der Tat nicht verstanden habe (und vermutlich auch nie verstehen werde). Euch Zweiflern sage ich lediglich: Macht halt selbst ein Blog. Oder kommentiert wenigstens sachbezogen!

Im Ernst: Ich werde hier nicht anfangen, hier Elementarphysik in Reinkultur zu betreiben, mir geht es um Anschauliches und Grundsätzliches. Sollte etwas, was ich verzapfe grob fsachl sein, bitte ich (ernstgemeint) um Korrektur. Sollte ich hingegen nur Feinheiten nicht erwähnen oder „zu grob“ verallgemeinern (in dem Sinne, dass die Grundaussage fsachl wird), werde ich den Eintrag nicht ändern.

So, genug vorgewarnt, wir reden heute unter anderem über Quantenmechanik, Einstein, Heisenberg, Nichtdeterminismus, viele Welten und den billardspielenden Roboter.

Die Quantenmechanik an und für sich ist unter (ernstzunehmenden) Physikern quasi unbestritten. Natürlich gibt es für Naturwissenschaften grundsätzlich keine Möglichkeit, Thesen formal zu beweisen, allerdings gibt es durchaus die Möglichkeit, Thesen durch ein widersprüchliches Experiment zu widerlegen. Der Punkt ist: Die grundlegenden Konzepte der Quantenmechanik in ihrer heutigen Form existieren seit, nunja sagen wir ungefähr 1935 und sie wurde seitdem in unzähligen Experimenten bestätigt und meines Wissens nach nie grundsätzlich experimentell widerlegt.

Das muss jetzt erstmal nix heissen, auch die Newton’sche Mechanik galt lange Zeit als die Theorie, nach der die Welt funktioniert, bis 1905 ein Werk namens „Zur Elektrodynamik bewegter Körper“ von einem Naseweis namens Albert Einstein erschien. Das Werk ist heutzutage besser als „spezielle Relativitätstheorie“ bekannt und postulierte, dass in unserer „normalen“ Welt die Newton’sche Mechanik zwar im Prinzip schon stimmt, das aber nicht an ihrer Allgemeingültigkeit liegt, sondern daran, dass wir es im Alltag eher selten mit Geschwindigkeiten zu tun haben, die nahe der Lichtgeschwindigkeit liegen. Dann nämlich passieren recht wilde Dinge, sagte der Herr Einstein, und auch seine These, dass die Lichtgeschwindigkeit die absolut höchste Geschwindigkeit ist und zwar in jedem Bezugssystem (insbesondere auch in bewegten), bringt auch heute noch Menschen zum Grübeln.

Kurz nachdem die Newton’sche Mechanik diesen einen schweren Schlag abbekommen hat (wobei, sie wie gesagt für quasi alle Alltagssituationen auch heute noch hinreichend exakt ist) kam auch schon der zweite Schlag in Form der Quantenmechanik. Das Wesentliche, was der bislang ungebildete Blogleser aus der Quantenmechanik selbst mitnehmen sollte, ist, dass nicht nur im großen Maßstab die Newton’sche Mechanik nicht mehr gilt, sondern dass diese auch im kleinen, atomaren Maßstab nicht gilt. So gibt es plötzlich (vor oder zwischen Messungen) keine Aufenthaltsorte von Elektronen mehr, sondern nur noch sogenannte Wahrscheinlichkeitswolken, die zeigen, wo sich das entsprechende Teilchen mit welcher Wahrscheinlichkeit aufhalten könnte. Ausserdem hat man festgestellt, dass die vorher „bekannte“ strikte Trennung zwischen Teilchen und Wellen nicht mehr aufrechterhalten werden kann und sowohl Licht manchmal Teilchencharakter haben kann (zum Beispiel Einsteins Arbeit zum Photoeffekt, die ihm den Nobelpreis bescherte), als auch Teilchen gelegentlich Wellencharakter zeigen können (beispielsweise Elektronen am Doppelspalt). Und nicht nur das, die Heisenberg’sche Unschärferelation besagt, dass wir, wenn wir durch eine Messung den exakten Aufenthaltsort eines Teilchens bestimmt haben, keine Möglichkeit mehr haben, seine Geschwindigkeit zu bestimmen und umgekehrt. Letzteres ist übrigens eine fundamentale, prinzipielle Unmöeglichkeit und basiert eben gerade nicht auf unzulänglichen Messmethoden.

Nun haben wir ein Problem. Bis zu diesem Zeitpunkt war der Sinn und Zweck, quasi das Selbstverständnis der Physik, zu verstehen, wie das Universum funktioniert. Actio und Reactio, klare Ursachen, klare Wirkungen. Plötzlich merkte die Physik, auf fundamentaler Ebene rein prinzipiell keine solche konkreten Aussagen mehr treffen zu können, alles unterhalb einer gewissen Schwelle konnte eventuell noch punktuell wahrgenommen werden, aber je kleiner die Strukturen wurden, desto unschärfer mussten die übrigen Randbeobachtungen werden. Über den Ursprung, quasi den „Grund“ für die Quantenmechanik kann nur spekuliert werden, nach heutigem Kenntnisstand wird man sie nie verstehen können. Ausser natürlich, jemand erfindet endlich den Heisenberg-Kompensator.

Kommen wir zum Kernpunkt dieses Blogeintrags: Man kann zwar, wie bereits erwähnt, nach heutigem Kenntnisstand keine definitive Antwort auf die Interpretation der Quantenmechanik geben (wobei es mich nicht wundern würde, wenn noch zu unseren Lebzeiten ein genialer Kopf mal wieder die komplette bekannte Physik umwirft und zeigt, dass es eben doch geht), aber das hat die Physiker nicht daran gehindert doch Theorien aufzustellen und – und das ist in meinen Augen die Abkehr vom traditionellen Wissenschaftsbegriff – einzelne Theorien anderen deshalb vorzuziehen, weil man daran glaubt. Nicht etwa, weil Messungen einer Theorie den Vorzug über die anderen geben, sondern hauptsächlich deshalb, weil man, nunja, es ganz doll so haben will und im Zweifelsfall die eigene Meinung auch mal mit einem resoluten Aufstampfen untermauert.

Drei Theorien haben sich hauptsächlich rausgebildet.

Die bei weitem populärste ist die sogenannte „Kopenhagener Deutung“, die die vorhin erwähnten Wahrscheinlichkeitswolken im Wesentlichen als naturgegebenen Nicht-Determinismus interpretiert. Man kann also ohne Messung den Aufenthaltsort eines Elektrons nicht bestimmen, weil er tatsächlich durch einen reinen Zufallsprozeß bedingt ist. In anderen Worten: „Wir können prinzipiell nicht nah genug rangehen, um es verstehen zu können, also ist es grundsätzlich ein nichtdeterministischer Vorgang“. Ausserdem kann es nicht schaden, an dieser Stelle laut „Nänänänänänänä“ zu singen und sich dabei die Augen und Ohren zuzuhalten.

Die zweitpopulärste Deutung ist die sogenannte Viele-Welten-Theorie. Sie besagt ganz im Sinne von Star Trek (und sehr bildlich und vereinfachend gesprochen), dass sich mit jeder „Entscheidung“, die das Elektron „trifft“ die Welt, das Universum und der ganze Rest in soviele neue Welten aufspaltet, wie es „Handlungsmöglichkeiten“ gibt. In meinen Augen hat diese Deutung zwar einige nette Implikationen (Interessierte Menschen seien hier zum Beispiel auf die Wikipedia verwiesen), widerspricht aber ganz fundamental dem, was meiner Meinung nach der Grundsatz für jede wissenschaftliche Arbeit sein sollte. Gemeint ist, was gemeinhin als Ockhams Rasiermesser bekannt ist, das Prinzip, dass „von mehreren Theorien, die den gleichen Sachverhalt erklären, die einfachste zu bevorzugen ist“. Und in jeder kleinsten Zeiteinheit das bestehende Universum in abermilliarden neue Universen aufzuspalten, das ist hoffentlich nicht nur in meinen Augen ein bisschen viel. Tatsächlich dürfte die Zahl auch für kleinste Zeiteinheiten so unglaublich gigantisch groß sein, dass wir Menschen uns keine Hoffnung drauf machen müssen, jemals auch nur die Größenordnung zu begreifen…

Deutung Nummer Drei ist, vereinfacht gesprochen, elzoidos billiardspielender Roboter. Es existiert also ein Determinismus dahinter, wir sind nur zu doof, ihn zu erkennen. Offiziell heisst die Theorie „Bohmsche Mechanik“ und wird hauptsächlich deshalb von den meisten Physikern abgelehnt, weil sie sogenannte verborgene Variablen enthält, also Variablen, die sich jenseits unserer Vorstellungskraft (ganz zu schweigen von Messbarkeit) befinden. Das mögen Physiker nicht, eben weil sie es nicht messen können und – wie wir alle wissen – was man nicht messen kann, existiert nicht. Punkt. Nänänänänänänä.

So, genug erzählt für heute, im nächsten Teil gehts dann weiter in Richtung Gehirn, (Nicht-)Determinismus und Gott.

Leicht unsortierte Gedanken zum Filesharing

14. Februar 2010

Vorweg: Ich bin kein Anwalt, will keiner sein und wer mir das unterstellt, den werd ich mal privat aufsuchen müssen 🙂

Den Königsweg, das einzig zukunftstaugliche Geschäftsmodell kenne ich nicht, behaupte auch nicht ihn zu kennen und zweifel auch, dass es das Eine überhaupt gibt.

Der Punkt hier ist: Filesharing existiert und ist zumindest in jugendlicheren Bevölkerungsschichten ein Massenphänomen. Trotzdem oder gerade deshalb bin ich der Meinung, dass die derzeitige Taktik der Musikindustrie und ihrer Anwälte, die Fans mit empfindlich kostenpflichtigen Abmahnungen zu bedenken, ein absoluter Holzweg ist und möglichst mit sofortiger Wirkung wirksam unterbunden gehört.

Man kann durchaus argumentieren, dass es moralisch fscahl sei, Musikdateien auf der Festplatte vorliegen zu haben, für die man nichts bezahlt hat. Man möge mir dann aber bitte schlüssig herleiten, warum ebendies nur dann tatsächlich illegal ist, wenn man an die jeweilige Datei via P2P-Filesharing gekommen ist, es aber meines Wissens nach legal ist, das absolut selbe Ergebnis zu erzielen, indem man die Streams von Webradios mitschneidet oder gar Youtube-Videos im Zweifelsfall per Browserplugin mit einem Klick automatisiert als MP3 auf die Festplatte holt. Der juristische Unterschied ist hier der Upload an Leute, die man nicht unbedingt kennt. In Anbetracht der alternativen, kostenlosen, legalen Beschaffungsmöglichkeiten ist aber in meinen Augen dieser Unterschied auch irgendwie überholt.

Jedenfalls jaulen ja bekannterweise die Musikindustrie, ausgewählte Jünger und andere Vollpfosten schon seit Jahren mal aus mehr oder weniger unlauteren Gedanken raus: Filesharing is killing music (In den 80ern auch bekannt als: Home taping is killing music). Illegale Downloads (seit Napster so um die Jahrtausendwende groß wurde) seien vom Teufel und niemand kauft heutzutage mehr Musik.

Bis vor wenigen Jahren noch gab es keine Möglichkeit, Musikdateien zu kaufen. iTunes gibt es zwar schon eine Weile, aber lange Zeit davon ausschließlich mit DRM-verseuchten Dateien, was den Kauf nicht unbedingt attraktiv und für Nutzer von Nicht-Mainstream-Betriebssystemen gar unmöglich macht. Es gab zwar oft die Möglichkeit, die gekauften Dateien (in begrenzter Anzahl) auf eine CD zu brennen und dann wieder in ein freies Format zu rippen, aber die Vorteile der digitalen Welt erst nach einem Zwischenschritt in die physikalische Welt nutzen zu können, das kann auch nur Apple den Jüngern als Feature verkaufen 😉

Kommen die Oberspezialisten und pöbeln rum: „Nicht für Musik bezahlen, auf ein genehmes Geschäftsmodell warten und solange Filesharing betreiben ist Erpressung. Und nur weil es viele machen und niemand so richtig juristisch durchblickt macht es das moralisch nicht vertretbar. Der einzige, der darüber zu entscheiden hat, wann, wo und wieviel er für sein Produkt verlangen will, beziehungsweise muss, ist der Musiker selbst.“

Preise für Produkte (und irgendwie widerstrebt es mir im Inneren, von Musik hier als Produkt zu sprechen, dadurch wird sie zu sehr auf den kaufmännischen Aspekt eingedampft und das tut ihr Unrecht) entstehen nicht aus der Luft raus (ausser eventuell bei Software Security Solution Providers und ähnlichem Gesindel 😉 ). Man darf die Fixkosten nicht aus den Augen verlieren, muss die Grenzkosten abschätzen (was kostet es, „ein Produkt mehr“ herzustellen und an den Endverbraucher zu bringen) und das dann mit der erwarteten Anzahl von Verkäufen irgendwie in Einklang bringen, wobei natürlich der Endpreis auch einen großen Einfluss auf die Verkaufszahlen hat.

Genau hier sitzt auch ein Kernargument: Physikalische CDs verursachen signifikante Grenzkosten. Downloads tun das nicht, ihre Grenzkosten sind so nahe an der 0, dass man sie prinzipiell ignorieren kann.

Nun sieht man aber auch heute noch, dass sich die Preise für CDs und ihre Downloadäquivalente auf ähnlichem Niveau bewegen, so dass selbst einem Laien irgendwie klarwerden muss, dass hier im Zweifelsfall die Downloadpreiskalkulation sehr zu Ungunsten des Verbrauchers geführt wird. 100 verkaufte Downloadalben für je 10 Euro erzeugen nunmal heutzutage den gleichen Gewinn wie 1000 verkaufte Einheiten für je 1 Euro. Und das ist keine Erpressung oder Bevormundung, wie die Musikindustrie gefälligst Preise kalkulieren soll, das ist ein Verbesserungsvorschlag, um P2P vergleichsweise uninteressanter zu machen, denn das ist in meinen Augen der einzige Weg, der zum Ziel führt.

Einfachere Bezahlfunktionen und Zusatzfeatures sind hier ein weiterer Lösungsansatz. iTunes wurde in einer Zeit groß, in der Filesharing schon als „Volkssport“ existierte und ich bin mir recht sicher, dass bei deren Erfolg hier nicht die Millionenklagen der Musikindustrie ausschlaggebend waren, sondern eher die Einfachheit des Kaufvorgangs. Mit P2P sind abgebrochene Downloads, Viren, schlechte/falsche Meta-Tags, Fake-Uploads und langsame Geschwindigkeiten bei obskureren Titeln an der Tagesordnung. Amazon MP3, iTunes und Konsorten haben all diese Nachteile nicht, verlangen dafür einen Preis und – huch, Überraschung – die Konsumenten nutzen die Angebote.

Und wenn man dann aus der Überlegung noch einen Schritt weitergeht, kann man in der Tat bei „Kostenlos“ landen. Es wird weniger Geld mit dem Verkauf der Musik selbst verdient, aber dafür immer mehr Geld mit Merchandising, Konzerten und anderen knappen Gütern. Freemium-Modelle haben sich nicht nur bei Browserspielen bewährt, sondern können, wie beispielsweise Radiohead als bekannterer Act, oder Sigur Ros als eher obskureres Beispiel vorgemacht hat, auch bei Musik funktionieren.

Kontern die geistig nicht so sehr Begabten: „Musiker allgemein würden dann auch nicht mehr von Einkommen leben, sondern von Spenden. Manche besser, manche schlechter. Aber sie wären keine Produzenten mehr, die einen Beitrag leisten, sondern schlicht und ergreifend Bettler.“

Es ist doch eine ganz normale marktwirtschaftliche Abschätzung, bei welchem Preis (oder auch Preisabstufungen) der Gewinn vermutlich maximiert wird. Ein CD-Album, das nicht unter 100 Euro zu haben ist, wird wie Blei in den Regalen liegen und es gibt durchaus Versuche der Musikindustrie, ein abgestuftes Modell umzusetzen. Warum dann aus Werbe- oder auch Karmazwecken die absolute Grundversion nicht kostenlos sein darf, ohne dass der Künstler sich als Bettler zu fühlen hat, will sich mir nicht erschliessen. Wohlgemerkt werden die offiziellen Musikvideos heutzutage regelmäßig offiziell bei Youtube in hoher Qualität hochgeladen und sind damit auch in ebenso hoher Qualität auch kostenlos und legal gezielt downloadbar.

Lassen wir nochmal die Fans des inkohärenten Denkens zu Wort kommen: „Wenn du illegale Downloads für nicht so schlimm hälst, dann musst du ja gefälligst auch in Bus und Bahn Schwarzfahren, das ist ja genau das selbe!“

Hier ist das Stichwort: Verhältnismäßigkeit. Schwarzfahrer sind mit recht geringem Aufwand zu finden und zu identifizieren. Um das selbe bei Filesharern zweifelsfrei hinzukriegen, sind schon ganz andere Mittel vonnöten. Die Vorratsdatenspeicherung wäre hier zwar denkbar, die Verwendung deren Daten wurde aber eben aufgrund der Verhältnismäßigkeit glücklicherweise vom Bundesverfassungsgericht einstweilen auf schwere Straftaten eingeschränkt und – wie hoffentlich nicht nur ich hoffe – zeitnah komplett gestrichen. Vergleichbar wäre eher, wenn Schwarzfahrerei nur dadurch verhinderbar wäre, jeder Person ein Zwangsimplantat mit RFID und Bezahlfunktion in die Schädeldecke zu implantieren – ungeachtet dessen, ob man die öffentlichen Verkehrsmittel überhaupt nutzen will. Ja, an dieser Stelle hinkt mal wieder der Vergleich zwischen physikalischer Welt und der Welt der Informationen, aber das tun solche Vergleiche irgendwie grundsätzlich.

Jedenfalls: Die großen Künstler gab und gibt es nach wie vor und diese verdienen auch weiterhin Geld mit ihrer Musik, trotz Filesharing. Kleine, junge, aufstrebende Künstler haben dagegen dank Internet plötzlich die Möglichkeit, an den traditionellen Wegen vorbei bekannt zu werden – Mund-zu-Mund-Propaganda ist in Zeiten von Web 2.0 so effizient möeglich wie noch nie vorher.

Mein eigentliches Argument, mit dem ich langsam zum Schluss kommen will: P2P geht nicht mehr weg, egal wie doll man mit dem Fuß aufstampft. Wenn die Musikindustrie überleben will, muss sie Modelle finden um mit Filesharing konkurrieren zu können. Das tut sie langsam aber sicher auch immer mehr, aber das Festhalten an dem, wie es früher war, ist in Anbetracht der fortschreitenden Technik und wachsender Bandbreite halt nicht mehr möglich. Ich sehe aber keinen grundsätzlichen Grund, warum es keine Koexistenz zwischen kostenlosem Filesharing und offiziellen Vertriebskanälen geben können soll.

Ein Gedankenexperiment

24. Januar 2010

[Dieser Eintrag ist im Wesentlichen ein leicht überarbeiteter Repost eines meiner Beiträge aus dem alten elBloggo]

Man stelle sich einen Raum vor. In diesem Raum befindet sich ein Billardtisch (komplett mit Kugeln, Queue usw.) und ein Roboter, der Billard spielen kann.

Der Roboter ist programmiert, eine Billard-Startaufstellung aufzubauen und mit der weissen Kugel kräftig in Richtung des Dreicks zu hauen. Dabei variiert er Dinge wie Stoßstärke, Richtung und Anspielpunkt auf der weissen Kugel innerhalb gewisser Grenzen. Diese Variation geschieht aufgrund von Pseudozufallszahlen, ist also prinzipiell determiniert. Nach seinem Stoss baut er wieder die Startaufstellung auf und beginnt von Neuem.

Eine Besonderheit hat der Tisch noch: Jedesmal, wenn ein Ball in ein Loch gespielt wird, gibt der Tisch einen laut und deutlich vernehmbaren Piepston von sich.

Nun bitte ich darum, diesen Raum einstweilen zu vergessen und stattdessen eine Gedankenwelt zu entwerfen. Diese Welt funktioniert im Wesentlichen wie unsere hier, es gibt nur 2 Ausnahmen: Es existiert ein mysteriöser Raum, in den niemand reinschauen kann (auch nicht mit Röntgenstrahlung, Ultraschall oder sonstwas), dessen einziges Lebenszeichen ist, dass aus dem Inneren immer wieder Piepstöne nach aussen dringen. Der andere Unterschied zu unserer Welt ist: Billard wurde nie erfunden, nie gespielt, ist völlig unbekannt.

Natürlich ist dieser mysteriöse Piepsraum im Vergleich zur restlichen Welt recht klein, so hat es auch eine ganze Weile gedauert, bis die ersten Menschen ihn entdeckt haben. Als dies aber dann geschah, waren die Menschen fasziniert. Nungut, Lieschen Müller eher nicht. Aber Physiker, Mathematiker, Knobler aus allen Teilen der Welt kamen den Raum besuchen, um eigene Messungen durchzuführen und eigene Theorien aufzustellen. Manche dieser Theorien waren recht einfach gestrickt, manche waren gigantische Theoriegebilde. Viele Bücher haben sich mit diesem mysteriösen Raum beschäftigt, gemeinsam hatten sie eines: Keine dieser Theorien war richtig, denn der Raum – der werte Leser ahnte es vermutlich schon recht schnell – war der Raum, den wir im ersten Teil dieses Blogeintrags betrachtet haben.

Nachdem man eingesehen hat, dass dem Raum mit deterministischen Mitteln nicht beizukommen war, hat man sich bei der Erforschung auf probabilistische Mittel verlegt. Viele Messreihen hat man durchgeführt, sie wahrscheinlichkeitstheoretisch ausgewertet und die Forschungsergebnisse auf eine Kenngröße eingedampft: die sogenannte Halbpiepszeit – die Zeitspanne, nach der mit einer 50%igen Wahrscheinlichkeit ein Piepston aus dem Raum nach aussen drang.

Spätestens jetzt werden zumindest die physikalisch vorgebildeten Leser wissen, worauf ich mit meinem Gedankenexperiment hinauswill. Dem Rest werde ich in einem späteren Blogeintrag erklären, was dieses Gedankenexperiment (das ab sofort der Einfachheit halber nur noch als „elzoidos billardspielender Roboter“ in der entsprechenden Fachliteratur erwähnt werden sollte) mit Radioaktivität, Heisenberg, dem Freien Willen und dem fliegenden Spaghettimonster zu tun hat.

Liquid Democracy

17. Januar 2010

Wenn ein Konzept innerhalb der Piratenpartei in letzter Zeit in aller Munde ist, dann ist es die Liquid Democracy.

Dabei geht es grob gesagt darum, dynamisch ändernde Meinungen in eine demokratische Struktur abzubilden. Im Vordergrund ist dabei der Verein Liquid Democracy e.V., der der Umsetzung der Idee im Hintergrund einen unterstützenden Rahmen gibt.

Auf dem 26c3 hatte ich Gelegenheit, einen einführenden Vortrag zu hören, sowie danach an der Diskussionsrunde im kleineren Kreis teilzunehmen. Unter anderem aus diesem Anlass will ich hier ein paar Worte zu der Idee an sich verlieren und auch meine Gedanken dazu in die Öffentlichkeit werfen.

Wie funktioniert Liquid Democracy?

Im Kern ist Liquid Democracy ein äusserst dynamisches Delegiertensystem. Jede einzelne teilnehmende Person kann zu jedem Zeitpunkt (so wie ich das verstehe jeweils themengebunden) einer anderen Person die eigene Stimme übertragen. Dabei ist dieses Vertrauen vererbbar, d.h. wenn Person A seine Stimme an B weiterdelegiert, kann B nun entweder mit doppeltem Stimmgewicht abstimmen oder aber auch seine Stimme(n) an C weitergeben, der dann dreifaches Stimmgewicht hat.

Da jeder Teilnehmer aber auch jederzeit seine Delegierung wieder zurücknehmen oder wechseln kann, entsteht, so die Theorie, ein Netzwerk voller Checks and Balances. „Gutes“ Verhalten der Vertrauenspersonen am Ende der Kette wird durch weitere „Anhänger“ belohnt, andererseits wird durch genügend lange Vertrauensketten (bei großen Systemen kann hier durchaus eine Person viele hunderte Stimmen auf sich vereinen) sichergestellt, dass mit den delegierten Stimmen verantwortungsvoll umgegangen wird. Um irgendwann auch einmal eine Entscheidung treffen zu können, ist es vorgesehen, mit verschiebbaren Zeitfenstern zu arbeiten, an deren Ende eine konkrete Meinung (sei es nun ein tatsächliches Gesetz oder auch nur eine Pressemitteilung) feststehen soll. Wenn sich also ein Meinungsbild eine gewisse Zeitlang nicht mehr signifikant geändert hat, wird es quasi eingefroren. Sollte keine Einigkeit herrschen, bin ich mir nicht sicher was passieren soll – entweder geht die Abstimmung halt solange weiter, bis es einen Konsens gibt (im Zweifelsfall dann halt nie) oder der Versuch wird abgebrochen und für gescheitert erklärt.

Um diesen Zustand der Dauerabstimmung sinnvoll managen zu können, muss im Kern irgendwo eine entsprechende Software  sitzen. Beinahe schon piratentypisch gibt es hier eine Handvoll von mehr oder weniger fertigen Lösungen, die alle den Fokus ein klein wenig anders setzen: Adhocracy, Liquid Feedback und Votorola wären hier Beispiele von „richtigen“ LD-Lösungen. Die Alternative mit Meinungsbildern zu arbeiten, darf aber in meinen Augen auch nicht übersehen werden. Hier gibt es beispielsweise das Tool LimeSurvey, das auch im Landesverband Baden-Württemberg schon testweise eingesetzt wurde.

Was will Liquid Democracy?

In dem Vortrag auf dem 26c3 wurde irgendwie auf diese Frage eingegangen, einen sinnvoll gewählten roten Faden dahinter sehe ich persönlich allerdings (noch?) nicht.

Laut Verein soll damit prinzipiell alles möglich sein. Von der Meinungsbildung eines kleinen Vereins bis zur Legislative eines Staates (das wurde tatsächlich als ferne Zukunftsvision genannt). Dabei sollen Erfahrungen erst mit kleinen, überschaubaren Projekten gesammelt werden, aufgrund derer sich dann das System sukzessive vergrößern, verbessern und ausbreiten soll. Erste größere Schritte hat der Landesverband Berlin der Piratenpartei gestartet, der Liquid Feedback seit Jahresbeginn 2010 im Produktivbetrieb einsetzt.

Ich persönlich bin ob der angepeilten Größenordnung nicht nur aufgrund wahlrechtlicher Bedenken (durch das Zulassen von Stimmänderungen muss immer gewährleistet sein, dass mindestens eine Instanz die Zuordnung von Person zu Stimme machen kann) äusserst skeptisch.

Was sind die Schwächen von Liquid Democracy?

Es reicht in der Politik nicht, Meinungen zu bilden und Kompromisse zu schliessen und viele Stimmen hinter sich zu wissen, man muss auch irgendwann mal an einem Punkt angelangt sein, an dem man ein Gesetz verabschiedet, einen Vertrag unterzeichnet (oder auch nicht), einem Aktionsbündnis beitritt (oder auch nicht) oder auch nur eine Pressemitteilung rausgibt. Vor allem muss man sich darauf verlassen können, dass diese Entscheidung im Allgemeinen nicht kurze Zeit später völlig umgedreht werden wird.

Beispielsweise in der Steuergesetzgebung sollte es jedem einleuchten, dass es nicht sonderlich sinnvoll ist, permanent Änderungen an den Rahmenbedingungen zu machen, hier muss eine gewisse Rechtssicherheit vorhanden sein: Die Gelder, die jetzt investiert werden, müssen zum Ende des Geschäftsjahres auch noch im Nachhinein entsprechend legal verbuchbar sein. Ein permanenter Gesetzesfluss ist hier kontraproduktiv und im Zweifelsfall eher schädlich. Genausowenig bringt es etwas, Laufzeiten von Atomkraftwerken mal zu verlängern und dann wieder zu verkürzen, je nachdem, wie hoch die aktuellen Strompreise sind.

Prinzipiell soll es zwar Zeitpunkte geben, an denen dann tatsächlich auch eine Entscheidung erstmal feststeht, allerdings bedeutet das noch lange nicht, dass die Diskussion damit beendet ist. In einer Demokratie gibt es immer die zahlenmäßig Unterlegenen, die unzufrieden sind und einzelne Niederlagen nicht unbedingt als Anlass sehen, aufzugeben. Dieser Effekt wird vermutlich umso schlimmer, je weiter die Meinungen voneinander entfernt sind.

Weiterhin sind politische Entscheidungen selten auf einen kleinen Themenbereich und aufs Prinzip beschränkt. Auch wenn sich weite Teile einer Partei grundsätzlich einig sein können, beispielsweise ein bedingungsloses Grundeinkommen zu fordern, heißt das noch lange nicht, dass es auch eine Mehrheit für einen konkreten Umsetzungsvorschlag gibt. Höhe, Voraussetzungen und vor allem die über sämtlichen politischen Plänen schwebende Finanzierungsfrage sind hier im Zweifelsfall Hinderungsgründe.

Ein weiteres, allgemeines Problem, das ich auf LD speziell zukommen sehe ist das „Wegbröckeln“ von Stimmen. Angenommen, ein paar große gegensätzliche Stimmenaggregatoren handeln miteinander einen Kompromiss aus, mit dem sie alle leben können und der ihnen momentan eine Mehrheit bescheren würde. Wenn nun genügend Menschen weiter unten in den Vertrauensketten diesen Kompromiss eben nicht unterstützen wollen, kann es durchaus passieren, dass eine sicher geglaubte Mehrheit plötzlich wieder weg ist und die Verhandlungen umsonst waren. Ich sehe keine Möglichkeit, dieses Problem sinnvoll in den Griff zu bekommen.

Außerdem hat es einen guten Grund, warum Wahlprognosen erst nach Schließung der Wahllokale bekanntgegeben werden, Wahlbeeinflussung ist hier das Stichwort. LD ist ein System mit permanent einsehbarem Ergebnis und deshalb in meinen Augen extrem von dieser Problematik betroffen. Entsprechende kritische Nachfragen bei der Fragerunde wurden von Vereinsseite aber mehr oder weniger weggezaubert, da man einfach mal davon ausgeht, dass dieses Problem durch die ebenso permanente Abstimmung schon irgendwie von selbst verschwinden wird. Logisch nachvollziehbare Begründungen wurden mir dann allerdings keine genannt.

Und mein letzter größerer Punkt hier: Wir haben lange und intensiv gegen Wahlcomputer gekämpft und im Endeffekt auch grandios gewonnen. Und nun kommen die „gleichen“ Leute, denken sich noch viel komplexere Abstimmungsmodelle aus, die definitiv nicht mehr sinnvoll von Hand auszählbar sind und bauen ganz nebenbei noch deutlich höhere technische Hürden auf, um am politischen Diskurs teilnehmen zu können (Die Worte „Wiki“ und „Diff“ fielen mehrfach beim Vortrag auf dem 26c3). Auch hier kann ich nur verwundert zuschauen.

Grundsätzliche Probleme von basisdemokratischen Elementen

Was auch mehrfach in dem Vortrag und in der Diskussionsrunde angesprochen wurde, ist das sogenannte „Problem“ des Populismus.

Wer nach mehr Basisdemokratie ruft und gleichzeitig den Populismus verdammt, hat irgendetwas Grundsätzliches nicht verstanden.

Denn wer absolute Basisdemokratie einführt, muss einfach damit leben, dass Populisten an die Macht kommen, dass Pädophile mit Zwangskastrationen versehen werden, dass entführte Flugzeuge abgeschossen werden. Wer die niedersten Instinkte am Effizientesten anspricht, gewinnt schlicht und ergreifend.

Menschen denken nunmal im Allgemeinen nicht mit dem Kopf, sondern entscheiden aus dem Bauch heraus. Das kann man jetzt in der Diskussionsrunde bei einer Tasse Tee wortreich nicht gut finden, auf die Realität hat das aber keinen Einfluss und dessen muss man sich bewusst sein. Angst hat sich Millionen Jahre lang in der Evolution bewährt, bessere Bildung (ein übliches Gegenargument an dieser Stelle) kann das nicht ausgleichen.

Fazit

Auch wenn dieser Blogeintrag teilweise wohl überkritisch interpretiert werden kann, will ich hier nochmal ausdrücklich betonen, dass ich für LD durchaus einen Anwendungszweck sehe. Solange technisch nicht ungebildete Menschen, die alle mehr oder weniger am gleichen Strang ziehen damit ihre Meinungsbildung betreiben wollen, ist das in Ordnung. Aber sobald es darum geht, gegensätzliche Meinungen mit Kompromissen unter einen Hut zu bringen, sehe ich das System auf ganzer Länge scheitern. Und von den tatsächlichen Anforderungen an (oft zeitkritischen) realen Politikbetrieb will ich jetzt noch gar nicht viel reden – irgendwann kommt eine Stelle, an dem man dem gewählten Delegierten einfach vertrauen muss, dass er das Bestmögliche tut.