Quantenwelt http://www.scilogs.de/quantenwelt Gedanken eines Experimentalphysikers Mon, 27 Jul 2015 09:43:46 +0000 de-DE hourly 1 Pentaquark: Wie CERN Entdeckungen machthttp://www.scilogs.de/quantenwelt/pentaquark-wie-cern-entdeckungen-macht/?utm_source=rss&utm_medium=rss&utm_campaign=pentaquark-wie-cern-entdeckungen-macht http://www.scilogs.de/quantenwelt/pentaquark-wie-cern-entdeckungen-macht/#comments Thu, 16 Jul 2015 15:19:54 +0000 http://www.scilogs.de/quantenwelt/?p=1579 ... weiter]]> Am größten Teilchenbeschleuniger der Welt, dem Large Hadron Collider (LHC) am CERN ist wieder etwas interessantes Entdeckt worden. Das Pentaquark, ein Zustand aus vier Quarks und einem Antiquark. Nach solchen Zuständen suchen die Teilchenphysiker schon lange, ich habe dazu 2011 gebloggt. Damals war die Datenlage aber zu mager um von einer Entdeckung zu sprechen. Nun berichtet des Experiment LHCb von der eindeutigen Entdeckung eines Pentaquarks und ich kann endlich meine Homepage um weitere Quarkteilchen erweitern.

LHCb ist eines der vier Experimente am LHC und darauf spezialisiert, den Zerfall von Teilchen zu untersuchen, die ein Bottom-Quark (B-Quark) enthalten. Eines dieser Teilchen ist das Λb (Lambda-b-Teilchen). Es ist dem Neutron, das sich in jedem Atomkern befindet, sehr ähnlich. Das Neutron ist aus einem Up-Quark und zwei Down-Quarks aufgebaut und zerfällt im Schnitt nach einer Viertel Stunde durch Beta-Zerfall.1 Das Lambda-b enthält ebenfalls ein Up-Quark und ein Down-Quark, aber das zweite Down-Quark ist durch ein Bottom-Quark ersetzt. Das Bottom-Quark ist dem Down-Quark ähnlich, aber es ist sehr viel schwerer und hat mehr Zerfallsmöglichkeiten. Dadurch ist auch das Lambda-b-Teilchen fast sechs mal so schwer wie das Neutron und kann in viele verschiedene Teilchen zerfallen.

Zerfall eines Lambda-b-Teilchens

Zerfall eines Lanbda-b-Teilchens in zwei Myonen, ein Proton und ein Kaon am LHCb Experiment. Entnommen von der Website des LHCb-Experiments.

 

Ein solcher Zerfall ist in dem Bild oben dargestellt. Die beiden grün markierten Linien sind die rekonstruierten Bahnen zweier Myonen2, Die rote Linie gibt die Bahn eines negativ geladenen Kaons wieder und die magenta Linie zeigt ein gewöhnliches Proton, das geladene Teilchen im Atomkern. Alle diese vier Teilchen sind relativ langlebig und elektrisch geladen, so dass sie leicht in einem Teilchendetektor entdeckt werden können.

Bei genauer Betrachtung lässt sich entdecken, dass die eine grüne Linie etwas nach rechts gebogen ist, die andere nach links. Das liegt daran, dass die Myonen unterschiedlich geladen sind. Der gesamte Teilchendetekter befindet sich ein einem Magneten, der geladene Teilchen auf Kreisbahnen zwingt. Damit kann die Masse der Teilchen bestimmt werden. Ebenso ist die Kaon-Linie nach rechts und die Proton-Linie nach links gebogen, weil das Kaon negativ und das Proton positiv geladen ist.

Zerfall eines Lambda-b-Teilchens (Detail)

Credit: LHCb Detail des Zerfalls. Das Lambda-b-Teilchens bewegt sich ein paar Zentimeter vom Zentrum des Detektors weg bevor es zerfällt.

Die farbigen Klötze und Kreuze im Bild zeigen, Wo überall in den Detektoren Energie deponiert wurde. Aus diesen Daten lässt sich die Teilchenenergie berechnen. Außer den vier farbigen gibt es einige graue Bahnen, die andere Elementarteilchen zeigen. Diese Teilchen haben mit dem Zerfall des Lambda-b-Teilchen nichts zu tun.3 Woher die Forscherinnen und Forscher das wissen, sehen Sie im Bild rechts: Die grauen Linien gehen alle vom Kollisionspunkt der Protonenstrahlen des LHC aus. Nur die vier farbigen Linien starten am Zerfallspunkt des Lambda-b-Teilchens einige Zentimeter entfernt.

Ob es hier einen Pentaquark-Zustand gegeben hat, können wir nicht sehen. Dazu braucht es eine Statistik vieler solcher Zerfälle. Im Prinzip funktioniert das genau so, wie ich es vor zwei Jahren anhand des Suche nach einem Vier-Quark-Zustand beschrieben habe4:

Bei der Auswertung der Daten bestimmen die Forscherinnen und Forscher nicht nur Masse, Impuls und Energie jedes einzelnen Teilchens, sie bilden auch Summen der Schwerpunktenergie von Gruppen von Teilchen. So kommt heraus, dass die Gesamtenergie aller vier Teilchen immer nahe an dem Wert für die Lambda-b-Masse liegt. Schließlich stammen sie aus dem Zerfall dieses Teilchens und bekommen nur daher die Energie.

Bilden die Forscher_innen eine Summe aus den beiden Myonen-Massen, so kommt auch immer derselbe Wert heraus. Das ist die Masse eines J/ψ-Mesons (J-Psi-Teilchen). Diese Teilchen entstehen hier als Zwischenprodukt und Zerfallen in ein Myon-Antimyon-Paar.

Zerfall in Lambda und J/Psi

Der gewöhnliche Zerfall.

Das ist alles noch nicht überraschend, denn genau nach diesen Kriterien - Zerfall eines Lambda-b und auftreten zweier Myonen aus dem J/ψ-Mesons-Zerfall - sind die Ereignisse ausgesucht. Die Überraschung gab es, als die Energiesumme von drei Teilchen, nämlich Proton und beide Myonen betrachtet wurde. Klassisch sollte das Lambda-b zunächst in ein J/ψ-Meson und ein anderes Lambda-Teilchen zerfallen (rechts im Bild). Dieses andere Lambda-Teilchen zerfällt dann weiter in ein Proton und ein Kaon. Wenn das so ist, muss die Energie von Myonen und Proton zusammen recht  breit verteilt sein, denn sie stammen ja aus unterschiedlichen Vorgängen.

Zerfall in ein Pentaquark

Der Zerfall in ein Pentaquark

Die Physikerinnen und Physiker fanden aber neben dieser breiten Massen-Verteilung noch eine scharfe Linie bei einer Energie von 4450 Megaelektronenvolt. Das ist eine Resonanz, ein extrem kurzlebiges Teilchen. Es muss einen Vorgang gegeben haben, bei dem zunächst das Kaon abgespalten wurde und für kurze Zeit ein Teilchen existierte, das dann in Proton und J/ψ-Meson zerfallen ist (links im Bild).

Der Pentaquark-Zustand hat nur sehr kurz existiert und wird PC genannt. Das Plus bedeutet, dass es sich um ein einfach positiv geladenes Teilchen handelt.

Auf der Quark-Ebene passiert hier immer dasselbe: Die schwache Kernkraft, symbolisiert durch die Wellenlinie und das W-Boson, wandet das Bottom-Quark in ein leichteres Charm-Quark um. Dabei erzeugt sie ein einfach negativ geladenes Quark-Antiquark-Paar bestehend aus einem Strange- und einem Anticharm-Quark. Das negative W-Boson, das hier in Aktion tritt, kann nur solche Quark-Antiquark-Paare erzeugen, die auch negativ geladen sind.

Erst was dann passiert ist in den beiden Prozessen unterschiedlich. Im konventionellen Zerfall (Bild a) finden sich das Charm und das Anticharm-Quark zum J/ψ-Meson zusammen und die anderen Quarks bilden das Lambda-Teilchen. Dieses zerfällt erst später unter Bildung eines Up-Antiup-Quark-Paares5 zu einem Proton und einem Kaon.

Im zweiten Fall (b) geschieht diese Paarbildung sofort und das Kaon wird gleich abgespalten. Zurück bleibt für kurze Zeit der Pentaquark-Zustand aus zwei Up-Quarks, einem Down-Quark und einem Charm-Antischarm-Paar. Dieses Pentaquark ist gerade lang genug stabil um für eine scharfe Energie dieses Fünf-Quark-Paketes zu sorgen. Es zerfällt ohne Neubildung von Quarks in Proton und J/ψ-Meson.

Beide Prozesse (a) und (b) führen letztlich zu denselben Endzuständen, können aber in der energetischen Analyse des Vorgangs voneinander unterschieden werden. Wichtig sind solche Prozesse, weil sie schwache Kernkraft und die starkte Kernkraft enthalten. Die schwache Kernkraft ist als einzige der Grundkräfte nicht symmetrisch gegen Spiegel- und Ladungssymmetrie. Diese sogenannte cp-Asymmetrie wird schwerpunktmäßig am LHCb untersucht und könnte dafür verantwortlich sein, dass es unsere Welt aus Materie und wenig Antimaterie gibt. Die starke Kernkraft ist für den Zusammenhalt der Quarks verantwortlich. Die Vermessung von Pentaquark-Zuständen kann helfen die Modelle zu verbessern, mit denen Stabilität und Lebensdauer von Elementarteilchen und Atomkernen berechnet werden können.

Flattr this!

]]>
http://www.scilogs.de/quantenwelt/pentaquark-wie-cern-entdeckungen-macht/feed/ 0 wissenslogs
Vergleichszahlen und Vorurteilhttp://www.scilogs.de/quantenwelt/vergleichszahlen-und-vorurteil/?utm_source=rss&utm_medium=rss&utm_campaign=vergleichszahlen-und-vorurteil http://www.scilogs.de/quantenwelt/vergleichszahlen-und-vorurteil/#comments Mon, 13 Jul 2015 08:33:35 +0000 http://www.scilogs.de/quantenwelt/?p=1573 ... weiter]]> Zahlenangaben sind in wissenschaftlichen Publikationen meist unverzichtbar. Berichten über Wissenschaft geben sie Glaubwürdigkeit. Doch nicht immer können Laien etwas mit den Zahlen anfangen. Deshalb sind Vergleiche als Maßstab wichtig. Leider geht die Suche nach einem guten Vergleich manchmal schief. Besonders wenn die Erwartung der/des Suchenden stark von den tatsächlichen Verhältnissen abweicht. Das fällt mir oft bei Berichten über die Wirkung radioaktiver Strahlung auf.

Kaum eine alltägliche Gefahr wird in der öffentlichen Wahrnehmung so überschätzt wie radioaktive Strahlung. Während ich als Experte weiß, dass eine Strahlendosis von ein paar Milligray mehr oder weniger keinen messbaren Effekt auf die Gesundheit hat, berichten öffentliche Medien schon einmal von großen Strahlenkatastrophen wo sich der eigentliche Schaden in Grenzen hält.

Ich habe 2012 einen Bericht über viele Millionen Becquerel im Meer kommentiert und gezeigt, dass Vergleichszahlen zur radioaktiven Aktivität nicht so leicht zu bekommen sind. Vor allem aber, dass große Zahlen manchmal gar nicht so groß sind, wenn man sie ins richtige Verhältnis setzt. Zuletzt fand ein Kommentator meines Blogs einen verblüffenden Vergleich von Leukämie-Todesfällen aufgrund von Strahlung:

Trotz ihrer eigentlich geringen Exposition starben im Untersuchungszeitraum 531 Arbeiter an Leukämie, 814 an Lymphomen und 293 an einem multiplen Myelom, wie die Forscher berichten. Das aber war deutlich mehr als erwartet. Denn in der breiten Bevölkerung liegt die Leukämierate bei 4,3 pro 10.000 Menschen – es hätten daher nur 134 Arbeiter an dem Blutkrebs sterben dürfen.

berichtet das Wissenschaftsmagazin Scinexx.

Es ist leicht nachzuvollziehen, was hier passiert ist: Die Redaktion von Scinexx hat die Todesfall-Zahlen - 531 für Leukämie1, 293 für Myelome und 814 für Lymphome - in der Veröffentlichung gefunden, wusste aber nicht so recht etwas damit anzufangen. Ist das nun viel oder wenig?

Also wurde ein wenig recherchiert und der verantwortliche Redakteur oder die Redakteurin fand eine Angabe zur Leukämierate2 von 4,3 pro 10.000 Menschen in der "breiten Bevölkerung". Multipliziert mit der Gesamtzahl der Probanden in der Langzeitstudie - 308.297 Personen - ergibt sich die Vergleichszahl von 134 Leukämiefällen. 531 zu 134! Wenn das stimmte, würden Strahlenarbeiter_innen fast vier mal so häufig an Leukämie sterben als Menschen in anderen Berufen.

Die Scinexx-Redaktion ist über diese Zahl offenbar nicht erstaunt gewesen. Man hatte einen Vergleich, so dass sich die Leserinnen und Leser ein Bild machen können. Und dieser Vergleich schien plausibel. Jedes Kind weiß, dass Strahlung Leukämie verursacht. Auch in kleinen Dosen, wie sie Überschrift der Scienexx-Artikels deutlich macht.

Mich hat diese Zahl dagegen schockiert. 53% der an Leukämie verstorbenen Probanden hatten nämlich laut Veröffentlichung eine berufsbedingte Lebenszeitdosis von weniger als 5 Milligray abbekommen. Bei natürlicher Strahlenbelastung von etwa 2-3 Milligray pro Jahr und  nochmal so viel durch medizinische Behandlungen und Diagnose sollte das nicht ins Gewicht fallen.

Wäre also die Vergleichszahl korrekt, die die Redaktion gefunden hat, so hätten wir es hier mit einer handfesten Sensation zu tun. Weltweit hätten Grundprinzipien des betrieblichen Strahlenschutzes infrage gestellt werden müssen. Vor allem aber hätte es uns das Rätsel aufgegeben, warum sich dieser Effekt nicht bei den stark variierenden lokalen natürlichen Strahlendosen bemerkbar macht. Je nachdem, ob wir im Erzgebirge oder in der norddeutschen Tiefebene leben, unterscheidet sich nämlich die natürliche Strahlenbelastung erheblich. Weit stärker als die in der Studie gemessenen betrieblichen Belastungen.

Auch aus der Studie selbst ist zu entnehmen, dass der Vergleich falsch sein muss. Dort ergibt sich für Leukämie3 eine Steigung der Sterbehäufigkeit von 3 Fällen pro Gray mit einer Streubreite zwischen 1 und 5. Um die vierfache Sterberate zu zeigen, hätten die Probanden also mindestens ein knappes Gray, wahrscheinlicher zwei oder mehr Gray zusätzlich zur natürlichen Belastung abbekommen müssen. Das ist, bei aller Messunsicherheit, ausgeschlossen.

Ich kann also Entwarnung geben: Die Erkenntnisse dieser Studie sind nicht so besorgniserregend, wie die Scienexx-Redaktion es verstanden hat.

Und ich muss warnen: Wenn in einer wissenschaftlichen Veröffentlichung keine Vergleichszahlen angegeben sind, liegt das meist daran, dass solche Zahlen nicht leicht zu bekommen sind. Eine kurze Recherche und eine schnell ausgerechnete Zahl können da leicht in die Irre führen.

Flattr this!

]]>
http://www.scilogs.de/quantenwelt/vergleichszahlen-und-vorurteil/feed/ 0 wissenslogs
Strahlenmedizin: Keine Schwelle des Risikoshttp://www.scilogs.de/quantenwelt/strahlenmedizin-keine-schwelle-des-risikos/?utm_source=rss&utm_medium=rss&utm_campaign=strahlenmedizin-keine-schwelle-des-risikos http://www.scilogs.de/quantenwelt/strahlenmedizin-keine-schwelle-des-risikos/#comments Tue, 07 Jul 2015 10:10:43 +0000 http://www.scilogs.de/quantenwelt/?p=1562 ... weiter]]> Dass radioaktive Strahlung Krebs verursacht, ist bekannt. Das im Strahlenschutz gängige Modell geht davon aus, dass es hierfür keine Schwelle gibt. Bereits das erste Strahlenquant kann einen Schaden anrichten und mit Zunahme der Strahlendosis steigt das Risiko linear: Doppelt so viel Strahlung ist für ein doppelt so hohes Strahlenrisiko verantwortlich. Dieses Modell heißt LNT-Modell (Linear No Threshold = Linear und keine Schwelle). In einem früheren Blogbeitrag habe ich dem LNT-Modell ein langes Leben vorausgesagt. Das scheint nun bestätigt.

In einem Artikel der wissenschaftlichen Zeitschrift The Lancet Haematology werteten die Autor_innen 66632 Todesfälle von 308297 Strahlenarbeiter_innen aus Frankreich, den USA und der UK auf Korrelationen zwischen Arten von Blutkrebs und Strahlendosis aus. Dabei zeigt sich, wie schwierig es tatsächlich ist, zuverlässige Daten zum Risiko kleiner Strahlendosen zu erhalten.

Zusammengefasst haben die Autor_innen zwei wichtige Erkenntnisse herausgearbeitet:

  1. Die Beobachtete Zunahme des Krebsrisikos mit Bestrahlung war in Einstimmung mit den Beobachtungen, die nach instantaner Bestrahlung in Hiroshima und Nagasaki gemacht wurden.
  2. Ein lineares Modell, das LNT-Modell, ließ sich gut an die Messwerte anpassen. Die Daten widersprechen diesem Modell nicht.

Im Anreißer eines Artikels auf Scinexx wurde diese Nachricht kommentiert mit: "Entgegen gängiger Annahme gibt es dabei keine Untergrenze und eine anhaltende Niedrigdosis wirkt genauso krebserregend wie eine einzige höhere Akutbelastung".

Dieser Kommentar hat mich schockiert. Die gängige Annahme ist nach wie vor genau die, die mit der vorliegenden Untersuchung bestätigt wurde. Auf dieser Basis gründet sich jeder betriebliche Strahlenschutz und jede medizinische Nutzen-Risiko-Abschätzung. Was hält die Redaktion für die "gängige Annahme"?

Es gibt eine Hypothese, nach der niedrige Strahlendosen unschädlich oder sogar vorteilhaft sind. Die Idee dahinter ist, dass Strahlung die Reparaturmechanismen in den Zellen anregen könnte und so zu einer effektiveren Krebsabwehr der Zellen beitragen könnte. Auch das Immunsystem könnte von Strahlung beeinflusst sein. Einige Tiermodelle scheinen dieses Modell, die Hormesis-Hypothese zu bestätigen.

Eine evolutionstheoretische Begründung für die Hormesis-Hypothese ist, dass sich das Leben auf der Erde unter Bedingungen entwickelt hat, in der die natürliche Radioaktivität viel stärker war als heute. Könnten die Vorgänge der Zellbiologie für ein erhöhtes Strahlenniveau optimiert sein? Ich habe da meine Zweifel. Reparaturmechanismen sind für die Vervielfältigung unserer Erbanlagen ohnehin notwendig, auch ohne Strahlung. Radioaktivität ist nicht der einzige und vermutlich auch nicht der wichtigste Auslöser für Mutationen. Zu dem ist nicht jeder vorteilhafte Mechanismus auch durch die Evolution verwirklicht, natürliche Selektion wählt zufällige Anpassungen aus. Dass diese stattgefunden haben, können wir nicht voraussetzen.

Aber bleiben wir bei der Empirie. Ist die Hormesis-Hypothese jetzt vom Tisch? Nein, dass die vorliegende Studie eine Übereinstimmung mit dem LNT-Modell zeigt, bedeutet nicht, dass nicht auch ein anderes Modell passen könnte. Neben der Hormesis-Hypothese käme ein Schwellen-Modell in Frage, bei dem das Risiko erst ab einer bestimmten Dosis einsetzt.

Die meisten Strahlenarbeiter_innen, die in dieser Studie untersucht wurden, hatten recht geringe Gesamtdosen von unter 10 Milli-Gray erhalten. Zu beachten ist dabei, dass betrieblicher Strahlenschutz nur die zusätzlichen Dosen während der Arbeit erfasst, die natürliche Strahlenexposition von 3 bis 4 Milli-Gray pro Jahr, etwa 150 Milli-Gray für einen Vierzigjährigen, wurden nicht eingerechnet. Damit untersucht diese Studie aufgrund ihres Designs nur den Einfluss zusätzlicher Strahlung. Es gibt keine Referenzgruppe, die gar keiner Strahlung ausgesetzt war. Wo soll die auch herkommen.

Wir könnten daraus schließen, dass die Schwelle oder der vorteilhafte Bereich der Bestrahlung im Bereich der natürlichen Radioaktivität liegen muss. Schließlich passt eine lineare Anpassung ohne Schwelle zu den Daten. Aber auch bei diesem Schluss muss ich zur Vorsicht mahnen. Die Daten geben einen sicheren Ausschluss anderer Modelle nicht her. Wir können aus der vorliegenden Studie genau eines schließen: Das LNT-Modell ist mit den Daten kompatibel. Es lässt sich mit diesen Daten nicht widerlegen.

Damit werden wir es nach wie vor im Strahlenschutz nutzen müssen. Das gebietet das Vorsichtsprinzip: Das LNT-Modell ist von allen glaubwürdigen Modellen das, das die Risiken am pessimistischsten einschätzt. Aber wichtiger noch ist hier das ALARA-Prinzip: "As low as reasonably achievable". Wir halten Strahlenbelastung auch unterhalb gesetzlicher Grenzwerte so niedrig, wie mit vernünftigen Mitteln erreichbar.

Was beim Strahlenschutz selbstverständlich ist, wirft in anderen Fällen, wo Chancen und Risiken gegeneinander abgewogen werden müssen, Fragen auf. Um eine Strahlentherapie zu optimieren oder die Evakuierung und Rückkehr der Bevölkerung nach einem Atomunfall einzuschätzen, sind möglichst exakte Modelle des Risikos nötig. Hier müssen wir leider damit leben, dass die Wissenschaft keine eindeutige Aussage macht. Entscheidungen sind oft unter Unsicherheit zu treffen. Davor kann Wissenschaft uns nicht bewahren.

Nachtrag 8. Juli 2015

Auf Twitter hat mich der Account des Nuklearia e.V. auf eine Diskussion im Nature Magazin hingewiesen. Dort wird die Studie kritisch betrachtet. Insbesondere ist problematisch, dass der Untergrund von natürlicher und medizinischer Bestrahlung der Probanden außerhalb des Dienstes nicht nur höher ist, als die gemessene zusätzliche Belastung, sondern zudem noch in Industrieländern ansteigt. Ein unbekannter, ansteigender Untergrund macht Studien, die nach kleinen Effekten sucht, natürlich sehr anfällig.

Im Verlauf der Diskussionen gestern ist aufgefallen, dass das Scinexx-Magazin die Leukämie-Todesfälle von 531 Arbeiter_innen mit einer Zahl von 134 Leukämiefällen in der "breiten Bevölkerung" vergleicht. Sterben Strahlenarbeiter_innen also 4 mal häufiger an Leukämie als andere? Nein, dieser Vergleich ist Falsch. Die Redaktion hat einfach die Zahl aller Probanden mit einer Leukämierate von 4.3/10.000 multipliziert. Das funktioniert aber so nicht.

Wollte man die Sterbefälle mit einer Gruppe nicht beruflich strahlenexponierter Personen vergleichen, müsste man sehr genau auf gleiche Zusammensetzungen beider Gruppen achten. Krebserkrankungen sind sehr altersabhängig und Strahlenarbeiter_innen haben nicht dieselbe Altersverteilung wie die "breite Bevölkerung", die auch Kinder beinhaltet, bei denen das Krebsrisiko sehr viel geringer ist als bei Erwachsenen.

Eine kurze Abschätzung unten im Kommentar  ergibt, dass die 531 Leukämie-Toten von 66.632 Sterbefällen (0.8%) insgesamt nicht überraschend hoch sind.

Flattr this!

]]>
http://www.scilogs.de/quantenwelt/strahlenmedizin-keine-schwelle-des-risikos/feed/ 27 wissenslogs
Wissenschaft, ein Kinderspielhttp://www.scilogs.de/quantenwelt/wissenschaft-ein-kinderspiel/?utm_source=rss&utm_medium=rss&utm_campaign=wissenschaft-ein-kinderspiel http://www.scilogs.de/quantenwelt/wissenschaft-ein-kinderspiel/#comments Mon, 22 Jun 2015 15:11:59 +0000 http://www.scilogs.de/quantenwelt/?p=1558 Kinder sind bekanntlich neugierig und lieben es neues auszuprobieren. Schon öfter habe ich mir Gedanken gemacht, welche Möglichkeiten es gibt, Kinder an Naturwissenschaften heranzuführen. Hierzu habe ich nun einen aktuellen Linktipp gefunden. In dem Blog Groß-Stadt-Ansichten berichtet eine Biochemikerin und Mutter über einen Wissenschafts-Kindergeburtstag:

Viel Spaß beim lesen, staunen und nachmachen!

Flattr this!

]]>
http://www.scilogs.de/quantenwelt/wissenschaft-ein-kinderspiel/feed/ 0 wissenslogs
Die Sonne haltenhttp://www.scilogs.de/quantenwelt/die-sonne-halten/?utm_source=rss&utm_medium=rss&utm_campaign=die-sonne-halten http://www.scilogs.de/quantenwelt/die-sonne-halten/#comments Sun, 14 Jun 2015 23:01:47 +0000 http://www.scilogs.de/quantenwelt/?p=1501 ... weiter]]> Mitte April hatte ich Gelegenheit, das Plasma-Experiment Wendelstein 7-X in Greifswald zu besuchen und mir von dort arbeitenden Wissenschaftlern erklären zu lassen. Anlass genug, hier kurz über Plasmen, Stellaratoren und Wendelstein 7-X zu berichten.

Ein Plasma ist in der Physik1 der vierte Aggregatzustand neben Feststoffen, Flüssigkeiten und Gasen. In Feststoffen sind die Atome so stark aneinander gebunden, dass sie sich nicht von der Stelle bewegen. In Flüssigkeiten reicht ihre Bewegungsenergie aus um aneinander vorbei zu gleiten. Die Materie kann fließen, ihre Atome verlieren aber nie den direkten Kontakt zueinander. In Gasen reicht die Energie schon aus, dass sich Atome oder Moleküle frei voneinander bewegen können. Gase breiten sich aus und nehmen den gesamten zur Verfügung stehenden Platz ein. Wird die Bewegungsenergie der Teilchen noch größer, so sind nicht mehr die Atome die kleinsten intakten Bausteine: Atomkerne2 und Elektronen können sich frei voneinander bewegen. Das ist dann ein Plasma.

Max-Planck Institut für Plasmaphysik - Schild vor dem Eingang

Am Eingang zum IPP: Blaues Schild vor blauem Himmel

Plasmen kommen in Natur und Technik nicht selten vor. Plasma-Bildschirme und so genannte Energiesparlampen nutzen Plasmen als Lichtquellen. Auch in Flammen und Blitzen fallen sie als Leuchterscheinung auf. Das Licht entsteht dabei durch Rekombination, also wenn Atomkern und Elektronen aufeinander treffen und bis zum nächsten Stoß wieder ein Atom bilden.

Ein Plasma ist ein Gas aus geladenen Teilchen. Während sich aber ein ideales Gas dadurch auszeichnet, dass sich die Gaspartikel zwischen zwei Stößen frei ausbreiten, gibt es in einem Plasma ständige Wechselwirkungen zwischen den geladenen Partikeln.

Die negativ geladenen Elektronen und die positiv geladenen Atomkerne bewegen sich stets in elektrischen und magnetischen Felder mit großer Reichweite. Jede Beschleunigung oder Abbremsung dieser Teilchen verändert die Felder durch Induktion. Soll ein Plasma berechnet werden, braucht es also mehr als nur Teilchendichte, Druck und Temperatur. Teilchen und Felder wechselwirken unentwegt miteinander und beeinflussen sich gegenseitig. Die komplizierten Vorgänge in Plasmen machen es notwendig, theoretische Vorhersagen mit experimentellen Messungen zu vergleichen.

Wendelstein 7-X ist eine Maschine, in der es möglich sein wird, Plasmen langfristig zu speichern und ihre Eigenschaften genau zu vermessen. Dazu werden die Plasmen in einem starken Magnetfeld eingeschlossen. Wendelstein 7-X ist ein Stellerator in dem das Magnetfeld im Vergleich zu dem größeren Tokamak ITER recht kompliziert aufgebaut ist: Während die Feldlinien eines Tokamaks einen einfachen Torus3 bilden, sind sie in einem Stellerator ineinander verwunden. Nur so ist es möglich, das Plasma langfristig festzuhalten. Die einfacher aufgebauten Tokamaks können Plasmen nur kurzfristig speichern.

Wendelstein 7X

Was ein Bisschen wie ein Wimmelbild aussieht, ist der Stellarator Wendelstein 7-X

Wendelstein 7-X wird voraussichtlich in diesem Jahr seinen Forschungsbetrieb aufnehmen. Neben den Studien an Plasmen selbst wird sich dabei auch zeigen, ob das Konzept des Stellarators gegenüber den weiter entwickelten Tokamaks konkurrenzfähig ist.

Plasmen sind nicht zuletzt notwendig, wenn Kernfusion als Energiequelle erschlossen werden soll. Zur Kernfusion ist Wendelstein 7-X allerdings nicht ausgelegt. Eine Anlage, die mehr Energie durch Fusion erzeugt als sie zur Aufrechterhaltung des Plasmas braucht, müsste etwa fünf mal größer sein als die Forschungsanlage Wendelstein 7-X. Das ergibt sich einfach aus dem Verhältnis von Volumen zu Oberfläche. Die Energieproduktion geschieht überall im Volumen der Maschine, während die Energieverluste fast ausschließlich über die Oberfläche auftreten. Da das Verhältnis von Oberfläche zu Volumen mit der Größe steigt, werden Fusionskraftwerke groß sein müssen.

Wendelstein 7-X wird zeigen, ob das Stellarator-Konzept geeignet ist, große Plasmamengen langfristig zu halten. Es wird auch dazu beitragen, Plasmaphysik besser zu verstehen und theoretische Plasmamodelle zu überprüfen. Ob die Forschung in Greifswald langfristig zur Energieversorgung beitragen wird, ist dann eine politische Entscheidung.

Flattr this!

]]>
http://www.scilogs.de/quantenwelt/die-sonne-halten/feed/ 4 wissenslogs
empirische WIMPs und rationale SUSY-Teilchenhttp://www.scilogs.de/quantenwelt/empirische-wimps-und-rationale-susy-teilchen/?utm_source=rss&utm_medium=rss&utm_campaign=empirische-wimps-und-rationale-susy-teilchen http://www.scilogs.de/quantenwelt/empirische-wimps-und-rationale-susy-teilchen/#comments Wed, 27 May 2015 06:51:36 +0000 http://www.scilogs.de/quantenwelt/?p=1534 ... weiter]]> In einem alten Artikel von 2014 habe ich über die Suche nach Weakly Interacting Massive Particles (WIMPs) geschrieben. Solche nur über die Schwache Kernkraft wechselwirkenden Teilchen sind ein wichtiger Kandidat für die gesuchte dunkle Materie. Andererseits könnte es sich bei diesen Teilchen um supersymmetrische (SUSY) Teilchen handeln. Ein Anlass, einmal über verschiedene Motivationen für Grundlagenforschung nachzudenken.

Ob ein Experiment wie der Teilchenbeschleuniger CERN oder das unterirdische Labor SNOWLAB nach WIMPs oder SUSY-Teilchen suchen, ist in erster Linie eine Frage der wissenschaftlichen Motivation. Die Anforderungen und sogar die zu entdeckenden Teilchen sind gleich.

Erklärung für Phänomene

Nach WIMPs suchen wir, weil es ein Phänomen gibt, dessen Erklärung unklar ist. Astronomische Beobachtungen legen die Existenz dunkler Materie nahe. Diese Materie könnte aus Teilchen bestehen, die nicht elektromagnetisch wirken1 und nicht oder nur sehr langsam in andere Teilchen zerfallen2. Wir erwarten also schwach wechselwirkende Teilchen, das ist das WI in WIMP. Außerdem müssen die Teilchen mehr Masse haben als zum Beispiel Neutrinos. Es müssen massive Teilchen sein. Das ist das MP in WIMP.

Die Eigenschaften von WIMPS sind also durch bereits erfolgte Beobachtungen festgelegt. Wir suchen ein fehlendes Steinchen zu einem Mosaik von ineinander passenden Beobachtungen.

Konsequenz einer Theorie

Dieselben Geräte, mit denen WIMPs gefunden werden können, können auch supersymmetrische (SUSY) Partner zu den bekannten Elementarteilchen finden. Hier ist die Motivation diese Teilchen zu suchen anders: Symmetrie hat sich als Konzept bisher hervorragend bewährt. Deshalb suchen theoretische Physikerinnen und Physiker nach neuen Ansätzen, die der Natur weitere Symmetrien zusprechen.

Bekannt ist die Symmetrie zwischen Teilchen und Antiteilchen. Das ist eine Ladungssymmetrie3, Antiteilchen haben die gegenteilige elektrische Ladung wie ihre Partner. Sie gehören aber zur selben Teilchenklasse. Mit Teilchenklasse meine ich hier Fermionen und Bosonen. Fermionen sind Teilchen, die Materie bilden, also Quarks und Elektronen. Bosonen sind Teilchen, die Kräfte übertragen, also unter anderem Photonen und Gluonen.

Wenn die These der Supersymmetrie stimmt, dann gibt es einen supersymmetrischen Partner zu jedem der bekannten Teilchen, der einer anderen Teilchenklasse angehört. Jedes Materie-Teilchen (Fermion) hat einen bosonischen Partner. Jedes Kraft-Teilchen (Boson) hat einen fermionischen Partner.

Die Eigenschaften des SUSY-Teilchen sind nicht aus anderen Beobachtungen bekannt, sondern aus der Theorie. Es gibt in den supersymmetrischen Erweiterungen der Teilchenphysik Regeln, die besagen wie ein supersymmetrischer Partner wechselwirken muss. Diese Regeln geben vor wie ein Experiment aussehen muss, das SUSY-Teilchen finden soll.

Glücklicher Weise müssen sich Teilchenphysikerinnen und -physiker nicht festlegen, ob sie nach WIMPs oder SUSY-Teilchen suchen wollen. Erstens weil beide Arten von Teilchen ganz ähnliche Maschinen erfordern, zweitens weil sie vermutlich sogar identisch sind: das einfachste SUSY-Teilchen, das Neutralino, ist ein heißer Kandidat für ein WIMP: Es ist elektrisch ungeladen, wechselwirkt über die Schwache Kernkraft und es ist schwer.

Deduktion vs. Induktion

Die zwei Motivationen nach denselben Teilchen zu suchen repräsentieren sehr schön die beiden klassischen Ströme der Philosophie:

  1. Auf WIMPs kommen wir über den Weg der Empirie: Eine Beobachtung4 wird verallgemeinert. Das ist die induktive Art, neue Erkenntnis zu gewinnen. Die Erkenntnis ist: Es muss eine unbekannte Art von Materie geben.5
  2. Auf SUSY-Teilchen kommen wir dagegen, indem wir eine Theorie, das Standardmodell der Teilchenphysik, weiterdenken und eine neue Symmetrie einführen. Daraus lässt sich die Existenz zusätzlicher Teilchen ableiten (Deduktion).

Beide Methoden waren in der Vergangenheit erfolgreich, moderne Wissenschaftstheorie6 weiß aber auch, dass keine der Methoden allein zu haltbaren Erkenntnissen führt. Rationalismus ohne Überprüfung durch und an der Empirie wird zu Theorien führen, die mit der erlebten Welt nichts zu tun haben. Nicht einmal die Grundlegende Struktur der Raumzeit hätten die Menschen rein rational erfassen können.7 Empirische Untersuchungen ohne Einbindung in ein theoretisches Modell führt dagegen nur auf einen Katalog unabhängiger Beobachtungen. Daraus ist keine tiefere Erkenntnis zu erwarten.

Wissenschafterinnen und Wissenschaftler müssen theoretische Modelle entwickeln und sie müssen sie am Experiment oder durch Beobachtung absichern. Ob die Modelle rational aus Vorgängermodellen entwickelt oder empirisch aus Beobachtungen verallgemeinert wurden, ist dabei zunächst unerheblich.

Flattr this!

]]>
http://www.scilogs.de/quantenwelt/empirische-wimps-und-rationale-susy-teilchen/feed/ 40 wissenslogs
Quantencomputer: Mehr als Computer mit Quanteneffektenhttp://www.scilogs.de/quantenwelt/quantencomputer-mehr-als-computer-mit-quanteneffekten/?utm_source=rss&utm_medium=rss&utm_campaign=quantencomputer-mehr-als-computer-mit-quanteneffekten http://www.scilogs.de/quantenwelt/quantencomputer-mehr-als-computer-mit-quanteneffekten/#comments Thu, 09 Apr 2015 13:45:40 +0000 http://www.scilogs.de/quantenwelt/?p=1449 ... weiter]]> Quantenmechanik ist die Physik der kleinen Dinge. Wenn Strukturen in der Größenordnung von Atomen eine Rolle spielen, müssen quantenmechanische Gesetzmäßigkeiten bedacht werden. Wenn Computerchips immer kompakter werden ist abzusehen, dass eines Tages die Grenze zur Quantenmechanik erreicht wird. Streng genommen funktioniert ohnehin kein Computer ohne Quanteneffekte. Aber das macht einen Computer nicht zum Quantencomputer.

Quantencomputer sind Computer, deren kleinste Informationseinheiten aus einem quantenmechanischen Bit, einem Q-Bit bestehen. Wie das klassische Bit kann das Q-Bit einen von zwei Zuständen einnehmen. Diese tragen die Namen 0 und 1. In quantenmechanischer Schreibweise heißen sie \(\left|0\right>\) und \(\left|1\right>\). Das Q-Bit kann aber noch mehr: Es kann zusätzlich jeden beliebigen Überlagerungszustand von \(\left|0\right>\) und \(\left|1\right>\) annehmen. Das sind Zustände wie \(a\cdot\left|0\right>+b\cdot\left|1\right>\), wobei \(a\) und \(b\) komplexe Zahlen sind, für die die Einschränkung \(a^2+b^2=1\) gilt1.

Analogcomputer

Die beiden Zahlen \(a^2\) und \(b^2\) sind Wahrscheinlichkeiten, mit denen beim Abfragen des Q-Bits entweder \(\left|0\right>\) oder \(\left|1\right>\) herauskommt. Hierin ähnelt ein Quantencomputer ein bisschen einem analogen Computer: Analogcomputer verwenden keine Zahlen 0 oder 1 sondern kontinuierliche Werte von 0 bis 1. Damit ist \(\frac{3}{4}\) oder 0,75 ein möglicher Wert eines Bits in einem Analogcomputer.

Bei einem Quantencomputer mit \(a=\sqrt{\frac{1}{4}}\) und \(b=\sqrt{\frac{3}{4}}\) ergibt die Messung des Q-Bits in \(\frac{1}{4}\) der Fälle das Ergebnis \(\left|0\right>\) und in \(\frac{3}{4}\) der Fälle \(\left|1\right>\). Im Unterschied zum Analogrechner kommt also nie etwas vergleichbares zu 0,75 heraus. Ein Quantencomputer ist ein echter Digitalrechner. Die Möglichen Zustände eines Q-Bits liegen nicht irgendwo zwischen \(\left|0\right>\) und \(\left|1\right>\), sie enthalten beides mit einem bestimmten Gewicht. Beim Auslesen des Q-Bits kommt immer einer der beiden Werte heraus.

Wahrscheinlichkeiten

Nun ist ein Computer, bei dem jedesmal etwas anderes herauskommt, kein besonders nützliches Instrument. Tatsächlich liegt die Stärke des Quantencomputers in etwas anderem, nämlich darin dass Q-Bits auch untereinander verschränkt sein können.

In einem herkömmlichen Computer finden sich Bits zu größeren Einheiten zusammen: Vier Bits sind ein Nibble und können Zahlen von 0 (Binär: 0000) bis 15 (Binär: 1111) dastellen. Acht Bits sind ein Byte (Zahlen von 0 bis 255) und 16 Bit sind ein Word (0 bis 65535). Das geht mit Quantencomputern auch. Um die Übersicht zu behalten, lasse ich es hier bei einem Nibble.

Ein Q-Nibble besteht aus vier Q-Bits. Das erste Q-Bit kann die Zustände \(\left|0\right>_1\) und \(\left|1\right>_1\) annehmen, das zweite \(\left|0\right>_2\) und \(\left|1\right>_2\), das dritte \(\left|0\right>_4\) und \(\left|1\right>_4\) und das vierte  \(\left|0\right>_8\) und \(\left|1\right>_8\). Wie Sie vielleicht schon bemerkt haben, schreibe ich hinter jedem Q-Bit-Zustand als kleine, tiefgestellte Zahl seine Wertigkeit. Wie bei gewöhnlichen binären Zahlen soll das erste Q-Bit die Wertigkeit 1 haben, das zweite 2, das dritte 4 und das vierte 8. Mit Hilfe dieser Wertigkeiten und der Schreibweise, bei der die höchste Wertigkeit zuerst kommt lässt sich die Zahl 4 Binär als 0100 schreiben, die Zahl 9 als 1001 \(\left(1\cdot8+0\cdot4+0\cdot2+1\cdot1\right)\) und die Zahl 15 als 1111.

Analog stellt das Q-Nibble  \(\left|1\right>_8\left|0\right>_4\left|0\right>_2\left|1\right>_1\) die Zahl 9 dar und \(\left|0\right>_8\left|0\right>_4\left|1\right>_2\left|0\right>_1\) die Zahl 2. Lassen Sie mich das ein Wenig abkürzen. Ich schreibe nun \(\left|1001\right>\) für die 9 und \(\left|0010\right>\) für die 2. Wie bereits oben beschrieben kann sich ein Q-Bit, das zu einem Q-Nibble gehört. in einem Überlagerungszustand befinden. Befindet sich zum Beispiel das 2-wertige Q-Bit in der oben beschriebenen Überlagerung, während die anderen Q-Bits alle im Zustand \(\left|0\right>\) sind, so bekommen wir das Q-Nibble \(a\cdot\left|0000\right>+b\cdot\left|0010\right>\).

Das Q-Nibble \(\frac{1}{2}\cdot\left(\left|0000\right>+\left|0001\right>+\left|0010\right>+\left|0011\right>\right)\) beschreibt einen Gesamtzustand, in dem jeweils das 2-wertige und das 1-wertige Q-Bit unabhängig voneinander mit 50% Wahrscheinlichkeit im Zustand \(\left|0\right>\) oder \(\left|1\right>\) sind. Es handelt sich außerdem um einen Zustand, der die Zahlen 0, 1, 2 und 3 mit jeweils gleichem Anteil repräsentiert. Dies ist nicht das einzige Q-Nibble, das die genannten Eigenschaften hat. \(\frac{1}{2}\cdot\left(\left|0000\right>-\left|0001\right>+\left|0010\right>-\left|0011\right>\right)\) ist ein anderes Q-Nibble, bei dem 1-wertiges und 2-wertiges Q-Bit unabhängig voneinander mit 50% Wahrscheinlichkeit besetzt sind, und das die Zahlen 0, 1, 2 und 3 mit gleicher Mächtigkeit repräsentiert. Mit komplexen Faktoren lassen sich noch mehr solcher Zustände angeben.

Es gibt also mehrere Q-Nibble, die dieselben Wahrscheinlichkeiten ergeben, einzelne Q-Bits in einem bestimmten Zustand anzutreffen. Sie unterscheiden sich in den Ergebnissen quanten-logischer Operationen. Eine Operation, die in einem Fall die Wahrscheinlichkeit für alle Q-Bits im gleichen Sinne verändert, ändert sie im anderen Fall entgegengesetzt. Auch wenn die Wahrscheinlichkeiten der Q-Bits in dieser Klasse von Q-Nibbles unabhängig voneinander sind, sind sie durch eine sogenannte Phase mit einander verbunden. In den obigen Beispielen zeigt sich die Phase im Vorzeichen.

Verschränkungen

Q-Nibbles, bei denen die einzelnen Q-Bits unabhängige Zustands-Wahrscheinlichkeiten haben, sind sehr spezielle Fälle. Im allgemeinen sind sie nicht unabhängig. Folgendes Q-Nibble stellt zum Beispiel mit 50% Wahrscheinlichkeit je die Zahl 0 und 15 dar: \(\sqrt{\frac{1}{2}}\cdot\left(\left|0000\right>+\left|1111\right>\right)\) Hier ist kein Q-Bit von dem anderen unabhängig. Sie sind bei einer Messung entweder alle im Zustand \(\left|0\right>\) oder alle im Zustand \(\left|1\right>\). Das ist eine strenge Korrelation. Wir nennen es auch eine Verschränkung der Q-Bits.

Auch dieses Beispiel zeigt, dass ein Quantencomputer nichts mit einem Analogrechner gemein hat. Die Zahl, die dieses Q-Nibble darstellt liegt nicht irgendwo zwischen 15 und 0. Das Q-Nibble enthält die Zahlen 0 und 15 je mit halbem Gewicht ohne irgendeine Zahl dazwischen zu repräsentieren.

In folgendem Q-Nibble sind die drei höherwertigen Q-Bits miteinander streng korreliert, das 1-wertige dagegen ist unabhängig von den Übrigen mit je 50% Wahrscheinlichkeit \(\left|0\right>\) oder \(\left|1\right>\): \(\frac{1}{2}\cdot\left(\left|0000\right>+\left|0001\right>+\left|1110\right>+\left|1111\right>\right)\). Es handelt sich um eine gleichzeitige Repräsentation der Zahlen 0, 1, 14 und 15.

Alles zugleich rechnen

Die Fähigkeit, viele oder gar alle möglichen Zahlen zugleich in einem Rechenschritt zu bearbeiten ist die Stärke aber zugleich auch ein Problem von Quantencomputern. Schließlich wollen Sie am Ende des Programmlaufs auch ein Ergebnis herausbekommen.

Das Auslesen eines Q-Nibbles geschieht in der Regel klassisch. Es handelt sich um einen Messprozess, bei dem die Wellenfunktion zerfällt und eine der repräsentierten Zahlen herauskommt. Lesen wir das zuletzt dargestellte Q-Nibble aus, so bekommen wir entweder eine 0 oder eine 1 oder eine 14 oder eine 15 heraus. Die einzelne Messung gibt weder Aufschluss über die Wahrscheinlichkeiten noch über die Phasen oder die Verschränkungen. Das Ergebnis lautet zum Beispiel einfach 14.

Quantencomputer sind effektive Parallelrechner. Wir können einfach zwei Q-Nibbles mit jeweils einer Hand voll unterschiedlicher Zahlen laden und dann Rechenoperationen an ihnen durchführen. Diese Rechenoperationen geschehen dann parallel an allen möglichen Kombinationen dieser Zahlen. Nur darf man nicht allzu naiv an die Rechnung herangehen: wenn wir am Ende eine Überlagerung aller möglichen Ergebnisse haben und diese auslesen ist nichts gewonnen. Wir bekommen nur eines von vielen Ergebnissen und wissen nicht einmal aus welchen Eingangswerten dieses Ergebnis herausgekommen ist.

Quanten-Algorithmen

Um diese Schwierigkeit zu umgehen, müssen für Quantencomputer spezialisierte Programmabläufe2 entwickelt werden. Der Ausleseprozess ist immer dann kein Problem, wenn am Ende des Programmlaufes entweder ein eindeutiges Q-Nibble wie \(\left|1001\right>\) steht oder wenn es sich um eine Überlagerung aus Zuständen handelt, von denen wir nur irgendeinen als Ergebnis brauchen. Im ersten Fall bekommen wir bei der Messung mit Sicherheit das richtige Ergebnis im anderen erhalten wir ein richtiges Ergebnis, erfahren aber nicht ob und wie viele andere es noch gibt.

Ein Programm für einen Quantencomputer ist eine Art Filter, in den eine Überlagerung vieler Zahlen hineingesteckt wird aber nur eine Antwort herauskommt. Ein gutes Beispiel ist der Shor-Algorithmus, der nach einem Teiler einer Zahl sucht und so die rechenaufwendige Faktorisierung großer Zahlen ermöglicht. Der Quantencomputer probiert hier zugleich alle möglichen Zahlen aus und filtert mit großer Wahrscheinlichkeit genau das richtige Ergebnis heraus, das dann in einem Messprozess gewonnen und mit einem herkömmlichen Rechner überprüft werden kann.

In mathematischen Suchaufgaben, wo die Nadel aus dem Heuhaufen herausgefiltert werden soll, sind Quantencomputer gewöhnlichen Computern haushoch überlegen. Für die meisten Aufgaben, wie Textverarbeitung und Anwendung von Grundrechenarten oder schnelle Grafikausgabe ergibt das Prinzip der Quantencomputer dagegen keinen Vorteil. Hier wollen wir auf eine eindeutige Frage eine eindeutige Antwort. Das ist das Regime gewöhnlicher binärer oder - in Einzelfällen - analoger Rechner.

Weil Quantencomputer so spezialisiert sind, werden sie nie die konventionellen Computer ersetzen. Sie werden aber nützliche Ergänzungen zur Computertechnologie sein, sobald kompakte und zuverlässige Systeme zur Verfügung stehen. Bis dahin ist es noch ein weiter Weg, denn die technische Realisierung von Q-Bits, -Bytes und -Words ist eine große Herausforderung, auf die ich hier nicht eingehen möchte.

Flattr this!

]]>
http://www.scilogs.de/quantenwelt/quantencomputer-mehr-als-computer-mit-quanteneffekten/feed/ 16 wissenslogs
Impfangst: Wir sind nicht leicht zu überzeugenhttp://www.scilogs.de/quantenwelt/impfangst-wir-sind-nicht-leicht-zu-ueberzeugen/?utm_source=rss&utm_medium=rss&utm_campaign=impfangst-wir-sind-nicht-leicht-zu-ueberzeugen http://www.scilogs.de/quantenwelt/impfangst-wir-sind-nicht-leicht-zu-ueberzeugen/#comments Sun, 22 Mar 2015 17:29:20 +0000 http://www.scilogs.de/quantenwelt/?p=1436 ... weiter]]> Durch einen Artikel von Rebecca Watson, Stopping Vaccine Denial: Are We Doing It Wrong?, wurde ich auf einen Artikel von Februar 2014 in der Fachzeitschrift Pediatrics aufmerksam. In diesem Artikel untersuchen die Autoren Aufklärungsmethoden für impfkritische Eltern. Ist es möglich diese Eltern vom Sinn einer Impfung zu überzeugen? Die Antwort ist ernüchternd: Nicht eine der eingesetzten Methoden war erfolgreich. Anscheinend kann Aufklärung sogar kontraproduktiv sein.

Die Autoren befragten insgesamt 1759 Eltern von Kindern zwischen 0 und 17 Jahren zu ihrer generellen Einstellung zum Impfen. Dann setzen sie eine von fünf Methoden zur Impfaufklärung ein. Zuletzt befragten sie die Eltern ein weiteres Mal nach ihren Einstellungen und ob sie ein zukünftiges Kind gegen Masern, Mumps und Röteln (MMR) impfen lassen würden.

Die fünf Aufklärungsmethoden, die getestet wurden sind:

  1. Korrigieren von Fehlinformation: Einem Fünftel der Eltern wurde ein Text vorgelegt, der die Vorstellung ausräumt, Impfstoffe gegen MMR könnten Autismus auslösen.
  2. Aufführen von Krankheitsrisiken: Dem zweiten Fünftel der Eltern wurde ein Text vorgelegt, der die Symptome und möglichen Komplikationen der Infektionskrakheiten aufführt.
  3. Dramatische Geschichten: Einem weiteren Drittel wurde ein Text vorgelegt, in dem eine Mutter die Masernbehandlung ihres Sohnes im Krankenhaus schildert.
  4. Krankheitsbilder: Dem vierten Fünftel der Eltern wurden Bilder von erkrankten Kindern gezeigt.
  5. Kontrollgruppe: Die restlichen Eltern bekamen einen Text über Kosten und Nutzen von Vogelfütterung zu lesen.

Die Wissenschaftler untersuchten, wie sich die fünf Methoden auf die Einstellung der Eltern zur Impfung auswirkt. Abgefragt wurden drei Aspekte:

  1. Fehlvorstellung: Wie stark ist die Überzeugung der Eltern, dass die MMR Impfung Autismus auslösen können.
  2. Risikoeinschätzung: Wie hoch schätzen Eltern das Risiko erheblicher Impfschäden ein.
  3. Impfbereitschaft: Wie wahrscheinlich ist es, dass die Eltern nach der Aufklärung das nächste Kind impfen werden.

Keine einzelne der Methoden hat die Impfbereitschaft von Eltern signifikant erhöht. Im Gegenteil: Bei Menschen, die der Impfung ohnehin kritisch gegenüberstanden, hat die erste Methode die Impfbereitschaft sogar gesenkt. Und das obwohl diese Aufklärung sogar Erfolgreich Fehlvorstellungen ausgeräumt hatte. Die entsprechenden Eltern waren deutlich weniger davon überzeugt, dass Impfen Autismus erzeugt, als die, bei denen Autismus kein Thema war. Aber das führte nicht zu einer erhöhten Impfbereitschaft. Ausräumen der einen Fehlvorstellung hat offenbar nicht ausgereicht um die generelle Einstellung zur Impfung zu ändern.

Auf die Risiko-Einschätzung hatte nur die dramatische Geschichte (Aufklärungsmethode 3) einen Einfluss. Allerdings nicht den Bezweckten: Menschen, die diese Geschichte gehört hatten, schätzen auch das Risiko von Impfungen signifikant höher ein. Allerdings hatte auch das keinen messbaren Einfluss auf die Impfbereitschaft.

Zunächst überraschte mich das Ergebnis dieser Studie. Wie Rebecca Watson im oben verlinkten Artikel fragte ich mich, was wir tun können um die Impfmüdigkeit zu überwinden, wenn keine der Aufklärungen wirklich hilft. Wenn eine der Methoden sogar zu mehr statt weniger Angst vor Nebenwirkungen führt. Sind Zwangsimpfungen wirklich das einzige wirksame Mittel?

Wie ich in meinem letzen Artikel schrieb, unterscheiden Menschen zwischen Risiko und Gefahr. An einer Infektionskrankheit zu erkranken und eventuell daraus resultierende Komplikationen sind Gefahren. Niemand kann dafür zur Rechenschaft gezogen werden, niemand hat darauf Einfluss, ob eine Erkrankung mit Masern unproblematisch verläuft oder eine kritische Wendung nimmt. Es kann als Schicksal angenommen werden. Komplikationen einer Impfung sind dagegen Risiken. Sie sind das Resultat einer menschlichen Handlung, der Impfung. Wir setzen uns oder andere bewusst diesem Risiko aus. Es gibt einen Schuldigen wenn es schief geht. Wer ist schon gern Schuld, dass das eigene Kind leidet?

Ein weiterer wichtiger Aspekt ist das Weltbild. Menschen neigen nicht dazu, ihre grundsätzliche Haltung beim ersten Gegenargument aufzugeben. Ob wir mit Impfkritikern, Klimawandelleugnern, Einsteinwiderlegern, Gentechnikgegnern oder Alternativmedizinern debattieren: Immer werden wir merken, dass es nicht ausreicht einzelne Fehlvorstellungen auszuräumen. Und wenn wir ehrlich sind, müssen wir Wissenschaftler zugeben, dass wir genauso schwer zu überzeugen sind.

Wenn wir ein Phänomen entdecken, das den bisherigen Modellen entgegen zu stehen scheint, neigen wir nicht dazu alles aufzugeben und nun das Gegenteil zu glauben. Je nach Gewicht der neuen Beobachtung werden wir auf eine Wiederholung des Experimentes bestehen und die neue Beobachtung leugnen. Wenn wir sie nicht leugnen können, werden wir versuchen, sie in das bisherige Modell einzufügen. Beinahe jede neue Information, jede neue Theorie braucht eine ganze Zeit, bis sie in das Konstrukt des wissenschaftlichen Weltbildes aufgenommen wird.

Diese Zeit des kritischen Überprüfens neuer Ideen müssen wir auch unseren Gesprächspartnern aus dem nicht wissenschaftlichen Bereich zugestehen. Es ist nicht zu erwarten, dass impfkritische Eltern beim ersten Gegenargument klein beigeben. Die Impfangst ist oft integraler Teil eines Weltbildes. Sei es der weit verbreitete Glaube, dass die Natur gut eingerichtet sei und Einmischung in das Gleichgewicht der Natur zu nichts Gutem führen könne. Oder ein tief verwurzeltes Misstrauen in die Pharmaindustrie, der man so manche Niedertracht zutraut. Oder einfach nur die Vorsicht, kein Risiko einzugehen, solange man nicht genau Risiko des Impfens gegen Gefahr der Krankheit abwägen kann.

Weltbilder entstehen durch viele Faktoren. Es braucht entsprechend viele Fakten, sie umzustoßen.

Flattr this!

]]>
http://www.scilogs.de/quantenwelt/impfangst-wir-sind-nicht-leicht-zu-ueberzeugen/feed/ 26 wissenslogs
Vernünftige Angst und Umgang mit Risikenhttp://www.scilogs.de/quantenwelt/vernuenftige-angst-und-umgang-mit-risiken/?utm_source=rss&utm_medium=rss&utm_campaign=vernuenftige-angst-und-umgang-mit-risiken http://www.scilogs.de/quantenwelt/vernuenftige-angst-und-umgang-mit-risiken/#comments Mon, 19 Jan 2015 16:55:46 +0000 http://www.scilogs.de/quantenwelt/?p=1392 ... weiter]]> In meinem letzten Artikel zur Angst vor Technik habe ich diese Angst als irrational dargestellt. Das wurde in den Kommentaren zurecht kritisiert. Ich möchte deshalb ein paar Zeilen zur Vernunft der Angst schreiben. Nicht nur evolutionär ist Angst in Form von angeborenen Fluchtreaktionen vorteilhaft. Es kann auch nach längerem Nachdenken vernünftig erscheinen der Angst nachzugeben. Doch wie gehen wir damit um, wenn der berechtigten Angst ein Nutzen entgegensteht? Wie bewerten wir Technik, bei der Nutzen und Schaden nicht dieselben Menschen treffen?

Zunächst ein Wort der Selbstkritik: Ich habe mehrmals in meinem Artikel von "irrationaler Angst" geschrieben. Auch wenn im Zusammenhang klar sein dürfte, was hier gemeint war, ist das Wortpaar rational/irrational nicht geeignet, eine sachliche Diskussion anzustoßen. Es grenzt ab. Hier die rationalen Wissenschaftler, die ihr Leben im Griff haben und sich nicht an unsicheren Glauben hängen, dort das uninformierte zur Esoterik neigende Volk mit seinen irrationalen Ängsten und Entscheidungen. Das ist nicht mein Weltbild. Ich bin mir bewusst, dass ich vieles nicht selbst beurteilen kann und in diesen Gebieten Entscheidungen auf Vertrauen oder Bauchgefühl gründen muss. Auch ich treffe irrationale Entscheidungen. Manchmal ganz bewusst.

Obwohl ich mit Radioaktivität und ihren Auswirkungen gut vertraut bin und weiß, wann es ungefährlich ist, gehe ich dem Umgang mit radioaktiven Quellen grundsätzlich aus dem Weg. Dass mir bei Kontakt mit radioaktiven Quellen ein bisschen mulmig ist, ist sicher nicht rational. Solange ich sicher sein kann, keine gefährliche Dosis abzubekommen, könnte ich doch sorglos sein. Jedoch schreibt auch die Strahlenschutzverordnung vor: Jeder ist verpflichtet, "jede Strahlenexposition oder Kontamination von Mensch und Umwelt [..] auch unterhalb der Grenzwerte so gering wir möglich zu halten".

Auch die Grenzwerte sind nicht kühl kalkuliert und so hoch angelegt wie rational gerade noch vertretbar. Sie sind absichtlich sehr niedrig gewählt. Für Einzelpersonen der Bevölkerung liegen sie bei 1 Millisievert pro Kalenderjahr1 und für beruflich strahlenexponierte Personen bei 20 Millisievert im Arbeitsjahr2. Diese Personen müssen medizinisch überwacht werden, obwohl die Dosis von 20 Millisievert ist so niedrig gewählt ist, dass keine medizinischen Folgen zu erwarten sind. Rein rechnerisch nimmt unter Annahme des LNT-Modells das Krebsrisikos um 0,1% zu, wenn jemand mit 20 Millisievert bestrahlt wurde. Das liegt weit unterhalb der Schwankungsbreite, ist also nicht messbar. Die 1 Millisievert für Privatpersonen liegen sogar ein gutes Stück niedriger als die natürliche Strahlenbelastung, der wir alle ausgesetzt sind.3 Grenzwerte stellen ein Art überzogene Angst dar. Je weniger desto besser. Lieber kein Risiko eingehen. Und weil es nur wenige Fälle gibt wo diese Grenzwerte ein Problem darstellen, ist das auch gut so.

Risiko und Chance

Im Strahlenschutz sind niedrige Grenzwerte recht unstrittig, weil der Kontamination der Umwelt oder der Bestrahlung von Mitarbeitern kein direkter Nutzen entgegensteht. Mit vertretbarem Aufwand können wir physikalische Experimente oder Kernkraftwerke betreiben ohne die Belegschaft oder gar die Allgemeinheit einer hohen Belastung auszusetzen. Das ist bei medizinischen Anwendungen der Radioaktivität grundlegend anders.

Radioaktive Bestrahlung eines Tumors kann Krebs heilen, weil die Strahlung in ausreichenden Dosen Krebszellen töten kann. Zugleich schadet die Strahlung benachbarte gesunde Zellen und Hautzellen, durch die sie hindurch muss. Wirkung und Nebenwirkung stehen einander gegenüber. Radiologie und Medizinphysik stehen vor einem Dilemma: Mit steigender Strahlendosis steigt sowohl die Chance den Krebs zu heilen als auch das Risiko einer gefährlichen Nebenwirkung. Wenn wir es mit einem bösartigen Tumor zu tun haben, steht an beiden seiten der Tod. Keine Behandlung wäre ebenso tödlich wie eine viel zu hohe Dosis. Dazwischen gibt es ein Optimum, bei dem die Chance auf Heilung ohne Komplikation maximal ist. Das ist die medizinisch richtige Dosis4 für die Behandlung.

Im Gegensatz zum Strahlenschutz, wo mögliche Wirkungen von Bestrahlung und Kontamination grob überschätzt werden können, ohne dass es zu einem Problem wird, ist im medizinischen Einsatz von Strahlung eine realistische Einschätzung der Nebenwirkung wichtig um nicht systematisch zu niedrige Dosen zu wählen.

Wo Risiko zur Gefahr wird

Risiken einzugehen um daraus einen Nutzen zu ziehen gehört zum täglichen Leben. Wir machen das, wenn wir uns trotz Unfallrisiko entscheiden, mit dem Auto in den Urlaub zu fahren. Das Auto statt der Bahn zu nehmen erhöht die Wahrscheinlichkeit für einen Unfall. Dafür gewinnen wir Mobilität am Zielort. Wir wägen, wie oben beschrieben, auch in der Medizin zwischen Heilungschancen und möglichen Nebenwirkungen ab. Auf größerer Skala geht der Staat mit der Betriebsgenehmigung für Atomkraftwerke Risiken ein. Dafür tragen sie zur Energieversorgung bei.

Im Buch über Niklas Luhmanns Theorie sozialer Systeme ist mir eine nützliche Unterscheidung zwischen Gefahr und Risiko begegnet. Luhmann nennt es eine Gefahr, wenn Schäden auf Schicksal oder Unglück zurückgeführt werden, wenn also keine Person durch ihre Entscheidung dafür verantwortlich zeichnet. Führen wir einen Schaden dagegen auf eine menschliche Entscheidung zurück, so handelt es sich um ein Risiko. Da heute kaum noch Götter oder das Schicksal für Schäden verantwortlich gemacht werden, spricht Luhmann von einer Risikogesellschaft. Selbst bei Naturereignissen wie einem Tsunami oder einer Flut fragen wir oft, wer versäumt hat für den entstandenen Schaden Vorsorge zu treffen. Wer das Risiko verantwortet hat.

Eine wichtige Feststellung ist, dass das Risiko des einen eine Gefahr für andere sein kann. Gehe ich das Risiko einer Autofahrt ein, so werde ich für andere zu einer Gefahr. Betreibe ich mein Handy in einem Zug, so kann das von anderen Menschen als Gefahr wahrgenommen werden. Bürgerinnen und Bürger, die sich gegen Atomkraft aussprechen, nehmen die Bedrohung durch ein Atomkraftwerk nicht als selbst eingegangenes Risiko wahr, sondern als eine Gefahr, die durch dritte verursacht wird. Politisch sind Fälle problematisch, in denen die Gruppe der Profitierenden von denen der Geschädigten abweichen. Setzten wir die Grenzwerte so strikt wie wir können um der Angst zu begegnen oder überwiegt der Nutzen derer, die die Technologie einsetzen. Wer darf wen wie stark gefährden? Auch wenn Menschen nicht selbst entscheiden können ein Risiko einzugehen, weil sie von anderen (den Mächtigen) einer Gefahr ausgesetzt werden, ist die Abwägung heikel. Welche Risiken darf eine Demokratie im Namen ihrer Bürgerinnen und Bürger eingehen?

Die eigene Machtlosigkeit ist ein wichtiger Aspekt in der Einschätzung von Gefahren. Flugangst mag zu einem großen Teil deshalb verbreiteter sein als die Angst in einem Auto mitzufahren, weil die Entscheiderin, die Pilotin im Cockpit nicht greifbar ist. Wir fühlen uns ihren Entscheidungen stärker ausgeliefert als wenn wir mit dem Autofahrer zusammensitzen. Vielen Menschen hilft es die Flugangst zu überwinden, wenn sie sich vorstellen, dass die Pilotin auch sicher landen und zu ihrer Familie zurück will. Ein anderer Trost gegen Angst scheint es zu sein, wenn niemand verantwortlich gemacht werden kann. Vor natürlicher Radioaktivität hat kaum jemand Angst. Menschen meiden die Nähe von Atomkraftwerken nicht aber den Urlaub im Harz5. Auch gegen Infektionskrankheiten können wir nicht wirklich etwas tun. Vielleicht ist das ein Aspekt der Antwort auf Lars Fischers Frage Warum habt ihr keine Angst? Weil wir Keime als Teil der Natur wahrnehmen, sind sie eine natürliche, durch niemanden verursachte Gefahr und kein selbst eingegangenes Risiko.

Flattr this!

]]>
http://www.scilogs.de/quantenwelt/vernuenftige-angst-und-umgang-mit-risiken/feed/ 14 wissenslogs
Angst vor Technik macht mir Sorgenhttp://www.scilogs.de/quantenwelt/angst-vor-technik-macht-mir-sorgen/?utm_source=rss&utm_medium=rss&utm_campaign=angst-vor-technik-macht-mir-sorgen http://www.scilogs.de/quantenwelt/angst-vor-technik-macht-mir-sorgen/#comments Thu, 08 Jan 2015 09:23:22 +0000 http://www.scilogs.de/quantenwelt/?p=1372 ... weiter]]> Ein Weihnachtsartikel der Bloggerin Metamädchen, Überprüfe deine Feindbilder, zeigt sehr schön ein Problem, das aus irrationaler Angst vor Strahlung entsteht. Kürzlich habe ich begründet, warum WLAN-Strahlung nicht schädlich sein kann. Die Frequenzen, über die sich Smartphones, Tablets und Laptops mit den Telekommunikations-Providern verbinden, liegen in ganz ähnlichen Frequenzbereichen und sind damit ebenso unschädlich, wie die WLAN-Strahlung.

Dennoch sind Menschen besorgt und bekommen geradezu Angstzustände, wenn sie wissen, dass sie dieser Strahlung ausgesetzt sind. Ich kann nicht beurteilen, was die Kopfschmerzen die älteren Dame in dem Bericht verursacht. Es könnte eine direkte Wirkung des Nocebo-Effektes sein: Durch das wissen um einen vermuteten Schaden verursachte Symptome. Es könnte aber auch andere Gründe geben, warum sie im Zug häufig Kopfschmerzen bekommt. Die Verbindung mit den elektrischen Geräten wäre dann einfach ein Wahrnehmungseffekt.

Ich bin überzeugt, dass wir Ängste immer ernst nehmen sollten. Wenn es mir möglich ist, versuche ich meinen Mitmenschen kein Unbehagen zu bereiten. Dazu gehört auf Ängste Rücksicht zu nehmen, wenn sie mir bekannt sind oder ich mit ihnen rechnen kann1. Aber wenn sich die irrationale Angst vor Elektrosmog durchsetzen sollte und eventuell zu Handyverboten in öffentlichen Räumen führt, dann ist das ein Problem. Es schränkt die ein, die diese Technologie nutzen wollen oder müssen. Dieser Einschränkung stünde kein wirklicher Nutzen entgegen. Denn Anlass für das Unbehagen ist nicht die Strahlung sondern die falsche Wahrnehmung durch Angst. Die Angst ist zu bekämpfen, nicht die Strahlung.

Angst vor neuer Technik ist verbreitet. Sie ist nicht unbegründet. In der Zeit der Entdeckung der Radioaktivität2 hat übertriebene Fortschrittsgläubigkeit dafür gesorgt, dass radioaktive Strahlung unbedacht eingesetzt wurde3. Das darf aber heute nicht dazu führen, dass nachweislich unproblematische Techniken wegen diffuser Bedenken eingeschränkt werden.

 

Flattr this!

]]>
http://www.scilogs.de/quantenwelt/angst-vor-technik-macht-mir-sorgen/feed/ 29 wissenslogs