Die GWUP Tagung befindet sich im Endspurt. Der letzte Tag hat begonnen und ein sehr intensives Programm steht uns in den Kuppelsaal der TU Wien.

Prof. Timothy Skern – On being a scientist

Prof. Timothy Skern ist Virologe am Department für medizinische Biochemie der Medizinischen Universität Wien und in diesem Vortrag will er dem Publikum genauer erklären, was es bedeuete ein Wissenschaftler zu sein.

Es gibt verschiedene Phasen im Leben eines Wissenschaftlers:

  • Becoming a scientist
  • Succeeding as a scientist
  • Doing science
  • Teaching science (not teaching facts)
  • Prix-Performance-Plaisier (Wissenschaft bereitet trotz aller Anstrengungen Vergnügen)
  • Ein Wissenschaftler hat außerdem noch zwei wichtige Dinge zu erfüllen: Zuerst hat er Verantwortung zu tragen: gegenüber der allgemeinen Bevölkerung, der scientific community, der nächsten Generation und sich selbst gegenüber. Mit Letzterem meinte der Vortragende, dass man selbst für die Qualität der eigenen Arbeiten verantwortlich ist, und das nie vergessen sollte.
    Der zweite wichtige Punkt ist, dass sich ein Wissenschaftler stets auf dem Laufenden halten solle, d.h. man sollte die Fachliteratur kennen. Die Frage ist nun natürlich, wie das gehen soll. Wenn man sich folgende Grafik ansieht, dann wird recht schnell klar, dass die Anzahl der publizierten Artikel rapide zunimmt und der Trend steil nach oben geht. Es wird also immer mehr Publikationen geben und es wird immer schwieriger sich am Laufenden zu halten.Jährlich Publizierte Paper in englischer Sprache (rechte y-Achse). Credit: http://dan.corlan.net/medline-trend/language/absolute.html

    Die Qualität dieser Publikationen nimmt aber leider nicht mit der Quantität der Paper zu. David Taux von der La Trobe University meint sogar: „Of the 400 papers on cell death published each week, only one or two are worth reading“. http://www.biochemist.org/bio/refer.htm?VOL=30&ISSUE=6&PAGE=20
    Dies ist ein vernichtendes Urteil, denn es bedeutet, dass wir umgeben sind von schlechter Wissenschaft. Prof. Skern hat uns dann anhand von Beispielen bewusst gemacht, wie schlimm die Situation wirklich ist. Diagramme, die keine Beschriftung der y-Achse haben (wo also die Skalierung der y-Achse ein Geheimnis bleibt), eine Grafik von Zellkulturen (?), welche äußerst miserabel mittels Photoshop bearbeitet wurde oder eine Tabelle voller rendundanter Informationen, noch dazu mit vermutlich falschen Einträgen.

    Zusätzlich kommt erschwerend hinzu, dass die Medien bestimmen, was wir von der Wissenschaft wissen. Und die Berichterstattung lässt leider zu wünschen übrig. Aber damit ist leider nicht nur die Boulevardpresse gemeint, denn auch das hoch renomierte Journal „Nature“ ist nicht immun gegenüber schlechter und falsch recherchierter Berichterstattung. Als Beispiel wird ein Artikel von Nature angeführt, in welchem die chinesischen Hühnchenzüchter beschuldigt werden für die zunehmende Resistenz des H5N1 Strangs der Vogelgrippe verantwortlich zu sein. Als Referenz wird die Washington Post (!) zitiert. Erschreckend. Blöderweise hat sich dann herausgestellt, dass diese Beschuldigungen keine Hand und Fuß hatten und erst ein Jahr (!) später (print Ausgabe Nature, 2006, 441, 264) wurde dieser Sachverhalt richtig gestellt. (Dasselbe scheint übrigens gerade jetzt mit den Gurkenbauern zu passieren. Das grüne Gemüse soll ja geradezu voll von EHEC Erregern sein). Erschwerend kommt hinzu, dass je höher der Impakt Faktor eines Journals ist, desto kürzer ist die Zeit, die den peer-reviewern zur Verfügung steht, um einen Artikel zu überprüfen. Bei Nature sind es bei den „hot-topics“ gerade mal 2 Tage. Wie kann man mit dermaßen wenig Zeit einen Artikel auf Herz und Nieren prüfen?

    Laut Prof. Skern als äußerst wichtig und fundamental: Bevor wir andere Personen kritisieren, müssen wir unsere Arbeit richtig und ordentlich machen.

    Wie kann man nun aber die Standards an uns selber bzw. an die Wissenschaft im Allgemeinen erhöhen?
    Zunächst sollte das kritische Denken und die wissenschaftliche Methode gelehrt und verinnerlicht werden. Frei nach Kant, der gesagt haben soll: „Es ist eine Schande ein Gehirn zu haben, es aber nicht zu benutzen“. Außerdem ist eine Ausbildung der Wissenschaftler in Wissenschaftsphilosophie wünschenswert und erforderlich. (Damit widerspricht er direkt Richard Feynman der da behauptet: „Philosophy of science is as useful to science than ornithology is to birds.“)
    Die größte Hürde, die Qualität der Arbeiten zu erhöhen und das wissenschaftliche und kritische Denken zu verinnerlichen ist aber Skern’s Meinung nach der Mikrochip Prozessor. Denn die moderne Technik, sei es PC, Smartphone, GPS Empfänger oder auch nur der Taschenrechner, lässt unser Gehirn faul werden. Wir denken nicht mehr selbst, sondern lassen den Mikrochip für uns denken (wonach ironischerweise der Laptop von Skern kurzfristig den Geist aufgab). Die beste Methode, um wissenschaftlich zu arbeiten, ist mit einem Blatt Papier und einem Stift in der Hand.

    Auf das Thema Geschlechter in der Wissenschaft ist Skern nur sehr kurz eingegangen. Er glaubt, dass die Situation grundsätzlich in Großbritannien besser ist als in Österreich, was seiner Meinung nach daran liegt, wie Frauen in Österreich behandelt werden. Als Beispiel fügte er an, dass bei einer Sponsionsfeier der Vater einer der Kandidatinnen zu ihm gekommen sei und gemeint hat: „Vielen Dank, dass Sie aus meiner Tochter was gscheid’s gemacht haben“. Es liegt also nicht nur daran, wie Frauen von der „Gesellschaft“ selbst behandelt werden, sondern es fängt schon im kleinen Kreis der Familie an. Zusätzlich unterschätzen sich Frauen selbst und ihre generelle Erwartungshaltung (an den Beruf, Leben, etc.) ist niedriger als bei Männern.

    Ulrich Berger – Statistricks

    In diesem Vortrag ging Ulrich Berger der Frage nach wie es sein kann, dass es anscheinend positive Studien gibt, die die Wirksamkeit von Placeboprodukten (wie z.B. Granderwasser, Power-Balance Armbänder, ATOX, Aquapol, Geowave, etc.) bestätigen.

    Um dies genauer zu erläutern, brachte er ein hypothetisches Beispiel: Ein Hufeisen mit eingeprägten Quanteninformationen (welches er für schlappe 1990€ verkaufen würde). Wie sowas funktionieren könnte, wissen wir spätestens seit „The Secret“: Die Quantenschwingungen reisen ins Universum und ziehen die Glücksinformation an. Um den ganzen aber doch noch mehr Glaubwürdigkeit zu geben, muss eine Studie her.
    Dazu gründet man am besten sein eigenes Institut, welches zumindest „international“, „Forschung“ und „Institut“ enthalten sollte, um dem Ganzen noch mehr Seriosität zu verleihen. Also z.B. das internationale Institut zur Quanteninformationserforschung (kann mich an das von ihm genannte Institut leider nicht erinnern).

    Bevor er nun im Folgenden die Statistricks präsentierte, wurde noch der Begriff der statistischen Signifikanz erklärt. Kurz: überlappen sich die 95% Konfidenzintervalle so spricht man von einem nicht-signifikanten Effekt.

    1. Statistrick: Anekdote

    Das erfundene Institut schreibt eine Aussendung: „Bitte senden sie uns ihre Erfahrungen (jeglicher Art), und sie bekommen 5% des Einkaufspreises zurückerstattet.“
    Grundsätzlich lässt sich sagen, dass positive Erfahrungen eher dazu führen, dass man ein Antwortschreiben schickt. Aus diesen, vermutlich durchwegs positiven, Erfahrungsberichten sucht man sich die Besten aus und hat dann die bekannten „Testimonials“, also z.B. Stefan (40) aus Wien: „Bei mir hat das fantastisch funktioniert. Ich habe sogleich einen Parkplatz vor meiner Haustür gefunden.“

    2. Statistrick: Unkontrollierte Beobachtungsstudie mit subjektivem Endpunkt

    Man führe eine visuelle Analogskala ein (von 1-10), damit die Versuchsteilnehmer subjektiv bewerten können, wieviel Glück sie denn hatten. Nachdem die Kunden freiwillig an dieser Studie teilnehmen, gilt wie vorhin, dass diese von vornherein eine positive Erwartungshaltung haben. Diese Studie wird nun sehr stark beeinflusst von a) der selektiven Erinnerung, b) der Bestätigungstendenz, c) der Gefälligkeit gegenüber dem Studienleiter und d) der suggestiven Fragestellung des Studienleiters.
    Diese Gründe führen allesamt zu einer systematischen Verzerrung („Bias“) nach oben, also hin zu „es hat funktioniert“ und „ich hatte mehr Glück“. In diesem Fall wird der Placeboeffekt des Quantenhufeisens gemessen.

    3. Statistrick: Unkontrollierte Beobachtungsstudie mit objektivem Endpunkt

    Hier lässt an ein unabhängiges Institut anhand eines Kriterienkatalogs die Wirksamkeit des Quantenhufeisens bestimmen. Hier hat man als Placeboerfinder den Vorteil, dass sich die Leute so einen Gegenstand eher dann kaufen werden, wenn sie gerade sehr viel Pech haben. Das Glückslevel einer jeden Person, ist ja auch zeitlichen Schwankungen um einen neutralen Wert (also weder Glück noch Pech) unterworfen. In so einem Fall ist die Wahrscheinlichkeit sehr groß, dass man nach dem Kauf wieder in eine Glücksphase kommt. Man spricht von der Regression zur Mitte.

    4. Statistrick: unverblindete Placebo kontrollierte Studie
    Die Probanden wissen durch die Unverblindheit des Versuchs, ob sie das QH oder ein normales Hufeisen bekommen haben. Dieselben Effekte, die bereits oben genannt wurden, spielen nun wieder eine nicht vernachlässigbare Rolle in der Bestimmung der Signifikanz (selektive Wahrnehmung, Erwartungshaltung, etc.)

    5. Statistrick: Randomisierte Doppelblindstudie mit objektivem Endpunkt
    Vergleicht man nun den Glücksindex der Kontroll- und Testgruppe, so wird man zum ersten Mal einen nicht signifikanten Unterschied beider Gruppen feststellen, d.h. also beide Gruppen hatten gleich viel Glück und Pech unabhängig davon, ob sie ein QH oder normales Hufeisen hatten. Jetzt hat man aber den Vorteil, dass der Glücksindex ein gewichteter Mittelwert verschiedener Subindizes ist. Die Subindizes sind also all jenen Kriterien, die den Gesamtglücksindex bestimmen. Die Wahrscheinlichkeit, dass man bei einem Konfidenzintervall von 95% zumindest einen Subindex findet, der eine statistische Abweichung (der gewünschten Gruppe) zeigt, ist relativ groß. Hat man Pech, so kann man einfach die Subindizes auch noch nach anderen Kriterien (Männer und Frauen, Links- und Rechtshänder, nach Alter, Haarfarbe, Sternzeichen, etc.) aufteilen. Die Wahrscheinlichkeit dabei ein Falsch-Positiv zu finden, erhöhen sich damit ungemein (siehe auch dieses Comic von XKCD).

    6. Statistrick: Meta-Analyse von Doppelblindstudien
    Hier gilt zunächst, wie bereits gestern erwähnt, dass ein Publikationsbias herrscht: Also Studien, die einen signifikanten Effekt zeigen, werden öfter und schneller publiziert. Trägt man nun die Präzision der Studie gegen das „odds ratio“ auf (verspüren zum Beispiel Personen OHNE Quantenhufeisen ein Glücksniveau von 45% und Personen mit Quantenhufeisen ein Glücksniveau von 53%, so ist das odds ratio = 45/53 = 0.85. Je kleiner der Wert, umso größer ist der Effekt des Quantenhufeisens), so erhält man einen Trichter Plot. Allerdings würden in so einem Trichter Plot viele negative (weil unpublizierte) Studien wegfallen, und damit würde die Effektivität des Quantenhufeisens künstlich erhöht werden. Mittels einer Meta-Regression kann man nun aber den Publikationsbias korrigieren, um auf die wahre Signifikanz bzw. Wirksamkeit des Quantenhufeisens zu schließen (die ja bei 50% liegen sollte).
    Gegen so eine Meta-Regression gibt es zur Zeit keinen anwendbaren Trick. D.h. diese Art von Studie, sollte wohl die Zuverlässigste sein.

    Was ich aus diesem Vortrag mitnehme und mich ziemlich beeindruckt hat ist der Umstand, dass man selbst bei randomisierten Doppelblindstudien, das eigentliche Nonplusultra einer klinischen Studie (dachte ich zumindest), sehr gut „schwindeln“ kann.

    Manfred Ruttner – Handymythen und Alltagsirrtümer

    Zunächst wurde in diesem Vortrag klargestellt, dass es sich bei den so gefürchteten „Handystrahlen“ um nichts anderes handelt als elektromagnetische Wellen (wie eben auch das sichtbare Licht eine EM-Welle ist). Und genauso wie man nicht nur eine einzige, rießige Straßenlaterne für das ganze Land Österreich aufstellen würde, um in der Nacht für Licht zu sorgen, genausowenig wird man nur einen einzigen Handymasten aufstellen können, um österreichweit telefonieren zu können. Im Überland wird es im Allgemeinen weniger Masten geben (weil dort klarerweise weniger Leute leben), während man in der Stadt mehr Anlagen benötigt (aus oben genannten Gründen). Grundsätzlich gilt: Je weiter ein Handy von einem Sendemasten entfernt ist, umso höher ist die Sendeleistung des Handys UND der Sendeanlage. Eine bessere Abdeckung mit Sendeantennen, würde also die Sendeleistung beider Geräte minimieren.

    Die durchschnittliche Handyleistung eines GSM Handys sind bei schlechter Versorgung ca 0.16 Watt, bei guter so um die 0.003 Watt. Ein UMTS Handy leistet bei guter Versorgung im Schnitt 0.0000003 Watt. Also um ein Vielfaches weniger, als ein GSM Handy.

    Ein wichtiger Kennwert eines Handys, den auch viele kennen, ist der so genannte SAR Wert. Dieser gibt an, wieviel Watt pro Kilogramm in biologischem Gewebe absorbiert wird. Jeder Mensch hat bei Ruhe einen SAR Wert von etwa 1 W/kg (zum Vergleich: Ein Eishockeyspieler hat um die 25 W/kg). Der von der WHO und ICNIRP (international commision on non-ionzing radiation protection) festgelegte SAR Grenzwert eines Handys ist 0.08 W/kg. (Ein Wert von 4 W/kg würde in 30 min menschliches Gewebe um ca 1°C erwärmen). Dieser Grenzwert wird bei Sendeanlagen in einem Abstand von ca 2 – 5 Meter (!) bereits unterschritten. Was auch nie vergessen werden darf: im Nahbereich der Sendeanlage herrscht NICHT automatisch die höchste Sendeleistung. Meistens befindet sich Letztere in einem Abstand von mehreren hundert Metern. An dieser Stelle hat uns Manfred Ruttner dann ein Kuriosum erzählt. Auf dem Dach einer Schule hätte eine Handyantenne errichtet werden sollen. Die Schule hat sich für eine Verlegung der Antenne stark gemacht und man konnte sich tatsächlich auf einen neuen Standort einigen. Jetzt steht die Antenne in einer Entfernung von 205 Metern zur Schule, die Emissionswerte sind aber in der Schule um einen Faktor 14 (!) höher, als wenn die Antenne direkt auf dem Dach der Schule stehen würde. Man merkt also schon, dass vieles ein Warnehmungsproblem und keine technisches Problem ist.

    Als Beispiel zu Letzterem wurde kurz etwas über die behauptete Verbindung zwischen Schlaflosigkeit und Sendeantennen erzählt. Man hat hierzu (mindestens?) zwei Studien gemacht: Die 1. Studie hat in Deutschland mobile Handyantennen aufgestellt und per Zufall eingeschaltet bzw. nicht eingeschaltet. Anschließend hat man die Anrainer gefragt, ob sie besser, schlechter oder gleich gut schlafen könnten. Zum Erstaunen weniger, reicht der bloße Anblick einer Handyantenne, um die Menschen um ihren Schlaf zu bringen. Eine 2. Studie hat über die Betten von mehreren Testpersonen einen Schirm gespannt, der Hochfrequenzfelder abschirmen kann. Über die Betten der Kontrollgruppe wurde auch ein Schirm gespannt, welcher aber keinerlei Funktionen hatte (Sham-Schirm). Eine 3. Gruppe bekam keinen Schirm. Auch hier hat man gefunden, dass beide Personengruppen mit Schirm gleich gut schlafen konnten, und beide besser schliefen, als die Gruppe ohne Schirm.

    Äußerst fragwürdig ist auch die Empfehlung der österreichischen Ärztekammer, die vorschlägt das Handy nachts über auszuschalten. Fragwürdig deshalb, weil ein handelsübliches Handy im Stand-by Modus nur alle 3 bis 6 Stunden ein Signal sendet.

    In den einzelnen europäischen Ländern schwankt der Befürchtungswert gegenüber Handyanlagen ziemlich stark. Eine Studie von Wiedemann et al. 2010 konnte sogar aufzeigen, dass jene Länder, die den Grenzwert vorsorglich weiter senken wollen (oder es schon getan haben), gerade die Länder sind, die die höchste Risikowahrnehmung haben. Sprich: führe ich vorsorglich (!) niedrigere Grenzwerte ein, so steigt die allgemeine Verunsicherung in der Bevölkerung.

    Ob Mobilfunk nun sicher ist, lässt sich nicht einfach beantworten. Es ist vielmehr ein Puzzle, wo noch einige Steine fehlen. Grundsätzlich lässt sich aber sagen, dass Mobilfunk eine sichere Technologie ist.

    Übrigens: Kürzlich wurde die Hochfrequenz von der WHO als „wahrscheinlich krebserregend“ eingestuft. Dazu sei erstmal anzumerken, dass sich in der gleichen Kategorie Gemüse und Kaffee befinden. Ganz allgemein ist eine strahleninduzierte Krebserregung von einem Handy faktisch unmöglich, denn dazu müsste es sich um ionisierende Strahlung handeln (ist es nicht) oder sie müsste in der Lage sein Wasserstoffbrückenbindung zu lösen (tut sie nicht). Ich persönlich empfehle diesen Artikel (in englisch).

    Als weiterführende Literatur wurde von Manfred Ruttner http://www.emf-portal.de genannt.

    Andreas Hergovich – Quo vadis Parapsychologie?
    In diesem Vortrag hat Andreas Hergovich aktuelle Entwicklungen, Trends und neue Entwicklungen der Parapsychologie zusammengefasst.
    Als erster, ganz wichtiger, Punkt lässt sich sagen, dass immer wieder Studien zur Parapsychologie in renommierten Journals (beispielsweise das Psychological Bulletin) erscheinen. Beispielsweise die oder die. All diese Studien sind durch hohe methodische Kompetenz ausgezeichnet (was ja auch eine Voraussetzung ist, um in so einem Journal zu publizieren).

    Auf das ursprüngliche Ziel der Parapsychologie, nämlich dem Materialismus den Todesstoß zu versetzen, folgt nun ein weitesgehend naturalistisches Denken in dieser Disziplin, um darin eine neue Physik zu finden. Parapsychologie ist kein Randthema mehr, sondern findet sich in Mainstream Journals wieder.

    Zwei Themen scheinen dabei äußerst aktuell zu sein:

  • 1. das Neurowissenschaftliche Paradigma und
  • 2. das Quantenparadigma (EPR-Paradoxon, besser bekannt als die „spukhafte Fernwirkung“).
  • Im neurowissenschaftlichen Paradigma soll der naturalistische Anspruch der Parapsychologie befriedigt werden und die Existenz parapsychologischer Phänomene soll auf anderen Ebenen nachgewiesen werden (beispielsweise nur im Hirn). Man sucht also einen neuroanatomischen Ort, um den Mechanismus des Paranormalen zu verstehen und PSI soll direkt auf der Ebene des Gehirns untersucht werden.

    Solch eine Studie, die dem letztgenannten Paradigma genügt, wurde durchgeführt von Moulton & Kosslyn 2008. Im Wesentlichen ging es in dieser Studie darum, dass eine Person als Sender fungierte, welche der zweiten Person, dem Empfänger, ein Bild zusenden sollte. Auf der Verhaltensebene konnte aber kein PSI Effekt nachgewiesen werden. Gleichzeitig befand sich der Empfänger in einem Gerät für Magnetresonanztomographie, in welchem seine Hirnaktivität gemessen wurde. Allerdings hat sich auch hier kein PSI Effekt feststellen lassen. Die Autoren folgerten, dass es den PSI Effekt nicht gibt.

    Eine andere Studie von Richards, Kozak, Johnson 2005 hat den zwischenmenschlichen Aspekt komplett ignoriert. In diesem Fall wurde Person mittels eines Bildes eines Schachbrettmusters stimuliert, während sich die andere in einem fMRI Scanner befand. Man hat dann untersucht, ob das Hirn der Person, die sich im fMRI Scanner befand auf die Situmli der anderen Person reagiert. Angeblich will man tatsächlich gefunden haben, dass Hirne paranormal interagieren können.

    Die generelle Kritik, die Hergovich bei all diesen Studien anführt, ist die methodische Intransparenz und die Verwendung von Spezialverfahren, die selten bis gar nicht (zum Beispiel von seinen Kollegen am Institut für Psychologie) eingesetzt werden. Obwohl die Studien sauber gemacht zu sein scheinen, werden in der Regel nur jene Korrelationen herangezogen, die über einer gewisser Schwelle liegen. Man stelle sich nur mal vor, man wolle die mittlere Temperatur des Monats August bestimmen, nimmt aber nur jene Tage her, bei denen die Tagestemperatur die 30°C Marke überschritten hat. Man wird also einen äußert heißen Monat August finden. Als Beispiel hierzu wurde die Studie von Bennett et al. 2009 angeführt, in welcher ein toter (!) Lachs in statistisch signifikanter Art und Weise Emotionen erkennen konnte.

    Das Resumé von Andreas Hergovich fiel dann wie folgt aus:

  • Abkehr vom Dualismus: Die Parapsycholoie versucht sich im Mainstream zu etablieren.
  • Parapsychologie ist keine Pseudowissenschaft mehr, denn sie kann und wird mit anerkannten Methoden getestet. Das Problem dabei ist, dass nach wie vor viele Hobbyforscher sich mit ihr beschäftigen. Zusätzlich hat sie, nach wie vor, ein Replikationsproblem.
  • Der PSI Nachweis ist nicht gelungen: Es gibt vereinzelte Artikel mit signifikanten Ergebnissen.
  • Es findet eine Professionalisierung in Nischen statt. Dies erfordert einen hohen Grad an statistischem Know-How und macht es immer schwieriger sich mit den Behauptungen auseinanderzusetzen und zu untersuchen.
  • Die Parapsychologie hat ein gutes Gespür für aktuelle (wissenschaftliche) Trends.
  • Die Parapsychologie verschreibt sich dem naturalistischen Weltbild.
  • Holm Hümmler – Erdbebenmaschinen
    In diesem Vortrag ging es um die Behauptungen Claudia von Werlhofs, die der Meinung ist, dass die USA mittels der HAARP Anlage jederzeit ein künstliches Erdbeben induzieren kann. Siehe hierzu auch Florian’s Artikel.

    Zunächst einmal: Was ist HAARP eigentlich? Das High Frequency Active Auroral Research Program ist ein ziviles und (ehemaliges) militärisches Programm, bei dem es in erster Linie darum geht die Ionosphäre zu untersuchen, um die grundsätzlichen Vorgänge und die Auswirkungen von Sonneneruptionen auf die Schutzschichten der Erde besser zu verstehen. Hierzu kann HAARP die Anzahl der freien Ladungen, die sich bereits in der Ionosphäre befinden, erhöhen und u.a. auch künstliches Polarlicht erzeugen.

    Die HAARP Sendeleistung beträgt in etwa 3600 kW (180 Antennen mit je zwei 10 kW Sendern), was der ungefähren Sendeleistung des bayrischen Rundfunks entspricht (oder 3000 Haartrocknern).

    Dass HAARP Erdbeben auslösen kann ist von einem energetischen Standpunkt aus völliger Blödsinn. Betrachtet man das kürzlich aufgetretene Erdbeben in Japan mit einer Magnitude von ca. 9, so entspricht dies einer Energie von 2*1018 Ws. Um diese Energie freizusetzen, müsste HAARP 20.000 Jahre aktiv sein. Für ein Erdbeben, welches vergleichbar ist mit dem von Haiti, sind es „nur“ 20 Jahre. Was die HAARP Verschwörungstheoretiker generell außer Acht lassen, ist der Umstand, dass sich sowohl Japan, als auch Haiti an Grenzzonen von tektonischen Platten befinden. Eben genau dort, wo von Natur aus die meisten Erdbeben auftreten.

    Ein weiteres beliebtes Argument ist die Korrelation der Messdaten des HAARP Induktionsmagentometers mit dem Auftreten von Erdbeben. Was den Leuten aber nicht klar zu sein scheint: Dieses Messinstrument misst das Erdmagnetfeld und hat mit Erdbeben rein gar nichts zu tun.

    Nach der Reihe wurden die beliebtesten Argumente der Verschwörungstheoretiker (Wolkenbilder, Lichtstreuung an Wolken, Drehrichtung der Strudel, Blasenbildung in der Ionosphäre)
    als nicht stichhaltig entlarvt.

    Stellt sich die Frage, warum man sich als Verschwörungstheoretiker damit eigentlich abmüht. Geld kann es ja eigentlich nicht sein. Holm Hümmler glaubt, dass dies ein typisches post-modernes Verschwörungsdenken ist. Diese Art der Verschwörungstheorie erfordert keinen Verschwörungsglauben, sondern es reicht, wenn es irgendetwas gibt, was man sich nicht so einfach erklären kann, oder man sich einfach keine Erklärung dafür suchen möchte („da kann doch was nicht stimmen“). Die Ironie des Ganzen: Diese Leute bezeichnen sich in der Regel als Skeptiker.

    Das Fazit des Ganzen: Die Argumente sind, verglichen mit anderen Verschwörungstheorien, naiv und schwach. Die Darstellungen zeigen gravierendes Unwissen zu einfachsten naturwissenschaftlichen Grundlagen.

    „Schnell vergessen, das Ganze!“

    Florian Aigner – CERN-Mythen
    Der Quantenphysiker Florian Aigner hat sich dem Thema zugewandt, ob der Large Hadron Collider wirklich schwarze Löcher erzeugen kann, die die Erde verschlingen werden.

    Zuerst wurde erklärt, was denn der LHC überhaupt ist.

    Ist der LHC denn nun gefährlich?
    Mindestens drei Personen glauben ja. Otto Rössler, ein Biochemiker, der auch in der Chaosforschung aktiv ist, ist einer der bekanntesten deutschen CERN Kritiker. Aigner hebt hervor, dass es sich bei dieser Person durchaus um jemanden handelt, der Ahnung hat wovon er spricht; also man muss ihm ein sehr gutes Wissen über die Relativitätstheorie konstatieren. Dasselbe gilt für einen weiteren Deutschen Robert Plaga und einem der ersten Teilchenbeschleunigerkritiker überhaupt: dem Amerikaner Walter Wagner. Diese Personen haben mittels einer gerichtliche Verfügung beim europäischen Gerichtshof versucht den LHC zu stoppen.

    Welche Experimente beinhalten nun welche Gefahren?
    Zunächst einmal werden im CERN einfache Protonenstöße durchgeführt, aus denen man sich Aufschluss über das Higgs-Teilchen erhofft. Es besteht theoretisch die Möglichkeit, dass sich bei solchen Kollisionen sehr kleine Schwarze Löcher bilden. Diese könnten sich vergrößern, ausbreiten und uns deshalb gefährlich werden. Die zweite Art von Experimenten, die am LHC durchgeführt werden, besteht darin, schwere Atome zur Kollision zu bringen (z.B. Gold oder Blei). Bei diesen Kollisionen lösen sich Atomkerne in ihre Bestandteile auf (Quarks und Gluonen) und man hat eine Situation, wie sich unmittelbar nach dem Urknall herrschte (Mini Urknall). Die Befürchtung der CERN Kritiker ist nun aber, dass sich aus diesem Quark-Gluonen Plasma nicht nur neue „normale“ Teilchen bilden (so wie wir sie kennen), sondern seltsame Materie oder „strange matter“. Diese seltsame Materie könnte jegliche normale Materie mit der sie in Berührung kommt in seltsame Materie umwandeln. Man muss betonen, dass im Gegenteil zu den normalen Verschwörungstheoretikern bei anderen Experimenten (z.B. HAARPS), all diese Befürchtungen rund um den LHC durchaus einen wissenschaftlichen Hintergrund haben.

    Die Mitarbeiter und Physiker des LHCs, haben diese Befürchtungen auch wirklich ernst genommen und haben im Jahr 2003 eine Studie veröffentlicht, welche sich mit den Gefahren des LHCs auseinandersetzt. Im Jahr 2008 wurde eine weitere Studie in Auftrag gegeben, welche von Wissenschaftlern durchgeführt wurde, die nicht am CERN beschäftigt waren, um einen Interessenskonflikt so gut wie möglich zu vermeiden. (Bereits im Jahr 2000 gab es übrigens eine ähnliche Studie. Hierbei war aber nicht der Teilchenbeschleuniger in der Schweiz das Thema, sondern der amerikanische RHIC).

    Welche Gegenargumentation kann man nun den CERN Kritikern entgegenbringen? Nun, hier gibt es zunächst einmal eine experimentelle Überlegung. Die Erde wird tagtäglich von kosmischer Strahlung bombardiert. Diese Teilchen haben Energien, die um ein Vielfaches höher sind als jene, die im LHC erzeugt werden. Somit hätten solche Mini Schwarze Löcher schon längst entstehen müssen. (Das Gegenargument zum Gegenargument ist aber, dass aufgrund der Impulserhaltung diese Schwarzen Löcher weggestoßen werden müssten, während sich jene die im LHC erzeugt werden theoretisch in Ruhe befinden sollten, weil beide Protonen aufeinander zu fliegen. Im vorherigen Fall wäre die Erde in Ruhe, und das kosmische Teilchen in Bewegung).

    Die theoretische Argumentation ist, dass nur eine sehr exotische Stringtheorie solche Schwarzen Löcher vorhersagt. Ausschließen kann man sie natürlich nicht. Aber selbst WENN solche Schwarze Löcher entstehen, würden sie auf Grund der Hawking Strahlung oder anderer Quantenübergänge innerhalb von kürzester Zeit zerstrahlen. Selbst WENN sie nicht (oder nur sehr langsam) zerstrahlen würden, würden sie sehr lange, sehr klein bleiben. Denn so ein Schwarzes Loch ist ja kein Staubsauger, der anfängt Materie einzusaugen. Ein Schwarzes Loch müsste nämlich warten, bis ihm zufällig ein anderes Teilchen begegnet, welches es dan schlucken könnte. Gravitation spielt auf so kleinen Größenordnungen nur eine untergeordnete Rolle. Es würde also mehrere Milliarden Jahre dauern, bis so ein Schwarzes Loch auf eine für uns gefährliche Größe anwachsen würde.

    Die Argumentation, die man der seltsamen Materie (Strangelets) entgegensetzen kann ist Folgende: Um solche Strangelets zu erzeugen, brauche ich eine sehr hohe Temperatur und eine sehr hohe Energie. Wenn ich nun aber genau so eine hohe Energie aufbringe, dann habe ich keine geordnete Struktur, sondern frei herumfliegende Quarks. Die Erzeugung eines Strangelets wäre in etwa vergleichbar mit der spontanen Erscheinung von einem Eiswürfel in kochendem Wasser. Prinzipiell nicht unmöglich, aber doch sehr sehr unwahrscheinlich.

    Als Fazit lässt sich sagen, dass anders als bei üblichen Verschwörungstheorien der wissenschaftliche Kontext stimmt. Die Angst vor dem Weltuntergang, hervorgerufen durch den HC, fällt in das Reich der medialen Panikmache. Laut Aigner gehen Medien verantwortungslos und äußerst wissenschaftsfeindlich damit um. Warum kommt Wissenschaft immer nur dann in die Schlagzeilen, wenn sie Angst und Schrecken verbreitet?

    Aigner beantwortet schlussendlich die Frage, ob wir die Experimente am LHC wagen sollen, mit einem klaren ja. Der Mensch ist geboren zum Entdecken. Entdeckung und Forschung bringen Faszination mit sich, es ist spannend schwierige Fragen zu beantworten. Wir sollten den Mut haben Mut Wissenschaft auf unbegangenen Wegen weiterzuführen.

    „Es ist schön zu verstehen; es ist gut, zu wissen“

    Damit endet meine Berichterstattung von der 21. GWUP Konferenz. Es war eine spannende und lehrreiche (und schreibintensive) Konferenz, und ich hoffe doch, auch nächstes Jahr bei der europäischen Skeptikertagung wieder dabei sein zu können.

    Am Vormittag hat die geschlossene GWUP Mitgliederversammlung stattgefunden, über die ich Stillschweigen bewahre, da ich ehrlich gesagt nicht weiß, ob ich darüber berichten darf. Deshalb beschränke ich mich auf die Vorträge des Nachmittags, die auch gleich mit einer Koryphäe angelaufen sind.

    Edzard Ernst – Quo vadis Alternativmedizin?

    Edzard Ernst

    Der erste Sprecher des heutigen Tages war Prof. Edzard Ernst, Professor für Alternativmedizin an der Universität von Exeter (England).
    Zuallererst verwies er auf ein Zitat von Mark Twain, der da sagte: „Vorhersagen sind schwierig, insbesondere wenn sie die Zukunft betreffen.“

    Laut Ernst, definiert und benennt sich die Alternativmedizin in 5 Jahresabständen regelmäßig neu. Was wir zur Zeit als Komplementär- und Alternativmedizin (CAM) kennen, heißt neuerdings „integrative Medizin“. Grundsätzlich enthält die unorthodoxe, alternative, komplementäre, integrative Medizin eine Fülle an Methoden, die bei näherer Betrachtung sehr wenig miteinander zu tun haben.

    Und CAM erfreut sich, zumindest in Deutschland, an großer Beliebtheit, denn ca 65% der Menschen in Deutschland (und fast jeder Krebspatient) nehmen mindestens einmal pro Jahr die Leistungen der Alternativmedizin in Anspruch. Ein Grund hierfür ist sicherlich, dass CAM von den Medien stark gepusht und gehypt wird. Allein 300 Artikel pro Monat finden sich in der englischen Tagespresse über CAM.

    Der zweite Teil des Vortrags beschäftigte sich mit mehreren unhaltbaren Behauptungen der CAM.

  • a) xy ist wirksam
  • Hierzu brachte Edzard Ernst die Chiropraktiker als Beispiel. 95% bis 100% aller britischen Chiropraktiker (und ich vermute mal nicht nur die britischen) erheben Ansprüche auf Heilung, die auf keinerlei Evidenz basieren: Angeblich können Kindercholiken, das lebensgefährliche Asthma, Bluthochdruck u.v.m. mittels der Geradestellung der Wirbelsäule behandelt werden.

  • b) xy kann nicht wissenschaftlich geprüft werden
  • Dies ist eine beliebte Aussage der Alternativmediziner, die behaupten, dass ihre Methoden nur individuell getestet werden können, sprich: Sie fragen einfach ihre Patienten, ob es ihnen nach der Behandlung besser geht. Man spricht hier von der „empfundenen Effektivität“ und diese wird als Ersatz für Evidenz angesehen. Ein zusätzliches Argument, welches häufig gebracht wird, ist das Argument des „Alters“. xy gibt es schon seit z Jahren (z so um die 1000 und mehr), deshalb muss es wirksam sein, sonst hätte es sich nicht so lange halten können. Professor Ernst macht aber klar, dass alle Methoden mittels klinischer Studien überprüft werden können (darauf wettet er sogar eine Flasche Rotwein).

  • c) Es gibt keine Geldmittel für CAM und noch weniger um sie genauer zu erforschen.
  • Zur Entkräftung dieser Behauptung sollte das folgende Bild genügen, welches David Beckham bei LA Galaxy zeigt. Man beachte den Sponsor von LA Galaxy:

    David Beckham bei LA Galaxy und dem Sponsor "Herbalife"

  • d) CAM ist natürlich und deshalb risikofrei
  • Wie sicher diese Methoden sind, ist nicht ganz klar. Im Jahre 2006 hat Ernst zusammen mit einigen anderen Mitarbeitern eine Studie zu diversen CAM Therapien veröffentlicht, wo gezeigt werden konnte, dass sehr wohl Nebenwirkungen auftreten, sich diese aber im Bereich um die 10% bis 20% bewegen (je nach angewandter Therapieform: Homöopatie, Akupunktur, Chiropraktik).

    Wie sieht es nun aber mit der Beweislage für CAM aus.
    Tatsächlich ist es so, dass es ca. 20 Therapien gibt, die wissenschaftlich gut belegt sind. Als Beispiel führt Edzard Ernst Akupunktur an, wo es tatsächlich positive Befunde gibt, die über den Placeboeffekt hinaus gehen und zeigen, dass Akupunktur bei Schmerzen (z.B. bei Arthrose) wirksam ist.

    Als Intermezzo stellte er noch den Fall zwischen Simon Singh und der „British Chiropractic Assiciation“ vor. Hierzu verlinke ich wohl am besten zu diesem Artikel.

    Zusammenfassend lässt sich sagen, dass die meisten Methoden der CAM nicht auf wissenschaftlicher Evidenz basieren (aber manche tun es) und dass sie nicht mit großen Riskien verbunden sind (aber manche sind es). Prinzipiell ist die Untersuchung und Beleuchtung von CAM möglich und notwendig. Als Schlusswort führte Prof Ernst an, dass jeder, der mit Medizin zu tun hat, aber nicht an evidenz-basierte Medizin glaubt, sich schlicht gesagt im falschen Business befindet (erinnerte mich ein wenig an Tim Minchins Aussage: alternative medicine has either been proven not to work or not been proven to work.)

    Edzard Ernsts nüchterne Meinung zur Homöopathie ist, dass sie eigentlich ein Dogma, und ein Fortschritt der Letztgenannten deshalb schlichtweg unmöglich sei. „Wenn die Homöopathen eine Kirche Hahnemanns gründen wollen und ein Glaubensbekenntnis ablegen wollen, bitte. Aber sie sollen die Medizin in Ruhe lassen.“

    Im Anschluss an Prof. Ernsts Vortrag gab es noch eine 15 minütige Fragerunde. Da wurde von einem Zuhörer u.a. angemerkt, dass Sham-Akupunktur (also der Einsatz von Teleskopnadeln, die nicht stecken bleiben) seiner Meinung nach keine gute Methode sei, um Akupunktur auf den Placeboeffekt zu testen, weil diese Art der Nadeln nicht schmerzen, dies aber als Voraussetzung für die Akupunktur gilt (stimmt das? Habe ich vorher noch nie gehört?). Edzard Ernst argumentierte, dass eine ganze Doktorarbeit hinter der Entwicklung dieser Nadeln steckt. Im Weiteren wurden sie mit Hilfe der Patienten selbst entwickelt. Somit wurde sichergestellt, dass die Patienten keinen Unterschied zwischen wahrer und vorgegaukelter Akupunktur feststellen konnten.
    Eine weitere Frage war, warum Akupunktur ausgerechnet bei der Schmerzlinderung von Arthrose wirksam ist, aber nicht bei anderen Formen von Schmerz. Laut Ernst liegt das darin begründet, dass es für die Akupunkturbehandlung von Arthrose die meisten Studien gibt, die außerdem noch eine akzeptable Qualität haben. Möglicherweise zeigen zukünftige Studien, dass Akupunktur eine Therapieform für andere Schmerzarten hilfreich sein kann. Er wollte dann aber nicht zu viel spekulieren bzw. im Kaffeesatz lesen.

    Michaela Noseck – Energie als Metapher in CAM

    Michaela Noseck

    Bevor ich versuche den Inhalt dieses Vortrags zusammenzufassen, muss ich gestehen, dass ich leider große Mühe hatte ihm zu folgen. Dies lag wohl hauptsächlich an meiner Müdigkeit. Infolgedessen, wird dieser Beitrag leider nur sehr kurz und sicherlich unvollständig ausfallen. Allerdings hat Bernd Harder hier den Vortrag sehr viel besser zusammengefasst und dokumentiert.

    Soweit ich verstanden habe, wollte die Vortragende in ihrer Arbeit die vorhandenen traditionellen Heilmethoden in Österreich katalogisieren und die Frage beantworten, warum CAM so viel Zulauf erfährt. Grundsätzlich lässt sich sagen, dass CAM spannender ist als die evidenz basierte Medizin („Schulmedizin“) und unkritisch übernommen wird; ein Effekt, den sie als Dozentin an der Universität Wien auch bei ihren Studierenden feststellen konnte. Die Patienten, die CAM in Anspruch nehmen sind im Allgemeinen auf der Suche nach Harmonie (Gegensätze ausgleichen), Reinigung (Belastendes loswerden), suchen die Nähe zur Natur, üben Zivilisationskritik aus und suchen die Erklärung hinter der Erklärung, versuchen also zu verstehen und zu begründen, warum ausgerechnet sie und gerade jetzt von dieser Krankheit heimgesucht werden. Diese Leute suchen die Diagnose und verstehen Letztere auch gleichzeitig als Heilung; die Anamnese scheint also außerordentlich wichtig.
    Was ich von diesem Vortrag gelernt habe ist der, für mich neue, Begriff der ungefragten Diagnosestellung, sprich: Es werden Patienten Diagnosen aufgeschwatzt, nach denen sie gar nicht gefragt haben. Michaela erzählte uns diesbezüglich eine Ankedote: Als sie bei einem Heilpraktikertreffen war, kam die Frage auf, ob sich denn eine der dort anwesenden Damen auch mit den nicht-geborenen Kindern befasse. Die Dame gab als Antwort, dass sie den Sohn der Fragestellerin hinter derselben sehe, und dass sie nach dem Seminar doch mal zu ihr kommen solle, um mit ihr darüber zu sprechen.

    Der Mozart Effekt – Jakob Pietschnig

    Jakob Pietschnig

    Der meiner Meinung nach beste Vortrag des heutigen Abends kam ganz am Ende von Jakob Pietschnig. In seinen Ausführungen versuchte er den „Mozart Effekt“ zu erklären um uns gleichzeitig, anhand dieses Effektes, zu zeigen, wie sich Mythen hartnäckig halten.
    Ausgangspunkt des Vortrags ist eine in Nature publizierte Studie, die eine statistisch signifikante Korrelation zwischen dem Hören von Mozart’s Sonate für zwei Klaviere in D-Dur „allegro con spirito“ und dem Raumvorstellungsvermögen gefunden hat. Das Raumvorstellungsvermögen ist deshalb so besonders, weil es ein Indikator der Intelligenz einer Person ist. Im Schnitt hatten jene Menschen, die Mozart hörten, 8-9 IQ Punkte mehr als jene, die Relaxationsanweisungen befolgten, oder vollkommener Stille ausgesetzt waren. Diese Studie hatte einen riesigen medialen, kommerziellen, politischen und wissenschaftlichen Impakt. In den Zeitungen beispielsweise las man dann sogleich imposante Schlagzeilen wie z.B. „listening to Mozart makes you smarter“ oder „Mozart lets student’s IQ rise“. Dieses mediale Echo führte dazu, dass ein gewisser Don Campbell sich den Mozart Effekt als eingetragene Marke (registered Trademark) sicherte und es nun vermarktet (natürlich kann Don Campbell’s Mozart Effekt noch viel mehr, wie z.B. die Gesundheit der Familie garantieren oder psychische Verletzungen heilen). Den politische Impakt sieht man auch heute noch, z.B. in Florida, wo in Kindertagesstätten per Gesetz den Kindern 1 Stunde klassische Musik täglich vorgespielt werden muss. Ein weiteres Beispiel war das Beschallen von Mikroben (siehe hier) und Kühen, damit sie bessere und mehr Milch produzieren (der so genannte „Moozart Effekt“).

    In der scientific community sah die Sachlage schon bedeutend anders aus, denn die Evidenzlage war im besten Fall inkonklusiv. Es gibt mehrere Studien zu diesem Thema, von denen manche einen positiven Zusammenhang gefunden haben, andere aber wieder nicht. Nun hat uns Jakob Pietschnig erklärt, was man in der Wissenschaft unter der statistischen Signifikanz versteht. Dies war deshalb wichtig, um seine Arbeit und ihre Methodik besser zu verstehen. Er hat nämlich eine Meta Analyse veröffentlicht, in welcher er alle 39 verfügbaren (publizierte und unpublizierte) Studien mit insgesamt 3109 Testpersonen untersucht. Mit so einer Meta Analyse kann man die statistische Macht einer Studie erhöhen und die Fehlerwahrscheinlichkeit, welcher jeden einzelnen Studie anhaftet, verringern. In seiner Meta Analyse hat Jakob Pietschnig dann auch noch den Publiation Bias in der Fachliteratur berücksichtigt. Der Publication Bias besagt nichts anderes, als dass Studien, welche einen signifikanten Effekt oder ein tolles Resultat aufzeigen, öfter, schneller und sichtbarer publiziert werden, als Studien, welche kein solches Resultat liefern. D.h. grundsätzlich wird es in der Fachliteratur mehr Studien mit einem positiven Effekt geben, als solche, die keine Korrelation zwischen Mozart’s Musik und der Raumvorstellung finden.
    Was Jakob Pietschnig dann schließlich und endlich gefunden hat war, dass es keinerlei Evidenz für den Mozart Effekt gibt und dass es tatsächlich einen nicht vernachlässigbaren Publication Bias zu diesem Thema gibt.
    Geendet hat der Vortrag mit einem Zitat des Editors des Journals, in welchem Jakob Pietschnig publiziert hat: „I would like to think that this study will put an end to the Mozart effect (though I doubt it – these things die hard)“.

    Und damit war der 2. Konferenztag, zumindest für mich, zu Ende. Viele der Konferenzteilnehmer amüsieren sich zu später Stunde sicherlich noch im Wiener Heurigen😉

    Heute hat im Naturhistorischen Museum in Wien die 21. GWUP Konferenz zum Thema „Fakt und Fiktion“ begonnen, und ich war zum 1. Mal dabei.

    Im nun Folgenden, werde ich versuchen den heutigen Tag Revue passieren zu lassen. Dennoch sollte ich an dieser Stelle erwähnen, dass ich zwischendurch auch mal meine eigene Meinung in das Geschriebene einfließen lasse, welche nicht zwangsläufig die Meinung der anderen Konferenzteilnehmer widerspiegeln muss.

    Zunächst begrüßte uns der Gastgeber der heutigen Veranstaltung: Der Museumsdirektor des Naturhistorischen Museums, Dr. Christian Köberl. In seiner Rede (anfänglich gespickt mit Eigenwerbung zum Museum) ermahnte er die Teilnehmer sich stets vor Augen zu halten, dass man immer skeptisch bleiben soll, und zwar in jeder Hinsicht. Die Wissenschaft ist kein abgeschlossenes System, sondern höchst dynamisch. Zur Veranschaulichung verwies er auf den Streit, den Physiker und Geologen vor etwa 130 Jahre bezüglich des Alters der Erde ausfochten: Während die Geologen das Alter der Erde auf einige 100 Millionen Jahre schätzten, hielten die Physiker, allen voran Lord Kelvin, dies für unmöglich. Erst mit der Entdeckung der Radioaktivität durch Antoine Henri Becquerel konnte diese Kontroverse beiseite gelegt werden. Skeptisch sollten wir also auch uns gegenüber sein (so jedenfalls, habe ich seine Rede interpretiert).

    Als nächstes ergriff Amardeo Serma, der Vorsitzende der GWUP, das Wort. Er wies darauf hin, dass dies wohl die größte GWUP Tagung der Vereinsgeschichte ist und stellte die Arbeit der GWUP den anwesenden Gästen im Kurzen vor (was wollen wir? was tun wir?). Er betonte, dass es vor dem Bestehen der GWUP zu den Themen des Paranormalen (u.a. Astrologie, UFOs, Verschwörungstheorien, Alternativmedizin, …) kaum Kritik gab. Erst mit dem Entstehen der GWUP wurden kritische Informationen den oben genannten Themen entgegengesetzt. Aber er machte auch sehr deutlich, dass das nicht die einzige Aufgabe der GWUP sein kann, denn viel wichtiger ist das Vermitteln der Mittel und Methodik der Wissenschaft bzw. die Förderung des kritischen Denkens, um selbst Behauptungen zu hinterfragen und zu überprüfen.

    Ulrich Berger, der Präsident der „Gesellschaft für kritisches Denken“(GkD), begrüßte als Nächstes die anwesenden Gäste und war über den Andrang positiv überrascht (der Saal war so voll, dass Leute draußen warten mussten). Des Weiteren entmachtete er durch ein Zitat von Christian Köberl (zu finden hier) ein beliebtes Argument der Anhänger von Parawissenschaften: „Es gibt 100.000 Dinge zwischen Himmel und Erde, die wir uns nicht erklären können“. Die trockene, aber sehr treffende Antwort von Christian Köberl im Interview war: „Vor hundert Jahren waren es 200.000 Dinge“🙂
    Und mit diesen Worten begann dann auch der erste wirkliche „Vortrag“

    Prof. Heinz Oberhummer hielt einen sehr enthusiastischen Vortrag mit dem Titel „Homöopathie für Schüttler“ (Letzteres ist wienerisch und bedeutet „Trottel“). Zunächst erklärte er kurz die drei Grundprinzipien der Homöopathie (welche sicherlich allen Lesern bekannt sind):

  • das simile Prinzip: like cures like
  • Potenzierung: je mehr eine Substanz verdünnt wird, umso besser wirkt sie
  • Dynamisierung: je mehr das Mittel geschüttelt wird, umso besser wirkt es
  • Als nächstes folgte dann der experimentelle Versuch (über welchen sich der pensionierte theoretische Physiker Heinz Oberhummer diebisch freute): Ziel war es ein C12 Mittel von Stroh 80 herzustellen. Zur besseren Veranschaulichung zeigte er auf der Leinwand bei jeder Verdünnung in welcher Wassermenge die gesamte Flasche Stroh 80 verdünnen werden müsste, um denselben Verdünnungsgrad zu erreichen: so wird für eine C2 Verdünnung der Schnaps in einem Tankwagen aufgelöst und für eine C12 Potenzierung müsste der Alkohol in einer Wasserkugel mit dem Volumen des Jupiters verdünnt werden. Homöopathen liefern aber sogar C74 Potenzierungen ab (und noch weit höhere), welches einer Schnapsflasche entspricht, verdünnt im einem Wasservolumen, welches dem gesamten sichtbaren Universum entspricht. Am Ende bezeichnete er dann die Homöopathen, als dumme Menschen.
    Und hier kommt nun auch gleich mal mein 1. Kritikpunkt: Die Veranstaltung war auch von mehreren Nicht-Skeptikern besucht. Solche Aussagen sind, meiner Meinung nach, viel zu aggressiv, um jemandem zu zeigen, dass er/sie sich auf dem Holzweg befindet. Solche Bemerkungen kann man sich auf einem öffentlichen Vortrag wirklich sparen. Überzeugen wird man damit niemand.
    Anschließend wurde die 1023 Aktion mit einigen Freiwilligen der GWUP wiederholt, welche sich eine Überdosis Globuli verabreichten.

    Prof. Heinz Oberhummer und Jörg Wipplinger (diewahrheit.at)

    Der nächste Vortragende war Alois Reutterer, der dem Publikum etwas über „Wassermythen“ erzählte. Hauptaugenmerk legte er in seinem Vortrag auf die beliebte Behauptung der Esoterikszene, dass Wasser ein Gedächtnis hat und auf Musik, Gefühle und Worte reagiert. Außerdem wird ja auch vielfach behauptet, dass Wasser durch Einsatz von gebeten, Kristallen, dem Vollmond, Verwirbelung, etc. „belebt“, „energetisiert“, „levitisiert“ und „vitalisiert“ werden kann. Die Wirklichkeit sieht aber ganz anders aus, denn Wasser ist eigentlich sehr vergesslich. Innerhalb einer Femtosekunde (10-15 Sekunden) zerfallen die Wasserstoffbrücken der Wassermoleküle und bauen sich erneut auf. Den Bock schießt aber Herr Grander mit seinem belebten Wasser ab (siehe z.B. hier). Alois Reutterer wies weiters darauf hin, dass man Granders Methode ganz offiziell als Scharlatanerie bezeichnen darf.

    Was ich gut fand, war die Erleuterung Reutters auf jene Aspekte der Homöopathie, die tatsächlich wirken (und welche man sich durchaus abschauen darf):

  • Die lange Anamnese
  • Die Ratschläge zur Lebensführung
  • Das Vertrauensverhältnis, welches zwischen Homöopath und Patient aufgebaut wird
  • Der Placeboeffekt
  • Ein weiterer Aspekt, der angeschnitten wurde waren Wünschelruten und die Behauptung, damit Erdstrahlen und Wasseradern finden zu können, welche angeblich Krankheiten verursachen. Um es kurz zu fassen: Es gibt keine Wasseradern und Erdstrahlen konnte man bis dato nicht nachweisen.

    Als nächstes trat dann Bernd Harder mit dem „Paranormal Quiz“ auf, welches ganz im Stile der Sendung „Wer wird Millionär“ abgehalten wurde. 5 Fragen mit je 4 Antwortmöglichkeiten, wobei jeder/jede mittels Handzeig für die vermeintlich richtige Antwort stimmen konnte. Ich kann mich leider nicht mehr an alle Antwortmöglichkeiten erinnern, aber die Fragen und richtigen Antworten habe ich noch im Kopf

  • Welche Stadt bildet die Westspitze des Bermudadreiecks? (Miami)
  • Wie hoch ist der Geldpreis, den James Randijedem und jeder anbietet, welche unter wissenschaftlich kontrollierten Bedingungen paranormale Fähigkeiten nachweisen kann? (1.000.000$)
  • Welcher berühmte Kriminalschriftsteller hielt diesesFeen Foto für unzweifelhaft echt? (Sir Conan Doyle)
  • Was ist der „Mars“ Effekt? (Eine angeblich statistisch signifikante Korrelation zwischen der Position des Mars und dem beruflichen Erfolg von Spitzensportlern.)
  • Was ist kein Grundstoff für Homöopathen? (Die Antwortmöglichkeiten waren: Hundekot, Berliner Mauer, Milzbrand und ein 4. Stoff, an den ich mich nicht erinnere. Schlussendlich stellte sich dies als eine Fangfrage heraus, da eben alle 4 Stoffe in der Homöopathie ihre Anwendung finden).

    Nach der Pause trat Wolfgang Hund („Hundini“) mit seiner Experimentalshow „Ist es Wissenschaft oder Zauberei?“ auf. Die Zaubershow war ganz nett und unterhaltsam (ich erspare mir hier die diversen Tricks aufzuzählen). Was ich mir von seiner Vorstellung mitnehme ist der Spruch: „Alles ist schon mal gesagt worden, aber weil niemand zuhört, muss man es immer wieder sagen“. V.a. wenn man das Gefühl hat, man bringt immer wieder dieselben Argumente und verwickelt sich immer wieder in dieselben Diskussion, kann er ziemlich nützlich und beruhigend sein🙂

    Nach der Zaubershow gingen wir dann über zur Verleihung des „goldenen Bretts“, welche auch im Internet als Livestream verfolgt werden konnte. Dies stellte sich als wahres Zuckerl des Abends heraus, denn es kam zu überraschenden Wendungen während der Preisvergabe:

    Zunächst erwähne ich noch mal kurz alle 3 Finalisten, welche aus allen 482 eingegangenen Nominierungen ausgewählt wurden:

  • Claudia von Werlhof: sie suggerierte, die USA könnten mittels der Sendeanlage HAARP gezielt Erdbeben auslösen (Haiti)
  • Mario Max Prinz zu Schaumburg-Lippe: vertreibt über AstroTV ein Zauberelixier namens „Reichtumselixier“ für 99.95€.
  • Peter-Arthur Straubinger: seine Pseudodokumentation über Lichtnahrung verhalfen ihm zu dieser zweifelhaften Ehre.

    Während Claudia von Werlhof eine sehr abstruses und belangloses Wischi-Waschi als Stellungnahme geschickt hat, hat Mario Max Prinz zu Schaumburg-Lippe überraschenderweiße ein Video mit einer persönlichen Nachricht eingesendet (welches ich noch versuche ausfindig zu machen). Aber es kommt noch besser, nach der Laudatio traten nämlich sehr überraschend die Eltern von Mario Max Prinz zu Schaumburg-Lippe auf, die extra aus Thüringen angereist waren und sich sogar den gesamten 1. Tag der GWUP Konferenz angehört haben. Ich konnte meinen Unterkiefer vor Staunen gar nicht mehr schließen. In der kurzen Gegenrede, gehalten von der Mutter von Max, hat sie zunächst mal alle Preise aufgezählt, welche der werte Sohn schon gesammelt hat (darunter die „Krone“ der KronenZeitung, einen Tanzpreis, und noch sehr viele mehr, die alle in irgendeinem Schrank verstauben). Sie argumentierte weiters, dass wir in einer Demokratie leben, und sich wohl jeder kaufen könne, was er oder sie wolle. Schließlich und endlich überreichte sie uns auch ein Geschenk, nämlich eine Klobrille mit den Worten: „Es gibt einen Ort, wo alle Menschen gleich sind.“

    „Gewinner“ des goldenen Bretts war übrigens P.A. Straubinger, welcher dann auch eine, zugegebenermaßen sportliche und meist stimmige, Dankesrede hielt. Er habe „Am Anfang war das Licht“ gemacht, um Menschen zu bewegen. Wie die sich dann bewegen, konnte er ja vorher nicht wissen. Er erwähnt auch ausdrücklich, dass er Diskussionen liebt und insofern findet er diesen Preis sehr wichtig, da er die Meinung der Antagonisten symbolisiert.
    Zusätzlich bedankte er sich bei der GWUP und GkD, da diese den Film noch mehr gepusht und quasi kostenfreie Werbung gemacht haben. Sein Film sei der international erfolgreichste österreichische Film im Jahr 2010 (wieviele gab es in diesem Zeitraum?).
    Er stellte außerdem klar, dass sich der Regisseur (also er) bei diesem Film keineswegs bereichert hat, denn die Einnahmen aus dem Film gehen an den Produzenten und die Filmförderung. Er wollte mit diesem Film das materialistische Welt- bzw. Glaubensbild hinterfragen, welchem v.a. die GWUP und die GkD ja angehören.
    Gut gekontert hat P.A. allemal, wenn er sagt: „Wer Preise vergibt, muss die Dankesrede ertragen“.

    Ulrich Berger im Gespräch mit P.A. Straubinger

    Damit beende ich die Zusammenfassung des 1. Tags der Konferenz. Ich habe leider den Experimenten mit dem Handy mit Prof. Dr. Ernst Bonek und Gilbert Hangel nicht beiwohnen können. Vielleicht kann ja einer der anderen Teilnehmer und Leser dieses Blogs darüber berichten.
    Bis morgen🙂

  • Vor einiger Zeit war ich bei einem Vortrag von Dr. Martin Greiner, einem Physiker, der zur Zeit in der „Aarhus School of Engineering and Institute of Mathematical Sciences“ in Dänemark über den Einsatz und die Verteilung von erneuerbaren Energiequellen forscht. Der Vortrag von Dr. Greiner hat sehr nüchtern anhand der gesammelten Daten aufgezeigt, wie es möglich wäre den Energiehunger Europas mit 100% erneuerbaren Energiequellen zu sättigen.

    Hier versuche ich seinen Vortrag kurz und verständlich zusammenzufassen. Hauptsächlich wird das auf die Veröffentlichung „Seasonal optimal mix of wind and solar power in a future, highly renewable Europe“ von Heide et al. basieren.

    Heide et al. versuchen vor allem jene Frage zu beantworten welchen Mix man zwischen Wind- und Solarenergie theoretisch brauchen würde, um den europäischen Energiebedarf zu decken. Eine Energiegewinnung die nur mittels erneuerbaren Energiequellen funktioniert ist, klarerweise, sehr stark vom Wetter abhängig. Deshalb haben sich die Forscher europäische Wetterdaten angesehen, die sie im Zeitraum zwischen 2000 und 2008 gesammelt haben.

    wind-only
    Die Autoren nehmen zunächst einmal ein „wind-only“ Szenario an, also dass Windenergie die einzige Energiequelle in Europa ist. In Bild 1 sieht man, dass die Windenergie (blaue Kurve) vergleichsweise starken saisonalen Schwankungen unterworfen ist. Im Winter sind die Winde stärker als im Sommer. Dies trifft sich gut, denn der Energiebedarf (die rote „load“ Kurve) ist mit der Windkurve in Phase, d.h. im Winter wird mehr Energie verbraucht, als im Sommer (es wird mehr geheizt, es wird früher dunkler, etc.). Wenn man die beiden Kurven miteinander vergleicht sieht man außerdem noch, dass im Winter mehr Energie produziert werden kann als nötig, bzw. im Sommer jedoch weniger produziert werden kann, als nötig. In einem „wind-only“ Szenario führt dies nun dazu, dass die überschüssige Energie im Winter gespeichert werden muss, damit sie im Sommer zur Verfügung steht. Dies ist mit einem enormen (finanziellen und technischen) Aufwand verbunden, welchen die Autoren später noch beschreiben.

    Bild 1: Verlauf der Wind- und Solarenergieproduktion in blau und gelb in den Jahren zwischen 2000 und 2008. Die rote Kurve stellt den Energieverbrauch (load) dar. Credit: Heide et al. 2010 Renewable Energy 35 (2010) 2483

    solar-only
    Stellt man sich ein „solar-only“ Szenario vor, d.h. der Energiebedarf würde nur von Solarenergie gedeckt, dann kann man sich mal die gelbe Kurve in Bild 1 ansehen. Hier sieht man ganz schön, dass diese Kurve mit der load Kurve „antikorreliert“, d.h. im Sommer steht mehr Sonne zur Verfügung als im Winter, gleichzeitig wird aber, wie oben bereits erwähnt, im Winter mehr Energie verbraucht, als im Sommer. Dies führt nun dazu, dass der Aufwand zur Energiespeicherung bzw. das zur Verfügung stellen der gespeicherten Energie noch um einiges aufwändiger würde als im Windszenario.

    wind-plus-solar
    Der logische Ausweg aus beiderlei Dilemma ist ein Mix beider Energiequellen. Was die Autoren dieser Studie finden ist, dass ein optimaler Mix aus ca. 50%-60% Wind- und 50-40% Sonnenenergie besteht, um den Energiebedarf so zu stillen, dass möglichst wenig Energie gespeichert und wieder zur Verfügung gestellt werden muss, sprich: dass die Energie genau dann produziert wird, wann sie auch tatsächlich gebraucht wird (siehe Bild 2).

    Bild 2: Kombinierte Energieproduktion mittels 60% Windenergie und 40% Solarenergie. Rote Kurve wie in Bild 1. Credit: Heide et al. 2010 Renewable Energy 35 (2010) 2483

    Die Energiespeicherung
    Natürlich braucht es nach wie vor eine Energiespeicherung für jene Zeiten, wo blöderweise gerade keine Sonne scheint und auch kein Wind weht. Die Forscher haben sich den Datensatz der in Bild 1 zu sehen ist genau angesehen und sich folgendes überlegt: Weht mehr Wind oder scheint mehr Sonne als nötig, stecke ich diese überschüssige Energie in einen Energiespeicher. Wird aber gerade zu wenig Energie von meinen Windrädern oder Photovoltaikanlagen produziert, so hole sie wieder aus der Speicherung raus. Man kann sich nun gut vorstellen, dass mal mehr und mal weniger Energie reingesteckt werden kann, bzw. rausgezogen werden muss, je nachdem wie stark gerade der Wind weht, oder wie wolkenlos der Himmel ist.
    Das „Fülllevel“ meiner Speicherung ist also auch Schwankungen unterworfen, die dem Wetter unterliegen. Um diese Schwankungen monatlich auszugleichen, sodass nie Energieknappheit auftritt, reicht es also nicht nur die „load“ Energie zu produzieren, sondern es muss sogar 1.5 mal so viel Energie produziert werden, um die maximale Diskrepanz auszugleichen, welche zwischen 2000 und 2008 aufgetreten ist.
    In anderen Worten sollten diese Anlagen also monatlich 1.5 mal mehr Energie produzieren als im Schnitt gebraucht wird.

    Was zusätzlich bedacht werden muss: Eine Energiespeicherung bzw. eine Energierückgewinnung aus so einer Speicherung, ist nie perfekt (man spricht von Effizienz). Anders formuliert geht Energie bei jeder Speicherung und auch bei jeder Rückgewinnung verloren. Dies führt unweigerlich dazu, dass noch mehr Energie produziert werden muss, um diese Verluste zu kompensieren. Je nachdem für welche Art der Energiespeicherung man sich entscheidet (angesprochen werden Pumpwasserspeichwerke und Wasserstoffspeicher), bewegt sich dieser Extrabedarf zwischen 5% und 30%.

    Angenommen man hätte nun eine solche wind-plus-solar-only Energieversorgung in Europa, kann man sich nun folgendes überlegen. Europa braucht im Jahr ca 3250 TWh an Energie (Energiebdarf im Jahr 2007). 55% davon sind 1780TWh, die mittels Windenergie produziert werden sollten. Dafür braucht es eine Windleistung von 670 GW (wenn man die Effizienz der Windanlage mit 30% angenommen wird). Die restlichen 1460 TWh, welche die Sonnenenergie produzieren soll, verlangen nach Photovoltaikanlagen mit einer Gesamtleistung ca. 810 GW (angenommen wird eine Effizienz von 21%).
    Als Faustregel kann für die Energieproduktion mittels Windräder abgeschätzt werden, dass für die Leistung von 1 MW eine Fläche von 0.07km2 (auf dem Meer) bzw 0.11 km2 (im Landesinneren) gebraucht wird. 670 GW entsprechen damit einer Fläche von 50.000km2 bzw 75.000 km2 (zum Vergleich: Dänemark hat eine Fläche von 43.000 km2). Für die Photovoltaikanlagen berechnet sich die gebrauchte Fläche mittels der mittleren Sonnenstrahlung (169 W/m2) zu 5000 km2 (Die Gesamtfläche aller deutschen Hausdächer entspricht ca. 1330 km2).

    Berücksichtigt man nun noch, dass Energie ja auch noch gespeichert werden muss, bedeutet das, dass mindestens 400 TWh im Monat zusätzlich zum „load“ produziert werden müssen. Dies sind nicht vernachlässigbare Energiemengen. Deutschland hat im Moment die Möglichkeit nur ca. 0.19 TWh über Pumpwasserspeichwerke zu speichern (die Möglichkeiten der anderen Länder sind den Autoren nicht bekannt). Das ist noch sehr weit von den Anforderungen entfernt. Laut Heide et al., könnte eine mögliche zukünftige Lösung Wasserstoffspeicher sein. Ca. 2.5 km3 große Speicher wären allerdings notwendig, um die zusätzlichen 400 TWh zu speichern. Dies sind zwar große Volumina, aber durchaus realistisch.

    Zusammenfassung
    Die Arbeit von Heiser et al. ist sehr interessant und zeigt auf, dass der Energiebedarf Europas mittels eines idealen Wind-und-Sonne Mix gedeckt werden kann. Sie zeigt weiters auf, dass bei einem „ausschließlich-erneuerbare-Energiequellen“ Szenario vergleichsweise viel Energie gespeichert werden muss, um den auftretenden Wetterschwankungen entgegenzuwirken. Im Moment ist die Speicherkapazität in Europa noch sehr limitiert, allerdings könnten Wasserstoffspeicher die Lösung sein.
    Im zweiten Teil der Arbeit beschränken sich die Forscher nicht nur auf erneuerbare Energiequellen, sondern nehmen in ihre Berechnungen auch noch fossile und nukleare Energieträger dazu. Was sie dabei finden, werde ich euch in einem 2. Posting erklären.

    Dies ist ein kurzer Follow-up Post zur und soll euch meinen Finalbeitrag zeigen. Viel Spaß!

    Editorial: Bevor ihr auf das unten stehende Video klickt, muss ich zunächst noch einen Fehler korrigieren, der mir im Zuge der Aufzeichnung des Vorspanns unterlaufen ist: Der erste Gammablitz wurde im Jahre 1963 entdeckt (die entsprechende Publikation dann im Jahre 1967 veröffentlicht). Somit sind seit ihrer Entdeckung 48 Jahre vergangen (und nicht 40, wie von mir fälschlicherweise behauptet).

    Here’s the english translation in case you’re not saddle-fast in german:

    Each and everyone of you has experienced in your life an earthquake at least once. Besides the terrifying shaking of the Earth and the catastrophic consequences that such an earthquake can have it can be, scientifically speaking, quite interesting. Using the waves caused by the quake which penetrate the Earth we can understand how the Earth is built up inside: Core, Mantle, Crust. This is very similar how you can determine the difference between a clarinet and a contrabass according to their acoustic waves.
    The science that makes use of these kind of waves is called seismology.

    But seismology is not limited to the Earth. Because stars tremble as well. ‚How can we possibly know that‘, you might ask, ’nobody has ever been on the surface of a star‘. This is very true. But what astronomers do: we observe the light of a star over a long period of time: days, weeks, months and even years. And what we see in such a dataset is the cyclic and periodic change of the luminosity of a star. These changes in brightness are caused by the periodic expansion and contraction of the stellar surface [This is the time where I try to visualize the radial pulsation mode of the star]. Similarly to earthquakes, these stellar quakes can help us to determine the inner build-up and structure of a star. This kind of science is called astroseismology.

    In my diploma thesis, I investigated the so called ’slowly pulsating B stars‘. These stars are very hot and massive stars, which are in the midst of their lives and pulsate very slowly, with about one to two cycles per day.

    There is yet another way to understand and picture stellar quakes. Sound is nothing else than the overlap of many waves. One can shift the observed oscillations of a star by a few octaves to the range where they than can be heard by us humans. Here’s one star where this has been done. Ladies and gentleman, without further ado I give you one of the many musicians of the cosmic orchestra: [I hold up the roundish thing which hangs around my neck] the star DO Eridani.

    [sound plays]

    Thank you very much.

    Dies ist ein CrossPost, den ich hier bei Astrodicticum Simplex schon veröffentlicht habe. Ich werde in Kürze meinen Finalbeitrag als Video hier online stellen, zusammen mit der englischen Übersetzung des Gesagten🙂 Stay tuned.

    ————————-
    Florian hat mich gebeten einen kurzen Beitrag zu FameLab 2011 zu schreiben, weil ich am 12. April die einmalige Gelegenheit hatte bei der Vorausscheidung in Wien teilzunehmen.
    Was ist aber FameLab eigentlich?

    Einen Teilbereich seiner Arbeit auf den Punkt zu bringen und einem breiten Publikum verständlich zu machen, stellt gerade in der Wissenschaft eine besondere Herausforderung dar. Hier knüpft FameLab an: Unter dem Motto „Talking Science!“ sollen die KanditatInnen rhetorisch in der Lage sein, ihr Forschungsgebiet innerhalb weniger Minuten wissenschaftlich korrekt, leicht verständlich und mitreißend zu präsentieren. Als Hilfsmittel darf nur verwendet werden, was am Körper getragen werden kann.

    Und genau das taten die 18 Kandidaten und Kandidatinnen, die sich am Dienstag Morgen an der TU Wien eingefunden haben. Quer durch das naturwissenschaftliche Gemüsebeet wurde dem interessierten Publikum spannende Forschungsergebnisse über Teilbereiche der molekularen Biologie, Zoologie, Raumplanung, Astrophysik, Biotechnologie, Biochemie und theoretische Physik geliefert. Die KandidatInnen hatten lediglich 3(!) Minuten Zeit, um ihren Forschungsbereich zu präsentieren und im wahrsten Sinne des Wortes auf den Punkt zu bringen. Anschließend wurden sie von einer 4-köpfigen Jury beurteilt, welche über Weiterkommen in die nächste Runde oder Ausscheiden des Teilnehmers bzw. Teilnehmerin entscheiden musste. Bewertet wurde dabei nach den Kriterien „Content, Clarity und Charisma“, sprich: ist das Präsentierte wissenschaftlich korrekt, war der Vortrag allgemein verständlich und gut strukturiert und war der Vortrag unterhaltsam? Die Jury konnte einem richtig Leid tun, denn bei all diesen hochkarätigen Teilnehmern ist es mit Sicherheit keine leichte Entscheidung gewesen, denn jede und jeder hätte sich ein Weiterkommen ins Finale durchaus verdient. Am frühen Nachmittag standen dann die Gewinner der Wiener Vorausscheidung fest, welche dann im großen Finale am 7. Mai auf die Sieger der Vorausscheidung in Graz und Innsbruck aufeinander treffen werden.
    Zuschauer sind natürlich sehr herzlich willkommen und explizit erwünscht. Und ich kann garantieren, dass es sehr spannend, informativ, unterhaltsam und lehrreich werden wird. Einen Samstag Abend kann man gar nicht besser verbringen.

    Die erste Präsentation handelte von der Entdeckung und den Eigenschaften von Gamma-Ray Bursts (Gammablitze), über welche Florian ja schon hier und hier berichtet hat. Dies ist auch gleichzeitig mein primäres Forschungsgebiet, denn ich bin Teil des Fermi/Gamma-Ray Burst Monitor (GBM) Teams (siehe z.B. hier) und in meiner Doktorarbeit untersuche ich u.a. die Eigenschaften von Gamma-Ray Bursts im so genannten „rest-frame“, also im Ruhesystem. Ich überprüfe sozusagen, wie sich die auf der Erde beobachteten Eigenschaften eines Gamma-Ray Bursts verändern, wenn man sie sich an Ort und Stelle, also am Entstehungsort des Gamma-Ray Bursts ansieht. Mein zweiter Vortrag war dann etwas philosophischer angehaucht. Ich habe nämlich über den kosmischen Materiekreislauf erzählt, und darüber, dass die Sterne die Fabriken des Universums sind, da sie ja die allermeisten Elemente, die wir kennen in ihrem Inneren (durch Kernfusion) oder in Form einer Supernova (durch Kernspaltung) erzeugen.

    An alle meine Kollegen und Kolleginnen gerichtet: Ich kann nebst der passiven Teilnahme am Finale auch eine Aktive an FameLab 2012 nur empfehlen. Die Adrenalindosis und Endorphinausschüttung nach gehaltenem Vortrag allein wär die Teilnahme schon wert Aber es gibt noch weitaus mehr Gründe nebst Spaß und Spannung, die so eine Veranstaltung sehr verlockend machen. Da wären zum Einen die Vermittlung von Wissenschaft an diejenige Entität, die uns bezahlt: dem Steuerzahler. Denn jedem unserer Sparte muss klar sein: Je besser wir uns ins Rampenlicht rücken und je besser der Steuerzahler versteht was wir machen, umso größer ist unsere Bedeutung und Reichweite in der Gesellschaft. So ein Wettbewerb kann durchaus als Lobby-Arbeit verstanden werden. Für den eigenen Forschungszweig im Speziellen und die Naturwissenschaft und Grundlagenforschung im Allgemeinen. Wenn der/die WissenschaftlerIn es schafft, seine/ihre Begeisterung zu vermitteln und die beinhaltene Spannung des eigenen Forschungsgebiets rüberzubringen, dann ist das, meiner Meinung nach, durchaus vergleichbar mit einem Cliffhanger einer TV Serie: Man will wissen, wie es weitergeht, eben weil es gerade so spannend ist und man sprichwörtlich auf glühenden Kohlen sitzt.

    Ich persönlich habe an FameLab 2011 teilgenommen, weil ich es als einen Weg sehe, um der Wissenschaftsfeindlichkeit und Wissenschaftsflucht in Esoterik und Parawissenschaften entgegenzuwirken. In meinen Augen übt die Esoterik deshalb so eine große Anziehungskraft aus, weil sie einfache (aber leider falsche) Antworten auf schwierige Fragen liefert. Die Wissenschaft ist in den Augen der Allgemeinheit „schwierig, komplex und unnahbar“. Aber genau so eine Plattform wie sie FameLab liefert, kann dabei helfen zu zeigen, dass Wissenschaft nicht zwangsläufig kompliziert ist und unterhaltsam und spannend sein kann.

    Looking forward to see this one.

    Millionen Leute, genausoviele Meinungen, jede gleich viel wert.

    Nachdem ich aber mehr als nur einmal mit diversen Meinungen nicht wirklich einverstanden war, habe ich mich dazu entschlossen nun auch mal meinen Senf dazu geben. Ob dieses Blog nun lediglich ein kühler Tropfen auf dem berüchtigten heißen Stein wird, oder aber das sprichwörtlichen Zünglein an irgendeiner Waage sein kann, bleibt abzuwarten.

    Stay tuned for the answer.

    Twitter Updates

    Fehler: Twitter hat nicht geantwortet. Bitte warte einige Minuten und aktualisiere dann diese Seite.

    Archive