Skip to content

Ergebnisse der Senatswahl 2014

Die am 8. Juli 2014 durchgeführten Wahlen zu den verschiedenen Gremien sind nun ausgezählt. Für mich war vor allem die Senatswahl mit den 8 Plätzen für Wahlsenatoren spannend. Die Wahlsenatoren sollen die Interessen aller rund 450 Professorinnen und Professoren der Ruperto Carola vertreten, unabhängig von Fakultätsinteressen, die durch die Dekane repräsentiert sind. Nach den vorliegenden  Wahlergebnissen entfallen auf die Liste “Ruperto Carola” 963 Stimmen (=3 Sitze). Gewählt wurden dort:

  • Prof. Dr. Joachim Kirsch, Medizinische Fakultät Heidelberg;
  • Prof. Dr. Stefan Maul, Philosophische Fakultät;
  • Prof. Dr. Ute Mager, Juristische Fakultät.

Auf unsere Liste “Initiative / Semper Apertus” entfielen sogar 1347 Stimmen (=5 Sitze), super! Gewählt wurden hier:

  • Prof. Dr. Peter Comba, Fakultät für Chemie und Geowissen­schaften;
  • Prof. Dr. Hubert Bardenheuer, Medizinische Fakultät Heidelberg;
  • Prof. Dr. Joachim Funke, Fakultät für Verhaltens- und Empirische Kulturwissenschaften;
  • Prof. Dr. Ulrich Schwarz, Fakultät für Physik und Astronomie;
  • Prof. Dr. Birgit Spinath, Fakultät für Verhaltens- und Empirische Kulturwissenschaften.

Die Wahlbeteiligung in der Gruppe der Professoren ist mit 67.5% sehr gut ausgefallen.

Danke an alle, die uns und mich gewählt haben - das freut mich und macht Lust auf die nächsten 4 Jahre! Ob ich nochmals die Sprecherrolle übernehme, wird im September entschieden. Ich könnte mir auch gut vorstellen, das Amt an jemand anderen abzugeben. Wechsel tun meist gut!

siehe auch: http://f20.blog.uni-heidelberg.de/2014/06/14/kandidatur-zum-senat/

58. TeaP 2016 in Heidelberg

Die “Tagung experimentell arbeitender Psychologen” (TeaP) gehört zu den traditionsreichsten Tagungen der deutschsprachigen Psychologie nach 1945. Die erste TeaP fand 1959 in Marburg statt, seither jedes Jahr an wechselnden Orten (siehe die Liste hier). Auch in Heidelberg hat sie 1979 bereits einmal stattgefunden. Nun soll sie wieder einmal hier stattfinden. Die “Fachgruppe Allgemeine Psychologie” (FG AP) unter Vorsitz von Arndt Bröder (Uni Mannheim) hat uns herzlich darum gebeten - wir konnten nicht länger “Nein” sagen…

Unter Federführung von Jan Rummel, Andreas Voß und mir sowie mit Unterstützung unserer FoF4-Fachreferentin Sabine Falke wollen wir ein Forum für den Austausch über experimentelle Psychologie bieten. Aufbauend auf den Erfahrungen unserer Vorgänger rechnen wir mit etwa 750 Teilnehmerinnen und Teilnehmern, die vom 21.-23. März 2016 in den Räumen der Neuen Universität zusammenkommen werden. Der Gesellschaftsabend könnte im Schlosskeller stattfinden.

Doch bis dahin ist noch ein wenig Zeit. Zunächst einmal werden wir die nächstjährige TeaP 2015 in Hildesheim beobachten, um aus deren Erfahrungen zu lernen. Wir freuen uns auf die neue Aufgabe!

Facebook und die Emotionen

In der Medienöffentlichkeit schlagen wieder einmal hohe Wellen über dem sozialen Netzwerk “Facebook” (FB) zusammen. Mit viel Emotion und Emphase heisst es etwa unter dem Titel “Gruselig und superverstörend” in der Rhein-Neckar-Zeitung vom 30.6.14: “Geheimer Facebook-Psychotest sorgt für Empörung im Netz”! Was war geschehen?

In der renommierten amerikanischen Fachzeitschrift PNAS (Proceedings of the National Academy of Science) ist ein Artikel erschienen, in dem über eine experimentelle Manipulation im News-Feed von knapp 700.000 Facebook-Nutzern berichtet wird:

Kramer, A. D. I., Guillory, J. E., & Hancock, J. T. (2014). Experimental evidence of massive-scale emotional contagion through social networks. PNAS, 111(24), 8788–8790. doi:10.1073/pnas.1320040111

Die Autoren haben im Januar 2012 eine Woche lang die Nachrichten, die man über die Aktivitäten seiner Freunde erhält (der sogenannte “News-Feed”), so manipuliert, dass entweder positive oder negative Nachrichten in unterschiedlichem Ausmaß herausgefiltert wurden (bis zu jeweils 90%). Dadurch konnten sie zeigen, dass Benutzer mit überwiegend schlechten Nachrichten im Vergleich zu einer normalen Kontrollgruppe nicht-manipulierter Personen dann selbst verstärkt schlechte Nachrichten in FB eingestellt haben und umgekehrt (siehe Abbildung, aus dem Artikel entnommen). Dieses Phänomen - emotionale Ansteckung - ist nicht neu, aber in diesem Ausmass noch nie untersucht worden.

Es stellen sich einige Fragen, über die es nachzudenken lohnt, bevor man sein (Vor-)Urteil fällt - es ist nicht ganz so eindeutig, wie es in den Medien dargestellt wird, und vor allem sind es aus meiner Sicht andere als die öffentlich diskutierten Punkte, über die man stutzen kann.

1 Darf FB, dürfen die beteiligten Wissenschaftler so etwas machen?

FB und Wissenschaft sind zwei verschiedene Welten mit unterschiedlichen Zielsetzungen und unterschiedlichen Spielregeln. FB darf das sicherlich machen (da laufen ja noch ganz andere Auswertungen im Hintergrund, von denen wir als normale Nutzer nichts wissen), weil alle Benutzer den Geschäftsbedingungen (viele Seiten kleingedruckter Text, den man normalerweise nicht liest) zustimmen mussten. Aber dürfen die beiden mitbeteiligten Wissenschaftler von der Cornell-University (Jamie Guillory und Jeffrey Hancock) das machen? Sie sind an die ethischen Standards ihrer Hochschule gebunden und müssen sich in anderer Weise rechtfertigen als der FB-Mitarbeiter Adam Kramer. Zuständig sind bei Experimenten mit Menschen die “Institutional Review Boards” (IRBs), die lokalen Ethik-Kommissionen, die der amerikanischen “Common Rule” (einer Variante der medizinisch geprägten Deklaration von Helsinki) unterworfen sind.

Tatsächlich sind die unfreiwilligen Teilnehmer nicht über das sonst übliche Maß hinaus mit News belästigt wurden; man hat ihnen auch keine falschen oder unnötig harten Nachrichten präsentiert, sondern den ganz normalen Gang der Dinge ein wenig beeinflusst durch selektives Filtern.

2 Liegt ein Verstoß gegen ethische Prinzipien vor?

Zumindest in der psychologischen Forschung ist es inzwischen Standard, vor Beginn eines Experiments eine informierte Einwilligung (”informed consent”) einzuholen, in der eine einwilligungsfähige Testperson über das geplante Geschehen aufgeklärt und informiert wird, um dann durch ihre Unterschrift ihr Einverständnis zu erteilen. Ein Teil dieser Zustimmung sieht auch vor, dass jederzeit ohne Angabe von Gründen und ohne weitere Nachteile die Experiment-Teilnahme abgebrochen werden kann. Allerdings gibt es Ausnahmen von dieser Regel, z.B. im Fall notwendiger Täuschung der Teilnehmer - eine Ausnahme, die sehr gut begründet werden muss und die auf gar keinen Fall von der anschließenden Aufklärung über die durchgeführte Massnahme entbindet. Die anschließenden Aufklärung ist immer notwendig (und im vorliegenden Fall unentschuldbar unterblieben).

Im vorliegenden Fall wird argumentiert, der bei FB angestellte Erstautor habe die Daten rechtmäßig (auf der Basis der FB-Geschäftsbedingungen) gesammelt, die beiden Cornell-Wissenschaftler hätten dagegen nur die bereits vorliegenden Daten ausgewertet und seien daher nicht der Common Rule zu unterziehen. Spitzfindig, oder?

3 Ist bei dieser Untersuchung etwas Neues herausgekommen?

Natürlich ist der Effekt emotionaler Ansteckung nicht neu, eigentlich sogar steinalt: den Begriff der Gefühlsansteckung prägte wohl der Philosoph und Psychologe Max Scheler bereits im Jahr 1914. Heute wird - vermutlich fälschlich! - der neuronale Mechanismus dafür in den Spiegelneuronen vermutet.

Warum also noch ein Experiment zu altbekannten Phänomenen hinzufügen? Neu ist es, diesen Effekt in einem “social media”-Kontext am Werk zu sehen. Das unterstreicht die ökologische Validität des Phänomens. Aber dies ist wohl die einzige Neuigkeit, die ich erkennen kann - aus theoretischer Sicht keine wirklich neue Perspektive.

4 Brauchte es für diese Untersuchung 700.000 (un)freiwillige Testpersonen?

In allen experimentellen Wissenschaften versucht man, mit möglichst wenig Aufwand möglichst effektive Aussagen zu erreichen. In kritischen Bereichen wie z.B. Pharma-Experimenten oder neuartigen Operationstechniken wird sogar während der Datenerhebung fortlaufend überwacht, ob ein Abbruch gerechtfertigt oder gar nötig ist, wenn z.B. Nebenwirkungen eines neuen Präparats so schwerwiegend sind, dass weitere Datensammlungen nicht zu verantworten wären (die sequentielle Statistik nach Wald, 1945, wurde zu Kriegszeiten entwickelt, als die Ressourcen knapp waren).

Nun stehen benötigte Teilnehmerzahlen immer in Abhängigkeit von der vermuteten Stärke des Effekts: kleine Effekte zeigen sich verläßlich erst bei größeren Stichproben, starke Effekte zeigen sich schon in kleinen Fallzahlen. Berechnet man als kleiner Statistiker mit Neyman-Pearson-Hintergrund nun mit Hilfe des großartigen, frei zugänglichen Programms G-Power den benötigten Stichprobenumfang für einen t-Test mit Standard-Irrtumswahrscheinlichkeiten Alpha=0.05 und Beta=0.95 sowie einer Effektstärke d=0.02 (eine der empirisch gefundenen Effektstärken), erfährt man, dass ein Stichprobenumfang von N=4.330 zum Test dieser Hypothese ausreichen würde. Die Differenz zwischen der benötigten und der verwendeten Teilnehmerzahl (N= 689.003) ist beachtlich, sozusagen 684.673 Teilnehmer zuviel! Gut, dass diese Teilnehmer kein Honorar erwartet haben (in DFG-geförderten Projekten ist übrigens heutzutage ein Stundenlohn in der Höhe des Mindestlohns Standard).

5 Gibt es Schwächen in der Durchführung oder Auswertung dieser Arbeit?

Ein interessanter Aspekt liegt in der technischen Auswertung des News-Feed (der eigentlichen Nachrichten also). Insgesamt wurden  >3 Millionen Posts ausgewertet, in denen >122 Millionen Wörter vorkamen, davon waren 4 Millionen positive (3.6%) und 1.8 Millionen negative (1.6%) Wörter. Etwa 94,8% der Wörter in den Posts waren neutral! Wow! Langweilig?

Ausgewertet wurden diese Wort-Corpora mit einem Werkzeug namens LIWC (Linguistic Inquiry and Word Count) von James Pennebaker und Mitarbeitenden. Dieses zählt die Häufigkeiten der Überstimmungen aufgetretener Wörter mit Listen vordefinierter positiver und negativer Wörter bzw. Wortstämme (ca. 1000 sind in der Referenzliste erfasst). Das ist schön, aber übersieht leider alle Spielarten von Ironie (”Heute war aber ein schöner Tag - alles schiefgegangen…” - zählt positiv) und Negation (”nicht schlecht, dieses Spiel” - zählt negativ). Das erzeugt Rauschen in den Daten, vielleicht kein Wunder, dass so kleine Effekte auftraten.

[Prüft man übrigens bei http://www.analyzewords.com/index.php mal die LIWC-Analyse meiner eigenen Tweets unter meinem Twitter-Account "jofu01", werden meinen letzten 819 Twitter-Wörter (Stand: 3.7.2014) als depressiv (41) und arrogant/distant (71) bewertet; nach meinem Dafürhalten nicht sehr valide :-) ]

6 Was lernen wir aus der ganzen Sache?

Ein pädagogischer Sekundärnutzen der Debatte ist die wiederholte Erkenntnis über FB-Praktiken, die aus Sicht des Unternehmens nachvollziehbar sind, aber trotzdem bedenkliche Folgen haben können (wie sehr manipuliert FB seine Nutzerinnen und Nutzer?).

Wir lernen aber auch, nicht vorschnell in die Falle zu tappen und jede FB-Aktivität als unethisch abzutun, sondern genau hinzuschauen: In ethischer Hinsicht unverzichtbar (und unverzeihlich) ist für mich die fehlende Aufklärung im Anschluß an die Untersuchung. Fraglich ist die Größe der Stichprobe, problematisch ist die “blinde” Wortzählung.

Und wir lernen, dass Experimente mit Menschen auch dann ethische Probleme aufwerfen können, wenn man nur ganz geringfügig manipuliert - knapp 700.000 Mini-Manipulationen summieren sich dann doch auf!

Ein letzter Punkt: Wie gut, dass es FB gibt! Dort kann ich einen Link auf diesen Bericht jetzt nämlich posten :-)

PS: Hier ein noch paar weiterführende Links zu Debatten-Beiträgen (mit Dank an Matthias Blümke und Daniel Holt, nicht nur für die Links!):

Symphonien komponieren – aber richtig!

Von unserer Honorarprofessorin Lenelis Kruse erhielt ich folgenden amüsanten Text (Quellenangabe am Ende), der die Business-Perspektive im Hochschulbereich karikiert:

Ein erfolgreicher Controller bekommt von Vorstandskollegen zum Geburtstag eine Konzertkarte für Schuberts „Unvollendete“ geschenkt. Sie fragen ihn später, wie es war. Er zückt seine Notizen und präsentiert folgende Analyse:

„Erstens waren die meisten Spieler trotz voller Bezahlung beträchtliche Zeit wenig ausgelastet oder völlig unbeschäftigt, besonders die Bläser mit den dicken Holzrohren und die Schlagwerke. Hier ließen sich Verschlankungen vornehmen, indem deren Aufgaben auf das ganze Team umgelegt würden, um Spitzenbelastungen abzufedern und unproduktiven Leerlauf zu unterbinden.

Zweitens spielten fast immer mehrere Instrumente die gleichen Noten. Hier liegt eine dysfunktionale, unübersichtliche Doppelung von Aufgabenstrukturen vor, die Beschäftigtenzahl könnte drastisch vermindert und das Management entlastet werden. Sollte das Produkt zur Markenplatzierung oder Qualitätssicherung wirklich größere Lautstärke erfordern, wäre der Einsatz von Verstärkern eine kostengünstige Lösung.

Drittens wurden mehrfach gleiche Tonfolgen von anderen Instrumenten wiederholt. Solche Wiederholungen bereits bearbeiteter Passagen sind überflüssig. Durch Rationalisierung redundanter Teilwerke ließe sich das Stück um schätzungsweise 30% verkürzen. Die intensivierte Arbeitsplatzformulierung wäre für die Mitarbeiter eine motivierte Herausforderung. Infolge Preiselastizität würde die Nachfrage sich erhöhen, eine verdichtete Platzierung mehrerer Stücke im selben Konzert wäre möglich. Hierdurch bestehen neue Marketing-Chancen (Package-Angebote). Beschleunigte Herstellungsprozesse lassen sich durch leistungsorientierte Ergebnisbeteiligung stützen, besonders für den Dirigenten.

Viertens fordert die Herstellung und Einhaltung der Halb- und Gleittöne erheblichen Aufwand. Diese überflüssige Verfeinerung ließe sich durch regelmäßige Aufrundung auf den nächsten vollen Ton einsparen. Die Maßnahme würde auch den Einsatz von Angelernten und Subunternehmern anstelle hochbezahlter Fachkräfte ermöglichen und die Lohnnebenkosten senken.

In Anbetracht der strukturellen Defizite seiner Arbeitsweise hätte der Komponist bei professionellem Management oder kompetenter Beratung seine Arbeit wahrscheinlich vollenden können.“

[Quelle: Editorial der "Zeitschrift für Politische Psychologie" 1998, 6 (3), 265]

Abschied von Frank Stahr

Berliner Preis für Zivilcourage

Heute, am 22.6.2014, wurde der Berliner Preis für Zivilcourage an den 31jährigen Whistleblower Edward Snowden vergeben. Das Preisgeld von 10.000 € wurde von 123 Spendern aufgebracht, die - auf die Initiative von Jürgen Hofmann und Alexander Richter hin – jeweils 100€ in den Topf gelegt haben. Einer der Festredner bei der Preisverleihung in Berlin (im Mauer-Panorama am Checkpoint Charlie) war MdB Hans-Christian Ströbele. Der Preis liegt bereits in Händen des Preisträgers! Edward Snowden hat sich nach Angaben der beiden Initiatoren über die Ehrung außerordentlich gefreut, offenbar besonders wegen ihres Bürgerinitiativ-Charakters.

Warum ich bei dieser Aktion mitgemacht habe? Ich sehe die Aktivität von Snowden als Wendepunkt einer öffentlichen Debatte um die Zulässigkeit von Abhörmassnahmen! Snowden hat uns in aller Deutlichkeit gezeigt, wie sehr unsere Privatsphäre diesen Begriff nicht mehr verdient. Autonomie und Freiheit sind zentrale Konzepte auch aus psychologischer Sicht - Misstrauen und Heimlichkeit sind keine Prinzipen, für die wir uns stark machen.

Zivilcourage: Eine Eigenschaft von Menschen, eigene Interessen zurückzustellen zum Wohl der Gemeinschaft oder einzelner Personen, aus Überzeugung heraus für bestimmte Werte einzutreten, sich nicht von Autoritäten einschüchtern zu lassen. Die Zivilcourage von Snowden ist beachtlich, da er sein gesamtes Leben für die Veröffentlichung der Abhördetails aufs Spiel gesetzt hat. In demokratischen Gesellschaften sollten wir auf diese Eigenschaft stolz sein und sie unterrichten und fördern. Auch Julian Assange fällt als Whistleblower in diese Kategorie. Mehr psychologische Forschung zu diesem Konstrukt wäre auch wünschenswert!

Ein Zitat von Edward Snowden: “Jeder Mensch kann sich an einen Augenblick in seinem Leben erinnern, wo er Zeuge größerer oder kleinerer Ungerechtigkeiten war – und wo er wegschaute, weil sein Eingreifen ihm zu bedrohlich erschien. Aber es gibt eine Grenze für das Ausmaß an Zumutungen, an Ungleichheit und Inhumanität, die ein Individuum ertragen kann. Diese Grenze habe ich überschritten. Und ich bin nicht allein.”

Dass wir heute sensibilisiert sind gegenüber möglichen Abhörmassnahmen und entsprechende Vorsorge und Abwehr betreiben können, haben wir Snowden zu verdanken, der das ganze Ausmaßs dieser außer Kontrolle geratenen Überwachung deutlich werden ließ. Dafür gebührt ihm Dank und Ehre - und ein Preis, der diese Anerkennung dokumentiert! Schade, dass ich zum Festakt nicht nach Berlin fahren konnte.

Kandidatur zum Senat

Fast vier Jahre (seit Oktober 2010) bin ich nun im akademischen Senat der Universität Heidelberg als Wahlsenator aktiv gewesen - im Oktober beginnt eine neue Wahlperiode und daher musste ich mich jetzt der Frage stellen, ob ich noch einmal antreten möchte. Die Wahlsenatoren (8 Professoren) spielen eine besondere Rolle im Senat: im Unterschied zu den 12 Dekanen sind die Wahlsenatoren frei in ihrem Urteil - die Dekane müssen die Interessen ihrer Fakultät vertreten, die Wahlsenatoren dagegen sollten die gesamte Universität im Auge behalten und nicht nur ihre Heimat-Fakultät.

Ein Blick auf das frontal sitzende Rektorat (2011) im Senatssaal unterhalb der Alten Aula - die Kaffeetasse ist ein wichtiges Requisit langer Sitzungen.

Als Wahlsenator habe ich den Eindruck, mit meinen Äußerungen und Voten etwas bewirken zu können: Wir haben z.B. die Kriterien für die Vergabe von außerplanmäßigen Professuren diskutiert und verbessert; wir haben in Berufungsverfahren noch strengere Kriterien für unabhängige Gutachten und für die Zusammensetzung der Kommissionen festgelegt; wir haben das Rektorat im Zuge der Exzellenzinitiative unterstützt; wir geben dem Rektor Unterstützung bei seinen Verhandlungen im Stuttgarter Ministerium.

Da ich zugleich neben dem Dekan der Medizinischen Fakultät, Claus Bartram, einer der beiden Senatssprecher bin, war ich bedingt durch dieses Amt aktiv an der Auswahl des Rektors (Wiederwahl von Rektor Bernhard Eitel; zweite Amtszeit ab 1.10.2013 bis 09/2019) und der Kanzlerin (Wahl von Dr. Angela Kalous als Nachfolgerin von Dr. Marina Frost ab 1.9.2012 bis 08/2018) beteiligt. Auch bei der Nomination von Universitätsratsmitgliedern waren wir zwei Senatssprecher aktiv involviert. In Absprache mit Rektorat und Verwaltung (Kanzlerin) haben wir zudem versucht, Verwaltungsabläufe zu vereinfachen, Ordnungen zu harmonisieren, Satzungen zu verbessern. Generell zeigt sich für mich das Bestreben auf fast allen Seiten, rationale Entscheidungs- und Verwaltungsprozesse zu fördern.

Mein Entschluß zur erneuten Kandidatur bei den anstehenden Wahlen am 8.7.14 für die Amtszeit von Oktober 2014 bis September 2018 ist inzwischen gefallen - ich kandidiere auf der Professorenliste “Initiative / Semper Apertus”, deren Wahlprogramm für hoffentlich viele Kolleginnen und Kollegen akzetable Zielsetzungen verfolgt (die andere Liste ist diejenige der “Ruperto Carola”). Meine Kollegin Birgit Spinath hat sich dankenswerterweise ebenfalls zur Kandidatur auf unserer Liste bereit erklärt.

Sollte ich genügend Stimmen zum Einzug in den Senat bekommen, würde ich mich freuen - falls nicht, freue ich mich über mehr Zeit für andere Dinge, die mir auch wichtig sind! Eine klassische Win-Win-Situation!

Nachtrag 14.7.14: Nach den Wahlergebnissen entfallen auf die Liste “Ruperto Carola” 963 Stimmen (=3 Sitze; gewählt: Prof. Dr. Joachim Kirsch, Medizinische Fakultät Heidelberg; Prof. Dr. Stefan Maul, Philosophische Fakultät; Prof. Dr. Ute Mager, Juristische Fakultät) und auf unsere Liste “Initiative / Semper Apertus” 1347 Stimmen (=5 Sitze; gewählt: Prof. Dr. Peter Comba, Fakultät für Chemie und Geowissen­schaften; Prof. Dr. Hubert Bardenheuer, Medizinische Fakultät Heidelberg; Prof. Dr. Joachim Funke, Fakultät für Verhaltens- und Empirische Kulturwissenschaften; Prof. Dr. Ulrich Schwarz, Fakultät für Physik und Astronomie; Prof. Dr. Birgit Spinath, Fakultät für Verhaltens- und Empirische Kulturwissenschaften). Die Wahlbeteiligung der Professoren ist mit 67.5% sehr gut ausgefallen.

Marsilius-Vorlesung zum Human Brain Project

Am 5.6.14 fand in der vollen Alten Aula die diessemestrige interdisziplinär ausgerichtete Marsilius-Vorlesung statt. Als Gastredner war Felix Schürmann (ETH Lausanne, Schweiz) geladen zum Thema “Wettlauf ums Gehirn? Das europäische Human Brain Project”. In einem interessanten Vortrag erläuterte der Referent zentrale Punkte des Großvorhabens, das die drei Säulen Neuroscience, Neuromedizin und Neurocomputing umfasst (die dritte Säule Neurocomputing wird übrigens massgeblich in Heidelberg durch den Co-PI und Physiker Karlheinz Meier repräsentiert, der im letzten Jahr den Festvortrag auf unserem “Tag der Freunde” hielt).

Das “Human Brain Project” (HBP) ist (neben dem Graphene-Projekt) eines der beiden Flaggschiff-Projekte der EU. Flaggschiff-Projekt bedeutet: ausgewählt in einem mehrjährigen kompetitiven Verfahren, werden unter der Leitung von Henry Markram (dem Erfinder der open-access Plattform “Frontier“) über 100 Arbeitsgruppen aus 24 Ländern zusammenarbeiten. Dafür gibt es verteilt auf 10 Jahre die spektakuläre Fördersumme von 1.000 Millionen Euro! Wow!

[Quelle: http://www.exascale.org/bdec/sites/www.exascale.org.bdec/files/whitepapers/mohr.pdf]

Die Vision von Henry Markram heisst letztlich “understanding the brain” - dabei heisst “Verstehen” hier vor allem Verstehen der bio-neuro-physiologischen Abläufe. Die Vision in eigenen Worten:

The goal of the Human Brain Project is to build a completely new information computing technology infrastructure for neuroscience and for brain-related research in medicine and computing, catalysing a global collaborative effort to understand the human brain and its diseases and ultimately to emulate its computational capabilities. [Quelle: HBP Vision, from https://www.humanbrainproject.eu/]

Die Dringlichkeit des HBP wird vor allem über Krankheiten des Gehirns motiviert, z.B. über Kopfschmerzen oder neurodegenerative Störungen wie Alzheimer, über die man am Ende etwas aussagen und mit einem Computermodell Ansatzpunkte für mögliche Behandlungen finden möchte. Ein Drittel der Europäer sei von hirnbezogenen Krankheiten bedroht, etwa 800 Milliarden Euro Schaden (inkl. Folgekosten) entstünde dadurch jährlich (interessante Quelle: Gustavsson et al., 2011). Zugleich reduzierten die Pharma-Konzerne ihre diesbezügliche Forschung, da die Entwicklungskosten neuer Medikamente im Bereich von 1 Mrd US$ lägen und 9 von 10 Neuentwicklungen scheiterten.

Dieses angestrebte Computermodell baut das Gehirn fast “ab initio” nach (”from genes to cognition”): beginnend mit dem Informationsfluss in Ionenkanälen bis hin zur Erregungsdynamik einzelner Zell-Ensembles “local field potentials“), zunächst als Modell eines Mäusegehirns und in der Schlussphase des 10jährigen Vorhabens auch als Modell eines Menschengehirns.

[Quelle: http://www.exascale.org/bdec/sites/www.exascale.org.bdec/files/whitepapers/mohr.pdf]

Kritikpunkte

Was sind meine Kritikpunkte an dem Großprojekt? Big Science hat eine Reihe von Vorteilen, aber auch deutliche Nachteile. (1) Einer davon ist das “vereinheitlichende Modell”, das alle Beteiligten bindet. Die Grenzen dieses Modells sind die Grenzen des dort Erfahrbaren. Unter Kreativitätsaspekten eine klare Beschränkung! Hier wären 1.000 Grassroot-Projekte mit ganz heterogenen Ansätzen im Vorteil, mit einem dieser Ansätze einen wirklichen Durchbruch zu erreichen. Verdrängt normierte BigScience kreative MiniScience? Brauchen wir viele Davids oder einen Goliath?

(2) Ein anderes Problem ist die Kooperation durch gemeinsame Publikationen - gerade für jüngere Wissenschaftler ist im gegenwärtigen System eine Erstautorenschaft attraktiv. Bei >1000 Beteiligten ist der individuelle Anteil schwer auszumachen. Wird am Ende der Egoismus einzelner Wissenschaftler siegen? Berufen werden am Ende immer einzelne herausragende Personen, nicht die ganze Gruppe.

(3) Dass man sich zunächst auf die Modellierung eines Mäusegehirns beschränkt, hat forschungsethische Gründe: Am Mäusegehirn können Dinge gemacht werden, die wir am Menschengehirn aus ethischen Gründen nicht zulassen können. Aber inwiefern die anschließend geplante Übertragung vom Mäuse- auf das Menschengehirn wirklich einen validen Schluss erlaubt, wird zu zeigen sein. Ich kenne eine Reihe von Vorhaben, bei denen dieser Transfer erhebliche Probleme bereitet hat.

(4) Eine Modellierung des Gehirns “from scratch” oder “ab initio” ist dieser Forschungansatz nicht wirklich! Hierfür wäre ein Entwicklungsmodell erforderlich, das zunächst den Aufbau des Gehirns (und dann dessen späteren Abbau) beschreibt. Die jetzige Statik befriedigt mich nicht. Gerade in der Interaktion mit einer Umwelt, die spezielle Reize zur Verarbeitung bietet und bestimmte Verarbeitungsmechanismen zur erfolgreichen Bewältigung fordert (Stichwort “Heuristiken”), kann die Entwicklung solcher Systeme von großer Bedeutung sein. Es ist ja bedeutsam, dass ausgerechnet bei Primaten über viele Lebensjahre hinweg in intensiver Bindung von Eltern und Kind die Hirnentwicklung begleitet wird.

(5) Der Einbezug der Umwelt und die Berücksichtigung sozialer Faktoren: Wer das Gehirn als “Beziehungsorgan” sieht (wie unser Heidelberger Kollege Thomas Fuchs das vorschlägt), muss den hier vollzogenen Reduktionismus ebenfalls kritisch sehen. Dass bestimmte Strukturen des Gehirns im sozialen Austausch (nicht zuletzt dank Sprache) entstehen, wird man nicht erkennen können, wenn man nur das nackte Gehirn für sich betrachtet. Embodied Cognition geht anders! Das Gehirn ist - anders als Herz oder Leber - ein “soziales” Organ.

(6) Zugänglichkeit der Daten: Alle in diesem Vorhaben erhobenen Daten sollen auf insgesamt sechs Plattformen (Neuroinformatics, Brain Simulation, High-Performance Computing, Medical Informatics, Neuromorphic Computing, Neurorobotics) zugänglich gemacht werden. Allerdings dürfte es nur wenigen Forschergruppen möglich sein, die großen Datenmengen angemessen weiter zu verarbeiten - hier warten womöglich Pharma-Konzerne auf ihre Stunde. In den USA wartet übrigens das Militär (die DARPA, die die amerikanische Hirnforschung grosszügig unterstützt) ganz unverhohlen auf diese Entwicklung :-)

(7) Reproduzierbarkeit: Angeblich soll es gerade in Großprojekten wie diesem die Chance zur Überprüfung von Ergebnissen durch andere Forscher geben. Das scheint mit Blick auf ein anderes Großprojekt CERN (der Large Hadron Collider in Genf) fraglich: Welche unabhängige Forschergruppe hat ein zweites CERN2 zur Verfügung, um die Ergebnisse von CERN1 zu prüfen? Welche andere Hirnforschungsgruppe hat auch nur 10 Millionen zur Hand, um Befunde unabhängig zu replizieren? (Dass es abhängige Replikationen geben wird, ist hoffentlich eine Selbstverständlichkeit, aber psychologische Forschung zeigt, dass da eine erhebliche Differenz - knapp 30% in der Bestätigungsrate - zwischen Selbst- und Fremdprüfung besteht; vgl. Makel, Plucker & Hegarty, 2012).

Bei aller Begeisterung, die gelegentlich aufkommt (ich bin prinzipiell zu begeistern, wenn geforscht wird) - Ich stimme meinen Mitarbeitern zu: Das Human Brain Project ist faszinierend! Allerdings wird umso deutlicher die Notwendigkeit, es um ein Human Mind Project zu erweitern! Schade, dass dafür so schnell keine 1.000 Millionen Euro aufzutreiben sind…

PS: Der Vortragstitel “Wettlauf ums Gehirn” spielt darauf an, dass nur wenige Wochen nach der Bekanntgabe der EU-Entscheidung über das Flaggschiff-Projekt der EU Präsident Barack Obama in den USA ein amerikanisches Riesenprojekt unter dem Titel “Brain Research through Advancing Innovative Neurotechnologies (BRAIN)” gestartet hat - Wert: allein im ersten Jahr 2014 >100 Mio US$, neben anderen Hirn-Großprojekten wie OneMind, Allen Institute und Human Connectome. Australien möchte da nicht fernbleiben und startet mit AUSbrain seine eigene Initiative mit angeblich 250 Mio AUS$. Andere große Nationen sind angeblich ebenfalls in den Startlöchern.

siehe auch meine Blog-Einträge zu früheren Marsilius-Vorlesungen:

2013 Marsilius-Vorlesung mit Onur Güntürkün  “Evolution des Denkens”

2012 Marsilius-Vorlesung mit Edna Foa über posttraumatische Belastungsstörungen

2011 Marsilius-Vorlesung mit Gerd Gigerenzer: Denken lernen! Sapere aude!

2010 Marsilius-Vorlesung SS 2010 mit Jörg Widmen zur Kreativität

2009 Auftaktveranstaltung zum Marsilius-Projekt “Climate Engineering” mit David Keith

2009 Marsilius-Vorlesung mit Dieter Grimm zum Thema “Kunstfreiheit”

2008 Auftaktveranstaltung des Marsilius-Kollegs mit Günter Blobel zur “Zelle als Kunstwerk”

Nachtrag 19.6.14: Das Interview von Janina Schuhmacher mit Felix Schürmann und mir ist in “Ruprecht” (Nr 150) erschienen.

Nachtrag 9.7.14: Am 7.7.2014 haben führende Neurowissenschaftler Kritik am HBP vorgetragen und die EU aufgefordert, nach Abschluss der Startphase eine kritische Zwischenevaluation vorzunehmen. Die Kritik in Form eines offenen Briefs an die Europäische Kommission findet sich hier: http://www.neurofuture.eu/

Neues zur Empirischen Bildungsforschung

Meine Kollegin Birgit Spinath hat ein neues Buch unter dem Titel “Empirische Bildungsforschung: Aktuelle Themen der Bildungspraxis und Bildungsforschung” herausgegeben (erschienen im Springer-Verlag). In 10 Kapiteln nehmen bekannte Vertreterinnen und Vertreter des Faches in Interviews mit fortgeschrittenen Studierenden Stellung zu so spannenden Fragen wie “Sind Jungen die neuen Bildungsverlierer?”, “Hat PISA die Schulen besser gemacht?”, “Werden die Deutschen immer dümmer?” oder “Entscheiden sich die Richtigen für ein Lehramtsstudium?”

Neben den Interview-Texten, die mit einführenden Statements und zusätzlichen Quellenangaben versehen sind, gibt es auch jeweils einen Link zu dem vollständigen Interview im Video-Format. Hier als Beispiel der Link zum Interview mit Mareike Kunter (Frankfurt) zum Thema “Brauchen wir eine neue Unterrichtskultur?”: http://tinyurl.com/Kunter01.

Das Schöne daran: Die Aufnahmen sind von fortgeschrittenen Studierenden gemacht worden, die auch die gut vorbereiteten Interviews durchgeführt haben. Das gibt dem Buch und vor allem dem begleitenden Filmmaterial eine hohe Authentizität.

Liebe Birgit: Ein schönes Buch, das Ihr da produziert habt! Ich wünsche dem Buch die ihm gebührende Aufmerksamkeit und gute Verkaufszahlen!

Spinath, B. (Ed.). (2014). Empirische Bildungsforschung. Aktuelle Themen oder Bildungspraxis und Bildungsforschung. Heidelberg: Springer-Verlag. [Link zur Verlagsseite]

Spiegelneuronen richtig verstehen

Seit der Entdeckung der Spiegelneuronen im Jahr 1992 durch Giacomo Rizzolatti und seine Mitarbeiter ist ein regelrechter Hype entstanden: Endlich sei die neuronale Grundlage unseres menschlichen Sozialverhaltens gefunden, endlich seien die neuronalen Korrelate von Handlungsverstehen und Imitation gefunden. Das Spiegelneuronensystem beim Menschen bringt man mit „action recognition“ (Wiedererkennung von Handlungen) und Imitation in Verbindung. Die wesentlichen Entdeckungen wurden bei Makaken (=Affen) beschrieben.

Alina Steinhorst und ich stehen diesem Hype skeptisch gegenüber, da eine ganze Reihe vereinfachender Annahmen darüber gemacht werden, was “Verstehen” bedeutet (an der Wirkstätte von Hans-Georg Gadamer nehmen wir es eben etwas genauer mit dem Begriff des Verstehens). Unser Hauptkritikpunkt: Es werden Aussagen über Handlungsverständnis gemacht, ohne dass Handlungsverständnis erhoben wird (was Affen – die wesentlichen Versuchstiere – “verstehen”, wissen wir beim besten Willen nicht). Dadurch, dass Spiegelneuronenaktivität als Indikator für Handlungsverständnis („von innen heraus“) genommen wird, wird die Argumentation tautologisch und die Modelle qualifizieren sich nicht als wissenschaftliche (falsifizierbare) Theorie.

Der Zirkelschluss führt zu einem reduktiven Verständnisbegriff, der der Natur der Sache nicht gerecht wird und auch nicht gerecht werden kann, solange “Verständnis” nicht als abhängige Variable in den Experimenten erhoben wird. Selbst wenn Handlungsverständnis erhoben würde, würde die Operationalisierung ohne die Verwendung von Begriffen über mentale Zustände (”theory of mind”) ein unüberwindbares Problem darstellen.

Fazit: Die These, dass Spiegelneuronenaktivität notwendig für Handlungsverständnis sei, ist experimentell nicht belegt – und ohne die Verwendung von Begriffen über mentale Zustände auch nicht belegbar. Das Konzept „Verständnis“ muss daher wieder reichhaltiger gestaltet werden.

Hier sind unsere Überlegungen dazu (kurz und knapp auf 4 Seiten verdichtet) nachzulesen: Steinhorst, A., & Funke, J. (2014). Mirror neuron activity is no proof for action understanding. Frontiers in Human Neuroscience, 8(333), 1-4. doi: 10.3389/fnhum.2014.00333 (Open Access)

Nachtrag 29.5.14: ein französischer Blog-Eintrag zu unserer Arbeit: “Apprend-on vraiment avec les neurones miroirs?