13.05.2026
Wissenschaft, die vor lauter Signifikanz die Relevanz vergisst,
gleicht einem Kompass, der zwar perfekt nach Norden zeigt,
aber ignoriert, dass man bereits im Treibsand steht.
der Blogger
Dieses Kapitel kritisiert nicht Wissenschaft an sich, sondern bestimmte Vorgehensweisen, mit denen wissenschaftliches Arbeiten in sein Gegenteil verkehrt werden kann. Die zentrale These lautet, dass Methoden, die eigentlich der Erkenntnisgewinnung dienen sollen, in der Praxis häufig dazu benutzt werden, gewünschte Ergebnisse zu erzeugen, unpassende Befunde zu verschleiern oder unbequeme Erkenntnisse zu ignorieren. Am Beispiel der Lichttechnik zeigt der Autor, wie aus einzelnen wahren oder plausiblen Aussagen weitreichende Behauptungen konstruiert werden, die wissenschaftlich klingen, aber oft weder sauber begründet noch für den jeweiligen Anwendungsbereich hinreichend belegt sind.
Zu Beginn wird erläutert, dass sogenannte „science faction“ besonders problematisch ist: Dabei werden unstrittige Fakten mit Vermutungen, Plausibilitäten und Deutungen vermischt, bis am Ende der Eindruck eines wissenschaftlichen Nachweises entsteht. Aus einfachen, nachvollziehbaren Beobachtungen wird schrittweise eine große Behauptung abgeleitet, etwa dass mehr Beleuchtungsstärke automatisch gesünder, leistungsfördernder oder weniger ermüdend sei. Der Einwand des Autors lautet, dass Plausibilität noch kein Beweis ist und dass solche Argumentationsketten häufig gerade deshalb überzeugen, weil ihre einzelnen Bestandteile nicht völlig falsch wirken.
Ein zentrales Angriffsziel ist das sogenannte P-Hacking. Der Autor beschreibt damit die Praxis, aus Daten so lange passende Ausschnitte, Vergleiche oder Versuchsanordnungen herauszusuchen, bis ein statistisch signifikantes Ergebnis erscheint. Kritisiert wird vor allem, dass statistische Signifikanz häufig fälschlich als inhaltliche Bedeutung verstanden wird. Ein Ergebnis kann rechnerisch signifikant sein und trotzdem wenig über die eigentliche Praxis aussagen. Darüber hinaus zeigt der Text, dass mit genügend großer Fallzahl auch sehr kleine Unterschiede signifikant werden können. Dadurch entsteht die Gefahr, dass gewünschte Aussagen als wissenschaftliche Erkenntnisse verkauft werden, obwohl ihre Relevanz unklar bleibt.
An mehreren Beispielen aus der Licht- und Arbeitsmedizin wird verdeutlicht, wie problematisch dieser Umgang mit Signifikanz sein kann. So verweist der Autor auf Studien und Leitlinien, in denen statistisch starke Effekte behauptet werden, ohne dass die zugrunde liegenden Ursachen ausreichend erklärt werden. Besonders scharf kritisiert er Versuche, aus Untersuchungen in speziellen Umgebungen, etwa psychiatrischen Einrichtungen oder medizinischen Sondersituationen, allgemeine Aussagen über die gesundheitliche Wirkung von Beleuchtung im Alltag oder am Arbeitsplatz abzuleiten. Der Vorwurf lautet, dass hier häufig von Spezialfällen auf völlig andere Kontexte geschlossen wird, ohne die Übertragbarkeit der Ergebnisse ernsthaft zu prüfen.
Ein weiteres Muster sieht der Autor im HARKing, also im nachträglichen Formulieren einer Hypothese, nachdem die Ergebnisse bereits bekannt sind. Wer so vorgeht, erweckt den Eindruck, eine Untersuchung habe von Anfang an eine klare theoretische Grundlage gehabt, obwohl die Deutung erst im Nachhinein passend gemacht wurde. Ergänzt wird dies durch das sogenannte SHARKing, bei dem missliebige Hypothesen oder ganze Projekte stillschweigend verschwinden, wenn sich die erhofften Resultate nicht einstellen. Beide Praktiken verfälschen nach Ansicht des Autors den wissenschaftlichen Prozess, weil sie Misserfolge und Unsicherheiten unsichtbar machen, obwohl gerade diese für echten Erkenntnisfortschritt wichtig wären.
Besonders wirksam erscheint dem Autor jedoch nicht die Manipulation von Daten, sondern das Ignorieren von Wissen. Er argumentiert, dass in der Lichttechnik viele ältere, gut begründete Erkenntnisse nicht deshalb verdrängt wurden, weil sie widerlegt worden wären, sondern weil sie nicht in aktuelle technische, wirtschaftliche oder gestalterische Interessen passten. An Beispielen aus Architektur, Normung und Blendungsforschung zeigt er, dass bekannte Probleme über Jahrzehnte nicht konsequent aufgegriffen wurden. Dasselbe gelte für das Thema Flimmern: Beschwerden von Betroffenen seien lange abgewiesen worden, obwohl sich später zeigte, dass die Störung real ist und gesundheitliche Folgen haben kann. Für den Autor ist dies ein Beleg dafür, dass wissenschaftliche oder technische Gemeinschaften unbequeme Tatsachen oft nicht aktiv widerlegen, sondern schlicht an ihnen vorbeiarbeiten.
Als besonders tief liegendes Problem beschreibt der Text die mangelnde Validierung. Gemeint ist die Frage, ob eine gemessene Größe, ein Versuch oder ein Modell tatsächlich das erfasst, was inhaltlich behauptet wird. Der Autor macht deutlich, dass dies keine rein theoretische Frage ist, sondern praktische Folgen hat: Wenn ein Messwert nicht valide ist, kann ein ganzes System auf falschen Annahmen beruhen. An Beispielen aus der Kerntechnik, der Beleuchtung, der Blendungsbewertung und der Leistungsforschung zeigt er, dass zwischen physikalischer Messgröße und menschlicher Wahrnehmung oder praktischer Wirkung oft keine einfache, direkte Beziehung besteht. Gerade in der Lichttechnik wird aber häufig so getan, als ließen sich komplexe Wirkungen mit wenigen linearen Größen eindeutig erfassen.
Daran schließt die Kritik an dem unscharfen Begriff der Lichtqualität an. Der Autor bemängelt, dass die Lichttechnik zwar ständig von Qualität, Wohlbefinden, Sehkomfort, Sicherheit und Wirtschaftlichkeit spreche, aber keine klaren und überprüfbaren Kriterien formuliere, nach denen sich die Qualität einer Beleuchtung tatsächlich bestimmen ließe. Solange der Zweck einer Beleuchtung nicht präzise festgelegt sei, bleibe auch unklar, woran ihre Güte gemessen werden soll. Dadurch wird es möglich, sehr verschiedene und teils widersprüchliche Anforderungen miteinander zu vermischen und dennoch den Eindruck einer objektiven Bewertung zu erzeugen.
Am Ende unterscheidet der Autor grundsätzlich zwischen Wissenschaft und Technik. Wissenschaft ziele darauf ab, Wissen dauerhaft zu gewinnen, Irrtümer offen zu legen und Erkenntnisse nachvollziehbar einzuordnen. Technik hingegen arbeitet oft unter Innovations-, Markt- und Verbesserungsdruck; dort genügt es häufig, dass etwas besser funktioniert als zuvor, auch wenn es noch unvollkommen ist. Diese Logik erklärt für den Autor manche Fehlentwicklungen, entschuldigt sie aber nicht.
Die Gesamtbotschaft des Kapitels ist, dass gerade in einem anwendungsnahen Feld wie der Lichttechnik wissenschaftliche Begriffe, statistische Methoden und normative Aussagen mit besonderer Sorgfalt behandelt werden müssten. Andernfalls entsteht eine Scheinwissenschaft, die mit dem Anschein von Exaktheit arbeitet, ohne die Voraussetzungen echter wissenschaftlicher Erkenntnis einzulösen.
.
13.05.2026
Die Zukunft soll man nicht voraussehen wollen,
sondern möglich machen.
Antoine de Saint-Exupéry
Das Kapitel untersucht, wie stark Vorstellungen aus den 1920er Jahren das heutige Denken über Licht, Beleuchtung und gute Sehbedingungen noch immer prägen.
Im Mittelpunkt steht die Kritik, dass viele Grundannahmen der Lichttechnik zwar den Anschein von Genauigkeit und Wissenschaftlichkeit haben, aber bis heute nur unzureichend erklären, was Menschen tatsächlich für gutes Sehen, angenehmes Arbeiten und räumliches Wohlbefinden benötigen.
Es wird gezeigt, dass zentrale Begriffe und Messgrößen – etwa zur Definition von Licht, zur Beleuchtungsstärke oder zur Wirkung von Blendung – historisch gewachsen sind und oft weiterverwendet werden, obwohl ihre Aussagekraft begrenzt oder ihre Grundlagen umstritten sind.
Ausführlich wird beschrieben, dass Normen und technische Standards häufig auf vereinfachten Modellen beruhen, die sich gut messen und vereinheitlichen lassen, aber den menschlichen Wahrnehmungsbedingungen nicht immer gerecht werden. An Beispielen wie Ermüdung, der Frage nach der „richtigen“ Lichtmenge, direkter und indirekter Beleuchtung, Tischleuchten sowie der Forderung nach gleichmäßiger Helligkeit macht der Text deutlich, dass viele heute selbstverständliche Regeln nicht das Ergebnis gesicherten Wissens sind, sondern oft auf tradierten Annahmen, industriellen Interessen oder normativen Festlegungen beruhen.
Besonders kritisch betrachtet der Beitrag den Widerspruch zwischen technischer Messbarkeit und tatsächlicher Erfahrung: Was in Richtlinien als objektiv und sinnvoll erscheint, kann aus Sicht der Nutzerinnen und Nutzer unpraktisch, unangenehm oder sogar widersprüchlich sein.
Insgesamt versteht sich der Beitrag als grundsätzliche Kritik an einer Beleuchtungskultur, die über Jahrzehnte hinweg ihre eigenen Maßstäbe verfestigt hat, ohne sie ausreichend an menschlichen Bedürfnissen, architektonischer Qualität und neuen wissenschaftlichen Erkenntnissen zu überprüfen. Der Beitrag plädiert deshalb dafür, Licht nicht nur als eine technisch-physikalische Größe, sondern stärker als menschlich, biologisch und räumlich wirksames Phänomen zu begreifen.
.
13.05.2026
Eine Glühbirne, die nicht brennt, ist ein schlechtes Geschäft.
Aber eine Glühbirne, die ewig brennt, ist ein noch schlechteres.
ein Experte, der nicht genannt werden will
Das Kapitel setzt sich mit der Lebensdauer von Leuchtmitteln auseinander, aus der die Hersteller ein großes Geheimnis machen.
Die Lebensdauer von Leuchtmitteln ist keine eindeutig feststehende Größe, sondern hängt von technischen Kriterien, Betriebsbedingungen und statistischen Verfahren ab. Diese Verfahren unterscheiden sich erheblich voneinander.
In der Darstellung eines bekannten Herstellers liest sich das Ganze folgendermaßen: „Für LED-Leuchten ist keine einheitlich gebräuchliche Definition der Lebensdauer - sei es eine „Nennlebensdauer” oder eine „wirtschaftliche Lebensdauer” - etabliert. Stattdessen ist es üblich, die „mittlere Bemessungslebensdauer” auszuweisen, die sich auf einen spezifizierten Grad der Lichtstromdegradation bezieht.“
Das Kapitel zeigt, dass sich der Begriff je nach Leuchtmittel stark unterscheidet: Bei Glühlampen wurde Lebensdauer meist über die Ausfallrate bestimmt, bei Entladungslampen über den wirtschaftlich sinnvollen Betrieb und den Rückgang des Lichtstroms, etwa als L70 oder L80.
Bei LEDs ist die Bewertung noch komplexer, weil neben dem Lichtstromverlust auch Unterschiede zwischen einzelnen LED-Elementen sowie Totalausfälle berücksichtigt werden müssen, etwa durch Angaben wie L70B10C10F10.
Insgesamt verdeutlicht der Beitrag, dass Herstellerangaben zur Lebensdauer nur im Zusammenhang mit den zugrunde liegenden Definitionen und Einsatzbedingungen sinnvoll verstanden werden können.
.
13.05.2026
Die Zukunft soll man nicht voraussehen wollen,
sondern möglich machen.
Antoine de Saint-Exupéry
Das Kapitel zeichnet die Geschichte des PLACAR-Projekts nach, eines vom Bundesministerium für Bildung und Forschung geförderten Verbundvorhabens zur Entwicklung von Plasmalampen für circadiane Rhythmen.
Ausgangspunkt war die wachsende Einsicht, dass künstliches Licht nicht nur der visuellen Beleuchtung dient, sondern auch biologische Prozesse beeinflusst. Vor allem die Unterdrückung der Melatoninausschüttung durch nächtliches Licht wurde als gesundheitlich problematisch angesehen. Daraus entstand die Idee, künstliche Beleuchtung zeitlich und spektral an den natürlichen Tagesrhythmus des Menschen anzupassen. Gesucht wurde deshalb nach zwei unterschiedlichen Lampentypen: einer „Morgenlampe“ mit höherem Blauanteil zur Förderung von Wachheit und Aktivierung sowie einer „Abendlampe“ mit möglichst geringem Blauanteil, um den abendlichen Anstieg des Melatonins nicht zu stören.
Es zeigte sich jedoch bald, dass die ehrgeizigen Erwartungen des Projekts in der praktischen Umsetzung kaum erfüllt wurden. Zwar sollten die neuen Lampen nicht nur biologisch wirksam, sondern zugleich für Arbeits- und Innenräume geeignet, energieeffizient, farbtreu und langlebig sein; genau an diesen Anforderungen scheiterten die Entwicklungen jedoch weitgehend.
Die als Abendlampen vorgesehenen Natriumdampfhochdrucklampen wiesen sehr hohe Leistungen, eine schlechte oder nur mit erheblichen Kompromissen verbesserbare Farbwiedergabe sowie lange Anlaufzeiten auf und erschienen daher für Wohn- oder Büroräume untauglich. Auch die Morgenlampe bereitete erhebliche Schwierigkeiten: Lichtstromabnahme, Farbdrift und mangelnde Langzeitstabilität machten sie für einen realen Einsatz unattraktiv.
Insgesamt kommt das Kapitel zu einem deutlich kritischen Urteil: Das Projekt wurde trotz anfänglicher Versprechen ohne praktische Folgen beendet, weil die entwickelten Plasmalampen technisch zu unflexibel, zu leistungsstark und letztlich nicht marktfähig waren. Als eigentlich zukunftsfähige Lösung erwies sich stattdessen die LED-Technik, die sich wesentlich besser steuern lässt und die Plasmalampenentwicklung rasch überholte. PLACAR verschwand fast spurlos.
.
10.05.2026
Ein Kartell ist nichts anderes als das Geständnis,
dass man zu unfähig für echten Wettbewerb ist.
der Blogger
Dieses Kapitel untersucht das Phoebus-Kartell als eines der ersten globalen Kartelle der Wirtschaftsgeschichte und ordnet dessen Bedeutung zwischen technischer Standardisierung, Marktregulierung und geplanter Obsoleszenz ein. Im Zentrum steht die Frage, ob die Festlegung einer Lebensdauer von 1.000 Stunden für Glühlampen als verbraucherorientierte Normung oder als wettbewerbsbeschränkende Absprache zu bewerten ist.
Dazu werden zunächst die Begriffe Kartell, Standardisierung und Normung historisch und begrifflich voneinander abgegrenzt. Anschließend zeigt der Beitrag, dass die Bewertung des Phoebus-Kartells nur vor dem Hintergrund der technischen, wirtschaftlichen und messtechnischen Besonderheiten von Leuchtmitteln möglich ist, da die Bestimmung ihrer Lebensdauer und Lichtqualität komplex und historisch stark von industriepolitischen Entscheidungen geprägt war.
Anhand von Archivquellen, zeitgenössischen Berichten und späteren Deutungen wird deutlich, dass Phoebus nicht nur Marktgebiete aufteilte, sondern auch Qualitäts- und Lebensdauervorgaben verankerte. Das Kapitel arbeitet zugleich heraus, dass bereits internationale Normungsinstitutionen im Bereich des Lichts existierten, wodurch die behauptete Notwendigkeit eines solchen Zusammenschlusses kritisch hinterfragt wird.
Abschließend wird das Ende des Kartells sowie der tiefgreifende Wandel der Lichtindustrie skizziert. Insgesamt versteht sich der Beitrag als kritische Einordnung eines industriehistorischen Falls, der bis heute exemplarisch für die Spannungen zwischen Innovation, Standardisierung, Marktbeherrschung und Verbraucherschutz steht.