Główna Światy równoległe. Czego uczą nas płaskoziemcy, homeopaci i różdżkarze

Światy równoległe. Czego uczą nas płaskoziemcy, homeopaci i różdżkarze

0 / 0
Jak bardzo podobała Ci się ta książka?
Jaka jest jakość pobranego pliku?
Pobierz książkę, aby ocenić jej jakość
Jaka jest jakość pobranych plików?
Rok:
2020
Wydawnictwo:
Czarne
Język:
polish
ISBN 13:
9788380499638
Plik:
EPUB, 2,65 MB
Ściągnij (epub, 2,65 MB)

Możesz być zainteresowany Powered by Rec2Me

 

Najbardziej popularne frazy

 
0 comments
 

To post a review, please sign in or sign up
Możesz zostawić recenzję książki i podzielić się swoimi doświadczeniami. Inni czytelnicy będą zainteresowani Twoją opinią na temat przeczytanych książek. Niezależnie od tego, czy książka ci się podoba, czy nie, jeśli powiesz im szczerze i szczegółowo, ludzie będą mogli znaleźć dla siebie nowe książki, które ich zainteresują.
1

我是猫

Rok:
2018
Język:
chinese
Plik:
PDF, 144,98 MB
0 / 0
2

Чума фантазий

Rok:
2012
Język:
russian
Plik:
DJVU, 7,55 MB
0 / 0
Książka, którą nabyłeś, jest dziełem twórcy i wydawcy. Prosimy, abyś przestrzegał praw, jakie im przysługują. Jej zawartość możesz udostępnić nieodpłatnie osobom bliskim lub osobiście znanym. Ale nie publikuj jej w internecie. Jeśli cytujesz jej fragmenty, nie zmieniaj ich treści i koniecznie zaznacz, czyje to dzieło. A kopiując ją, rób to jedynie na użytek osobisty.



Projekt okładki Łukasz Piskorek / Fajne Chłopaki

Projekt typograficzny Robert Oleś / d2d.pl

Fotografie na okładce pochodzą ze strony unsplash.com

Copyright © by Łukasz Lamża, 2020

Opieka redakcyjna Jakub Bożek

Redakcja Ewa Polańska

Korekta Katarzyna Rycko i Katarzyna Barcik / d2d.pl

Redakcja techniczna Robert Oleś / d2d.pl

Skład wersji elektronicznej d2d.pl

ISBN 978-83-8049-969-0





Spis treści


Strony tytułowa

Strona redakcyjna

Wstęp



1 Antyszczepionkowcy

2 Audiofilia ekstremalna

3 Chemtraile

4 Homeopatia

5 Irydologia

6 Kreacjonizm młodoziemski

7 Płaska Ziemia

8 Radiestezja

9 Strukturyzacja i pamięć wody

10 Powiększanie piersi w hipnozie

11 Wysokie dawki witaminy C

12 Zaprzeczanie globalnemu ociepleniu

13 Żywa woda, surowa woda



Bibliografia

Przypisy końcowe

Przypisy

Kolofon





Wstęp


Pseudonaukę, medycynę alternatywną i wszelkiej maści „podejrzane teorie”, które tak gęsto zaludniają współczesny świat idei, łatwo zbagatelizować. Niektóre z nich – zwłaszcza te najbardziej egzotyczne – wydają się wręcz zapraszać do kpin. Bo jakże inaczej zareagować na obwieszczenie, że Ziemia jest płaska, a światem rządzą gady w człowieczej skórze? Nie ukrywam, że i mnie do pseudonauki ciągnie czasem najzwyklejsza fascynacja tym, co dziwne i niecodzienne. Niektóre poglądy tego typu mieszczą się – w moim prywatnym archiwum idei – w ogólniejszej kategorii zaskakujących przejawów ludzkiej kreatywności, jak szachoboks, laser na komary, wojskowa fotografia lotnicza z użyciem gołębi albo manualizm, czyli sztuka produkowania dźwięków wyłącznie przy użyciu własnych dłoni. Często jestem pytany, dlaczego potrafię siedzieć godzinami, ; czytając o rozmaitych sposobach na utrzymanie przy życiu pingwinów na arce Noego albo o kolejnych dowodach na globalny spisek reptilian. Jak to „dlaczego”? Przecież to jest fascynujące – samo w sobie, po prostu jako jeden z wielu przejawów ducha ludzkiego!

To jednak perspektywa względnie uboga i ostatecznie nieuczciwa, a kpienie z pseudonauki, które jest dziś popularną w mediach reakcją, zwłaszcza na medycynę alternatywną, jest ostatecznie wyrazem bezradności. Zmaganie się z fałszywymi teoriami – szczególnie tymi poważniejszymi, lepiej dopracowanymi, bardziej wiarygodnymi, cieszącymi się pewnym szacunkiem i zakorzenionymi w społeczeństwie, jak różdżkarstwo czy homeopatia – tak naprawdę zmusza bowiem do dogłębnego poznania rzeczywistego stanu rzeczy. Łatwo jest kpić, trudniej argumentować. Na antyszczepionkowców czy kreacjonistów można się też po prostu żachnąć i powołać się na stulecia badań i konsensus naukowy, jednak wtedy będzie to niewiele więcej niż argument z autorytetu. Aby naprawdę przekonująco – czyli rzeczowo – obalić tezę, że szczepionki wywołują autyzm, a witaminą C można leczyć raka, trzeba liznąć nieco biofizyki, chemii, farmakologii oraz anatomii i fizjologii człowieka. Wbrew pozorom nie jest łatwo wyjaśnić, dlaczego tak naprawdę nie powinniśmy wierzyć w homeopatię czy pamięć wody. Czytanie fałszywych teorii to więc świetny pretekst, aby bliżej poznać prawdę.

Jest jednak kolejna, jeszcze większa korzyść ze studiowania pseudonauki. Nawet gdy już zrozumiemy, w czym rzecz, i rozprawimy się na poziomie merytorycznym z płaską Ziemią, kreacjonizmem młodoziemskim i żyłami wodnymi, wciąż pozostaną pytania: skąd wzięły się te wszystkie „szalone” pomysły i dlaczego właściwie cieszą się tak wielką popularnością? Jak to możliwe, że w aptece można dziś kupić przepisane przez lekarza cukrowe granulki, które nasączono wodą pozostałą po płukaniu probówek zawierających rozdrobnione serce kaczki (a tym właśnie jest preparat homeopatyczny Oscillococcinum)? Dlaczego właściwie tysiące rodziców nie chcą szczepić swoich dzieci? Łatwo niestety spotkać się z uproszczonym, krzywdzącym skwitowaniem: „to idioci” albo „to oszuści”. Zwykle to nieprawda. Spędziłem wiele miesięcy, podchodząc do rozmaitych zagadnień pseudonaukowych i paramedycznych z powagą i zaangażowaniem, a do przedstawicieli tych nurtów z szacunkiem, na jaki każdy człowiek po prostu zasługuje. Nie zdarzyło mi się jeszcze spotkać kogoś, kogo mógłbym szczerze określić jako „po prostu idiotę” ani prawdziwie cynicznego oszusta.

Naprawdę dogłębna analiza zawsze prowadzi do odkrycia skomplikowanej siatki motywacji, w której można odnaleźć wszystkie zwykłe ludzkie zjawiska psychologiczne i społeczne, które są również udziałem „sceptyków” i „racjonalistów”. Teorie pseudonaukowe wyrastają na złożonej pożywce, w której odnaleźć można nie tylko niewiedzę i nieporozumienia merytoryczne, lecz także niepokój, lęk i nadzieję (głównie w przypadku medycyny alternatywnej), przesadną skłonność do doszukiwania się porządku (zwłaszcza w przypadku teorii spiskowych), brak zaufania do instytucji publicznych i nauki oraz niezrozumienie tego, jak one funkcjonują (w zasadzie we wszystkich przypadkach), rozczarowanie wynikające ze zderzenia pięknych ideałów z niedoskonałą codziennością (co szczególnie łatwo dostrzec w przypadku ruchu antyszczepionkowego) czy rozmaite konflikty wartości. To nigdy nie jest po prostu tak, że ktoś „wymyśla sobie jakąś głupotę”.

Pierwszym celem tej książki jest więc opisanie niektórych spośród szczególnie popularnych współcześnie „kiepskich teorii” – mam nadzieję, że szerzej i spokojniej, niż się to zwykle dziś robi w mediach. Jako czynny dziennikarz wiem doskonale, jakie ograniczenia narzuca forma kilkuminutowego filmu albo artykułu na dziesięć tysięcy znaków, nie mówiąc już o deadline’ach, które potrafią uniemożliwić odpowiednio głębokie wejście w temat. Teraz mogłem rozluźnić te ograniczenia. Moim pierwszym krokiem podczas pisania każdego rozdziału była próba zrozumienia, co tak naprawdę twierdzą antyszczepionkowcy, homeopaci, różdżkarze czy płaskoziemcy. Zwykle okazywało się, że ich teorie kryją w sobie znacznie więcej treści, niż można by przypuszczać, gdyby sądzić wyłącznie po ich obecności w mediach głównego nurtu. Nawet jeśli jest to treść dogłębnie fałszywa, myślę, że warto dobrze ją poznać.

Drugim moim celem – choć nie najważniejszym – jest wyjaśnienie, czysto merytorycznie, dlaczego dane przekonanie jest błędne. Co ciekawe, w większości przypadków procedura ta doprowadziła mnie przy okazji do pytania o to, czym są nauka, dowody i pewność jako taka, a więc na grunt działu filozofii zwanego epistemologią. Pseudonauka rośnie bowiem najchętniej w „sferze cienia” – obszarze wiedzy ludzkiej, który jest obciążony szczególnie dużą dozą niepewności. Nawigowanie po tych obszarach wymaga wielkiego wyczucia i zrozumienia, jak działa nauka i jakiego właściwie poziomu pewności powinniśmy się po niej spodziewać. Sporą część tej książki poświęcam więc temu, co dzieje się za kulisami nauki i medycyny.

Trzeci i najważniejszy cel, który sobie postawiłem, to próba odpowiedzi na pytanie: „Dlaczego?”. Dlaczego istnieją ruchy młodoziemskie i płaskoziemskie, dlaczego kwitnie handel homeopatyczną wodą, gigantycznymi dawkami witaminy C i magicznymi kabelkami do sprzętu audio? Jeżeli naszym celem jest świat oczyszczony z bzdur, świat racjonalny, epistemologicznie „czysty” – przynajmniej w tym zakresie, w którym irracjonalne zabrudzenia światopoglądu powodują realne ludzkie cierpienie – to powinniśmy ze szczególną uwagą przyjrzeć się właśnie pytaniom o głębokie przyczyny.

Na koniec powinienem chyba wyznać, że w trakcie pisania tej książki trudno mi było zachować powagę, której można by się pewnie spodziewać po tak podniosłej deklaracji celów. Cóż, wspominałem już, że czasem nie sposób się nie uśmiechnąć, gdy czyta się recenzje audiofilskich kabli zasilających, kreacjonistyczne obliczenia tempa produkcji nawozu na arce Noego albo relacje z eksperymentów płaskoziemców. Co bardziej kuriozalne znaleziska, na które natrafiłem, badając „kiepskie teorie”, przytaczam w kolejnych rozdziałach. Starałem się nie pokpiwać i nie puszczać oka, ale pewnie nie zawsze mi się udało. Wszyscy jesteśmy tylko ludźmi.





1 Antyszczepionkowcy


czyli co się dzieje, gdy spotykają się wiedza i wartości


Protesty przeciwko szczepieniom właściwie pojawiają się, odkąd istnieją same szczepionki – znamy z historii akcje antyszczepionkowe z połowy XIX wieku. Motywacje są najróżniejsze: finansowe, religijne, merytoryczne, ideologiczne. Wątpliwości budzą skutki uboczne czy przymus szczepień, a zwłaszcza obejmowanie tym przymusem noworodków. Kiedy przyjrzeć się debatom na temat szczepień obowiązkowych z perspektywy nieco szerszej niż epidemiologiczna, okazuje się, że wyrastają one na wybuchowym koktajlu składającym się z dwóch składników aktywnych – nieporozumienia co do wiedzy i co do wartości – na co nakłada się jeszcze, jak to często bywa w medycynie, codzienna, niedoskonała praktyka medyczna, nie zawsze tak świetlana jak w podręcznikach epidemiologii. Choć więc w mediach opór przeciwko szczepieniom często przedstawia się jako prosty konflikt niewiedza kontra wiedza, w rzeczywistości jest on znacznie bardziej skomplikowany.

Mogłoby się wydawać, że nie ma nic prostszego niż obalenie na gruncie nauki określonego nieprawdziwego stwierdzenia na temat szczepień. Gdy czyta się materiały antyszczepionkowców, czy to polskie, czy zagraniczne, regularnie pojawiają się w nich wciąż te same, dawno już skompromitowane argumenty. Są ich dziesiątki. Można by się zastanawiać, dlaczego właściwie nie da się ich „po prostu obalić”. Problem tkwi w tym – co będzie przewijało się w tej książce jak mantra – że świat jest naprawdę, ale to naprawdę bardzo skomplikowany i nawet na pozór najprostsze stwierdzenie potrafi kryć w sobie setki subtelności, zaułków i zastrzeżeń. Wielu fałszywych tez nie da się „po prostu” obalić – czasem trzeba do tego długiego wykładu albo opasłego tomu.

W tym zresztą często tkwi moc argumentacji pseudonaukowej – w ciągu minuty można spokojnie wypowiedzieć dziesięć nieprawdziwych zdań, które będą intuicyjnie zrozumiałe dla publiczności, podczas gdy rozpracowanie ich zajęłoby wiele godzin i wymagałoby sięgnięcia do specjalistycznej wiedzy z zakresu fizyki, chemii, farmakologii, fizjologii człowieka i biotechnologii. Istnieją całe książki poświęcone wyłącznie cierpliwemu rozprawianiu się z tego typu nieprawdami1. Ponieważ systematyczna walka z mitami na temat szczepień nie jest celem tej książki, spróbuję może na próbę zademonstrować, jak wygląda rozmowa z jednym tego typu „mikroargumentem” antyszczepionkowców: „rtęć w szczepionkach powoduje autyzm”. Potem przejdziemy do kwestii wartości i „brudnej codzienności” szczepień.





„Szczepionki są trujące, bo zawierają rtęć”


Jest to jedno z tych stwierdzeń, które mają wielką moc oddziaływania ze względu na szybkie, emocjonalne, negatywne skojarzenie. W tym przypadku to skojarzenie „rtęć = źle”. Jest to jednak potężne uproszczenie, i to z dwóch powodów.

Po pierwsze, rtęć w czystej, pierwiastkowej postaci, w jakiej występuje choćby w staromodnych termometrach rtęciowych albo w niektórych związkach chemicznych, istotnie jest toksyczna. Samo występowanie w jakimś związku chemicznym atomu rtęci nie oznacza jednak z automatu, że ów związek jest szkodliwy dla zdrowia. Często podawaną przy tej okazji, bardzo dobrą analogią jest przypadek chloru: w temperaturze pokojowej czysty chlor jest żółtawym gazem, który w odpowiednio dużym stężeniu jest silnie toksyczny. Podczas I wojny światowej stosowano go zresztą jako broń chemiczną: w czasie II bitwy pod Ypres, 22 kwietnia 1915 roku, armia niemiecka wypuściła do atmosfery sto sześćdziesiąt osiem ton tej substancji, czym spowodowała spore straty po stronie aliantów. Dokładnie te same atomy chloru, jeśli złączyć je w odpowiednich proporcjach z atomami sodu, tworzą jednak sól kuchenną, NaCl.

Drugą sprawą jest stężenie. Niemal wszystko w odpowiednio dużej dawce jest śmiertelne, a w odpowiednio małej – nieszkodliwe (chyba że wierzyć homeopatom, którzy twierdzą, że w bardzo małej dawce substancje na nowo zaczynają być aktywne biologicznie – zobacz rozdział 4). Zresztą nawet solą kuchenną można się zatruć, chociaż co ciekawe, w tym przypadku zagrożenie wiąże się głównie z poziomem sodu, a nie chloru. Hipernatremia, czyli niebezpiecznie duże stężenie sodu we krwi, powoduje między innymi obkurczanie się mózgu, czego skutkiem mogą być splątanie, dreszcze, a nawet napad padaczkowy i śmierć.

Krótko mówiąc, sama obecność danego pierwiastka w jakimś produkcie o niczym jeszcze nie świadczy. Sprawie trzeba przyjrzeć się bliżej – czy postać, w jakiej występuje, i jego stężenie są powodem do niepokoju. W przypadku obecności rtęci w szczepionkach nieporozumienie wynika z obu tych źródeł.

Po pierwsze, nie jest to rtęć pierwiastkowa, tylko prosty związek organiczny o nazwie tiomersal[1], będący środkiem antyseptycznym i grzybobójczym, zapewniającym bezpieczeństwo mikrobiologiczne szczepionek. W organizmie ludzkim związek ten zostaje rozbity; jedna „połówka” tiomersalu staje się związkiem o nazwie kwas tiosalicylowy, atom rtęci zaś pozostaje przyłączony do krótkiej węglowej „końcówki” tiomersalu i trafia do krwiobiegu w postaci związku o nazwie etylortęć. Ten z kolei, w porównaniu choćby ze swoim bliskim chemicznym kuzynem, metylortęcią (która występuje między innymi w rybach oceanicznych i jest z tego powodu pod lupą świata medycznego), jest względnie szybko usuwany z organizmu2 i nie przekracza tak zwanej bariery krew–mózg, a więc nie trafia z krwiobiegu do tkanek mózgu3. To jedna z subtelności chemii – dwie cząsteczki różniące się od siebie tylko kilkoma atomami, jak metylortęć i etylortęć, potrafią oddziaływać na organizm w skrajnie różny sposób.

To jednak tylko połowa wyjaśnienia. Ilości tiomersalu obecne w szczepionkach (zwykle jest to pięćdziesiąt mikrogramów, a więc milionowych części grama, na dawkę) dobierane są tak, aby uniemożliwiały rozwój mikroorganizmów, a nie szkodziły człowiekowi. Stężenia, które blokują rozwój organizmu jednokomórkowego o średnicy tysięcznych części milimetra, są zupełnie inne od tych, które wywołują jakikolwiek mierzalny efekt w organizmie wielokomórkowym o wiele rzędów wielkości większym. Szczęśliwie żyjemy w czasach, w których parametry takie jak objętość komórki bakteryjnej czy niezbędne dla uzyskania pożądanego skutku stężenie molowe danego związku są po prostu przedmiotem twardej analizy ilościowej. Choć mikrometry i nanomole są obcymi, trudnymi do wyobrażenia jednostkami, wchodzi tu w grę dokładnie ta sama logika, dzięki której wiemy, że nie upijemy się w trupa od ilości alkoholu znajdującej się w jednym kawałku tortu. W przypadku farmaceutyki wszystkie składniki są ponadto ważone z dokładnością, no cóż, laboratoryjną. Zresztą w sprawach bezpieczeństwa jeszcze lepsza od teorii jest praktyka. I rzeczywiście, nie ma żadnych dowodów na to, że stosowanie szczepionek z tiomersalem powoduje zatrucie rtęcią4.

Co jednak najistotniejsze, wszystkie te subtelności stają się z każdym kolejnym rokiem coraz mniej istotne, ponieważ począwszy od lat dziewięćdziesiątych XX wieku, tiomersal jest stopniowo wycofywany ze szczepionek stosowanych w Stanach Zjednoczonych i krajach Unii Europejskiej. Dziś (czyli w maju 2019 roku, gdy piszę ten tekst) w Polsce występuje wyłącznie w czterech wariantach szczepionki przeciwko błonicy produkowanych przez IBSS Biomed SA. Skąd to odejście? Cóż, medycyna i farmakologia po prostu się rozwijają, po co więc stosować związki, w przypadku których występuje choćby najmniejsze ryzyko działań niepożądanych – zwłaszcza jeśli ryzyko to zostało rozdmuchane w mediach? Zresztą tiomersal stosuje się jako środek konserwujący w produktach medycznych od lat trzydziestych XX wieku, więc już najwyższy czas na emeryturę. Jednym z jego następców jest 2-fenoksyetanol, środek, który można chyba zareklamować o wiele lepiej niż tiomersal: nie tylko bowiem występuje w wielu perfumach jako tak zwana fiksatywa, czyli związek przyspieszający schnięcie, lecz także jest składnikiem popularnego środka odkażającego, octeniseptu. Jeśli więc kiedykolwiek psiknęliście octenisept dziecku na ranę, wprowadziliście do jego organizmu jednego z czołowych następców tiomersalu. Lepiej?





Ten autyzm…


Jak widać, rozwianie jednej tylko wątpliwości nie jest prostą sprawą, a w rzeczywistości dogłębne omówienie kwestii tiomersalu wymagałoby napisania sporej rozprawy naukowej. Jest zresztą chyba jasne, że nad niektórymi subtelnościami tego zagadnienia z konieczności się prześlizgnąłem. W medycynie można zaś w dany temat wchodzić… i wchodzić… i wchodzić… Wspominałem już, że świat jest bardzo skomplikowany? Nic dziwnego, że nawet po godzinnym wykładzie o tiomersalu ktoś o najzupełniej otwartym umyśle wciąż może mieć uzasadnione pytania.

Bywa jednak, że jakiś zarzut jest oparty na przesłankach w tak oczywisty sposób fałszywych, że aż trudno uwierzyć w to, jak trwale obecny jest on w debacie publicznej. Tak właśnie jest w przypadku słynnego artykułu Andrew Wakefielda z 1998 roku, od którego rozpoczęła się cała potężna afera pod tytułem „szczepionki a autyzm”. Od tego czasu zarówno jego artykuł, jak i on sam zostali zdyskredytowani w każdy możliwy sposób znany społeczności naukowej i lekarskiej – a jednak wciąż można spotkać się z tezą, że Wakefield nie tylko pisał prawdę, ale i że jest wręcz wielkim bohaterem medycyny. Jest to historia tak nieprawdopodobna, w dodatku pięknie ilustrująca „anatomię” oszustwa naukowego, że warto opowiedzieć ją w całości (historię innego sławnego „oszustwa” naukowego, które ostatecznie prawdopodobnie nie okazało się oszustwem, opowiadam w rozdziale 9 o strukturyzacji wody).

Wszystko zaczęło się od artykułu zatytułowanego Ileal-Lymphoid-Nodular Hyperplasia, Non-Specific Colitis, and Pervasive Developmental Disorder in Children [Guzkowy przerost limfoidalny jelita grubego, nieswoiste zapalenie okrężnicy i całościowe zaburzenia rozwoju u dzieci] opublikowanego w 1998 roku w jednym z najbardziej prestiżowych czasopism medycznych świata „The Lancet”5. Tekst miał dwanaścioro autorów, pierwszym zaś, czyli tradycyjnie najważniejszym, był Andrew Wakefield. W artykule opisano historię medyczną dwanaściorga dzieci w wieku od trzech do dziesięciu lat przyjętych do londyńskiego Royal Free Hospital, u których nagle pojawiły się zaburzenia zachowania (głównie językowe) i u których później zdiagnozowano również choroby układu pokarmowego. Zasadniczą tezą artykułu było więc współwystępowanie zaburzeń rozwojowych (w dziewięciu przypadkach był to autyzm) z chorobami jelit (głównie: chroniczny stan zapalny).

Rzecz w tym, że pojawienie się niepokojących symptomów w zachowaniu dzieci w ośmiu przypadkach na dwanaście zbiegło się w czasie z podaniem im szczepionki typu MMR, czyli przeciwko odrze, śwince i różyczce. Co ciekawe, sami autorzy pracy zaznaczają wyraźnie, że nie stwierdzili powiązania przyczynowego między szczepionką a opisywanymi objawami6 – co w zasadzie nie powinno dziwić, ponieważ samo następstwo czasowe pomiędzy dwoma zjawiskami, zwłaszcza zaobserwowane u zaledwie kilkunastu osób, absolutnie nie dowodzi związku przyczynowego. Zasadniczym tematem artykułu, co można poznać choćby po jego tytule, było wyłącznie powiązanie między chorobami układu pokarmowego i autyzmem7, a zbieżność czasowa ze szczepieniami została wymieniona przy okazji jako dodatkowy element historii medycznej tej konkretnej dwunastki dzieci.

Tyle artykuł. Okazuje się jednak, że sam Andrew Wakefield miał dodatkowy powód, aby umieścić w tym tekście wzmiankę o szczepionce MMR. Tuż przed publikacją artykułu w „The Lancet” zorganizował konferencję prasową, na której ogłosił, że w świetle jego badań rozsądnie będzie wstrzymać się od podawania dzieciom potrójnej szczepionki, a decydować się w zamian za to na wykonywanie trzech osobnych szczepień. Późniejsze śledztwo dziennikarskie oraz postępowania wyjaśniające i dyscyplinarne prowadzone przez redaktorów „The Lancet” oraz najróżniejsze komitety lekarskie, a także najzwyklejsze śledztwo prowadzone przez wymiar sprawiedliwości wykazały, że Wakefield znajdował się w sytuacji rażącego konfliktu interesu: wraz z ojcem jednego z dzieci opisywanych w artykule założył dwie spółki, Immunospecifics Biotechnologies Ltd. oraz Carmel Healthcare Ltd., których biznesplan opierał się na sprzedaży zestawów diagnostycznych do wykrywania „autystycznego zapalenia jelita cienkiego” (autistic enterocolitis) – nieistniejącej jednostki chorobowej wymyślonej przez Wakefielda, wywoływanej rzekomo przez szczepionkę MMR. Dodatkowym celem artykułu w „The Lancet” było więc dodanie wiarygodności stwierdzeniu, że taka choroba istnieje (skoro „napisano o tym w »The Lancet«”…). Co więcej, grupa rodziców, których dzieci opisano w artykule, planowała zbiorowy pozew wymierzony przeciwko producentom szczepionki, Wakefield zaś pełnił funkcję ich doradcy, przyjmując od prawników przygotowujących pozew wynagrodzenie w wysokości ponad czterystu tysięcy funtów8.

To jednak nie koniec. Z czasem okazało się, że dane, na których opierał się artykuł Wakefielda i współpracowników, zostały dramatycznie zafałszowane. Brytyjski dziennikarz śledczy Brian Deer na łamach innego szanowanego czasopisma medycznego „British Medical Journal” opublikował tekst, w którym szczegółowo porównał opis przypadków zamieszczony w artykule Wakefielda z zapisami medycznymi na temat tych samych pacjentów, uzyskanymi wprost z Royal Free Hospital9. Wykazał tam między innymi, że:

Troje z dziewięciorga dzieci, które miałyby rzekomo zostać zdiagnozowane jako chore na autyzm, w rzeczywistości nie otrzymało tego typu diagnozy.

Choć w artykule stwierdzono, że przed szczepieniem wszystkie dzieci rozwijały się prawidłowo, niektóre z nich posiadały udokumentowaną historię objawów zaburzeń rozwojowych.

Odstęp czasowy pomiędzy szczepionką a wystąpieniem objawów nie wynosił w rzeczywistości maksymalnie czternastu dni, jak stwierdzono w artykule, lecz w niektórych przypadkach nawet kilka miesięcy.



Gdy fakty te zaczęły wychodzić na światło dzienne, rozpętała się burza. W 2004 roku, po pierwszej serii artykułów Deera, dziesięcioro spośród dwunastki autorów artykułu opublikowało wspólnie na łamach „The Lancet” oficjalny komunikat, tak zwaną częściową retrakcję, oznaczającą, że publicznie wycofują się z wniosków swojego artykułu. 2 lutego 2010 roku nastąpiła już pełna retrakcja ze strony samego „The Lancet”, co jest bardzo rzadkim zdarzeniem, równającym się w praktyce temu, że artykuł „wykreśla się ze świata nauki”. Do tytułu artykułu dodano formalnie słowo retracted (wycofany), na dostępnych w internecie kopiach artykułu w formacie PDF przez środek każdej kartki przebiega olbrzymi czerwony napis o tej samej treści. To nie zdarza się na co dzień i jest naukowym odpowiednikiem zakucia w dyby na największym miejskim placu.

To nie koniec. Redaktorzy „British Medical Journal” w specjalnym oświadczeniu uznali postępowanie Wakefielda za oszustwo naukowe. Redaktorzy „The Lancet”, oprócz formalnego wycofania artykułu, określili je w osobnym tekście jako „kompletnie nieprawdziwe”, uznając z perspektywy czasu, że zostali po prostu oszukani. Do podobnego wniosku doszła specjalnie zwołana komisja General Medical Council, organizacji prowadzącej rejestr brytyjskich lekarzy mogących formalnie wykonywać ten zawód. Po przesłuchaniu dyscyplinarnym i trwającym trzy lata śledztwie komisja GMC ogłosiła, że Wakefield dopuścił się „nieuczciwości i nieodpowiedzialności”, jego badanie zostało przeprowadzone w niewłaściwy i nieetyczny sposób. Potwierdzono też wystąpienie konfliktu interesu. Ostatecznie Wakefield utracił prawo wykonywania zawodu lekarza na terenie Wielkiej Brytanii.

Andrew Wakefield nigdy oficjalnie nie przyznał, że doszło z jego strony do jakichkolwiek nadużyć lub błędów w sztuce. W kolejnych oświadczeniach stwierdzał – wbrew oczywistym faktom – że jego konkluzje są słuszne, i groził wręcz pozwami Brianowi Deerowi i „British Medical Journal” za publikację artykułów na jego temat. W 2012 roku Wakefield, wówczas mieszkaniec Teksasu, postanowił zrealizować swoje pogróżki i pozwał Deera oraz redaktorkę BMJ Fionę Godlee o zniesławienie. Sędzia odrzucił jednak pozew i obciążył Wakefielda kosztami sądowymi, uznawszy sensownie, że zniesławienie, które polega po prostu na opisaniu faktycznego stanu rzeczy, nie jest zniesławieniem.

Prawdopodobnie najbardziej przerażającym aspektem tej historii są jednak jej konsekwencje, a właściwie ich… brak. Wakefield pozostaje bohaterem ruchu antyszczepionkowego, którego przedstawiciele chętnie przyjmują jego wyjaśnienia, że padł ofiarą spisku koncernów farmaceutycznych, a Briana Deera określił słowem hitman, czyli płatny zabójca10. Mit o szczepionkach wywołujących autyzm, który nie znajduje absolutnie żadnego potwierdzenia w jakichkolwiek rzeczywistych badaniach naukowych i medycznych11, pozostaje jednym z ulubionych argumentów antyszczepionkowców. W momencie pisania tego tekstu (maj 2019 roku) na stronie Stop NOP, jednej z najaktywniejszych polskich organizacji krytykujących obecny system szczepień obowiązkowych, znajduje się mnóstwo wpisów poświęconych związkom między szczepieniami a autyzmem. Wygląda na to, że oszustwo Wakefielda stało się źródłem trwałego mitu, którego wykorzenić dziś nie sposób.





Portret antyszczepionkowca


Choć dyskutowanie z narosłymi wokół szczepień mitami jest żmudnym, trudnym zajęciem, tak naprawdę najpoważniejszy problem pojawia się już po ustaleniu faktów. Antyszczepionkowcy bywają przedstawiani w mediach jako ignoranci, których niechęć do szczepień wynika po prostu z niewiedzy – to jednak błędne i fatalne w skutkach uproszczenie. Nie wszyscy antyszczepionkowcy wierzą w bzdury o rtęci i autyzmie. Nie istnieją jeszcze reprezentatywne badania polskich antyszczepionkowców – nie jest zresztą jasne, jak należałoby wygenerować próbę do takiego badania – jednak sporo można wyczytać choćby z raportu na temat nastawienia Polaków do szczepień opublikowanego przez Centrum Badania Opinii Społecznej we wrześniu 2017 roku12.

Zacznijmy od dobrych wiadomości. Zdecydowana większość Polaków wierzy w sensowność i skuteczność szczepień: 88 procent ankietowanych zgodziło się ze stwierdzeniem, że to właśnie dzięki szczepieniom nie występuje dziś wiele groźnych chorób (a odsetek osób, które wybrały odpowiedź „zdecydowanie się nie zgadzam”, został zaokrąglony do 0 procent, wynosił więc poniżej 0,5 procent). 88 procent to z jednej strony dużo, a z drugiej – mało. Ze wspomnianego raportu CBOS-u wynika, że spora część społeczeństwa wykazuje – nawet pomimo przekonania o ich skuteczności – większą czy mniejszą nieufność do szczepień.

Najczęstszą przyczyną tej nieufności są skutki uboczne (zwłaszcza tak zwane niepożądane odczyny poszczepienne, NOP-y). Przykładowo, ze zdaniem „szczepionki dla dzieci są bezpieczne” nie zgadza się łącznie 10 procent Polaków (8 procent „raczej” i 2 procent „zdecydowanie”). 7 procent „zdecydowanie” zgadza się ze zdaniem, że „szczepionki dla dzieci mogą wywoływać poważne skutki uboczne, powikłania” (a 30 procent zgadza się z nim „raczej”). To pewnie z tego właśnie względu aż 24 procent ankietowanych (z czego 8 procent „zdecydowanie”) zgodziło się, że w pierwszych latach życia dzieci otrzymują zbyt dużo szczepionek. Względnie silne są też sentymenty „antyfarmaceutyczne”: 31 procent badanych zgodziło się, że szczepienia są promowane nie dlatego, że są rzeczywiście potrzebne, lecz w interesie koncernów farmaceutycznych.

Ogółem mniej więcej jedna czwarta, może nawet jedna trzecia Polaków wyraża przynajmniej jakieś wątpliwości co do szczepień. Względnie rzadko są to jednak te zdecydowane, wyraźne przekonania, o których tyle się pisze w mediach: przykładowo, tylko 5 procent badanych zdecydowanie zgodziło się ze stwierdzeniem, że szczepionki mogą wywoływać „poważne zaburzenia rozwojowe, np. autyzm” (choć w tym przypadku nawet 5 procent to o 5 procent za dużo). Nie wydaje się, aby decydującą przyczyną sentymentów antyszczepionkowych była wiara w fałszywe przekonania medyczne – do tego samego wniosku prowadzą też badania psychologiczne Olgi Pabian przeprowadzone na grupie prawie czterystu osób, z których znaczna część identyfikowała się jako antyszczepionkowcy13. Choć badania te nie były reprezentatywne, grupa osób zgadzających się z różnymi popularnymi mitami na temat szczepień stanowiła tam mniejszość, a nie większość. Najwyraźniejsze różnice pomiędzy „proszczepionkowcami” a „antyszczepionkowcami” dotyczyły kwestii wartości, a nie wiedzy. Owo kluczowe rezyduum wartości sprawia, że dwoje ludzi mających dokładnie taką samą, aktualną i poprawną wiedzę wciąż może nie zgadzać się w sprawie obowiązku szczepień.

Stop NOP stoi w rozkroku pomiędzy kwestią wiedzy a wartości. Organizacja ta znana jest z rozpowszechniania najbardziej bzdurnych mitów na temat szczepień. Na poziomie formalnym przyczyną tego jest jednak „medyczny indywidualizm”: wystarczy zajrzeć do statutu tej organizacji. Dokument ów głosi najpierw, dość mętnie, że celem Stowarzyszenia Stop NOP jest „promocja i ochrona zdrowia publicznego”, „poprawa bezpieczeństwa i jakości usług medycznych”, ale nieco niżej można znaleźć rzeczywisty postulat: jest nim walka o „respektowanie wolności i swobód obywatelskich, a także praw człowieka i pacjenta, szczególnie w zakresie wyboru metody profilaktyki i leczenia chorób, w tym groźnych chorób zakaźnych”. Otóż to – prawo do samodzielnego decydowania o poddawaniu się szczepieniom. Czy to ma w ogóle sens?





My, stado


Na szczepienie można spojrzeć z dwóch perspektyw: jednostkowego aktu szczepienia, któremu poddawane jest zawsze jedno konkretne dziecko, oraz programu szczepień obowiązkowych (czy zalecanych), który dotyczy całego społeczeństwa. U źródeł problemu leży więc napięcie pomiędzy dobrem jednostki a dobrem grupy.

Z punktu widzenia zdrowia publicznego jest jasne, że najlepsze rozwiązanie to dążenie do pełnego zaszczepienia całej populacji. W epidemiologii mówi się o tak zwanej odporności stadnej (herd immunity). Zilustrujmy to na przykładzie.

Wyobraźmy sobie plac, na którym stoi dziesięć tysięcy osób w stu eleganckich wojskowych szeregach, po sto osób w każdym. Przypuśćmy dalej, że ludzi tych dzielimy na dwie grupy: „zarażalnych” i „niezarażalnych”. Na tłum zrzucamy następnie kilkadziesiąt kolorowych piłeczek reprezentujących jakąś chorobę zakaźną. Gdy piłka trafi w ręce osoby zarażalnej, zachoruje ona i zacznie „zarażać”, przekazując ją wszystkim swoim sąsiadom. Osoby niezarażalne odmawiają jej przyjęcia i niektóre piłeczki spadają po prostu na ziemię.

Zacznijmy od prostej sytuacji, w której wszyscy są uodpornieni: tłum składa się wyłącznie z osób niezarażalnych. W takim razie piłki spadną na ziemię i po chorobie. W miarę wzrostu liczby osób zarażalnych rośnie prawdopodobieństwo, że spadająca z nieba piłeczka wpadnie w ręce osoby wrażliwej i pojawi się pierwszy chory. Dopóki jednak odsetek osób zarażalnych jest odpowiednio mały, niskie będzie również prawdopodobieństwo, że osoba chora zarazi sąsiada: najprawdopodobniej wszyscy sąsiedzi będą bowiem należeć do grupy osób zaszczepionych. Nawet zaś, gdy sąsiad akurat będzie podatny na zachorowanie, łańcuch zarażeń raczej skończy się na nim. W takich warunkach mogą występować lokalne ogniska choroby, jednak nie rozprzestrzenia się ona w całej populacji osób zarażalnych: większość osób zarażalnych pozostaje w bezpiecznym otoczeniu osób niezarażalnych. Choroba znika więc każdorazowo wraz z wyzdrowieniem poszczególnych osób chorych.

Poniżej określonego progu liczby osób zaszczepionych, określanego w epidemiologii jako HIT (herd immunity threshold), choroba będzie już stale występowała w populacji – odsetek osób zarażalnych jest na tyle duży, że lokalne ogniska choroby łączą się ze sobą i choroba „przepływa” pomiędzy tymi osobami, nigdy nie gasnąc całkowicie. Jeśli liczba chorych jest stała, mówimy o chorobie endemicznej, jeżeli rośnie – jest to epidemia. W literaturze naukowej podaje się następujące wartości progu HIT:

choroba

próg odporności stadnej (HIT)



odra

83–94%



polio

80–86%



świnka

75–86%



różyczka

83–85%



krztusiec

92–94%



ospa prawdziwa

80–85%14



Inaczej mówiąc, gdy procent liczby zaszczepionych na, przypuśćmy, krztusiec spadnie poniżej 92–94 procent, w społeczeństwie będzie występować stała grupa osób chorych. Po przekroczeniu tego progu mogą pojawiać się pojedyncze ogniska choroby, jednak da się je każdorazowo „ugasić”. Dodajmy dla jasności, że choroby w rzeczywistości nie spadają z nieba jak piłeczki – jeśli nasz plac ma symbolizować Polskę, to odpowiednikiem niebios zsyłających na nas krztusiec i polio są oczywiście pozostali mieszkańcy naszej planety. Gdy do programu szczepień wciągnie się już wszystkich ludzi na Ziemi i wygaśnie ostatnie ognisko choroby, choroba ta zostaje eradykowana. Tak stało się choćby z ospą prawdziwą.

Po zapoznaniu się z przedstawionym tu uproszczonym modelem można by dojść do wniosku, że ryzyko zachorowania jest w pełni indywidualnym wyborem: „chcę ponieść to ryzyko – nie szczepię się, nie chcę go ponieść – szczepię się”. Rzeczywistość jest jednak nieco bardziej skomplikowana od „świata piłeczek”.

Po pierwsze, szczepienie nie daje stuprocentowej odporności na chorobę. Szczepionka nie jest magicznym zaklęciem, tylko procedurą medyczną i jak każda z nich może zadziałać lub nie. Przykładowo, szczepionka przeciwko wirusowi ospy wietrznej i półpaśca ma skuteczność 70–90 procent15, co oznacza, że w porównaniu z osobami niezaszczepionymi osoby zaszczepione chorują o 70–90 procent rzadziej. Skuteczność nie kończy się oczywiście na zero-jedynkowym fakcie wystąpienia lub niewystąpienia choroby: jednym ze skutków szczepień jest łagodniejszy przebieg choroby, gdy się już na nią zapadnie. W tym samym badaniu na temat skuteczności szczepionki przeciwko ospie wietrznej stwierdzono, że prawdopodobieństwo wystąpienia średnio i bardzo ciężkiego przebiegu choroby spada po szczepieniu o 90–100 procent. Tak czy inaczej, również osoby zaszczepione mogą mimo wszystko zachorować: fałszywy jest więc argument, przytaczany czasem przez antyszczepionkowców, że ich osobisty wybór, by się nie szczepić, nie powinien martwić osób zaszczepionych. Otóż właśnie powinien – ponieważ spadek odporności stadnej powodowany przez każdą osobę niezaszczepioną może również doprowadzić do zachorowania osób zaszczepionych.

Po drugie, w populacji stale występuje pewna grupa osób jeszcze niezaszczepionych – na przykład dzieci przed pierwszą dawką danej szczepionki – lub takich, które ze względów medycznych w ogóle nie mogą danej szczepionki przyjąć. Wielkość tej pierwszej grupy można zminimalizować przez podanie szczepionki jak najwcześniej – to między innymi dzięki błyskawicznemu szczepieniu dzieci tak wspaniale spadła śmiertelność noworodków w ostatnim stuleciu. Zawsze jednak istnieć będzie grupa małych dzieci – a więc jednocześnie organizmów o szczególnie słabo rozwiniętym układzie odpornościowym – które nie zdążyły jeszcze dołączyć do „stada” osób zaszczepionych. Nie trzeba zaś dodawać, że noworodki szczególnie łatwo można znaleźć w szpitalu – tym samym miejscu (czasem tym samym budynku), w którym jest wysokie ryzyko natrafienia na choroby zakaźne. Nie wolno też zapominać o drugiej grupie, do której należą choćby osoby silnie uczulone na któryś ze składników danej szczepionki.





Ja kontra NOP


Krótko mówiąc, odmowy szczepienia obowiązkowego nie da się sprowadzić do naiwnego, libertariańskiego „decydowania o sobie”, o którym mówi tak wielu antyszczepionkowców. Samodzielne „decydowanie” o szczepieniu to nie indywidualizm, to po prostu egoizm. Równie dobrze można by samodzielnie „zdecydować”, że nie ma się ochoty na dorzucanie do benzyny podczas wspólnego przejazdu na drugi koniec Polski. Od samego początku, od kiedy tylko istnieją szczepienia, stanowią one zbiorową odpowiedź na zjawisko medyczne dotyczące zbiorowości – jest to jedna z tych sytuacji, w których jednostki robią coś dla dobra ogółu, a więc ostatecznie i swojego. Jest wiele tego typu przypadków i każdy z nich budzi większe czy mniejsze kontrowersje: spójrzmy choćby na obowiązkową kontrolę osobistą na lotniskach albo – żeby sięgnąć po jeszcze grubszego zwierza – podatki.

We wszystkich tych przypadkach każdy może oczywiście zadać sobie pytanie, czy zadowala go stopień, w jakim ograniczana jest jego wolność – ewentualnie, mówiąc nieco inaczej, czy koszt, jaki musi ponieść, jest proporcjonalny do korzyści, jaką odnosi grupa. Nie ma niestety żadnej obiektywnej miary tego typu kosztów psychologicznych – jak bowiem zmierzyć „koszt”, jaki się ponosi, zdejmując buty przed bramką na lotnisku albo dając się ukłuć pielęgniarce i mierząc się z ryzykiem wystąpienia niepożądanych odczynów poszczepiennych? Jednym z kluczowych problemów z ruchem antyszczepionkowym jest to, że koszty związane ze szczepieniami są przez niego notorycznie przekłamywane, a czasem wręcz demonizowane. To jeden z tych momentów, w których z płaszczyzny wartości znów wkraczamy na płaszczyznę wiedzy.

Na poziomie raportów medycznych i artykułów naukowych rachunek zysków i strat jest banalnie prosty: koszt dla zdrowia publicznego wynikający ze skutków ubocznych szczepień jest wiele rzędów wielkości niższy niż korzyść wynikająca z zaszczepienia16. Przykładowo, ryzyko wystąpienia wysokiej gorączki – która jest najczęstszym NOP-em po miejscowym zaczerwienieniu – po szczepionce MMR szacuje się na 1:300017. Dla porównania: obecna populacja polskich „jednoroczniaków” (dzieci w wieku 12–23 miesięcy) to 384 056. Oznacza to, że – jeśli szczepieniom poddać 100 procent dzieci w tym wieku – w ciągu najbliższego roku około 130 polskich dzieci zazna wysokiej gorączki wskutek przyjęcia pierwszej dawki MMR. To nie jest poważny koszt dla zdrowia publicznego.

Rodzic stojący przed obowiązkiem szczepienia mógłby oczywiście zadać pytanie, czy w tym konkretnym przypadku chce podjąć takie ryzyko. Wysoka gorączka to nic przyjemnego, zwłaszcza dla małego dziecka. Równocześnie świnka sama w sobie wydaje się ryzykiem odległym i niewielkim – zachorowań jest przecież niewiele (w Polsce 1500–2000 przypadków rocznie), a sama choroba może wydawać się niewinna. To jednak przekonanie zwodnicze. Liczba zachorowań jest tak niska właśnie dlatego, że coraz powszechniejsze są szczepienia, a do grona chorych trafiają oczywiście w przeważającym stopniu osoby niezaszczepione! Również i one stają przed większym ryzykiem wystąpienia skutków ubocznych świnki, które zresztą wcale nie są tak nieznaczące, jak mogłoby się wydawać. Przykładowo, zapalenie opon mózgowych może wystąpić nawet u 10 procent chorych na świnkę18. W większości przypadków nie wywołuje ono żadnych długofalowych negatywnych skutków zdrowotnych, ale skoro już mówimy o komplikacjach, warto zauważyć, że u 1 osoby na 6000 przechodzi w zapalenie mózgu, które jest już stanem zagrażającym życiu.

Problem z indywidualnym „żonglowaniem zagrożeniami” przy każdej decyzji o szczepieniu dziecka polega na tym, że – już z założeniem, że zgodzimy się na samą tę procedurę, chwilowo ignorując fakt, jak głęboko jest ona egoistyczna – wymaga ono zgromadzenia potężnej wiedzy eksperckiej i zapoznania się z dosłownie tysiącami artykułów naukowych. Każdą osobę, która rozważa „indywidualną decyzję medyczną” o szczepieniu, chciałbym zapytać: czy na twoim drzewku decyzyjnym naprawdę znajdują się wszystkie aspekty medyczne tego szczepienia, włącznie z prawidłowym oszacowaniem prawdopodobieństwa wystąpienia wstrząsu anafilaktycznego po podaniu szczepionki przeciwko wirusowemu zapaleniu wątroby typu B osobie uczulonej na drożdże?19 Naprawdę chcesz brać na swoje barki tę decyzję? Rzecz w tym, że analizy tego typu już przeprowadzono – i wynika z nich jednoznacznie, że korzyści ze szczepienia przewyższają ryzyko.

To jednak wciąż poziom teorii. Na sam koniec zostawiłem temat „brudnej codzienności”. Nie da się bowiem ukryć, że na co dzień nie mamy do czynienia z warunkami, w jakich powstają raporty medyczne dla „The Lancet”, tylko raczej z lokalną przychodnią, w której nie zawsze w pełni kompetentna pielęgniarka wyciąga szczepionkę z nie zawsze najnowszej lodówki. Ba, ja sam, przy okazji szczepienia jednego ze swoich dzieci, bezskutecznie próbowałem zgłosić w przychodni niepożądany odczyn poszczepienny. Parę godzin po podaniu szczepionki u mojego dziecka pojawiły się odczyn miejscowy oraz podniesiona temperatura i wymioty. Nic strasznego, rodzic dwójki dzieci nie takie rzeczy widział, postanowiłem jednak zgłosić NOP. Przyjmująca zgłoszenie pielęgniarka – ta sama, która szczepiła – najpierw odparła odruchowo, że „to raczej nie ma związku”, po czym – gdy delikatnie zasugerowałem, że nie jej to oceniać, a wyłowieniem związków przyczynowych z korelacji niech już się zajmują statystycy – zbyła mnie lekceważącym: „Dobra, dobra, zgłoszę”. Podejrzewam, że ten konkretny NOP nie trafił do statystyk. Tak, pewnie powinienem był naciskać, nalegać, gonić, ale szczerze mówiąc, nie zrobiłem tego, bo miałem na głowie rozgorączkowane dziecko, a następnego dnia kolejne ważne sprawy tego świata, z nowym serialem włącznie.

Dalej: szczepienie powinno być poprzedzone kwalifikacyjnym badaniem lekarskim. „Teoria” takiego badania jest dobrze znana. Praktyka z kolei bywa różna. Spotkałem się osobiście nawet z całkowitym brakiem takiego badania, które w praktyce wymusiłem już w momencie, gdy pielęgniarka sięgała do lodówki.

Tego typu niedoskonałości systemu opieki zdrowotnej oczywiście nie zachęcają do zaufania. Przebija to w cytowanych wyżej badaniach CBOS-u, już choćby w tym, że tylko piętnaście procent badanych uznało, że jesteśmy w dostateczny sposób informowani o skutkach ubocznych szczepień. W idealnym świecie, w którym wszystkie dzieci są szczegółowo zbadane przed szczepieniem, wszystkie NOP-y są zgłaszane, a rodzice otrzymują na ich temat szczegółową informację, prawdopodobnie zaufanie do powszechnego systemu szczepień byłoby większe. Nie żyjemy jednak w takim świecie.

Co więc należy zrobić, biorąc już pod uwagę niedoskonałą rzeczywistość? Cóż, całkowite „obrażenie się” na współczesną medycynę tylko dlatego, że na poziomie wykonawczym kuleje, to wyjście dziecinne. Równie dobrze można by zrezygnować z samochodów, ponieważ czasem nie odpalają, albo nie słuchać ostrzeżeń o powodziach i trzęsieniach ziemi, ponieważ mają „tylko” charakter probabilistyczny. Wróćmy do „pięknych założeń” stowarzyszenia Stop NOP. Jednym z celów statutowych tej organizacji jest „poprawa bezpieczeństwa i jakości usług medycznych”. Gdyby wskutek wywieranego przez antyszczepionkowców nacisku udało się „uszczelnić” zgłaszanie NOP-ów albo poprawić jakość badań kwalifikacyjnych do szczepienia – świetnie! Tylko, błagam, czy naprawdę musi temu towarzyszyć mit medycznego indywidualisty, który w zaciszu domowym rozpracował wszystkie prawdopodobieństwa i parametry lepiej od pokoleń naukowców…? I te wszystkie bzdury, te potworne, potworne bzdury…





2 Audiofilia ekstremalna


czyli dlaczego tak ważna jest podwójnie ślepa próba


Zacznijmy może od oczyszczenia gruntu: w pierwszym przybliżeniu audiofil to po prostu ktoś, kto jest żywo zainteresowany wysokiej jakości dźwiękiem i dąży do tego, aby konfiguracja jego sprzętu była jak najlepsza. Punktem wyjścia jest więc najzupełniej racjonalna, sensowna – by nie powiedzieć: szczytna – potrzeba przeżywania najwyższej jakości doświadczenia muzycznego. Dodajmy też, że sami „audiofile” zazwyczaj nie określają się jako „audiofile”, a słowo to bywa zwykle używane z kpiarską nutką.

Okej, skąd więc audiofilia w książce na temat pseudonauki i bzdur? Odpowiedzią jest przymiotnik „ekstremalna” – wybrany przeze mnie po długim namyśle i niebędący żadnym standardowym określeniem, którym posługują się sami zainteresowani. W łonie audiofilii występuje bowiem „skrzydło radykalne”, które chciałem jakoś nazwać – grupa sprzedawców sprzętu i ich klientów, którzy doprowadzają swoją sztukę do granic… cóż, absurdu. Bo jak inaczej określić gruby jak kciuk drwala kabel zasilający (tak, to ten kabel, który doprowadza prąd z gniazda w ścianie do sprzętu), wymrażany w japońskich komorach kriogenicznych, kryjący w sobie tyle warstw otuliny, że egipskie mumie chowają się przy nim ze wstydu; kabel, który nie tylko kosztuje siedem tysięcy złotych, ale którego użycie sprawia rzekomo, iż wydostający się z głośników dźwięk ma, cytując pewnego recenzenta, „nieprawdopodobną łatwość oddania muzyki, z gracją, polotem, bez cienia nerwowości”? Zdecydowanie jest to coś, co warto zbadać.





O co chodzi, a o co nie?


Zacznijmy może od wyjaśnienia, o co mi nie chodzi.

Po pierwsze, nieistotne są tak naprawdę te pieniądze, do których tak łatwo się przyczepić. Gdy mowa o poważnym kolekcjonowaniu czegokolwiek, na pewnym etapie w grę zaczynają wchodzić estetyka albo sentyment, których nie wycenia się jak marchewki w warzywniaku. Ot, limitowana edycja gramofonów Linn Sondek LP12 wykonanych ze starych beczek do sezonowania whisky. Cena? Bagatela, sto dwadzieścia pięć tysięcy złotych za sztukę. To samo dotyczy na przykład nielicznych pozostałych egzemplarzy klasycznego sprzętu nagraniowego z lat sześćdziesiątych czy siedemdziesiątych ubiegłego wieku, z którego korzystali ówcześni muzycy albo realizatorzy dźwięku.

Tego typu produkty mierzy się zupełnie inną miarą niż zwykły sprzęt audio produkowany masowo. Szybki przegląd najdroższych gramofonów na eBayu pokazuje, że sprzęty w górnej granicy cenowej to przede wszystkim egzemplarze rzadkie lub mające nietypową historię. Tutaj nie stosują się prawa ekonomii dotyczące przedmiotów codziennego użytku – mówimy o segmencie rynku ocierającym się wręcz o światek kolekcjonerów sztuki. Kwestię ceny samej w sobie odkładamy więc na bok: pośród całej galaktyki antycznych widelców, butów Michaela Jordana i nitek z dywanu, po którym stąpał Elvis Presley (dwa dolary sztuka), kolekcjonerski sprzęt muzyczny naprawdę nie odstaje.

Co więcej, na etapie, na którym coś jest już elementem naszej tożsamości i stylu życia, zakup kolejnego przedmiotu nabiera wartości osobistej, emocjonalnej. Pieniądze (o ile się je oczywiście ma) mogą wtedy naprawdę nie grać roli. Ja sam nigdy nie byłem kolekcjonerem, jednak potrafię zrozumieć człowieka, który – przykładowo – odczuje tak potężną przyjemność ze zdobycia ostatniego brakującego talerza z jakiegoś szczególnie wspaniałego zestawu porcelany, że tej radości i dumy nie sposób przełożyć na pieniądze. I nie ma sensu tłumaczyć, że kotlet będzie smakował dokładnie tak samo na talerzu z Ikei za 9,99 złotego. To przecież nie o to chodzi…

Po drugie, nie chodzi też o krytykowanie samego dążenia do wysokiej jakości dźwięku. To byłby absurd. Jest przecież oczywiste, że można usłyszeć różnicę pomiędzy, powiedzmy, najtańszymi słuchawkami dousznymi, które otrzymujemy za darmo w samolocie albo kupujemy za kilka złotych w przejściu podziemnym, a dobrej klasy sprzętem, na którym można w końcu usłyszeć basy bez charczenia.

W tym miejscu zaczynamy jednak stąpać po bardzo kruchym lodzie, ponieważ w całej „wojnie o audiofilię” rozchodzi się w istocie o ten jeden niewinny zwrot: „można usłyszeć”. O ile bowiem mogę jako tako zrozumieć człowieka, który po prostu musi wymienić każdy kabelek w swoim zestawie na produkty należące do określonej serii kabelków, z których każdy ma pięć cyfr na metce, o tyle unoszę brwi w momencie, w którym pada teza, że różnicę pomiędzy zwykłym kablem zasilającym a takim wykonanym z monokrystalicznej miedzi i hartowanym w komorach kriogenicznych Dalekiego Wschodu „można usłyszeć”. Naprawdę?

Po trzecie, nie chodzi mi też o owe wyrafinowane, poetyckie opisy niebiańskich doznań przeżywanych przez audiofilów po przetestowaniu nowego produktu – a opisy te, dodajmy, są łatwym i popularnym obiektem kpin. Oto autentyczna relacja z przeżyć będących skutkiem ułożenia kabli głośnikowych na specjalnych podstawkach (dziewięćset pięćdziesiąt złotych za sztukę), tak aby nie stykały się z podłogą:

Podstawki powodują, że brzmienie pogłębia się i szlachetnieje. […] Słychać to jak dodanie do brzmienia pespektywy i życia. To pierwsze to zasługa lepszego nasycenia drobnymi szczegółami. Brzmienie wydaje się głębsze i nieco cięższe. Dociążenie to nie wynika jednak z dodania basu, a z większej naturalności brzmienia. […]

Bardzo ciekawie zmienia się również sposób kształtowania ataku. Bez podstawek dźwięk jest nieco bardziej suchy (to słabiej zaznaczana „osobista” akustyka) i jest też nieco mniej wyraźny, wydaje się bardziej miękki. Normalnie byłaby to zaleta, bo dźwięk naturalny nie jest konturowy, nie zwracamy uwagi na atak – po prostu jest i już. Tutaj chodzi jednak o coś trochę innego. Lepiej definiowany dźwięk z podstawkami jest bardziej naturalny i wcale nie jest bardziej konturowy20.

Dobrze, przyznam to: trudno zachować powagę w obliczu takich recenzji. Ja jednak nie mam zamiaru dzisiaj dołączać do chóru rozbawionych. Skoro można przeżyć coś wspaniałego – i spróbować przekazać to światu – gdy poczuje się aromat świeżo zaparzonej kawy, to dlaczego mielibyśmy zabraniać amatorom sprzętu audio dzielenia się zachwytem po położeniu kabla na kawałku sprężynującej deseczki? Można oczywiście pytać, czy różnicę tę jest w stanie zarejestrować najczulszy sprzęt do nagrywania dźwięku na planecie i czy w rygorystycznie kontrolowanych warunkach jest ją w stanie usłyszeć sam ów człowiek – i za chwilę spróbujemy odpowiedzieć właśnie na to pytanie.

Problem pojawia się jednak wtedy, gdy w te barokowe opisy próbuje się mieszać naukę, implikując choćby, że przepuszczenie prądu przez urządzenie audiofilskie potrafi „uporządkować przepływ elektronów”, usuwając z nich „energię szumu kwantowego”, co skutkuje dźwiękiem o „lepszej rozdzielczości, większym cieple i głębi harmonicznej” (co robią rzekomo „oczyszczacze kwantowe” – quantum purifiers – firmy Bybee). Publikowane w czasopismach audiofilskich opisy sprzętów i akcesoriów obfitują w tego typu perełki, które wchodzą już do mojego ogródka: przestajemy bowiem rozmawiać o czyichś przeżyciach, a zaczynamy o domniemanych procesach fizycznych.

Krótko mówiąc, w całym ekosystemie audiofilii interesować nas będą dwa zasadnicze zjawiska: „naukowe” uzasadnienia dla co bardziej ekstremalnych sprzętowych ekstrawagancji oraz możliwość rzeczywistego rozpoznania skutków zastosowania tego sprzętu.

Problem zdefiniowany? Do ataku.





Kwantowy szum na kablach


Cały zestaw sprzętu służącego do odtwarzania muzyki składa się właściwie z trzech podstawowych elementów: źródła sygnału, wzmacniacza i głośników, połączonych ze sobą kablami. Źródłem może być gramofon (jeśli chcemy słuchać płyt winylowych), odtwarzacz CD/DVD, ale też komputer pobierający muzykę z internetu. Słowo „wzmacniacz” kryje w sobie tak naprawdę kilka różnych urządzeń, jednak na nasze potrzeby wystarczy uznać, że jest to ten sprzęt, który przerabia sygnał uzyskany ze źródła do postaci odpowiedniej dla głośników, ewentualnie modyfikując go nieco zgodnie z potrzebami użytkownika. Jednym z procesów, które zachodzą we wzmacniaczu, jest po prostu wzmocnienie sygnału, jednak po drodze można również nieco nad nim popracować, na przykład „podkręcając” niektóre częstotliwości, aby lepiej było słychać tony niskie albo wysokie. Na froncie wzmacniacza lubią pojawiać się różnego rodzaju pokrętła służące właśnie do takich celów. Funkcji głośników chyba nie trzeba tłumaczyć.

Istotę „audiofilii ekstremalnej” najłatwiej chyba zrozumieć na przykładzie okablowania, pomówmy więc nieco o kablach. W najprostszej postaci potrzebne są tak naprawdę trzy kable: zasilający (który doprowadzi prąd do systemu), sygnałowy (prowadzący od źródła do wzmacniacza) i głośnikowy (prowadzący od wzmacniacza do głośników). Ponieważ w całej „zabawie w muzykę” niezwykle istotny jest podział na analogowe i cyfrowe źródła dźwięku, czemu odpowiadać będzie sygnał (a więc i kabel) analogowy lub cyfrowy, powiedzmy parę słów również na ten temat.

Istotę tej różnicy najprościej zrozumieć, gdy zastanowimy się, jak powstaje dźwięk w gramofonie. Wróćmy zatem do pradziejów tej technologii, żeby ujrzeć ten proces z jak największą klarownością. Zacznijmy od nagrania płyty przy użyciu fonografu – tak jak to robiono aż do lat dwudziestych XX wieku. Osoba, której głos chcemy uwiecznić, mówi wprost do tuby fonografu. Fale dźwiękowe wzbudzają znajdującą się na jej dnie membranę, która wzmacnia wibracje i przekazuje je rysikowi. Ten, wciśnięty w obracającą się płytę, odciska na niej kształt wprost odpowiadający kształtowi fali akustycznej. Gdyby nagrywanym dźwiękiem było czyste, jednolite buczenie, któremu odpowiada idealna sinusoida, na dnie rowka płyty gramofonowej znalazłyby się równe, gładkie górki i dolinki. Odtwarzanie muzyki to proces odwrotny, przy czym płyta jest już utwardzona, a zamiast ostrego jak brzytwa rysika stosowana jest delikatnie przyciśnięta do dna rowka igła. Zamrożony w płycie winylowej kształt fali jest teraz przekazywany membranie, która wytwarza dźwięk. Jest to idealna demonstracja analogowego przesyłu informacji: kształt zagłębień w płycie jest analogiczny do sygnału zawartego w fali akustycznej – jest to ciągła, „gładka” reprezentacja tego sygnału, przeniesiona tylko do innego medium.

Sygnał cyfrowy to już wynalazek ery komputerów. Sygnał wejściowy zostaje w pewien konwencjonalny sposób przetłumaczony na ciąg zer i jedynek. Jest to sygnał nieciągły, ponieważ składa się z wyraźnie od siebie oddzielonych sekcji reprezentujących „zero” oraz tych reprezentujących „jeden”. Co więcej, nie jest on podobny do początkowego sygnału akustycznego – język zer i jedynek to pewna konwencja ustalona przez inżynierów i programistów, różna w zależności od przyjętego formatu zapisu. Jedno i to samo brzmienie można uzyskać na podstawie milionów różnych sekwencji zer i jedynek.

Dziś dźwięki, obrazy, tekst i wszystko inne przesyła się niemal wyłącznie metodą cyfrową. Ma to wiele potężnych zalet – przede wszystkim, przy zachowaniu pewnej ostrożności, sygnał nie ulega degeneracji. Jak wiedzą to wszyscy, którzy kiedykolwiek posiadali płytę gramofonową, po latach słuchania jakość dźwięku nieuchronnie spada: nic dziwnego, skoro odpowiada za nią czysto fizyczny kształt rowków w jakimś przedmiocie materialnym. Każdy kolejny etap zapisu i odczytu sygnału może wprowadzać kolejne niedoskonałości: tępa igła, drobina kurzu na płycie, wibracja od przejeżdżającego za oknem tramwaju – to wszystko wpływa na ostateczną jakość dźwięku, która podobnie jak sam sygnał ma charakter ciągły, to znaczy może nieznacznie spaść. Tymczasem ciąg zer i jedynek, o ile zostaną one wiernie przekazane z punktu A do punktu B – co można na różne sposoby zagwarantować – zachowuje stuprocentową wierność oryginałowi. Nie tylko sam sygnał jest zero-jedynkowy, również jego transmisja – albo urządzenie odbierające otrzymało dokładnie taką samą sekwencję bitów, albo nie.

Wróćmy do sprzętu. Jak łatwo wywnioskować z powyższego opisu, szczególnie trudne do wytłumaczenia będą udoskonalenia w przypadku dwóch elementów systemu audio: kabli zasilających i kabli do przesyłu sygnału cyfrowego. W pierwszym przypadku funkcją kabla jest po prostu dostarczenie energii elektrycznej, która trafia do naszych urządzeń. Gdy już zapewnimy odpowiednią grubość przewodu i solidne wykonanie wtyczek, pozostaje naprawdę niewiele do zrobienia. Jeżeli chcemy dodatkowo zabezpieczyć się na wypadek skoków napięcia albo przerw w dostawie prądu, możemy iść odrobinę dalej, jednak droga ta szybko się urywa. W drugim przypadku funkcją kabla jest przesył sygnału cyfrowego, tak więc nie da się wyjść poza wierne przesłanie wszystkich zer i jedynek we właściwym momencie. Dobrą analogią jest usługa pocztowa: gdy chcę po prostu, aby nadana przeze mnie paczka trafiła w nienaruszonym stanie pod wskazany adres w ciągu dwudziestu czterech godzin, jakość tej usługi naprawdę trudno będzie podnieść, jeśli zapewnimy już spełnienie tego elementarnego warunku. Czy dalibyście się namówić na zapłacenie kilku tysięcy złotych za przesłanie paczki do sąsiedniego miasta tylko dlatego, że firma kurierska zarzeka się, że przesyłki przewożone są w pięknym, lśniącym lamborghini? Oczywiście, że nie. Marka i cena samochodu nie mają znaczenia, dopóki paczka trafi terminowo do adresata. Wydawałoby się, że tak samo jest z kablem cyfrowym, którego jedynym zadaniem jest wierne przekazanie sekwencji zer i jedynek we właściwym momencie… Tu jednak wkraczają spece od marketingu, których zadaniem jest wymyślić wiarygodnie brzmiące wyjaśnienie dla zainwestowania wielu tysięcy dolarów w coś, co stanowi w istocie kawałek kabla.

Producenci sprzętu audiofilskiego informują na swoich stronach internetowych o dziesiątkach specjalistycznych materiałów, procesów i rozwiązań technologicznych, które miałyby rzekomo „polepszać przepływ prądu” w przewodach (o tym ostatnim sporo można poczytać choćby na witrynie znanej firmy Furutech). Rzecz w tym, że opisy te albo wyrażone są językiem tak mętnym, luźno tylko czerpiącym z rzeczywistego nazewnictwa naukowego, że nie sposób się zorientować, o czym właściwie mowa, albo – gdy już autorzy opisów pokuszą się o precyzję – bywają jawnie sprzeczne z tym, czego dowiedzieliśmy się w ciągu ostatnich setek lat o strukturze świata fizycznego.

Ot, firma VooDoo Cable, która sprzedaje przewody zasilające wymrażane w temperaturze minus stu dziewięćdziesięciu dwóch stopni Celsjusza, co miałoby „zacieśnić i wyrównać strukturę molekularną stopów przewodzących i metali”. Jak nauka długa i szeroka, nie spotkamy w niej wzmianki o „zacieśnianiu” (w oryginale: tightening) struktury molekularnej. Od biedy można by uznać, że chodzi o nieznaczne zbliżanie się do siebie atomów, które faktycznie odbywa się przy ochłodzeniu próbki ze względu na zjawisko rozszerzalności termicznej. Rzecz w tym, że jest to zjawisko odwracalne i w niedługim czasie po wyciągnięciu przewodu z komory kriogenicznej wszelkie „zacieśnienie struktury molekularnej” szybko przeminie – podobnie jak balonik włożony do lodówki nieco zmniejszy objętość, jednak wkrótce po wyciągnięciu wróci on do pierwotnego rozmiaru. A może autorom strony chodziło o jakieś domniemane przemiany fazowe? Nie sposób się dowiedzieć.

Gdy wejdzie się w świat audiofilskich kabli, szybko okazuje się, że ich wymrażanie w ciekłym azocie przed wsadzeniem do paczki i wysłaniem klientowi stanowi dziś standard rynkowy. Każdy producent przedstawia jednak swoją wizję tego, co właściwie dzieje się w przewodzie w trakcie jego schładzania i dlaczego tak naprawdę miałoby to mieć jakiekolwiek znaczenie dla jakości dźwięku.

Essential Sound Products informują, że w wyniku wymrożenia „łagodzone są negatywne skutki granic ziaren krystalicznych w miedzi”, dzięki czemu, nawiasem mówiąc, ich kable zasilające dostarczają „bardziej realistycznego i silniej angażującego emocjonalnie” doświadczenia muzycznego; nagranie cyfrowe „brzmi jak analogowe” (sic!) i nawet sekcja smyczkowa brzmi „mniej metalicznie i piskliwie”. I znów – nie ma żadnego sensownego wytłumaczenia, dla którego obecność granic między ziarnami w przewodzie miedzianym miałaby w jakikolwiek sposób wpływać na poprawność pracy kabla zasilającego i co właściwie „robi” z tymi granicami wymrażanie. Ziarna robią się większe czy mniejsze? Granice się przesuwają, a może wyrównują? Jak właściwie miałoby to wpływać na przepływ prądu? O tym cisza. Dowiadujemy się tylko tyle, że wpływ ziaren jest „negatywny”, a „nasze” kable wpływ ten niwelują.

Furutech oferuje jeszcze inną wizję: wymrażanie miałoby sprawiać, że „cząsteczki miedzi” w przewodzie „silniej się ze sobą wiążą”. Można próbować się domyślić, że energia wiązania atomów miedzi rzekomo miałaby wzrosnąć, jednak nie ma żadnego powodu, dla którego miałoby to rzeczywiście nastąpić. Oddziaływania pomiędzy sąsiednimi atomami miedzi w próbce przewodu miedzianego – bez względu na to, czy był on wcześniej wygrzewany, wychładzany, czy zabrano go na stację orbitalną, czy zakopano w ziemi na parę dekad – wynikają po prostu z elementarnych praw fizyki ciała stałego.

Krótko mówiąc, gdy szuka się wytłumaczenia, dla którego proponowane udoskonalenia miałyby właściwie przynosić jakikolwiek realny skutek fizyczny i sprzętowy, natrafia się na próżnię. Producenci – i entuzjastyczni recenzenci – z lubością odwołują się do mętnie sformułowanych wyjaśnień, w których pobrzmiewa dalekie echo terminologii naukowej, niemających jednak żadnego prawdziwego powiązania ze współczesnym stanem wiedzy o budowie materialnej świata. Pod tym względem sytuacja panująca w audiofilii ekstremalnej przypomina tę w świecie radiestezji i neutralizacji „promieniowania żył wodnych” (zobacz rozdział 8): jesteśmy przekonywani, że na pewno występuje jakieś negatywne zjawisko, które na pozór brzmi naukowo – i którego opis w miarę naszego dociekania staje się coraz bardziej mętny – oraz oferowane nam jest, za słoną cenę, rozwiązanie tego problemu, również opisywane przy użyciu tak mętnego języka, jak to tylko możliwe.

To wszystko jednak jest przecież drugorzędne – ktoś mógłby odpowiedzieć. Ba, mało to przypadków, gdy coś „po prostu działa”, choć prawidła fizyczne odpowiedzialne za to nie są jeszcze znane? Najważniejsze, że różnicę pomiędzy kablem zwykłym a wymrażanym „po prostu słychać”, o czym zawsze z wielką emfazą informują producenci. VH Audio, kolejny producent tysiącdolarowych kabli zasilających, pisze o tym z podziwu godną szczerością:

Czym jest wymrażanie? Jest to powszechnie stosowany proces służący do wzmacniania metali żelaznych (zwykle stali). W trakcie wymrażania miękkie, niestabilne zanieczyszczenie węglowe określane jako austenit przekształca się w formę stabilniejszą o nazwie martenzyt. […]

Co jednak z zastosowaniami audio? W większości materiałów stosowanych w sprzęcie audio nie ma znaczącej ilości austenitu i martenzytu. Co więc się dzieje? Prawdę mówiąc, nikt tak naprawdę nie wie. […] Teorii nie brakuje, ale wielu spekuluje, że zmiana zachodzi na poziomie granic ziaren albo nieczystości w metalu, albo że dochodzi do niej w materiale dielektrycznym. […] Ostatecznie pozostaje nam ocena subiektywna. Z perspektywy subiektywnej najczęściej zgłaszane efekty wymrażania to:

szerszy zakres dynamiczny

gładsze, bardziej wyrafinowane tony wysokie

lepsza artykulacja basu

bardziej organiczna prezentacja

głębsza, bardziej trójwymiarowa scena.



I tu dochodzimy do sedna. Opisy zacieśniania, wyrównywania, wzmacniania i harmonizacji wiązań atomowych to tak naprawdę tylko drobny dodatek do tego, co stanowi „mięcho” każdego opisu produktu audiofilskiego: zachwycone wypowiedzi szczęśliwych kupców dobrze wymrożonego kabla zasilającego, którzy w końcu usłyszeli prawdziwą głębię Mozarta, Coltrane’a czy Lennona. Krótko mówiąc…





„To po prostu słychać”


Przypuśćmy, że wstrzymujemy się od oceny, czy za tymi kwiecistymi opisami w duchu poezji naukowej kryje się jakaś fizyczna rzeczywistość. Przypuśćmy, że odkładamy na bok pytanie, czy jest w ogóle fizycznie możliwe, że wymiana przewodu zasilającego z wymrożonego na niewymrożony wpływa na wydobywający się z głośników dźwięk. Zostańmy na chwilę audiofilskimi agnostykami w sprawie obiektywnego stanu rzeczy i skupmy się na sferze subiektywnej: oto grupa ludzi przekonuje nas, że różnicę „po prostu słychać”. Czy mamy im wierzyć?

I tu dochodzimy do podstawowego problemu z testowaniem sprzętu audio. Standardowa metoda, na podstawie której powstają recenzje tych urządzeń, jest następująca. W pomieszczeniu odsłuchowym siadają recenzent lub recenzenci. Uruchamia się sprzęt w konfiguracji początkowej, która będzie stanowiła „punkt wyjścia” – w slangu audiofilskim jest to „system referencyjny” – i odsłuchuje się „na nim” wybrany utwór lub utwory muzyczne. Następnie podmienia się wybrany element, który podlega testowaniu, na przykład kabel zasilający. Ponownie słucha się tych samych utworów, po czym następuje ocena.

Problem polega na tym, że taka metoda jest piekielnie wręcz podatna na autosugestię. Sędziowie wiedzą, że za chwilę będzie testowany złocony, wymrażany superkabelek w cenie paru używanych opli, a ich subiektywny odbiór tego, co słyszą, zabarwiony jest tą wiedzą. To nie oszustwo, nieuczciwość czy forma słabości psychologicznej – to najzwyczajniejsze w świecie zjawisko psychologiczne, doskonale znane naukowcom, podobne do złudzeń optycznych. Podobnie jak doświadczenie złudzenia optycznego jest świadectwem nie upośledzenia układu nerwowego, lecz jego prawidłowego funkcjonowania, również i autosugestia jest czymś najzupełniej normalnym, wykorzystywanym zresztą choćby w medycynie, w której jego specyficzną odmianę określa się jako efekt placebo.

Efekt placebo, czyli autentyczna, mierzalna poprawa stanu zdrowia następująca wyłącznie pod wpływem sugestii, to zaś naprawdę potężne zjawisko – i będzie regularnym gościem niniejszej książki. Jego najsłynniejszym obszarem działania jest poziom farmakologiczny. Podanie tabletki niezawierającej żadnej substancji czynnej, a tylko przedstawionej jako lek przeciwbólowy, naprawdę potrafi wyleczyć ból głowy. Co więcej, prawdziwe leki przeciwbólowe, ale podane bez wiedzy pacjenta (na przykład dożylnie wraz z kroplówką) są mniej skuteczne niż te, o których podaniu pacjent wie21. Jeszcze bardziej spektakularne jest zastosowanie placebo w… chirurgii. Okazuje się, że w pewnych przypadkach, zwłaszcza z zakresu ortopedii, udawana operacja (sham surgery) – gdy przeprowadza się pacjenta przez całą procedurę przygotowania do zabiegu, włącznie z wykonaniem nacięcia, jednak chirurg tylko udaje, że wykonuje jakiekolwiek procedury wewnątrz ciała pacjenta – bywa równie skuteczna jak operacja22.

Prowadzi to do kłopotliwej sytuacji. Przypuśćmy, że testujemy nowy lek przeciwbólowy. Pacjenci z grupy testowej rzeczywiście zgłaszają, że przestała ich boleć głowa – jak sprawdzić, czy w tym konkretnym przypadku badana substancja wykazuje jakąkolwiek aktywność farmakologiczną? Szczęśliwie, świat medyczny zna doskonałą metodę, jak sprawdzić, czy w danym przypadku za subiektywnie odczuwaną różnicą kryje się jakiekolwiek realne zjawisko fizyczne, realnie wpływające na dany proces fizjologiczny. Mowa o tak zwanej randomizowanej próbie ślepej (różne poziomy badań naukowych opisuję też w rozdziale 11 o wysokich dawkach witaminy C). Wyobraźmy sobie, że dwustu pacjentom podajemy identycznie wyglądającą tabletkę, przy czym w stu przypadkach kryje się w niej testowana substancja lecznicza, a w stu pozostałych jest to tylko wypełniacz. Nikomu nie mówimy, co otrzymał – pacjenci są więc „ślepi” na zawartość tabletki. W takim razie autosugestia zostaje skutecznie wyeliminowana z procedury testowej. Aby upewnić się, że podający tabletkę lekarze nie przekazują – świadomie lub nie – pacjentom jakichś sygnałów (na przykład nieznacznie chichocząc, gdy podają placebo, albo aplikując nowy superlek ze specjalnym namaszczeniem), stosuje się ponadto tak zwaną podwójnie ślepą próbę, co oznacza, że ani osoba podająca lek, ani sam pacjent nie wiedzą, z czym mają do czynienia. Podwójnie ślepa próba to od dekad absolutny standard we wszystkich badaniach naukowych, w których może wystąpić efekt sugestii i autosugestii.

Wydaje się więc, że mamy idealny sposób na przetestowanie „efektu kabelka”. Zapraszamy naszych gości na pokaz, chowając za parawanem sprzęt oraz technika, który ma w ustalonym momencie dyskretnie zamienić kable, nigdy nie wychylając zza kotary choćby i czubka głowy. Odtwarzamy następnie wybraną sekwencję utworów, każąc sędziom ocenić jakość brzmienia. Pod koniec testu porównujemy ich uwagi z sekwencją zmian odnotowaną przez technika. Proste, prawda?

Zanim przejdziemy do tematu podwójnie ślepych prób sprzętu audiofilskiego, podam pouczający przykład zastosowania tej metody w innej dziedzinie życia. Tego typu testy wykonuje się bowiem od lat, poddając preferencje konsumenckie, zwłaszcza ekspertów, „próbie ognia”. To znakomita metoda oddzielania efektu psychologicznego od faktycznej różnicy, na przykład smaku! Na celowniku badaczy znalazło się choćby wino – produkt, który ma wiele wspólnego ze sprzętem audio: i tu, i tu występują głęboko oddana sprawie grupa ekspertów, specjalistyczny język o zaawansowanej metaforyce, atmosfera snobizmu i ekskluzywności, a także skrajne różnice cenowe pomiędzy poszczególnymi produktami.

Najsłynniejszą ślepą próbą win był „sąd paryski”23 z 1976 roku. Brytyjski handlarz win Steven Spurrier zaprosił jedenaścioro wybitnych znawców, z czego dziewięcioro z Francji, do oceny jakości dwudziestu win pochodzących po połowie z Francji i z Kalifornii. W latach siedemdziesiątych powszechnie uważano, że wina kalifornijskie są pośledniej jakości w porównaniu z francuskimi. Ku zdziwieniu organizatorów i sędziów w każdej kategorii triumfowały wina kalifornijskie. Francuska guru winiarstwa i redaktorka „La Revue du vin de France” Odette Kahn, która brała udział w teście, była tak oburzona jego wynikiem, że zażądała zniszczenia swojej karty z ocenami! „Sąd paryski” został z humorem opowiedziany w filmie Wino na medal z 2008 roku i na stałe wszedł do historii enologii, jednak metodologia samego testu była raczej niskiej jakości.

Są jednak w literaturze naukowej opisy znacznie bardziej systematycznych eksperymentów. W 2008 roku w czasopiśmie „Journal of Wine Economics” opublikowane zostało spore badanie24 zbierające wyniki 17 podwójnie ślepych eksperymentów, w których wzięło udział łącznie 506 osób, przedstawiwszy 6175 ocen dla 523 różnych win, w cenie 6–600 złotych za butelkę. Wynik? „Osoby, które nie znają ceny [wina], nie oceniają wyżej droższych win”. Po wzięciu pod uwagę całej próbki (wszystkich 506 osób) wykryto wręcz efekt negatywny, to jest badanym nieco bardziej smakowały wina tańsze. Gdy jednak zawęzić próbę do osób określonych jako „eksperci”, występuje pewien efekt pozytywny, choć raczej nieznaczny. Badacze wyrażają siłę tych efektów następująco: gdyby wyobrazić sobie, że smak wina oceniany jest w skali od 0 do 100, to dziesięciokrotny przyrost ceny wiąże się ze wzrostem oceny przez ekspertów o 7 punktów oraz spadkiem o 4 punkty, gdy oceniają amatorzy. Inaczej mówiąc, gdyby typowe wino za 15 złotych eksperci oceniali na, powiedzmy, 60 punktów, to typowe wino za 150 złotych będzie przez nich oceniane na 67 punktów (a amatorzy ocenią je średnio na 56 punktów). Czy są to istotne różnice? Niech każdy oceni w swoim sercu. Dzięki tego typu badaniom mamy jednak przynajmniej do dyspozycji pewną wiedzę o tym, ile jest prawdy w potocznych przekonaniach o tanich i drogich winach.

No dobrze, jak to więc jest z tym sprzętem audiofilskim? Problem z przeprowadzeniem tego typu badań polega wyłącznie na tym, że niezbędne jest znalezienie… chętnych do wzięcia w nich udziału. Tymczasem recenzenci sprzętu muzycznego, wychwalający zalety wymrażanych kabli, konsekwentnie odrzucają wszelkie tego typu propozycje. Raz prawie udało się przeprowadzić solidnie kontrolowane, naprawdę duże badanie tego typu – miała je zorganizować James Randi Educational Foundation, organizacja non profit zajmująca się weryfikowaniem różnego rodzaju irracjonalnych twierdzeń (o Jamesie Randim będzie jeszcze mowa w rozdziale 9 o strukturyzacji wody) – jednak w ostatniej chwili wycofał się producent sprzętu audiofilskiego Pear, który miał dostarczyć kable25.

Dziś doszło już do tego, że sama idea przeprowadzania naprawdę rzetelnych testów, wykluczających możliwość autosugestii, znalazła się na celowniku – o czym będzie mowa poniżej. Wskutek rosnącej podejrzliwości środowiska większość dostępnych w literaturze podwójnie ślepych prób przeprowadzono na względnie niewielkich próbkach sędziów. I są one jednak pouczające. Omówmy może bliżej parę z nich.

13 listopada 2004 roku w Oakland w Kalifornii przeprowadzono test z udziałem piętnastu członków Bay Area Audiophile Society (BAAS) – organizacji zrzeszającej kalifornijskich audiofilów26. Eksperyment zorganizowali dziennikarze muzyczni pracujący dla Secrets of Home Theater and High Fidelity, serwisu internetowego zajmującego się wysokiej jakości sprzętem muzycznym. Testowano kable zasilające Nordost Valhalla (w chwili pisania tego tekstu Nordost Valhalla 2 kosztuje w jednym z polskich sklepów internetowych 22 249 złotych) przez porównanie ich z tanim kablem kupionym w supermarkecie. Przypomnijmy – mowa o kablach zasilających, których jedyną rolą jest dostarczenie prądu do urządzenia. Użyto protokołu ABX, co oznacza, że najpierw podpina się jeden kabel (A), następnie drugi (B), po czym losowo albo A, albo B, badani zaś mają zapisać na kartce, czy ich zdaniem za trzecim razem wpięto kabel A, czy B. Krótko mówiąc, badani mieli wykazać się najmniejszą wyobrażalną perceptywnością – usłyszeć, czy jest jakakolwiek różnica pomiędzy zwykłym kablem z supermarketu a sprzętem o najwyższej jakości i cenie.

Bezpośrednio po teście, jednak przed podaniem wyniku badanych poproszono ponadto o wypełnienie krótkiej ankiety, w której zostali zapytani, czy warunki testu były ich zdaniem zadowalające ze względu na cel badania i czy słyszeli różnicę między kablami. Tylko jedna osoba uznała, że warunki testu były złe, a nikt z badanych w odpowiedzi na pytanie drugie nie zaznaczył opcji: „Nie usłyszałem żadnej różnicy”. Cóż, wyniki testu zadały kłam temu drugiemu przekonaniu: odsetek poprawnych identyfikacji kabla wyniósł… czterdzieści dziewięć procent – dokładnie tak samo sprawiłyby się generator liczb losowych albo grupka szympansów. Najlepszy spośród piętnastu audiofilów uzyskał wynik siedemdziesiąt procent, czyli wciąż mieszczący się w granicach tego, czego powinniśmy się spodziewać po czysto przypadkowych strzałach.

Opisano kilka testów tego typu, które spełniają minimalne wymogi metodologiczne – wszystkie prowadzą do tej samej konkluzji: ludzkie ucho, nieuprzedzone przez mózg co do ceny i jakości kabla zasilającego, nie jest w stanie usłyszeć różnicy między zwykłym egzemplarzem, na przykład takim dodawanym gratis do wieży stereo, a kablem z górnej półki. Audio Society of Minnesota przeprowadziło dość starannie zaprojektowaną próbę27, w której spośród czterech kabli „audiofilskich”, kosztujących powyżej tysiąca dolarów każdy (oznaczonych literami B, C i D), umieszczono jedno „zgniłe jajo” – kabel z supermarketu za trzy dolary (kabel A). Uczestników poproszono o ocenę kabli parami, co dało siedem osobnych testów. Głosowało czterdzieści osób. W żadnym przypadku, w którym zestawiono „zgniłe jajo” z produktem audiofilskim, nie było jednoznacznej różnicy preferencji. Przykładowo, kabel z supermarketu najgorzej wypadł w teście numer sześć, gdy zestawiono go ze srebrnym kablem z teflonową powłoką, wartym „ponad tysiąc dolarów”, cytując organizatorów. Różnica nie powala jednak na kolana: „superkabel” wybrało czterdzieści jeden procent badanych, „trójdolarówkę” – dwadzieścia siedem procent, a trzydzieści dwa procent przyznało, że w ogóle nie słyszy żadnej różnicy między tymi dwoma kablami. A to był przypadek najgorszy dla taniego kabla!

Prowadzono też testy podobne do tego opisanego powyżej, w których testowano en masse całe zestawy sprzętowe: tanie z ekskluzywnymi. W jednym z takich badań, zorganizowanym przez hiszpańskie stowarzyszenie Matrix-HiFi, zaproszono grupę trzydzieściorga ośmiorga uczestników, samookreślających się jako audiofile, aby ocenili, która spośród dwóch konfiguracji sprzętowych daje, ich zdaniem, lepszy dźwięk28. Konfiguracja A składała się z taniego sprzętu umieszczonego na rozkładanym krześle drewnianym. Konfiguracja B została złożona z najwyższej jakości komponentów, które umieszczono na specjalnym tłumiącym drgania stoliku. Sprzęty schowano za gustowną czerwoną zasłonką. Czternaścioro badanych (trzydzieści osiem procent) przyznało, że nie słyszy różnicy. Co ciekawe, taka sama liczba – czternaścioro – uznała, że ich zdaniem lepiej sprawuje się sprzęt A, a tylko dziesiątka (dwadzieścia sześć procent) stwierdziła, że bardziej odpowiada im dźwięk wydobywający się z konfiguracji sprzętowej B. Sprzęt tańszy był więc preferowany o połowę częściej niż sprzęt z górnej półki – choć biorąc pod uwagę rozmiar próby, jest to wciąż i tak niewielka różnica, podobna do tej uzyskanej w cytowanym wyżej teście z Minnesoty.

Niestety wiele najciekawszych raportów z badań tego typu ma charakter anegdotyczny. W jednym z nich29 prowadzący postanowili zakpić sobie nieco z audiofilów, każąc im wychwycić różnicę pomiędzy kablem zasilającym firmy Monster a… drucianym wieszakiem na ubrania. Zgromadzeni w pomieszczeniu audiofile mieli rzekomo nie tylko nie dostrzec różnicy, ale wręcz wychwalać jakość dźwięku po podpięciu zasilacza do prądu wieszakiem. Jest to jednak historia, którą ze względu na kiepskie potwierdzenie (opiera się ona ostatecznie na jednym wpisie na forum internetowym) trzeba potraktować raczej jako humorystyczny komentarz do debaty niż poważny raport z badań.





Winna jest nauka!


Byłoby oczywiście świetnie, gdyby udało się przeprowadzić jak najwięcej rzetelnych testów tego typu, z każdym kolejnym rokiem rośnie jednak opór ze strony środowiska audiofilskiego. Mogłoby się wydawać, że to właśnie jemu powinno najbardziej zależeć na ostatecznym wykazaniu, że wymrożenie lub „odmagnetyzowanie” kabla, otoczenie przewodu nylonem, teflonem i bawełną albo pokrycie styków warstwą rodu wpływa na dźwięk w dającym się usłyszeć stopniu. Tak jednak nie jest, a dziś ze strony audiofilskiej padają już głosy sprzeciwu wobec samej metody naukowej jako takiej. Podobnie jednak jak w przypadku opisu zjawisk fizycznych mających rzekomo zachodzić w wymrażanych kablach i tutaj trudno jest złapać autorów za rękę i odnaleźć w ich wypowiedziach jakiś konkretny, dobrze sformułowany zarzut. Choć w ostatnich dniach przedarłem się przez dziesiątki tekstów krytycznych wobec ślepego testowania sprzętu muzycznego, żadnym sposobem nie potrafię odnaleźć niczego na tyle solidnego, by dało się z tym dyskutować.

Pośród argumentów wysuwanych przeciwko ślepym testom sprzętu muzycznego znajduje się wręcz tak absurdalne tezy, że sama sytuacja testowa jest zbyt stresująca, aby w jej wyniku możliwe było uzyskanie wiarygodnych danych, albo że ocena jakości dźwięku to czynność „lewopółkulowa”, podczas gdy przeżywanie sztuki dokonuje się w prawej półkuli30.

Michael Lavorgna z portalu AudioStream napisał długi esej o niemożliwości sprawdzenia jakości sprzętu w warunkach testowych, jednak jego argumentacja sprowadza się do tezy, że warunki testowe są „nienaturalne”, a eksperymenty sprawdzają tak naprawdę wyłącznie „umiejętność brania udziału w eksperymentach”31. Siłą napędową całej procedury testowej miałaby zaś być… zazdrość.

John Atkinson z Stereophile twierdzi wręcz, że kontrolowane testy maskują drobne różnice, a prawdziwy dźwięk danego zasilacza można usłyszeć dopiero w swobodnych okolicznościach i znajomym otoczeniu32. Sądzi też, że zdolność do rozróżniania najdrobniejszych cech słyszanej muzyki jest dana niewielu, podczas gdy metody naukowe siłą rzeczy domagają się grupy istotnej statystycznie33. Ten argument pojawia się dość często w tekstach audiofilów. Cóż, co do zasady jest to pewnie prawda, jednak są z nim dwa podstawowe problemy.

Po pierwsze, wszystkie porządne testy – jak choćby te cytowane powyżej – skupiają się na grupie osób i tak już wyselekcjonowanej, choćby ze względu na przynależność do stowarzyszeń gromadzących miłośników muzyki. Jak bardzo musielibyśmy zawęzić swoje kryteria, aby złapać w sieć „prawdziwych ekspertów”? Tego typu sztuczkę argumentacyjną określa się zwykle jako no true Scotsman – „żaden prawdziwy Szkot”. Przypuśćmy, że ktoś stwierdza, iż żaden prawdziwy Szkot nie słodzi owsianki. A co, jeśli mój wujek Angus, Szkot, słodzi swoją owsiankę? „Ach – pada na to odpowiedź – wujek Angus nie jest więc prawdziwym Szkotem!” W ten sposób, stale przesuwając granice, można odrzucić dowolnie dobrze skonstruowany eksperyment. Jeśli spośród stu osób zgromadzonych na sali jedna odgadnie prawidłowo wszystkie konfiguracje sprzętowe (co w zasadzie musi się kiedyś wydarzyć, nawet przy całkowicie losowym wybieraniu odpowiedzi), możemy zakrzyknąć triumfalnie, że pozostała dziewięćdziesiątka dziewiątka to nie są prawdziwi audiofile, a prawdziwy audiofil, jak widać, potrafi bezbłędnie rozpoznawać kabelki na słuch!

Co zabawne, jedną z najlepszych odpowiedzi na „argument prawdziwego Szkota” w przypadku audiofilii jest autentyczny test przeprowadzony z udziałem… Szkota. Pochodzący z okolic Glasgow Ivor Tiefenbrun, założyciel Linn Products – firmy produkującej sprzęt muzyczny wysokiej klasy – został w 1984 roku zaproszony do wzięcia udziału w ślepym teście sprzętu audio zorganizowanym przez Boston Audio Society34. Na celowniku znalazło się wielokrotnie wygłaszane przez Tiefenbruna przekonanie, że muzyka cyfrowa nie może się równać analogowej. Gościa posadzono na kanapie, po czym sprawdzono, czy rzeczywiście jest on w stanie usłyszeć, że sygnał został „skalany” poprzez zapis cyfrowy. W eksperymencie występowała więc tylko jedna – w pełni analogowa – konfiguracja sprzętowa, a różnica między A i B polegała tylko na tym, że w jednym przypadku sygnał był dodatkowo przepuszczany przez przetwornik analogowo-cyfrowy, a następnie, bezpośrednio później, cyfrowo-analogowy. Tiefenbrun słuchał więc dwukrotnie dokładnie tego samego nagrania, odtwarzanego z tego samego źródła na tych samych głośnikach, jednak w jednym przypadku sygnał został na krótką chwilę „scyfryzowany”. Przed testem Tiefenbrun twardo utrzymywał, że różnica będzie dla niego oczywista.

Całkowicie negatywny wynik rzeczywistego testu (dziesięć poprawnych odpowiedzi na trzydzieści siedem) nie jest jednak aż tak znaczący jak ten uzyskany w pierwszej serii próbnej. Po przeprowadzeniu dwudziestu trzech prób technik obsługujący eksperyment zorientował się, że jeden z przełączników nie znajduje się we właściwym położeniu, przez co we wszystkich dwudziestu trzech przypadkach głośniki otrzymywały dwukrotnie ten sam (analogowy) sygnał. Tiefenbrun słyszał więc dwadzieścia trzy pary identycznych odtworzeń. Nie powstrzymało go to jednak przed gorliwym zaznaczaniem, czy w danym przypadku dźwięk został – czy nie został – „skalany” przez przetworzenie do postaci cyfrowej (co usłyszał, jak twierdził, aż w szesnastu z owych dwudziestu trzech przypadków, myląc się więc w siedemdziesięciu procentach przypadków).

Problem „prawdziwego Szkota” to jednak wciąż nie najpoważniejszy zarzut przeciwko argumentowi, że do docenienia sprzętu audiofilskiego potrzeba szczególnych zdolności. Nawet gdybyśmy przyjęli, że istnieje bardzo wąska grupka ludzi, którzy naprawdę słyszą różnicę między kabelkiem A a B – tak nieliczna, że nie udało się jeszcze złowić żadnego z nich do podwójnie ślepego testu, i tak delikatna, że w warunkach laboratoryjnych ich moce zanikają – całe zjawisko zaczyna nabierać efemerycznego, jeśli nie po prostu magicznego charakteru.

Tajemnicze zjawiska fizyczne, poetycki, pełen metafor język, nieliczna grupa ekspertów, którzy są w stanie przeżyć wspaniałe doświadczenie, niedostępne jednak ogółowi i niemanifestujące się pod okiem kamer… brzmi znajomo, prawda?





3 Chemtraile


czyli kto tak naprawdę jest naiwny, a kto krytyczny


W garażu podziemnym pod moim domem ktoś przykleił wlepkę o treści: „Zmęczenie? Niewyspanie? Ospałość? Youtube: Chemtrails”. Zrobiłem, co wlepka każe, i obejrzałem najpopularniejszy polski film na temat smug chemicznych: pięćdziesięciodwuminutowy „dokument” zatytułowany Zabójcze smugi chemiczne, czyli chemtrails na niebie – dr Jerzy Jaśkowski. I co?

I włos zjeżył mi się na głowie.





Rozprawka o metodzie


W tym miejscu należy się chyba parę słów wyjaśnienia na temat metody, którą przyjąłem podczas pisania niniejszej książki – i w ogóle mojej „metody dziennikarskiej”, jeśli wolno mi tak powiedzieć. Otóż moim fundamentalnym założeniem jest, aby zawsze – zawsze – podchodzić do danego tematu z otwartym umysłem i z takim właśnie nastawieniem słuchać argumentów obu stron. To dlatego przed napisaniem tekstu o wysokich dawkach witaminy C (zobacz rozdział 11) przeprowadziłem długą rozmowę z Jerzym Ziębą, który ową terapię promuje; to dlatego pojechałem do siedziby firmy Boiron, by porozmawiać na temat homeopatii z osobami, które produkują i sprzedają produkty homeopatyczne (rozdział 4). To dlatego wreszcie, gdy przyszło do tematu powiększania piersi w hipnozie (rozdział 10), zamiast odruchowo parsknąć śmiechem, podjąłem trud dokopania się do artykułów naukowych na ten temat z lat siedemdziesiątych i ostatecznie doszedłem do wniosku nieco innego niż dziewięćdziesiąt pięć procent polskich „sceptyków”.

Przyznam, że przed napisaniem tego tekstu nigdy bliżej się nie interesowałem smugami chemicznymi, pomyślałem więc, że tym razem spróbuję wykorzystać swoją dość szczególną sytuację niemal całkowitej niewiedzy i podejdę do sprawy jak „człowiek z ulicy”. Zrobię dokładnie to, co mi zalecił anonimowy autor wlepki, i to, co robią miliony ludzi na całym świecie: spróbuję wyrobić sobie zdanie po prostu metodą „obejrzenia filmu na YouTubie”. Bądź co bądź, taka jest właśnie najpowszechniejsza dziś metoda uzyskiwania wiedzy na najróżniejsze tematy, a film, który „wyskakuje jako pierwszy” po wpisaniu słowa kluczowego „chemtrails”, obejrzało przede mną sto sześćdziesiąt tysięcy osób. Proszę bardzo: przekonajcie mnie!





O co chodzi?


Zacznijmy może od szybkiego streszczenia, o co chodzi. Gdy już po obejrzeniu filmu zrobiłem porządny research, okazało się, że nie ma tu drugiego dna ani nie chodzi o nic innego jak o owe białe smugi pozostające za samolotami, które każdy z nas widział pewnie setki razy.

Standardowe wyjaśnienie jest następujące: w silniku samolotu odrzutowego następuje spalanie paliwa. Jednym z produktów tej reakcji jest para wodna. Samoloty latają na wysokościach, na których temperatura powietrza jest bardzo niska. Para wodna ulega kondensacji, powstaje więc najzwyczajniejsza w świecie chmura, tylko mająca kształt krechy, a w gruncie rzeczy dwóch lub czterech krech, które później zlewają się ze sobą i tworzą jedną białą smugę. I tyle. Formalny termin na tego typu strukturę to „smuga kondensacyjna”, można też na nią patrzeć jako na szczególnego rodzaju chmurę, określaną czasem jako cirrus aviaticus. W tym miejscu można by więc w zasadzie zakończyć rozdział – smugi kondensacyjne naprawdę nie domagają się żadnego wyjaśnienia wykraczającego poza elementarną fizykę.

Jest jednak kontrwyjaśnienie. Jakie? Smugi znajdujące się za samolotami miałyby świadczyć o tym, że z samolotów celowo wyrzucane są różnego rodzaju związki chemiczne, pełniące – zależnie od tego, do jakiego sięgnąć źródła – rozmaite funkcje. Najczęściej wymienia się modyfikację klimatu i kontrolę umysłu. Z filmu Zabójcze smugi chemiczne, który wydaje się nieźle reprezentować stanowisko wielu „smugowców”, wyłania się następująca wizja:

Istnieje możliwość technologicznego sterowania pogodą – geoinżynierii – polegającego w szczególności na kontrolowaniu opadów. Da się sprawić, aby w dowolnym miejscu w zadanym czasie, również stale, padał deszcz lub panowała susza. Dokonuje się to poprzez wypuszczanie do atmosfery „różnych pierwiastków” – w filmie wymienione zostają między innymi: chrom, żelazo, nikiel, bar, bor, miedź, stront i wanad.

Możliwości te są od dekad systematycznie stosowane na całym świecie do kontroli pogody, a z nią również rozwoju państw i regionów.

Istnieją skutki uboczne prowadzenia tego typu oprysków. Pierwszym z nich jest wymieranie pszczół, a następnie wzrost zachorowalności na choroby nowotworowe, układu oddechowego oraz psychiczne. Istnieje także osobna dermatologiczna jednostka chorobowa związana ze smugami chemicznymi, tak zwana choroba Morgellonów, powodująca pojawianie się na skórze trudno gojących się ran zawierających mikrowłókienka, a nawet podzespoły elektroniczne (!).



Tak w każdym razie wygląda – wierzcie lub nie – „racjonalne jądro” tego filmu. Trzeba było wiele wysiłku, aby streścić go tak zwięźle i precyzyjnie – moc oddziaływania tej produkcji nie opiera się bowiem na precyzyjnie wyrażonych tezach. Oj nie.





Mroczne sekrety


Tym, co jako pierwsze rzuciło mi się w oczy, gdy zacząłem oglądać Zabójcze smugi chemiczne, jest grobowa atmosfera filmu. Z pięćdziesięciu dwóch minut jego trwania mniej więcej ćwierć to po prostu kolaż zdjęć przedstawiających smugi kondensacyjne, a czasem po prostu zwykłe cirrusy w towarzystwie posępnego, niskiego, złowieszczego buczenia. Z początku trochę mnie to bawiło – dziwnie jest patrzeć na piękne zdjęcie nieba nad Kujawami w towarzystwie tak dramatycznej muzyki. Potem jednak przyzwyczaiłem się: jedno tylko kilkudziesięciosekundowe nagranie to cała ścieżka dźwiękowa; po pewnym czasie już się jej po prostu nie słyszy. Atmosfera grozy przepełnia jednak cały film, a wszystko, co zostaje w nim powiedziane, brzmi złowrogo. W towarzystwie takiej muzyki można by powiedzieć nawet: „Andrzej poszedł do sklepu”, a my podejrzewalibyśmy, że zostanie tam zamordowany.

Tym, co uderzyło mnie jako drugie, jest wylewający się z tego filmu klimat uogólnionej nieufności do właściwie wszystkich instytucji i autorytetów, jakie tylko można sobie wyobrazić. W ciągu zaledwie pięćdziesięciu dwóch minut zdążyłem dowiedzieć się, że problem smug chemicznych jest albo z premedytacją aktywnie zatajany, albo pasywnie ignorowany wskutek ludzkiej głupoty przez rządy krajów i organizacje międzynarodowe (na czele z NATO), akademie medyczne i sanepidy, urzędników na szczeblu centralnym i lokalnym, a także przez histopatologów, innych lekarzy, bankierów i producentów żywności. Domyślałem się już wcześniej, że masowy program wtryskiwania ton rozmaitych substancji do atmosfery musi wiązać się z jakiegoś rodzaju konspiracją, ale dopiero po obejrzeniu tego nagrania uświadomiłem sobie, jak totalne musiałoby być to przemilczenie. Jeśli wierzyć autorom tego filmu, dziewięćdziesiąt pięć procent ludzi, którzy kiedykolwiek mieli jakąkolwiek władzę, to albo cyniczni oszuści, albo idioci. Nie komentuję, nie oceniam – po prostu odnotowuję.

Trzecim ogólnym wnioskiem po obejrzeniu nagrania – który nasunął mi się, gdy już po napisach końcowych rozpoczął się ostatni, ponaddziesięciominutowy grobowy montaż zdjęć i filmików przedstawiających, no cóż, chmury – jest ten, że na etapie jego produkcji najwyraźniej nikt nie podjął próby zadbania, aby znalazło się w nim cokolwiek choćby odrobinę przypominającego racjonalną argumentację. A przecież w film ten włożono sporo wysiłku: znajdują się w nim specjalnie do niego przygotowane przerywniki i animacje, wywiad z głównym bohaterem filmu, doktorem Jerzym Jaśkowskim, został nagrany z przyzwoitej jakości oświetleniem i dźwiękiem, ktoś dobrał kilkadziesiąt ilustracji, które zostały następnie starannie zmontowane. To nie jest błyskawiczna, garażowa produkcja. A jednak nikomu nie przyszło do głowy, by scenariusz… przemyśleć.

Tak naprawdę cały pomysł na ten film można by wyrazić następująco: postawmy doktora Jaśkowskiego przed kamerą, nagrajmy kilkadziesiąt minut jego swobodnej wypowiedzi, a następnie uzupełnijmy ją o kolaż różnych zdjęć, swobodnie związanych z tym, o czym akurat mowa. Na koniec podłóżmy pod to wszystko posępną muzykę. Voilà!





Drobna kwestia zaufania


Sytuacja jest więc paradoksalna. Z jednej strony film stale nam przypomina, aby nikomu nie ufać, a już najmniej „tak zwanym autorytetom”. Z drugiej strony cały strukturalnie opiera się na zaufaniu do jednego tylko człowieka, którego w dodatku przedstawia się jako doktora nauk medycznych, a więc zaufanie do niego buduje się w odwołaniu do tej samej struktury, która jest cały czas atakowana.

Niesamowite jest też to, że z ust bohatera tego filmu padają bardzo konkretne zapewnienia, jednak nie są podpierane choćby minimalną wskazówką, skąd pochodzi ta wiedza. Doktor Jaśkowski stwierdza między innymi, spokojnie i z całkowitą pewnością, że w Polsce program chemicznego opryskiwania rozpoczął się dokładnie w 2003 roku. To bardzo precyzyjna wiadomość, mająca w dodatku potężne konsekwencje i budząca wiele pytań. Przykładowo: co z wszystkimi smugami kondensacyjnymi, które pojawiały się wcześniej? Dlaczego Polska „weszła” w program oprysków akurat wtedy? Kto za to odpowiada? Aż kusi, by dodać, jak w Wikipedii, znacznik „[potrzebne źródło]”.

Dalej: dowiadujemy się, że program sterowania klimatem był już stosowany w Meksyku, a także na Bałkanach i w Gruzji, jednak programy te są utajnione [14.50]35. Dowiadujemy się, że przewlekłe zatrucie tymi pierwiastkami prowadzi do demencji i choroby Alzheimera, jednak „żadna polska akademia medyczna nie prowadzi badań na temat zatruć przewlekłych” [21.05] – ponoć bada się naukowo tylko zatrucia ostre. Wymieniane są konkretne metale ciężkie, których stężenie rośnie w powietrzu po „opryskach”, jednak dowiadujemy się, że powietrze w Polsce nie jest pod kątem tych pierwiastków monitorowane, ponieważ nie ma laboratoriów, w których można by ich poziomy ustalić [21.20]. Dowiadujemy się, że tajemnicze włókna związane z „chorobą Morgellonów” są widoczne pod mikroskopem tylko przy tysiąckrotnym powiększeniu, podczas gdy w Polsce histopatolodzy mają do dyspozycji wyłącznie mikroskopy powiększające sto, maksymalnie dwieście razy [23.35]. Dowiadujemy się, że normy stężeń metali ciężkich liczone są z myślą o dorosłych, a nikt nie wie, jak one wpływają na dzieci [26.30]… i tak dalej.

Obraz wyłaniający się z tego filmu to wizja kraju – jeśli nie całego świata! – pełnego groźnych morderców oraz band nieudaczników, do których zaufania natychmiast powinniśmy się wyzbyć. Oraz jednego człowieka, który zdołał w tak trudnych warunkach uzyskać kompletną wiedzę o rzeczywistym stanie rzeczy i któremu – najwyraźniej – powinniśmy uwierzyć na słowo. Kwestia zaufania jest tu naprawdę kluczowa – i zaraz do niej wrócimy – jednak pochylmy się na chwilę nad tymi rzadkimi momentami, gdy doktor Jaśkowski odsyła nas do jakichkolwiek innych źródeł niż „słowo honoru”.

Niektóre zdjęcia i animacje – zwłaszcza te rzekomo demonstrujące ślady „choroby Morgellonów” (która, wyjaśnijmy to może, dziś powszechnie uważana jest za wymyśloną jednostkę, będącą w istocie czymś na granicy hipochondrii i psychozy urojeniowej)36 – podpisane są w rogu „Carnicom Institute”. Do Carnicom Institute odsyła nas też sam doktor Jaśkowski [23.05]. Okazuje się, że jest to amerykańska organizacja non profit założona przez Clifforda Carnicoma, a słowo „Institute” nie oznacza związków z jakąkolwiek rzeczywistą placówką medyczną czy naukową, było tylko decyzją stylistyczną Carnicoma, gdy rejestrował swoją organizację. Carnicom Institute definiuje swoją misję jako „prowadzenie badań dla dobra ludzkości” między innymi poprzez prowadzenie badań na temat „choroby Morgellonów”.

Lektura notatników laboratoryjnych Carnicom Institute37, w których miałyby się znajdować wszystkie surowe dane na temat smug chemicznych i wywoływanych przez nie chorób, nie budzi jednak zaufania. Ba, wzbudza raczej niepokój o stan zdrowia psychicznego człowieka, który je sporządził. To setki stron chaotycznych odręcznych zapisków, zrobionych przez samego Carnicoma, na których znaleźć można: kompulsywne, wielokrotne przeliczenia stężenia i kwasowości różnych roztworów, przypadkowe diagramy i definicje przepisane z podręczników chemii, a także ciągnące się strona za stroną obserwacje pogodowe, najwyraźniej poczynione z okna mieszkania Carnicoma w Arizonie. Od czasu do czasu można też tam znaleźć prawdziwą perełkę, jak choćby definicję całki oznaczonej z adnotacją: „Chyba napisałem dobrze, ale trzeba by to sprawdzić”38 (została zapisana dobrze). Wszystko to wygląda tak, jak gdyby grafoman postanowił „bawić się w naukę”. Te notatki po prostu nie mają żadnego sensu.

Konfrontacja słów doktora Jaśkowskiego z faktami – gdy tylko są one wystarczająco precyzyjne, aby w ogóle dało się to zrobić – zwykle wypada na korzyść faktów. Ot, jego zapewnienie, że nie bada się zawartości w powietrzu wymienianych przez niego metali. Główny Inspektorat Ochrony Środowiska oczywiście to robi (w rozdziale 13 o żywej wodzie przytaczam też dane GIOŚ na temat jakości wody w Polsce) i publikuje na ten temat raporty39. Na przykład: w 2017 roku nad zamieszkiwanym przeze mnie województwem śląskim średnie stężenie niklu – jednego z pierwiastków rzekomo mających być składnikiem zabójczych oprysków – w powietrzu mieściło się w granicach 0,5–1,3 nanograma na metr sześcienny (wartość dopuszczalna to 20 nanogramów na metr sześcienny).

Równie nieprawdziwe jest przekonanie doktora Jaśkowskiego, że w polskich akademiach medycznych nie bada się zatruć przewlekłych oraz wpływu metali ciężkich na zdrowie dzieci. Wystarczy przez parę sekund skorzystać z wyszukiwarki internetowej, aby znaleźć raport40 opublikowany przez Wydział Medyczny Uniwersytetu Rzeszowskiego na temat występujących u dzieci zatruć, między innymi przewlekłych, również metalami ciężkimi – nie mówiąc już o podręcznikach medycznych, w których temat ten jest oczywiście doskonale opisany. Ogólnie rzecz biorąc, narracja doktora Jaśkowskiego opiera się na założeniu, że instytucje państwowe i środowisko lekarskie nie są w stanie ustalić najbardziej elementarnych faktów i nie mają pojęcia o zagadnieniach, którymi się zajmują, a do obalenia większości jego tez wystarczy kwadrans umiarkowanie intensywnego wysiłku poznawczego. Powtórzmy: doktor Jaśkowski nie twierdzi, że przytoczone przeze mnie wyżej raporty są niewiarygodne lub słabej jakości – stwierdza raczej, że ich po prostu nie ma.





Teorie spiskowe i myślenie krytyczne


I tu wracamy do problemu zasadniczego. Tym, co szczególnie mnie uderzyło po obejrzeniu tego filmu, jest głęboko paradoksalny charakter tego, w jaki sposób skonstruowany jest proponowany nam przekaz. Z jednej strony jesteśmy zachęcani do nieufności, myślenia krytycznego i samodzielnego sprawdzania informacji, ale z drugiej to, co jest nam oferowane, opiera się wyłącznie na „słowie honoru” jednego człowieka, który nie dostarcza nam żadnych narzędzi, abyśmy poddali jego słowa krytyce i samodzielnie sprawdzili podawane przez niego fakty. Szczególnie skompromitowaną i niegodną zaufania grupą społeczną dla chemtrailowców – ale też dla zwolenników wszystkich opisywanych w tej książce teorii pseudonaukowych – są zaś naukowcy.

Jest to o tyle paradoksalne, że nieufność jako taka jest wręcz znakiem rozpoznawczym metody naukowej. Cała struktura artykułu naukowego – będącego wszak „cegiełką nauki” – opiera się na braku zaufania do autora. Już na etapie recenzji autor zostaje „ukryty”, aby recenzent nie dał się zwieść, choćby podświadomie, tytułowi naukowemu twórcy lub jego renomie. Gotowy artykuł zawiera zaś długą listę przypisów, którymi uzasadniane jest właściwie każde pojawiające się w nim stwierdzenie. Przypis i odesłanie do źródła to fundamentalny element sposobu argumentowania w nauce, który sprowadza się tak naprawdę do stwierdzenia: „Nie ufaj mi!”. To zaś, co jest nowe i oryginalne w danym artykule, musi zostać szczegółowo opisane ze względu na to, jak konkretnie został uzyskany ten wynik i co należy zrobić, aby samemu go uzyskać. W porządnym artykule naukowym raportującym na przykład stężenie niklu w powietrzu podawane są miejsce pobierania próbek wraz ze współrzędnymi GPS, model użytego sprzętu oraz surowe wyniki wskazane przez to urządzenie. Wszystko to jest na usługach zasadniczej nieufności.

Filmy typu Zabójcze smugi chemiczne wywracają to wszystko do góry nogami. Naukowcy i lekarze – czyli ci ludzie, których działalność opiera się na sceptycyzmie i nieufności – przedstawiani są w nich jako łatwowierni ślepcy, którym ufać nie powinniśmy, odtrutką na to jest zaś jeden wielki argument z autorytetu: jedyne, co otrzymuje widz Zabójczych smug chemicznych, to zapewnienie, że ów brodaty pan na ekranie jest doktorem nauk medycznych (!), a niewiarygodnie wręcz odważne i precyzyjne stwierdzenia padające z jego ust nie są umotywowane absolutnie niczym poza gołym zapewnieniem. Wszelkie próby potraktowania tych słów poważnie nieuchronnie prowadzą do konkluzji, że człowiekowi temu ufać po prostu nie sposób – przytaczane przez niego fakty się nie potwierdzają, a nieliczne konkretne źródła, do których nas odsyła, są komicznie wręcz niskiej jakości. Późniejszy przegląd literatury i filmografii tworzonej przez smugowców z całego świata potwierdził, że nie jest to wyłącznie problem tego jednego filmu. Po obejrzeniu kilku dokumentów anglojęzycznych źródła zaczęły się już powtarzać, a Carnicom plasuje się na liście najczęściej przywoływanych autorytetów. Czy ci ludzie nie widzieli jego notatników?!

Najgorsze w tym wszystkim jest to, że ów paradoks pozostaje głęboko ukryty, a najbardziej naiwne, emocjonalne – w gruncie rzeczy po prostu dziecinne – wzorce myślenia „sprzedawane” są jako krytycyzm, sceptycyzm i przenikliwość. Na odbiorców tego filmu mają oddziaływać emocje, a nie argumenty. Słowa doktora Jaśkowskiego mają tylko wywierać wrażenie konkretności, tymczasem wystarczy ujrzeć je na papierze, by zorientować się, że takie nie są. Oto wypowiedź doktora Jaśkowskiego na temat „choroby Morgellonów”, zacytowana expressis verbis [22.40]: „Te nitki pod mikroskopem […] czasami stwierdzano, że to nie są zwykłe nitki w sensie jakiegoś związku chemicznego, ale to są także […] coś w rodzaju czipu, bo tam była elektronika, tam były jakieś […] włożone […] no, części elektroniczne”.

I w tym momencie docieramy do zasadniczego problemu, by tak rzec, „psychologicznego”, którego nie potrafię przeskoczyć, gdy tylko wchodzę w kontakt z teoriami spiskowymi. A – wyjaśnijmy może – nie mam nic przeciwko teoriom spiskowym jako takim! Tak naprawdę samo stosowanie tego terminu nie jest do końca uczciwe, ponieważ jest on z góry nacechowany negatywnie. „Teoria spiskowa” kojarzy się z wariactwem – tymczasem jest to nie tylko sensowne i zrozumiałe, ale w wielu przypadkach wręcz bezsprzecznie dowiedzione, że dochodzi na świecie do rozmaitych działań prowadzonych bez wiedzy obywateli, często z fatalnymi dla nich skutkami zdrowotnymi. Choćby tak zwane badanie Tuskegee prowadzone w latach 1932–1972, w którego toku celowo nie leczono kilkuset Amerykanów zarażonych kiłą, aby zaobserwować przebieg tej choroby41. Równie oczywiste jest, że wiele prowadzonych na świecie badań, medycznych czy militarnych, jest niejawnych. Czy naprawdę ktokolwiek spodziewa się, że badania nad bronią biologiczną są jawne? Od kiedy tylko istnieje dobrze zorganizowan