Absurdy Mechaniki Kwantowej



Mechanika Kwantowa należy do najbardziej kontrowersyjnych wytworów współczesnej fizyki. Zasady tam propagowane każą się postronnemu obserwatorowi zastanawiać nad tym, czy „naukowcy“ propagujący tę teorię są jeszcze przy zdrowych zmysłach, czy też im już całkiem odbiło.

Pytanie takie jest jak najbardziej uzasadnione jeśli się weźmie pod uwagę to że fizycy całkiem na serio wierzą w takie bzdury jak Zasada Nieoznaczoności Heisenberga.

Co gorsza interpretują też swoje obserwacje tylko w aspekcie realności tego bzdurnego założenia nie dopuszczając żadnych innych, bardziej logicznych interpretacji.
Zgodnie z tą zasadą elektrony mogą teoretycznie, w tym samym momencie, znajdować się w wielu miejscach na raz i nie dają się traktować jako indywidualny byt.

W przypadku molekuł, budujące je atomy mogą dzielić się wspólnymi elektronami co prowadzi, zgodnie z tym wariackim założeniem, że mogą się one znajdować jednocześnie w wielu atomach naraz.

Międzynarodowy zespól badawczy pod przewodnictwem Arno Ehresmann'a z uniwersytetu w Kassel postanowili sprawdzić doświadczalnie realność tego założenia. W tym celu wykorzystano zjawisko emisji elektronów pod wpływem absorpcji fotonów. Jeśli foton o odpowiedniej energii zostanie przez atom zaabsorbowany to doprowadza to do emisji elektronu z badanej molekuły. W tym celu użyto promieniowanie  synchrotronowe. Parametry emitowanych  elektronów były następnie rejestrowane spektrometrem elektronowym, który pozwalał na określenie  zarówno trajektorii jak i ich energii.
Założenie było takie że jeśli elektron znajduje się jednocześnie w dwóch rożnych miejscach naraz, to zgodnie z teorią musi się zaznaczyć w spektrometrze charakterystyczny obraz interferencyjny. I taki też obraz uzyskano w tym eksperymencie, co autorów skłoniło do twierdzenia jakoby był to ultymatywny dowód na prawidłowości mechaniki kwantowej.

Oczywiście jest to kłamstwo. Doświadczenie to obala cały gmach mechaniki kwantowej doszczętnie i jest jednocześnie bezpośrednim dowodem na prawidłowość mojego modelu budowy materii. Aby to zrozumieć sięgnijmy do moich starszych artykułów w których podałem zasady budowy materii a szczególnie ten o budowie elektronu.

Zauważmy że w moim modelu elektron wprawdzie występuje jako podstawowa jednostka materii ale nie ma struktury jednolitej i składa się z dwóch wzajemnie połączonych elementarnych jednostek przestrzeni zwanych wakuolami. 


Ma to oczywiście kolosalne znaczenie dla przebiegu eksperymentów prowadzonych na elektronach, ponieważ wszelkiego typu oddziaływania na nie, manifestują się w rzeczywistości, nie poprzez oddziaływania z elektronem jako całość, ale poprzez oddziaływania z poszczególnymi jego komponentami, a więc z budującymi go wakuolami.

Oznacza to jednocześnie że rezultaty takiego oddziaływania nie mogą być identyczne co do kierunku i energii i że ich graficzny rozkład musi tworzyć obraz interferencyjny.
Za taką interpretacją przemawia jeszcze ten argument że autorzy pracy przyjęli arbitralnie że elektron z eksperymentu wprawdzie to nie wiadomo gdzie jest, ale za to musi się znajdować tylko w dwóch ściśle określonych miejscach. Oczywiście założenie takie jest niedopuszczalne, bo jeśli już i Zasada Nieoznaczoności jest prawdziwa, to nie może istnieć prawo zakazujące takiemu elektronowi przyjecie jednocześnie dowolnego położenia w dowolnej ilości miejsc.

Tak więc reasumując eksperyment ten potwierdza nie tylko moją teorię ale również daje wgląd w wewnętrzną budowę elektronu obalając tam samym mrzonki „naukowców”.


Z igły widły czyli przepis na klimatyczne ocieplenie



Już przed laty zwróciłem na to uwagę, że fizycy nie są w stanie pomierzyć obiektywnie temperatury. Również taki obiektywny pomiar temperatury atmosfery nie jest możliwy i to z fundamentalnych powodów. Co gorsza do tych problemów natury systemowej dochodzą również problemy wynikające z degeneracyjnych tendencji w środowisku naukowym infiltrowanym coraz bardziej przez służby specjalne, szczególnie amerykańskie oraz korupcji przez mafie finansowe z Waalstreet.

W przypadku opisanym w mojej notce z przed lat można jeszcze przyjąć, że błędy urzędu meteorologicznego Szwajcarii miały swoje podstawy w niezrozumieniu realiów fizycznych.

Inaczej ma się sprawa w przypadku afery którą udało się właśnie zdemaskować.
Tym razem sprawa ma jednoznacznie kryminalną wymowę i świadczy o tym, że środowisko klimatologów to zbiorowisko skorumpowanych przez koncerny naftowe sqr...now.

Autorzy artykułu podanego poniżej 


zajęli się analiza danych dotyczących wahań zasięgi lodu oceanicznego w rejonie Antarktydy. Już od dawna dane te wzbudzały niepokój tej bandy oszustów, ponieważ nie pasowały w żaden sposób do propagowanego wzrostu temperatury na świecie. Zamiast się kurczyć, zasięg lodu na Antarktydzie rósł z roku na rok osiągając ostatnio rekordowe wielkości. Nikt nie miał podejrzeń w tej sprawie ponieważ każdy zainteresowany widział na własne oczy że lodu przybywa. Jednak ten dynamiczny wzrost psuł cała legendę o klimatycznym ociepleniu a więc nie dziwota, że znaleźli się tacy którzy postanowili szukać błędów systemowych aby ratować tę legendę.

Autorom tej pracy udało się to bez specjalnych problemów, wystarczyło tylko spojrzeć na wykres różnicy zasięgu lodu na Antarktydzie liczoną za pomocą starego i nowego algorytmu przeliczającego dane uzyskane przez rożnego typu instrumenty pomiarowe z satelitów okołoziemskich.


Tak jak w przypadku wymiany termometrów w Szwajcarii, każda wymiana instrumentów pomiarowych prowadzi do odstępstw w wynikach pomiarów. Odstępstwa te są wynikiem zmieniających się warunków fizycznych w Układzie Słonecznym, czego naukowcy nie chcą zaakceptować, wierząc w durny sposób, że wszystko co sobie wymyślą jest stałe i niezmienne.
Aby te wyniku porównać ze sobą stosuje się specjalny algorytm w celu ich przeliczenia. Agentom CIA pracującym dla NASA udało się wmówić tym gamoniom klimatologom, że te algorytmy są absolutnie pewne. I znalazły one powszechne użycie w tego typu przeliczaniach danych a następnie wyniki trafiły oczywiście do innych organizacji jak np. IPCC aby zostać wykorzystane do szerzenia paniki w kolejnych sprawozdaniach dotyczących zmian klimatycznych.
Zasięg lodu morskiego na biegunach mierzony jest przy pomocy satelitów już od końca lat 70-tych. Od tego czasu dochodziło do wielokrotnej wymiany satelitów i każdy nowy satelita wyposażany był w coraz to „doskonalsze“ instrumenty pokładowe. Pech tylko że każdy z nich pokazywał co innego. Aby je jednak zaktualizować postanowiono przeliczać starsze dane według specjalnego algorytmu zwanego Bootstrap.

Od roku 2007 zdecydowano się na aktualizacje tego algorytmu w wyniku czego otrzymano nowe wyniki pomiarów przyrostu lodu. Tak zwani „naukowcy“ przyjęli za CIA że tak przeliczone dane są prawidłowe. Tymczasem Eisenmanowi i jego kolegom udało się wykazać (dziwne że jeszcze żyje ale pewnie niedługo straci prace), że jeśli przeliczyć wszystkie dane według starego i nowego algorytmu i następnie porównać je ze sobą to zauważymy, że zasięg lodu morskiego do roku 1991 jest zaniżany, natomiast młodsze dane są zawyżone. Rok 1991 nie jest przypadkowy, ponieważ w tym roku właśnie wprowadzono nową generację instrumentów pomiarowych, które dają kompletnie fałszywe pomiary.

Tym którzy wyskoczą zaraz z tym gównem jaka to nauka cacy i jak się sama koryguje chciałbym powiedzieć że autor tego artykułu to skończony gnojek. Oczywiscie sprawdził on ten algorytm również dla obszaru Arktyki i otrzymał wyniki odwrotne od tych dla Antarktydy a więc algorytm ten zaniża powierzchnie lodu morskiego na półkoli północnej. Ponieważ jest to sprzeczne z poleceniami CIA i gangsterów z Waalstreet to ta cześć wyników została utajniona co sugeruje czytelnikom że sytuacja w Arktyce jest gorsza niż najbardziej pesymistyczne prognozy. A więc zwykle propagandowe świństwo. Tymczasem w rzeczywistości algorytm ten zaniża powierzchnie lodu dramatycznie i dlatego w ciągu ostatnich 10 lat występują rekordowo niskie zalodzenia.

Dlaczego jednak się tak dzieje?

Odpowiedz jest w gruncie rzeczy banalna. Wyniki uzyskiwane z instrumentów pomiarowych są ze sobą nieporównywalne. One zmieniają się w ciągu roku tak jak zmienia się wartość Tła Grawitacyjnego, w miarę zmian pozycji Ziemi na jej orbicie. Ziemia znajduje się w peryhelium kiedy na półkoli północnej jest zima a więc wtedy kiedy wartość TG jest największa. Odpowiednio w aphelium to na półkoli południowej trwa zima czyli wtedy kiedy wartości TG są najniższe. Powoduje to różnice w odczytach instrumentów pomiarowych i to wszystkich ich typów. To jest właśnie przyczyna tego, że pomiary temperatury wykazują olbrzymie różnice pomiędzy obiema półkulami. Średnia temperatura na obu półkolach różni się o gigantyczne 2°C. Tylko z tego względu bo instrumenty mają inną skalę temperatur w zimie niż ma to miejsce w lecie. Innymi słowy całe te pomiary tych sqr....now klimatologów to jedno gigantyczne gówno.
Jakie wnioski musimy wyciągnąć z tej afery?

Oczywiście takie, że wszystkimi tymi danymi pomiarowymi klimaterroryści mogą sobie podetrzeć dupę. Ani zasięg lodu na Antarktydzie ani w Arktyce ani tym bardziej żadne pomiary średniej temperatury na Ziemi nie są warte funta kłaków. To tylko jeden wielki fake przy pomocy którego Amerykanie chcą wyciągnąć pieniądze z kieszeni ocipiałej przez te agenturę opinii światowej.

Apokalipsa Anno Domini 1540



Czasami zdarza się, że fanatycy ocieplenia klimatycznego publikują dane które ośmieszają ich chore halucynacje do cna. Tak zdarzyło się też i w przypadku artykułu o katastrofalnej suszy w Europie Anno Domini 1540.


Po raz kolejny okazało się że współczesne wieloletnie anomalie pogodowe nie tylko nie różnią się od tych z bliskiej przeszłości, ale należą raczej do tych mniej znaczących. Po prostu w ciągu ostatnich kilkuset lat mieliśmy do czynienia z wieloma przypadkami o wiele bardziej ekstremalnych odstępstw klimatycznych niż ma to miejsce obecnie. Najważniejszą z tych anomalii była mała epoka lodowcowa pomiędzy XVI a XVII wiekiem. 
Ale nawet w tym okresie zdarzały się okresy szczególnie gorące jak chociażby na początku wieku XVI z kulminacją w roku 1540. Początkowo ocieplenie to odbiło się bardzo korzystnie na warunkach życia ludzi w Europie i było jednym z podstawowych powodów rozkwitu kulturalnego i ekonomicznego znanego nam pod nazwą renesansu. Niestety okres prosperity zakończył się nagle i niespodziewanie. Zima z roku 1539 na 1540 nie zapowiadała jeszcze nieszczęścia, choć już od jesieni temperatury były wyjątkowo wysokie i zamiast śniegu częściej padał deszcz, ale od stycznia i ten zaczął się zdarzać coraz rzadziej.                                   
W marcu na północ od Alp wystąpiły tylko trzy dni z opadami, a dalej w trakcie roku nie padało prawie że w ogóle. Rok ten przeszedł do historii jako rok z suszą tysiąclecia w Europie.                                                              Większość rzek wyschła całkowicie i ludność zaczęła cierpieć na straszliwy braki wody. Na polach niszczały płody rolne a niedożywione i pozbawione wody zwierzęta domowe padły. W całej Europie nastał czas głodu i chorób. Kto nie umarł z głodu tego zabiły nieznane najstarszym ludziom upały. W roku tym średnie temperatury osiągnęły wartości rekordowe nie pobite do dzisiaj a liczba dni z temperaturami powyżej 30°C była trzykrotnie wyższa niż normalnie. Odpowiednio do tego opady wyniosły tylko jedna trzecia wartości średnich. Jakby tego było jeszcze mało razem z suszą przyszły gigantyczne pożary niszczące pola, lasy i ludzkie siedziby.                                                      

Liczba ofiar tej katastrofalnej suszy szacowana jest na 70000 i to w czasach w których w Europie żyła tylko 1/10 jej obecnej ludności.                                 

30 lat później przyszło katastrofalne ochłodzenie i Europa wpadła w szpony mrozu.                                                                                                       
To co dzieje się teraz to dziecinada w porównaniu z tym okresem i potwierdzenie tego że klimatyczne ocieplenie spowodowane emisją CO2 to bezczelne kłamstwa przekupionych przez koncerny naftowe sq...nów  nazywających siebie naukowcami.                                                               

To jeszcze jedna z band złodziei wyspecjalizowana w okradaniu społeczeństwa na spółkę z gangsterami od banków i polityki.                                              

Już teraz widać wyraźnie, że te apokaliptyczne przepowiednie są wyssane z palca i zapowiadane drastyczne ocieplenie zamienia się powoli w drastyczne oziębienie klimatu. 

Czy jednak niebezpieczeństwo powtórzenia roku 1540 minęło?

Niestety odpowiedz jest negatywna. Strach pomyśleć co by się stało gdyby taka katastrofa powtórzyła się współcześnie. Ale tego typu ekstrema pogodowe są regułą na Ziemi i powtarzają się w jej historii z dużą regularnością, tak więc kolejna taka katastrofa jest tylko kwestia czasu. Pytanie tylko kiedy?
Spróbujmy odpowiedzieć na to pytanie.
Oczywiście odpowiedz nie jest wcale taka trudna. Wystarczy tylko sięgnąć do reguł jakie przedstawiłem w mojej notce o prognozie pogody na rok 2013.


Przyczyną takich amonali jest to, że klimat na Ziemi zależy w znacznym stopniu od Tła Grawitacyjnego a to z kolei od wzajemnego położenia planet w Układzie Słonecznym.
I ten układ planet przyjął w roku 1540 szczególnie niekorzystna konstelację. Prawie wszystkie planety Układu Słonecznego znalazły się w trakcie zimy z roku 1539 na 1540 w bardzo wąskim przedziale kątowym tworząc ścisłą grupę.



Spowodowało to drastyczny wzrost TG w obrębie tej grupy planet i materia ziemska a w szczególności woda zaczęła zmniejszać wielkość atomów z których jest zbudowana. Zmienił się też stosunek gazów w atmosferze ziemskiej, na skutek czego spadła drastycznie ilość pary wodnej w atmosferze. Kiedy Ziemia wyszła z tego zgrupowania planet. to wartość TG bardzo spadła ale materia ziemska dalej oscylowała z wysoką częstotliwością. Zmuszało to molekuły, których atomy nie w tym samym tempie przystosowały swoją wielkość do nowej wartości TG, do nieskoordynowanych oscylacji. 

Taka nieskoordynowana oscylacja jest właśnie samą istotą tego co nazywamy temperaturą materii. 

I dopóki nie nastąpi synchronizacja oscylacji składowych molekuł, dopóty temperatura musi rosnąć. I taka właśnie sytuacja zapanowała w roku 1540 gdzie wielokrotnie dochodziło do drastycznych wzrostów temperatury na powierzchni Ziemi z kulminacją w postaci niszczycielskich pożarów. Po tym kataklizmie materia przyjęła znowu formę dostosowaną do obowiązującej wartości TG i klimat na Ziemi powrócił przejściowo do wartości średnich. Była to jednak tylko cisza przed burzą, a ta przyszła już w niewiele lat później w formie dramatycznego oziębienia. 
Kiedy bowiem wartość TG w Układzie Słonecznym dalej spadała, materia ziemska zaczęła coraz słabiej reagować na oscylacje TG i jej temperatura uległa postępującemu obniżeniu. Proces ten przebiegał wolno ale nieustannie i doprowadził w ciągu następnych 30 lat do kolejnej katastrofy, tym razem związanej jednak z dramatycznym oziębieniem klimatu.

Czy to zdarzenie może być dla nas ostrzeżeniem? 
Teoretycznie tak, gdyby elity intelektualne rzeczywiście zasługiwałyby na to miano. Niestety ci idioci zajęci są tak bardzo okradaniem społeczeństwa, że w swojej pazerności nie zauważają że zbliża się katastrofa. 
A wszystko wskazuje na to, że może ona przyjąć podobny przebieg do tej jaka zniszczyła kulturę Mayów. Ta mianowicie nie podniosła się więcej po całym szeregu suszy w IX i X wieku naszej ery. W latach 810, 860 i 910 a wiec w regularnych odstępach co ca. 50 lat, tereny Mayów cierpiały na katastrofalny brak opadów i ludność została zdziesiątkowana na skutek głodu oraz wojen o ostatnie źródła wody i pożywienia. Warunki klimatyczne jakie wtedy zapanowały doprowadziły nie tylko do wymarcia całych populacji ludzkich w tym rejonie, ale przyczyniły się też do upadku wszystkich humanitarnych norm współżycia między ludźmi. Takiego zbydlęcenia  wśród ludzi tereny te nie przeżyły ani przedtem ani potem. Dowody archeologiczne przerażają wprost niesłychanym okrucieństwem tych co pragnęli przeżyć za wszelka cenę. Na próżno, ani ofiary ani ich kaci nie przeżyły.


Zdarzenia te miały miejsce około roku 810 i oznaczały całkowity upadek kultury Pueblo oraz innych kultur Ameryki Środkowej.

Jeśli spojrzymy na rozkład planet w tych latach to jest on identyczny jak ten w roku 1540.








Oczywiście sam układ planet to za mało aby doszło do takiej katastrofy. Taką kroplą przelewającą czarę był rozkład zaćmień słonecznych poprzedzający tego typu katastrofy. Zarówno w przypadku katastrofalnych susz Mayów jak i w roku 1540 wystąpiły zaćmienia słoneczne na tych terenach. To one właśnie spowodowały podniesienie częstotliwość oscylacji materii ziemskiej do rekordowego poziomu.





Jeśli teraz spojrzymy na to co nas oczekuje w najbliższej przyszłości to zauważymy, że kolejny okres zgrupowania Jowisza Saturna i Urana wystąpi już za 13, 15 lat


i w tym też czasie w Europie wystąpi ponadprzeciętna ilość całkowitych i obrączkowych zaćmień słonecznych.


W rezultacie musimy się spodziewać podobnie drastycznego ocieplenia klimatycznego połączonego z ekstremalną suszą w Europie, a szczególnie w Hiszpanii i krajach śródziemnomorskich, jak to miało miejsce już w roku 1540.

30 lat później Europę skuje lód i mróz.

Widzę ciemność




Przedstawiony przeze mnie model rozbłysków gamma zakłada że najbardziej „energetyczne“ fotony takiego rozbłysku, na drodze w kierunku obserwatora, ulegają przemianie w materię łącząc się z wakuolami przestrzeni. Mechanizm ten wyjaśnia dlaczego obserwowane są tak duże różnice w długości czasu rozbłysków gamma.


Po prostu do Ziemi dochodzi tylko znikoma cześć fotonów powstałych w trakcie rozbłysku i to z podczerwonego widma spektrum wybuchu supernowej. Na skutek jednak dramatycznej różnicy wartości Tła Grawitacyjnego w momencie wybuchu a jego wartością w naszej części galaktyki, fotony te obserwowane są na Ziemi jako promieniowanie gamma, ponieważ modulacje wywołane przez te fotony, współcześnie, odpowiadają takiemu właśnie zakresowi promieniowania elektromagnetycznego.

Oczywiście ta obserwacja udowadnia nam jeszcze jedną interesującą cechę natury. Tę mianowicie że zaburzenia pola Tła Grawitacyjnego nie następują tylko i wyłącznie w wyniku przemieszczania się w nim swobodnych fotonów ale mogą też wystąpić bez ich obecności tylko na skutek impulsu zmieniającego charakter oscylacji tworzących je wakuoli. Innymi słowy, spektrum promieniowania elektromagnetycznego składa się w części pomiędzy podczerwienią a promieniowaniem gamma z zaburzeń TG wywołanych fotonami a w zakresie fal dłuższych od podczerwieni, zaburzenia te rozchodzą się tylko na skutek zmiany charakteru oscylacji samej przestrzeni.
Potwierdza to że wydzielenie Optyki z obrębu elektromagnetyzmu jest jak najbardziej uzasadnione.

Jeśli się jednak głębiej zastanowimy nad przedstawionym wyżej mechanizmem to musimy też postawić pytanie, jak reaguje przestrzeń na taką gwałtowną przemianę fotonów i wakuoli przestrzeni w materię?
Oczywiście przemiana taka nie może obyć się bez konsekwencji dla cech charakteryzujących pole TG, oznacza ona bowiem gwałtowne zmniejszenie gęstości wakuoli w jednostce przestrzeni, a tym samym spadek częstotliwości oscylacji w bezpośrednim otoczeniu takiej przemiany. Ponieważ przemiany takie zachodzą prawie że równocześnie dla wszystkich takich fotonów o odpowiedniej „energii“ to musi to spowodować lokalnie ograniczone, ale za to istotne co do wartości, zmiany częstotliwości oscylacji Tła Grawitacyjnego w tym rejonie, rozchodzące się następnie dalej w formie modulacji tej wartości w przestrzeni.

Oczywiście nie jesteśmy w stanie (jeszcze) zaobserwować tego zjawiska bezpośrednio, ale pośrednio ma ono dramatyczny wpływ na przebieg wszystkich procesów fizycznych na Ziemi.

Żeby nie być gołosłownym przytoczę tutaj przykład obserwacji wybuchu supernowej SN 1987A


Pomiary związane z wybuchem należą do jednych z najbardziej pasjonujących zagadek w astrofizyce i przyczyniły się do nowego spojrzenia na kwestie irracjonalnej wiary fizyków w istnienie neutrin, ale też rozpaliły na nowo spekulacje na temat stałości prędkości światła w próżni.
Pomimo upływu lat tematyka dalej zachowała swoją aktualność i obserwacje związane z supernową SN 1987A ciągle podawane są jako argument zmienności prędkości światła w próżni. Najnowszym z nich jest artykuł w New Journal of Physics autorstwa Jamesa Fransona


dla którego reakcja czujników obserwatoriów neutrin, na trzy godziny przed obserwacją pierwszych fotonów tej eksplozji, stanowi bezpośredni dowód istnienia takiej zmienności prędkości światła.

Oczywiście musimy sobie uzmysłowić to, że tak zwane neutrina należą do szczytów debilizmu w fizyce i stanowią najlepszy przykład tego do jakiego stopnia ta nauka opanowana jest przez szamanów i psychopatów stojących na bakier z podstawowymi zasadami logicznego myślenia.

Już w mojej notce o neutrino udowodniłem niepodważalnie że te hipotetyczne cząstki są tylko wynikiem intelektualnej sraczki w tym wychodku o nazwie matematyczna fizyka.


Oczywiście reakcja sensorów tych obserwatoriów była reakcją nie na obecność neutrin ale była typową reakcją wakuoli przestrzeni pod wpływem impulsu zmiany wartości TG i związane z tym ich przejście w formę przemieszczającego się fotonu.
Pojawienie się tych zmian na trzy godziny przed obserwacją właściwego wybuchu oznacza jednak, że pierwotne fotony promieniowania gamma uległy przemianie w materię a spowodowane tym procesem modulacje TG dalej rozprzestrzeniały się w przestrzeni i to co obserwowaliśmy na Ziemi jako promieniowanie widzialne, było pierwotnie emitowane jako bliska podczerwień.
Jest to też bezpośredni dowód na różnice w prędkości rozchodzenia się promieniowania w zależności od długości jego fali i oznacza że przyjmowana przez fizykę stałość tej wartości nie istnieje.


Translate

Szukaj na tym blogu

Polecany post

Budowa Atomu

Ulubione

Google+ Followers