O złudzeniu cząstek elementarnych

Na blogu Zajtenberga pojawiła się notka o fizyce kwantowej w której autor próbował przekonać czytelników że zamierza się krytycznie odnieść do postulatów tej hipotezy.
Oczywiscie była to mniej lub bardziej ściema i w rzeczywistości autorowi chodziło o propagowanie postulatów tej nieszczęsnej hipotezy której skutki zaciążyły na rozwoju naszej wiedzy o naturze w ciągu ostatnich 100 lat w sposób zaiste katastrofalny.
Oczywiscie nie da się ukryć tego, że fizykę kwantową utożsamiamy współcześnie z postępami w rozwoju techniki a przede wszystkim elektroniki ostatnich lat. Moim zdaniem znaczenie to jest dramatycznie przecenione i postęp ten jest bardziej wynikiem nieskończonej wprost ilości eksperymentów na zasadzie prób i błędów robionych przez całe dziesięciolecia przez setki tysięcy fizyków i inżynierów na całym świecie. Z racji dominacji kwantowców w fizyce, sukcesy te przypisano obowiązującej dogmie, nawet jeśli były wynikiem przypadku. Po drugie obecna nauka jest pod bezpośrednią kontrolą Amerykanów, a ci dbają już o to aby w nauce nie przebiły się żadne poglądy sprzeczne z tymi obowiązującymi w nauce amerykańskiej.
Również w Polsce to bałwochwalcze podziwianie zachodnich wypocin należy do normy. Po części jest to zrozumiale, bo bez lojalnego klepania pacierza fizyki kwantowej żaden naukowiec nie zostanie zaproszony do współpracy na zachodzie a to znaczy że pozostaje mu wegetacja na etacie za parę groszy bez szansy na karierę.
Z drugiej strony trzeba skonstatować ze zdumieniem do jakiego stopnia zanikły standardy moralne, skoro od lat nikt nie waży się powiedzieć nie i otwarcie skrytykować obowiązujące paradygmaty.
Przejdźmy jednak do meritum. W notce Zajtenberga chodziło o interpretację równania Schrödingera i o to że rozwiązania tego równania można traktować jako prawdopodobieństwa znalezienia elektronu na jego orbicie.
Oczywiscie zostało to okraszone porcją matematycznej nowomowy i sprzedane niemającym pojęcia o sprawie czytelnikom jako najświętsza prawda.
Tymczasem cały problem z Mechaniką Kwantową polega na tym że zajmuje się ona rzeczami które w naturze nie istnieją. Takimi chociażby jak elektrony w atomie.
Cały bardak w fizyce cząstek elementarnych wynika z tego że wymyślono sobie atomy które nie maja nic wspólnego z realiami. W naturze nie istnieją w atomach ani neutrony ani protony ani tym bardziej elektrony. Wszystkie te formy są sztucznie stworzonymi elementami powstałymi w rezultacie oddziaływania na atomy w sztucznym nie występującym w naturze środowisku urządzeń badawczych.
W naturze występuje jeden niepodzielny i podstawowy element którym jest podstawowa oscylująca jednostka przestrzeni – wakuola. Nasz wszechświat składa się ze zbiorowiska miriadów takich wakuoli. Większość z nich buduje otaczającą nas przestrzeń ale część z nich wiąże się ze sobą budując materie w tej przestrzeni.
Dokładniej opisałem to w tych moich notkach.
Jak widzimy podałem tam też przyczynę dla których w atomach nie mogą istnieć elektrony.
Co więc powoduje to ze fizycy uparli się na ich obecność?
Oczywiscie jest to wynikiem pomiarów które dokonują w swoich eksperymentach i tam w atomach udało im się pomierzyć ładunek elektryczny. Na to że ładunek i elektron to dwie rzeczy niekoniecznie ze sobą zwiazane fizycy jakoś nie wpadli. Stąd to ciągłe ględzenie o zasadzie nieoznaczoności, bo wszelkie próby przechwycenia tych mitycznych elektronów w atomie spełzły na niczym.
Badając atomy nie możemy tak naprawdę zarejestrować elektronów bo ich tam po prostu nie ma. Zamiast tego w miejscach w których dochodzi do efektów interferencyjnych pomiędzy oscylującymi wakuolami następuje generacja dodatkowej przestrzeni w stosunku do tej zajmowanej przez dany atom Prowadzi to do wytworzenia się, że tak powiem, lokalnego garba na powierzchni kulistej zajmowanej przez atom tak jak na rysunku

Ta dodatkowa przestrzeń musie wchodzić w interakcje ze wszystkimi sąsiadującymi wakuolami i to oddziaływanie obserwujemy jako ładunek elektryczny. Rozchodzenie się tak powstałego zaburzenia w przestrzeni ma charakter falowy i jest utożsamiane z falą elektromagnetyczną.
Oczywiscie tego typu garb powstający na powierzchni objętości zajmowanej przez atom może przybrać różną wielkość w zależności od stanu w jakim znajdują się wakuole atomu. Jeśli stan wzbudzenia takich wakuoli jest znaczny, to może dojść do tak dużej generacji przestrzeni w formie ładunku że jest on w stanie wyzwolić się ze związku z atomem i przejść do związku z otaczającą go elementarną jednostką przestrzeni i tak powstała cząstka jest znana pod nazwą elektronu.
O tym pisałem w tym artykule.
Jak w takim razie możemy interpretować mój model jeśli chodzi o jego znaczenie w budowie związków chemicznych?
Interpretacja jest bardzo prosta. Atomy tylko w formie zrównoważonej tworzą mniej lub bardziej kuliste formy. W stanach wzbudzonych przyjmują one formy nieregularne i na ich powierzchni tworzą się i zanikają wybrzuszenia i wklęsłości na skutek konstruktywnej i destruktywnej interferencji oscylacji budujących je wakuoli. W przypadku konstruktywnej interferencji mamy do czynienia z jonem ujemnym danego pierwiastka a w przypadku interferencji destruktywnej z jonem dodatnim. Atomy dążą do przyjęcia formy jak najbardziej symetrycznej, i mogą to uzyskać wskutek koordynacji oscylacji tworzących je wakuoli. Jeśli jest to niemożliwe ponieważ symetria ich jest niedoskonała, musi w nich dochodzić do tworzenia albo wypukłych albo wklęsłych form.
Jedną z możliwości osiagniecia tego celu jest związanie się z innym atomem o kompatybilnej formie. Takiej jak to widzimy na rysunku.

W tym momencie dochodzi do ciągłej wymiany impulsów pomiędzy dwoma atomami o charakterze fali stojącej. Przejściowo w ciągu niezmiernie krótkiego czasu dany atom jest w stanie przyjąć formę idealną aby w następnym momencie przekazać ten impuls partnerowi i umożliwić mu to samo. Ten stan wzajemnego powiązania jest tym co odpowiada wiązaniu chemicznemu.
Podany przeze mnie przykład jest tylko drobnym zarysem tego jak prawidłowo należy interpretować zjawiska w naturze i będzie uzupełniony o dalsze przykłady w miarę zarysowujących się w tej hipotezie pytań.

Jak na paradzie





W moim artykule nie chodzi oczywiście o paradę naszych, jedynych w swoim rodzaju, sił zbrojnych ale o interesujące zjawisko pogodowe. Tym razem wprawdzie daleko od nas, ale za to bardzo spektakularne. Wzdłuż jednej linii, nanizane jak perełki na sznurku wędrują aktualnie Tajfuny po Oceanie Spokojnym ze wschodu na zachód.


Takiego nasilenia tajfunów nie obserwowano tam już od lat. i jest to co najmniej dziwne, że ich ilość ni z tego nie z owego tak raptownie wzrosła.

To zdziwienie nie będzie już tak wielkie jeśli zwrócimy uwagę na to jakie są przyczyny tej sytuacji.
W tym celu musimy się cofnąć do paru moich notek w których opisałem mechanizm powstawania plam słonecznych na Słońcu. Wbrew pierwszemu odruchowi, odrzucającemu jakikolwiek związek pomiędzy tymi dwoma zjawiskami, istnieje zdecydowane pokrewieństwo, a nawet identyczność, w mechanizmach ich powstania. W obu przypadkach za powstanie tych zjawisk odpowiedzialne są koniunkcje planet w tym oczywiście i koniunkcje z udziałem naszego Księżyca, czyli zaćmienia słoneczne. Mechanizm powstawania plam słonecznych opisany został przeze mnie tutaj.


I na takiej samej zasadzie przebiegają też zjawiska na Ziemi. W tym przypadku w głębinach oceanów dochodzi do wytworzenia się bąbli z wody której atomy zmniejszyły minimalnie swoja wielkość. Bąble te tworzą się na dużej głębokości, niekiedy nawet paru tysięcy metrów i atomy budujące tę wodę zwiększają, w trakcie koniunkcji planet z udziałem Ziemi, minimalnie swoja częstotliwość oscylacji a tym samym zmniejszają swoją masę dostosowując się do nagłego wzrostu Tła Grawitacyjnego. To zwiększenie częstotliwości oscylacji atomów ma wpływ na zachowanie molekuł wody, które są z tych atomów zbudowane, i oznacza minimalny spadek temperatury mas wodnych.

Wynika to z prostej zależności w której częstotliwość oscylacji atomów determinuje częstotliwość oscylacji molekuł, której miarą wielkości jest temperatura. Dla tych mas, jako całości, zjawiska te równoważą się na tyle, że nie dochodzi do gwałtownych przemieszczeń mas wodnych. Jednak do czasu. Taka chwiejna równowaga panuje dopóty, dopóki Tło Grawitacyjne jest w miarę stabilne. W przypadku jednak gwałtownych zmian następują znaczne ruchy takich bąbli wodnych, o wielokilometrowych średnicach, i to w kierunku zależnym od charakteru tych zmian. 

W przypadku wzrostu TG wszystkie atomy wód oceanu reagują wzrostem częstotliwości oscylacji w stosunku do ich częstotliwości początkowych. Oczywiście czym wyższe częstotliwości początkowe, tym słabsza reakcja, tym samym, spadek masy atomów o niższej częstotliwości jest większy niż tych, w obrębie bąbli, o dużej częstotliwości. Oznacza to też że ciężar właściwy wody bąbla wzrasta w stosunku do otoczenia co powoduje ich przemieszczanie w kierunku dna oceanu i przy powierzchni oceanu tworzy się możliwość napływu ciepłych mas wodnych z otoczenia. 

Inaczej ma się sprawa wtedy kiedy TG raptownie spada a więc kiedy spada tez częstotliwość oscylacji materii ziemskiej. I w tym tez przypadku spadek ten odbija się silniej na materii o niższej częstotliwości co powoduje nie tylko zmiany temperatury ale też znaczny przyrost masy takich atomów. Również woda oceaniczna staje się przez to cięższa.
Oczywiście zjawisko nie ogranicza się tylko do oceanu ale występuje z takim samym natężeniem również w litosferze o czym pisałem tutaj:


W przypadku bąbli zjawisko to przebiega mniej intensywnie co powoduje że różnice w ciężarze właściwym tym mas wodnych rosną gwałtownie i bąble zimnej i lekkiej wody głębinowej zaczynają wędrować ku powierzchni oceanu.
I tego typu zjawisko wystąpiło właśnie teraz. Ziemia już od paru tygodni znajduje się w strefie Układu Słonecznego o niskich wartościach TG.



I pomijając okres na początku września 


należy się spodziewać dalszych jego spadków. Musiało to oczywiście wywołać reakcje takich bąbli w głębinach oceanicznych i spowodować ich wędrówkę na powierzchnie. I tak jak na Słońcu prowadzi to do powstania plam słonecznych tak na Ziemi musiało to spowodować powstanie rejonów w formie plam o wyraźnie zaniżonej temperaturze mas wodnych. I to zjawisko jest bardzo dobrze widoczne na najnowszych mapach NOAA podających anomalie temperatur wód oceanicznych na Ziemi.


Widzimy tam ze na Oceanie Spokojnym pojawiły się dwa rejony o animalnie niskich temperaturach. Jeden u wybrzeża A. Południowej w rejonie Peru



i drugi na wschód od Hawajów.



Nie można nie zauważyć niesamowitej wprost zbieżności między wyglądem tych rejonów a grupami plam słonecznych na Słońcu.



Obie formy składają się z sierpowato zagiętego łańcuszka plam z materią o niższej temperaturze niż otoczenie. Rożnica polega na tym że różnice temperatur z otoczeniem na Ziemi są za małe dla powstania zjawisk typu erupcji. Wystarczają jednak do tego aby wpłynąć na zmiany ruchów mas powietrza w atmosferze i przyczyniają się do powstanie centrów niskiego ciśnienia w rejonach tych anomalii. Centra te usamodzielniają się następnie, na skutek większej dynamiki atmosfery, i staja się zalążkiem niżów atmosferycznych przeradzających się w tajfuny w miarę wzrostu koordynacji oscylacji materii budującej taki niż i powstania lokalnego centrum TG. I w ten sposób anomalie te produkują tajfuny jeden po drugim.

Oczywiście Tajfuny takie przyczyniają się też do przyspieszenia cyrkulacji wody w oceanie i zwiększają wymieszanie wód o rożnym charakterze oscylacji własnych. W dalszym etapie musi to prowadzić do tego że masy wodne, coraz intensywniej wymieszane, tracą jednolitość oscylacji własnych i dochodzi do przyrostu chaotycznych ruchów molekuł co prowadzi do bezpośredniego wzrostu temperatury wód powierzchniowych oceanu, a to zjawisko z kolei jest nam znane jako efekt El Niño. Tym samym szanse na pojawienie się El Niño na koniec roku wzrosły dramatycznie.


Tak na marginesie, na zamieszczonej grafice NOAA z ostatnich dni widać, że tendencje w kierunku wzrostu anomalnych temperatur u wybrzeży A. Południowej zaznaczają się coraz bardziej i potwierdzają moją tezę, sprzed paru miesięcy, o czekającym nas kolejnym El Niño.

Absurdy Mechaniki Kwantowej



Mechanika Kwantowa należy do najbardziej kontrowersyjnych wytworów współczesnej fizyki. Zasady tam propagowane każą się postronnemu obserwatorowi zastanawiać nad tym, czy „naukowcy“ propagujący tę teorię są jeszcze przy zdrowych zmysłach, czy też im już całkiem odbiło.

Pytanie takie jest jak najbardziej uzasadnione jeśli się weźmie pod uwagę to że fizycy całkiem na serio wierzą w takie bzdury jak Zasada Nieoznaczoności Heisenberga.

Co gorsza interpretują też swoje obserwacje tylko w aspekcie realności tego bzdurnego założenia nie dopuszczając żadnych innych, bardziej logicznych interpretacji.
Zgodnie z tą zasadą elektrony mogą teoretycznie, w tym samym momencie, znajdować się w wielu miejscach na raz i nie dają się traktować jako indywidualny byt.

W przypadku molekuł, budujące je atomy mogą dzielić się wspólnymi elektronami co prowadzi, zgodnie z tym wariackim założeniem, że mogą się one znajdować jednocześnie w wielu atomach naraz.

Międzynarodowy zespól badawczy pod przewodnictwem Arno Ehresmann'a z uniwersytetu w Kassel postanowili sprawdzić doświadczalnie realność tego założenia. W tym celu wykorzystano zjawisko emisji elektronów pod wpływem absorpcji fotonów. Jeśli foton o odpowiedniej energii zostanie przez atom zaabsorbowany to doprowadza to do emisji elektronu z badanej molekuły. W tym celu użyto promieniowanie  synchrotronowe. Parametry emitowanych  elektronów były następnie rejestrowane spektrometrem elektronowym, który pozwalał na określenie  zarówno trajektorii jak i ich energii.
Założenie było takie że jeśli elektron znajduje się jednocześnie w dwóch rożnych miejscach naraz, to zgodnie z teorią musi się zaznaczyć w spektrometrze charakterystyczny obraz interferencyjny. I taki też obraz uzyskano w tym eksperymencie, co autorów skłoniło do twierdzenia jakoby był to ultymatywny dowód na prawidłowości mechaniki kwantowej.

Oczywiście jest to kłamstwo. Doświadczenie to obala cały gmach mechaniki kwantowej doszczętnie i jest jednocześnie bezpośrednim dowodem na prawidłowość mojego modelu budowy materii. Aby to zrozumieć sięgnijmy do moich starszych artykułów w których podałem zasady budowy materii a szczególnie ten o budowie elektronu.

Zauważmy że w moim modelu elektron wprawdzie występuje jako podstawowa jednostka materii ale nie ma struktury jednolitej i składa się z dwóch wzajemnie połączonych elementarnych jednostek przestrzeni zwanych wakuolami. 


Ma to oczywiście kolosalne znaczenie dla przebiegu eksperymentów prowadzonych na elektronach, ponieważ wszelkiego typu oddziaływania na nie, manifestują się w rzeczywistości, nie poprzez oddziaływania z elektronem jako całość, ale poprzez oddziaływania z poszczególnymi jego komponentami, a więc z budującymi go wakuolami.

Oznacza to jednocześnie że rezultaty takiego oddziaływania nie mogą być identyczne co do kierunku i energii i że ich graficzny rozkład musi tworzyć obraz interferencyjny.
Za taką interpretacją przemawia jeszcze ten argument że autorzy pracy przyjęli arbitralnie że elektron z eksperymentu wprawdzie to nie wiadomo gdzie jest, ale za to musi się znajdować tylko w dwóch ściśle określonych miejscach. Oczywiście założenie takie jest niedopuszczalne, bo jeśli już i Zasada Nieoznaczoności jest prawdziwa, to nie może istnieć prawo zakazujące takiemu elektronowi przyjecie jednocześnie dowolnego położenia w dowolnej ilości miejsc.

Tak więc reasumując eksperyment ten potwierdza nie tylko moją teorię ale również daje wgląd w wewnętrzną budowę elektronu obalając tam samym mrzonki „naukowców”.


Z igły widły czyli przepis na klimatyczne ocieplenie



Już przed laty zwróciłem na to uwagę, że fizycy nie są w stanie pomierzyć obiektywnie temperatury. Również taki obiektywny pomiar temperatury atmosfery nie jest możliwy i to z fundamentalnych powodów. Co gorsza do tych problemów natury systemowej dochodzą również problemy wynikające z degeneracyjnych tendencji w środowisku naukowym infiltrowanym coraz bardziej przez służby specjalne, szczególnie amerykańskie oraz korupcji przez mafie finansowe z Waalstreet.

W przypadku opisanym w mojej notce z przed lat można jeszcze przyjąć, że błędy urzędu meteorologicznego Szwajcarii miały swoje podstawy w niezrozumieniu realiów fizycznych.

Inaczej ma się sprawa w przypadku afery którą udało się właśnie zdemaskować.
Tym razem sprawa ma jednoznacznie kryminalną wymowę i świadczy o tym, że środowisko klimatologów to zbiorowisko skorumpowanych przez koncerny naftowe sqr...now.

Autorzy artykułu podanego poniżej 


zajęli się analiza danych dotyczących wahań zasięgi lodu oceanicznego w rejonie Antarktydy. Już od dawna dane te wzbudzały niepokój tej bandy oszustów, ponieważ nie pasowały w żaden sposób do propagowanego wzrostu temperatury na świecie. Zamiast się kurczyć, zasięg lodu na Antarktydzie rósł z roku na rok osiągając ostatnio rekordowe wielkości. Nikt nie miał podejrzeń w tej sprawie ponieważ każdy zainteresowany widział na własne oczy że lodu przybywa. Jednak ten dynamiczny wzrost psuł cała legendę o klimatycznym ociepleniu a więc nie dziwota, że znaleźli się tacy którzy postanowili szukać błędów systemowych aby ratować tę legendę.

Autorom tej pracy udało się to bez specjalnych problemów, wystarczyło tylko spojrzeć na wykres różnicy zasięgu lodu na Antarktydzie liczoną za pomocą starego i nowego algorytmu przeliczającego dane uzyskane przez rożnego typu instrumenty pomiarowe z satelitów okołoziemskich.


Tak jak w przypadku wymiany termometrów w Szwajcarii, każda wymiana instrumentów pomiarowych prowadzi do odstępstw w wynikach pomiarów. Odstępstwa te są wynikiem zmieniających się warunków fizycznych w Układzie Słonecznym, czego naukowcy nie chcą zaakceptować, wierząc w durny sposób, że wszystko co sobie wymyślą jest stałe i niezmienne.
Aby te wyniku porównać ze sobą stosuje się specjalny algorytm w celu ich przeliczenia. Agentom CIA pracującym dla NASA udało się wmówić tym gamoniom klimatologom, że te algorytmy są absolutnie pewne. I znalazły one powszechne użycie w tego typu przeliczaniach danych a następnie wyniki trafiły oczywiście do innych organizacji jak np. IPCC aby zostać wykorzystane do szerzenia paniki w kolejnych sprawozdaniach dotyczących zmian klimatycznych.
Zasięg lodu morskiego na biegunach mierzony jest przy pomocy satelitów już od końca lat 70-tych. Od tego czasu dochodziło do wielokrotnej wymiany satelitów i każdy nowy satelita wyposażany był w coraz to „doskonalsze“ instrumenty pokładowe. Pech tylko że każdy z nich pokazywał co innego. Aby je jednak zaktualizować postanowiono przeliczać starsze dane według specjalnego algorytmu zwanego Bootstrap.

Od roku 2007 zdecydowano się na aktualizacje tego algorytmu w wyniku czego otrzymano nowe wyniki pomiarów przyrostu lodu. Tak zwani „naukowcy“ przyjęli za CIA że tak przeliczone dane są prawidłowe. Tymczasem Eisenmanowi i jego kolegom udało się wykazać (dziwne że jeszcze żyje ale pewnie niedługo straci prace), że jeśli przeliczyć wszystkie dane według starego i nowego algorytmu i następnie porównać je ze sobą to zauważymy, że zasięg lodu morskiego do roku 1991 jest zaniżany, natomiast młodsze dane są zawyżone. Rok 1991 nie jest przypadkowy, ponieważ w tym roku właśnie wprowadzono nową generację instrumentów pomiarowych, które dają kompletnie fałszywe pomiary.

Tym którzy wyskoczą zaraz z tym gównem jaka to nauka cacy i jak się sama koryguje chciałbym powiedzieć że autor tego artykułu to skończony gnojek. Oczywiscie sprawdził on ten algorytm również dla obszaru Arktyki i otrzymał wyniki odwrotne od tych dla Antarktydy a więc algorytm ten zaniża powierzchnie lodu morskiego na półkoli północnej. Ponieważ jest to sprzeczne z poleceniami CIA i gangsterów z Waalstreet to ta cześć wyników została utajniona co sugeruje czytelnikom że sytuacja w Arktyce jest gorsza niż najbardziej pesymistyczne prognozy. A więc zwykle propagandowe świństwo. Tymczasem w rzeczywistości algorytm ten zaniża powierzchnie lodu dramatycznie i dlatego w ciągu ostatnich 10 lat występują rekordowo niskie zalodzenia.

Dlaczego jednak się tak dzieje?

Odpowiedz jest w gruncie rzeczy banalna. Wyniki uzyskiwane z instrumentów pomiarowych są ze sobą nieporównywalne. One zmieniają się w ciągu roku tak jak zmienia się wartość Tła Grawitacyjnego, w miarę zmian pozycji Ziemi na jej orbicie. Ziemia znajduje się w peryhelium kiedy na półkoli północnej jest zima a więc wtedy kiedy wartość TG jest największa. Odpowiednio w aphelium to na półkoli południowej trwa zima czyli wtedy kiedy wartości TG są najniższe. Powoduje to różnice w odczytach instrumentów pomiarowych i to wszystkich ich typów. To jest właśnie przyczyna tego, że pomiary temperatury wykazują olbrzymie różnice pomiędzy obiema półkulami. Średnia temperatura na obu półkolach różni się o gigantyczne 2°C. Tylko z tego względu bo instrumenty mają inną skalę temperatur w zimie niż ma to miejsce w lecie. Innymi słowy całe te pomiary tych sqr....now klimatologów to jedno gigantyczne gówno.
Jakie wnioski musimy wyciągnąć z tej afery?

Oczywiście takie, że wszystkimi tymi danymi pomiarowymi klimaterroryści mogą sobie podetrzeć dupę. Ani zasięg lodu na Antarktydzie ani w Arktyce ani tym bardziej żadne pomiary średniej temperatury na Ziemi nie są warte funta kłaków. To tylko jeden wielki fake przy pomocy którego Amerykanie chcą wyciągnąć pieniądze z kieszeni ocipiałej przez te agenturę opinii światowej.

Translate

Szukaj na tym blogu